epoch2024-03-17 18:22:21
老师请问这里为什么是大K low variance 圈大不是有更大的波动率吗?这里variance怎么理解?
回答(1)
黄石2024-03-20 11:19:27
同学你好。对于K-nearest neighbors,一个比较反直觉的结论是K越大,模型越简单,越欠拟合,故bias高,variance低。举一个极端的例子,如果K = N(N为训练样本的个数),那么无论输入的实例是什么,这个算法都会简单地预测它属于在训练实例中最多的那个类别。换句话说,这相当于我们根本就没有训练模型,直接拿训练数据统计了一下各个数据的类别,找出个数最多的那个类别,直接用这个类别给所有输入的实例进行分类。
- 评论(0)
- 追问(0)
评论
0/1000
追答
0/1000
+上传图片

