-2023-04-22 00:35:57
老师,请讲解一下官网“Jain Vignette”这一题,谢谢。
回答(2)
爱吃草莓的葡萄2023-04-23 13:01:51
同学你好。模型预测输出被证明是非线性的,它非常适合训练集,并且不太可能很好地推广到新数据,这被称为过拟合,刻意的将两类数据分为两队。
B不正确。一个投入不足的模型将显示出更线性的输出,预期结果和实际结果之间存在多个错误分类。
C不正确。具有“良好拟合”的模型将显示出更线性的输出,在没有定义模式的预期结果和实际结果之间存在一些错误分类。
同学如果回答解决了您的疑惑,请给回答给予采纳。祝早日持证!
- 评论(0)
- 追问(5)
- 追问
-
Alvis老师,谢谢您的解答。只是,能否用您自己的话,深入浅出的讲解这一题,而非翻译官网讲解呢,我就是没明白官网的解释,才在这里提问的哟。因此,我有一下两个追问,有劳逐一解答哈:
(1)请老师深入浅出地重新讲解一下这题。(包括对应知识点和各选项)
(2)为什么非线性就更适合training data呢?对应本章的只是出处在哪里呢?
有劳了,谢谢。
- 追答
-
同学你好。面对该散点图划分,你想到使用什么方法划分。首先肯定是直线对吧,利用直线,将两种点划分到两边,中间可能存在绿点中有少许红点,红中有少许绿点,这是正常的,只要我们能将大多数划在一边就很好,达到好的拟合目标。这一点可以借鉴回归的思想,即散点在回归线周围紧密围绕。
如果我不使用直线,例如像图中使用折现,我可以将绿的完全划在一边,将红的完全划在一边,这样达到了划分的目的,但是这种划分能够运用到样本外的预测吗,显然不能,因为这种划分太刻意了。刻意将两组数据完全分开,这种规则不一定适用于除此之外的数据,表明过拟合了。
如果我们使用随便什么线,例如直线,换个方向,从西北到东南走向划分数据,这就可能欠拟合了,因为绿点两边都有,而且数量差不多,相当于这种划分没有什么用,在样本外预测也不会有什么好的结果。
- 追问
-
谢谢Alvis老师详细、耐心的讲解。对于这部分(直线线性切割分类)我大致理解,有待进一步消化。我现在理解是一条直线切割分类是最好的(如SVM)。如果刻意折线分类,容易造成过拟合;反之,如果任意线随意划分,则容易造成欠拟合。
根据目前的理解也连同理解了为什么监督式学习中的支持向量(SVM)属于linearity。只是,KNN的划分非直线切割(如下截图),我还是有点不懂为什么KNN属于linearity,希望能弄明白消化这一部分哈,谢谢。
- 追答
-
同学你好。KNN被用来将一个新的观察值根据相似性划分到已分好的类别中,原有训练集数据是已分好类的,如下图。
- 追问
-
Alvis老师,您好。理解KNN属于supervised ML,因为是贴标签分类的。只是,我不明白为什么属于linearity?
Vincent2023-04-27 10:31:53
你好
线性分类器就是看其能形成一条近似线性的决策边界,比如SVM就是线性分类器,因为算法的目的就是找到一条清晰的线性边界。
KNN也是,把所有样本数据点分类后,能得到一条近似线性的分类边界。从实证看,随着K的增大,其线性分类边界会越加光滑。
- 评论(0)
- 追问(2)
- 追问
-
谢谢Vincent老师。请问可以就”KNN是把所有样本数据点分类后,能得到一条近似线性的分类边界“画一个图例吗?我还是没理解。我理解的是这些贴标签的分类点是被圈起来的,进圈的点数(data)是看k等于多少,至于linearity,我没理解,有劳再讲解一下,谢谢。
- 追答
-
你好
你看这个图,随着K增大,会更加趋向线性
评论
0/1000
追答
0/1000
+上传图片



