天堂之歌

听歌而来,送我踏青云〜

您现在的坐在位置:首页>智汇问答>CFA二级

汪同学2021-08-06 23:14:30

03.12 是否在CFA语境下认为data selection 就有防止 overfitting的功能,因为其实一般overfitting 通过 train/test/validate 分割 10-fold, 正则,和列采样、还有随机关闭一些node来实现。。,data selection...有点 非常规,老师能帮忙指出下,data selection这些,在CFA里面的作用吗。。有PPT哪有个表啥的吗?

查看试题

回答(1)

Essie2021-08-09 11:02:04

同学你好,你说的这些避免overfitting在cfa里面也都是提到过的,是正确的,没有任何问题。

在CFA中,对于feature selection这边它只是一个在数据探索下广泛的一种说法。数据探索这一步骤包括探索性数据分析(EDA),特征选择和特征工程。

特征选择是指在EDA发现数据的相关模式之后,识别和删除不需要的、不相关的和冗余的特性。

特征选择是一个过程,在这个过程中,只从数据集中选择相关的特征进行机器学习的模型训练,例如PCA。它的目的就是选择较少的特征可以降低机器学习模型的复杂性和训练时间。

如果我的回答有帮助到您,请【点赞】支持一下我们,祝您考试顺利,加油 :)

  • 评论(0
  • 追问(2
评论
追问
是我理解data selection 是可以降低复杂度和缩减训练时间,但是是否CFA也认为他可以防止over fitting? 因为这个功能在实际操作中可能并没有这样的解读。或者金程是否有类似的表格,归纳一下CFA框架下,常见的一些 data wragling 和 training 下面的技巧所对应的作用。
追答
在CFA的思路和逻辑就是:特征选择会排除冗余的不相关的特性,从而降低模型的复杂程度,也就是会降低overfitting。CFA目前对ML,big data都是很基本的概念,我们这边也没有特别详细的对比表格,sorry : ( 掌握ppt里的概念就能很好的应对考试啦。

精品推荐

评论

0/1000

追答

0/1000

+上传图片

    400-700-9596
    (每日9:00-21:00免长途费 )

    ©2026金程网校保留所有权利

    X

    注册金程网校

    验证码

    同意金程的《用户协议》
    直接登录:

    已有账号登录