回答(1)
最佳
黄石2024-05-15 10:22:48
同学你好。Gradient descent algorithm的目的是为了找到最合适的参数,令模型的拟合程度最好(详见另一条回答下,我们通常最小化的是均方误差mean squared error)。但是模型的拟合程度也不能过高,不然就会出现过拟合。所以,在训练集数据中随着拟合程度的上升需要有一个所谓的“termination condition”,也就是终止条件。这个其实不同的算法不同的软件各有不同,一个比较主流的方法是将Gradient descent algorithm放在训练集和验证集中同时开展。如果验证集中拟合程度也在上升,那就继续优化;如果验证集中拟合程度下降了,那就停止优化。这个了解一下就可以了,稍微有些超纲。
- 评论(0)
- 追问(0)


评论
0/1000
追答
0/1000
+上传图片