是同学2021-07-02 00:20:51
老师想问下,这里求b1_cap和b0_cap时,是怎么用到minimize the square residual这个条件的? 老师推导的时候感觉没有直接体现出minimize the square residual这个条件。
回答(1)
Jenny2021-07-02 17:32:23
同学你好,简单来说,你可以理解为,模型内部会进行非常多次的模拟和计算,同时也会得到很多组的系数(b0 cap 和b1 cap),最终选择一组系数使得εi^2或者说(Yi-(b0 cap +b1 cap*Xi))^2最小,那么这组系数就是最终的系数估计量,也就是我们在回归结果,比如ANOVA table里面看到的那组系数。
- 评论(0)
- 追问(3)
- 追问
-
多次模拟是说取多个样本算多个b0cap和b1cap出来么?因为按公式算的话,一个样本就只能算出来一个b0cap和b1cap吧?
- 追问
-
原版书这里画黄线的这句话,是在说前面这两点性质体现了minimize the square residual么? 正好老师推导b1_cap和b0_cap的时候分别用到了这两点性质,是不是这就是用到minimize the square residual这个条件的地方啊
- 追答
-
后面那个问题可以这样理解的。上面那个多次模拟可能会让你有点误解,相对简单线性回归来说,一个样本就可以算出一个截距和斜率;而多元线性回归中,就没有这么直接,会用到矩阵,那么对截距和斜率求解就会很麻烦,其中一个方法就是梯度下降法,梯度的本意是一个向量(矢量),表示某一函数(该函数一般是二元及以上的)在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。当函数是一元函数时,梯度就是导数(一元函数的截距和斜率的公式就是通过偏导函数求得的,大多数线性回归的书中都有讲解,有兴趣可以看一下)。在梯度下降法中,需要我们先给参数(比如截距和斜率)赋一个预设值,然后再一点一点的修改参数(在这个过程中会产生很多截距和斜率的值),直到关于该参数的函数(比如误差项)取最小值时,最终确定斜率和截距的值。


评论
0/1000
追答
0/1000
+上传图片