回答(1)
黄石2023-11-06 17:13:33
同学你好。
A和B就是课上总结的,MA模型的ACF是cutoff,PACF是gradual decay;AR则是反过来,ACF是gradual decay,PACF是cutoff。这个的原因需要通过推导来证明,建议同学记住即可。给同学一个记忆的思路:假设AR(1)过程,y(t)服从y(t) = a + b*y(t - 1) + e(t)。若对这一序列跑一个AR(2)模型,y(t) = a + b*y(t - 1) + c*y(t - 2) + e(t),那么c在统计意义上不会显著,因为本身AR(1)就可以写成y(t) = a + b*y(t - 1) + 0*y(t - 2) + e(t)。而PACF就是通过这样跑回归获得的,因此AR过程的PACF是cutoff。而ACF与PACF相反,所以AR过程的ACF是gradual decay;MA又与AR相反。
对于C,memoryness指的是过去的y和当前的y是否还存在关联。如果非常久远的y,y(t - h)(h很大),依然与当前的y(t)有关联,那么就称为long memory;反之则称为short memory。过去的y和当前的y之间的关联由autocorrelation衡量。由于AR过程的ACF是gradual decay,所以非常久远的y也与当前的y有关联;而MA过程的ACF是cutoff,所以没有关联。因此,AR过程是long memory,MA过程是short memory。
对于D,AR过程在某些情况下是协方差平稳的。例:AR(1),y(t) = a + b*y(t - 1) + e(t),则|b| < 1时序列是协方差平稳的。
- 评论(0)
- 追问(0)
评论
0/1000
追答
0/1000
+上传图片
