VAR,也即Vector autoregression model,中文名字叫做向量自迴歸模型。簡單來說,就是用模型刻畫向量之間的數量關係。這就引出了VAR的適用前提:
①能進行迴歸,自然要求資料平穩,否則會發生偽迴歸;
②迴歸在向量之間發生,向量之間自然需要存在一定的關係(統計意義上的因果關係),那麼就要求透過格蘭傑因果檢驗。而格蘭傑因果檢驗的前提要求資料平穩,因此要先進行平穩性檢驗。 所以僅僅從VAR的定義來看,就可以確定的是,要先進行平穩性檢驗,資料平穩(不平穩進行差分)再進行格蘭傑因果檢驗。 當然,格蘭傑因果檢驗同時要求判斷滯後階數,滯後階數的判斷就比較見仁見智了,有些做法甚至直接做出初始的VAR進行判斷(如果事先認為因果檢驗是成立的,這樣做也未嘗不可)。 那麼做出來的VAR模型是不是就好了呢?也不全是。因為在時間序列模型中,存在協整這樣一個調整長期均衡關係的概念,轉換到VAR中來,如果資料本身不平穩,但卻又是同階單整,那麼透過建立誤差修正模型(ECM),就可以使得模型包含長期均衡的資訊,從而完善模型。只不過ECM在VAR中改名換姓,改叫向量誤差修正模型(VEC)了。 模型的構造已經基本完成,簡單總結一下就是:首先進行平穩性檢驗。如果平穩,則進行格蘭傑因果檢驗;如果不平穩,差分後平穩,則對差分資料進行格蘭傑因果檢驗,同時為了完善模型,如果資料是同階單整的,則進行協整檢驗(此時協整和格蘭傑互不影響,因此可以互換順序)。 在模型構建完成之後,如何評判模型的優劣呢?用AR根對VAR模型的平穩性進行判斷,這也就是模型的最後一步。
VAR,也即Vector autoregression model,中文名字叫做向量自迴歸模型。簡單來說,就是用模型刻畫向量之間的數量關係。這就引出了VAR的適用前提:
①能進行迴歸,自然要求資料平穩,否則會發生偽迴歸;
②迴歸在向量之間發生,向量之間自然需要存在一定的關係(統計意義上的因果關係),那麼就要求透過格蘭傑因果檢驗。而格蘭傑因果檢驗的前提要求資料平穩,因此要先進行平穩性檢驗。 所以僅僅從VAR的定義來看,就可以確定的是,要先進行平穩性檢驗,資料平穩(不平穩進行差分)再進行格蘭傑因果檢驗。 當然,格蘭傑因果檢驗同時要求判斷滯後階數,滯後階數的判斷就比較見仁見智了,有些做法甚至直接做出初始的VAR進行判斷(如果事先認為因果檢驗是成立的,這樣做也未嘗不可)。 那麼做出來的VAR模型是不是就好了呢?也不全是。因為在時間序列模型中,存在協整這樣一個調整長期均衡關係的概念,轉換到VAR中來,如果資料本身不平穩,但卻又是同階單整,那麼透過建立誤差修正模型(ECM),就可以使得模型包含長期均衡的資訊,從而完善模型。只不過ECM在VAR中改名換姓,改叫向量誤差修正模型(VEC)了。 模型的構造已經基本完成,簡單總結一下就是:首先進行平穩性檢驗。如果平穩,則進行格蘭傑因果檢驗;如果不平穩,差分後平穩,則對差分資料進行格蘭傑因果檢驗,同時為了完善模型,如果資料是同階單整的,則進行協整檢驗(此時協整和格蘭傑互不影響,因此可以互換順序)。 在模型構建完成之後,如何評判模型的優劣呢?用AR根對VAR模型的平穩性進行判斷,這也就是模型的最後一步。