導航:首頁 > 解決方法 > 兩種解決共線性的方法

兩種解決共線性的方法

發布時間:2022-09-25 15:15:14

① 多重共線性的解決方法

(1)排除引起共線性的變數
找出引起多重共線性的解釋變數,將它排除出去,以逐步回歸法得到最廣泛的應用。
(2)差分法
時間序列數據、線性模型:將原模型變換為差分模型。
(3)減小參數估計量的方差:嶺回歸法(Ridge Regression)。

② 多重共線性問題的幾種解決方法

多重共線性問題的幾種解決方法

在多元線性回歸模型經典假設中,其重要假定之一是回歸模型的解釋變數之間不存在線性關系,也就是說,解釋變數X1,X2,……,Xk中的任何一個都不能是其他解釋變數的線性組合。如果違背這一假定,即線性回歸模型中某一個解釋變數與其他解釋變數間存在線性關系,就稱線性回歸模型中存在多重共線性。多重共線性違背了解釋變數間不相關的古典假設,將給普通最小二乘法帶來嚴重後果。
這里,我們總結了8個處理多重共線性問題的可用方法,大家在遇到多重共線性問題時可作參考:
1、保留重要解釋變數,去掉次要或可替代解釋變數
2、用相對數變數替代絕對數變數
3、差分法
4、逐步回歸分析
5、主成份分析
6、偏最小二乘回歸
7、嶺回歸
8、增加樣本容量
這次我們主要研究逐步回歸分析方法如何處理多重共線性問題的。
逐步回歸分析方法的基本思想是通過相關系數r 、擬合優度R2 和標准誤差三個方面綜合判斷一系列回歸方程的優劣,從而得到最優回歸方程。具體方法分為兩步:
第一步,先將被解釋變數y對每個解釋變數作簡單回歸:
對每一個回歸方程進行統計檢驗分析(相關系數r 、擬合優度R2 和標准誤差),並結合經濟理論分析選出最優回歸方程,也稱為基本回歸方程。
第二步,將其他解釋變數逐一引入到基本回歸方程中,建立一系列回歸方程,根據每個新加的解釋變數的標准差和復相關系數來考察其對每個回歸系數的影響,一般根據如下標准進行分類判別:
1.如果新引進的解釋變數使R2 得到提高,而其他參數回歸系數在統計上和經濟理論上仍然合理,則認為這個新引入的變數對回歸模型是有利的,可以作為解釋變數予以保留。
2.如果新引進的解釋變數對R2 改進不明顯,對其他回歸系數也沒有多大影響,則不必保留在回歸模型中。
3.如果新引進的解釋變數不僅改變了R2 ,而且對其他回歸系數的數值或符號具有明顯影響,則認為該解釋變數為不利變數,引進後會使回歸模型出現多重共線性問題。不利變數未必是多餘的,如果它可能對被解釋變數是不可缺少的,則不能簡單舍棄,而是應研究改善模型的形式,尋找更符合實際的模型,重新進行估計。如果通過檢驗證明回歸模型存在明顯線性相關的兩個解釋變數中的其中一個可以被另一個很好地解釋,則可略去其中對被解釋變數影響較小的那個變數,模型中保留影響較大的那個變數。
下邊我們通過實例來說明逐步回歸分析方法在解決多重共線性問題上的具體應用過程。
具體實例
例1 設某地10年間有關服裝消費、可支配收入、流動資產、服裝類物價指數、總物價指數的調查數據如表1,請建立需求函數模型。
表1 服裝消費及相關變數調查數據
年份
服裝開支
C
(百萬元)
可支配收入
Y
(百萬元)
流動資產
L
(百萬元)
服裝類物價指數Pc
1992年=100
總物價指數
P0
1992年=100
1988
8.4
82.9
17.1
92
94
1989
9.6
88.0
21.3
93
96
1990
10.4
99.9
25.1
96
97
1991
11.4
105.3
29.0
94
97
1992
12.2
117.7
34.0
100
100
1993
14.2
131.0
40.0
101
101
1994
15.8
148.2
44.0
105
104
1995
17.9
161.8
49.0
112
109
1996
19.3
174.2
51.0
112
111
1997
20.8
184.7
53.0
112
111
(1)設對服裝的需求函數為

用最小二乘法估計得估計模型:

模型的檢驗量得分,R2=0.998,D·W=3.383,F=626.4634
R2接近1,說明該回歸模型與原始數據擬合得很好。由得出拒絕零假設,認為服裝支出與解釋變數間存在顯著關系。
(2)求各解釋變數的基本相關系數

上述基本相關系數表明解釋變數間高度相關,也就是存在較嚴重的多重共線性。
(3)為檢驗多重共線性的影響,作如下簡單回歸:

各方程下邊括弧內的數字分別表示的是對應解釋變數系數的t檢驗值。
觀察以上四個方程,根據經濟理論和統計檢驗(t檢驗值=41.937最大,擬合優度也最高),收入Y是最重要的解釋變數,從而得出最優簡單回歸方程。
(4)將其餘變數逐個引入,計算結果如下表2:
表2服裝消費模型的估計
結果分析:
①在最優簡單回歸方程中引入變數Pc,使R2由0.9955提高到0.9957;根據經濟理論分析,正號,負號是合理的。然而t檢驗不顯著(),而從經濟理論分析,Pc應該是重要因素。雖然Y與Pc高度相關,但並不影響收入Y回歸系數的顯著性和穩定性。依照第1條判別標准,Pc可能是「有利變數」,暫時給予保留。
②模型中引入變數L ,R2 由0.9957提高到0.9959, 值略有提高。一方面,雖然Y 與L ,Pc與L 均高度相關,但是L 的引入對回歸系數、的影響不大(其中的值由0.1257變為0.1387,值由-0.0361變為-0.0345,變化很小);另一方面,根據經濟理論的分析,L與服裝支出C之間應該是正相關關系,即的符號應該為正號而非負號,依照第2條判別標准,解釋變數L不必保留在模型中。
③捨去變數L ,加入變數P0 ,使R2 由0.9957提高到0.9980,R2 值改進較大。、、均顯著(這三個回歸系數的t檢驗值絕對值均大於),從經濟意義上看也是合理的(服裝支出C與Y,P0之間呈正相關,而與服裝價格Pc之間呈負相關關系)。根據判別標准第1條,可以認為Pc、P0皆為「有利變數」,給予保留。
④最後再引入變數L ,此時R2 =0.9980沒有增加(或幾乎沒有增加),新引入變數對其他三個解釋變數的參數系數也沒有產生多大影響,可以確定L 是多餘變數,根據判別標准第2條,解釋變數L 不必保留在模型中。
因此我們得到如下結論:回歸模型為最優模型。
通過以上案例的分析,我們從理論和實際問題兩方面具體了解了逐步回歸分析是如何對多重共線性問題進行處理的。事實上,一般統計軟體如SPSS,在回歸模型的窗口中都會提供變數逐步進入的選項,勾選後實際上就是選擇了運用逐步回歸的思想來構建回歸模型。運用SPSS軟體不需要我們懂得其背後的運行規律,然而作為分析師,了解並理解模型背後的理論知識,將更有助於我們理解模型、解釋結論背後的內在含義,從而達到更好地分析問題的目的。

③ spss如何消除多重共線性

SPSS用逐步回歸分析可以消除多重共線性。

1、用被解釋變數對每一個所考慮的解釋變數做簡單回歸。並給解釋變數的重要性按可決系數大小排序。

2、以對被解釋變數貢獻最大的解釋變數所對應的回歸方程為基礎,按解釋變數重要性大小為順序逐個引入其餘的解釋變數。這個過程會出現3種情形。

(1)若新變數的引入改進了R平方,且回歸參數的t檢驗在統計上也是顯著的,則該變數在模型中予以保留。

(2)若新變數的引入未能改進R平方,且對其他回歸參數估計值的t檢驗也未帶來什麼影響,則認為該變數是多餘的,應該舍棄。

(3)若新變數的引入未能改進R平方,且顯著地影響了其他回歸參數估計值的符號與數值,同時本身的回歸參數也通不過t檢驗,這說明出現了嚴重的多重共線性,舍棄該變數。

(3)兩種解決共線性的方法擴展閱讀:

消除多重共線性的其他方法:

1、 直接合並解釋變數 

當模型中存在多重共線性時,在不失去實際意義的前提下,可以把有關的解釋變數直接合並,從而降低或消除多重共線性。

2 、利用已知信息合並解釋變數 

通過理論及對實際問題的深刻理解,對發生多重共線性的解釋變數引入附加條件從而減弱或消除多重共線性。

3、增加樣本容量或重新抽取樣本 

這種方法主要適用於那些由測量誤差而引起的多重共線性。當重新抽取樣本時,克服了測量誤差,自然也消除了多重共線性。另外,增加樣本容量也可以減弱多重共線性的程度。

④ 在線性回歸分析中如何解決多重共線性的問題

對多重共線性的兩點認識:
①在實際中,多重共線性是一個程度問題而不是有無的問題,有意義的區分不在於有和無,而在於多重共線性的程度。②多重共線性是針對固定的解釋變數而言,是一種樣本的特徵,而非總體的特徵。
消除多重共線性的方法:
1.增加樣本容量
2.利用先驗信息改變
3.刪除不必要的解釋變數:參數的約束形式
4.其它方法:逐步回歸法,嶺回歸(ridge
regression),主成分分析(principal
components
).
這些方法spss都可以做的,你在數據分析的子菜單下可以找到相應的做法。
刪除不必要的方法的時候,最好使用一下逐步回歸法,這樣比較科學一點。
主成分分析的方法使用比較簡單科學,本人介意用該方法。

⑤ SPSSAU具有共線性怎麼

如果出現多重共線性問題,一般可有3種解決辦法,一是使用spssau逐步回歸分析(讓模型自動剔除掉共線性過高項);二是使用spssau嶺回歸分析(使用數學方法解決共線性問題),三是進行spssau相關分析,手工移出相關性非常高的分析項(通過主觀分析解決),然後再做線性回歸分析。

⑥ 在線性回歸分析中如何解決多重共線性的問題

對多重共線性的兩點認識:
①在實際中,多重共線性是一個程度問題而不是有無的問題,有意義的區分不在於有和無,而在於多重共線性的程度。②多重共線性是針對固定的解釋變數而言,是一種樣本的特徵,而非總體的特徵。
消除多重共線性的方法:
1.增加樣本容量
2.利用先驗信息改變
3.刪除不必要的解釋變數:參數的約束形式
4.其它方法:逐步回歸法,嶺回歸(ridge regression),主成分分析(principal components ).
這些方法spss都可以做的,你在數據分析的子菜單下可以找到相應的做法。
刪除不必要的方法的時候,最好使用一下逐步回歸法,這樣比較科學一點。
主成分分析的方法使用比較簡單科學,本人介意用該方法。

⑦ 如何克服和處理多重共線性

在多元線性回歸模型經典假設中,其重要假定之一是回歸模型的解釋變數之間不存在線性關系,也就是說,解釋變數X1,X2,……,Xk中的任何一個都不能是其他解釋變數的線性組合。如果違背這一假定,即線性回歸模型中某一個解釋變數與其他解釋變數間存在線性關系,就稱線性回歸模型中存在多重共線性。多重共線性違背了解釋變數間不相關的古典假設,將給普通最小二乘法帶來嚴重後果。

所謂多重共線性是指線性回歸模型的解釋變數之間由於存在精確相關關系或者高度相關關系而使模型評估失真或者不準確。這里,我們總結了8個處理多重共線性問題的可用方法,大家在遇到多重共線性問題時可作參考:

1、保留重要解釋變數,去掉次要或可替代解釋變數

自變數之間存在共線性,說明自變數所提供的信息是重疊的,可以刪除不重要的自變數減少重復信息。但從模型中刪去自變數時應該注意:從實際經濟分析確定為相對不重要並從偏相關系數檢驗證實為共線性原因的那些變數中刪除。如果刪除不當,會產生模型設定誤差,造成參數估計嚴重有偏的後果。

⑧ 怎麼解決建模中共線性,不同模型針對的數據類型

共線性有兩種解決方法
一種是通過嶺回歸
一種是通過主成份分析。
通常情況下,推薦使用主成份分析

⑨ 多重共線性解決方法是什麼

1、排除引起共線性的變數:

找出引起多重共線性的解釋變數,將它排除出去,以逐步回歸法得到最廣泛的應用。

2、差分法:

時間序列數據、線性模型:將原模型變換為差分模型。

3、減小參數估計量的方差:

嶺回歸法(Ridge Regression)。

4、簡單相關系數檢驗法。

(9)兩種解決共線性的方法擴展閱讀:

相關影響

(1)完全共線性下參數估計量不存在

(2)近似共線性下OLS估計量非有效

(3)參數估計量經濟含義不合理

(4)變數的顯著性檢驗失去意義,可能將重要的解釋變數排除在模型之外

(5)模型的預測功能失效。變大的方差容易使區間預測的「區間」變大,使預測失去意義。

需要注意:即使出現較高程度的多重共線性,OLS估計量仍具有線性性等良好的統計性質。但是OLS法在統計推斷上無法給出真正有用的信息。

閱讀全文

與兩種解決共線性的方法相關的資料

熱點內容
花椒粉的及食用方法 瀏覽:129
手上濕疹水泡快速消退方法 瀏覽:933
如何做風雞的製作方法 瀏覽:823
如何製作蜂蜜面膜的方法 瀏覽:731
電卷發棒使用方法 瀏覽:467
酵素減肥的食用方法 瀏覽:406
癲癇病的治療方法究竟都有哪些 瀏覽:592
水空調省氣安裝方法 瀏覽:671
消滅鴿子的最佳方法游戲 瀏覽:354
水族箱孵化盒安裝方法 瀏覽:584
寫智能手機的說明方法的句子 瀏覽:72
斷橋鋁密封條安裝方法 瀏覽:80
椰子鞋如何系鞋帶簡單方法 瀏覽:311
快速溶解橡膠漆的方法 瀏覽:260
皮蛋盤球訓練方法 瀏覽:983
系統工藝方塊圖的圖示方法如何 瀏覽:541
庤瘡的治療方法 瀏覽:374
奧特之父獲得方法手機版 瀏覽:731
去雀斑什麼方法比較好 瀏覽:319
內濕如何治療最快方法 瀏覽:634