导航:首页 > 解决方法 > 两种解决共线性的方法

两种解决共线性的方法

发布时间:2022-09-25 15:15:14

① 多重共线性的解决方法

(1)排除引起共线性的变量
找出引起多重共线性的解释变量,将它排除出去,以逐步回归法得到最广泛的应用。
(2)差分法
时间序列数据、线性模型:将原模型变换为差分模型。
(3)减小参数估计量的方差:岭回归法(Ridge Regression)。

② 多重共线性问题的几种解决方法

多重共线性问题的几种解决方法

在多元线性回归模型经典假设中,其重要假定之一是回归模型的解释变量之间不存在线性关系,也就是说,解释变量X1,X2,……,Xk中的任何一个都不能是其他解释变量的线性组合。如果违背这一假定,即线性回归模型中某一个解释变量与其他解释变量间存在线性关系,就称线性回归模型中存在多重共线性。多重共线性违背了解释变量间不相关的古典假设,将给普通最小二乘法带来严重后果。
这里,我们总结了8个处理多重共线性问题的可用方法,大家在遇到多重共线性问题时可作参考:
1、保留重要解释变量,去掉次要或可替代解释变量
2、用相对数变量替代绝对数变量
3、差分法
4、逐步回归分析
5、主成份分析
6、偏最小二乘回归
7、岭回归
8、增加样本容量
这次我们主要研究逐步回归分析方法如何处理多重共线性问题的。
逐步回归分析方法的基本思想是通过相关系数r 、拟合优度R2 和标准误差三个方面综合判断一系列回归方程的优劣,从而得到最优回归方程。具体方法分为两步:
第一步,先将被解释变量y对每个解释变量作简单回归:
对每一个回归方程进行统计检验分析(相关系数r 、拟合优度R2 和标准误差),并结合经济理论分析选出最优回归方程,也称为基本回归方程。
第二步,将其他解释变量逐一引入到基本回归方程中,建立一系列回归方程,根据每个新加的解释变量的标准差和复相关系数来考察其对每个回归系数的影响,一般根据如下标准进行分类判别:
1.如果新引进的解释变量使R2 得到提高,而其他参数回归系数在统计上和经济理论上仍然合理,则认为这个新引入的变量对回归模型是有利的,可以作为解释变量予以保留。
2.如果新引进的解释变量对R2 改进不明显,对其他回归系数也没有多大影响,则不必保留在回归模型中。
3.如果新引进的解释变量不仅改变了R2 ,而且对其他回归系数的数值或符号具有明显影响,则认为该解释变量为不利变量,引进后会使回归模型出现多重共线性问题。不利变量未必是多余的,如果它可能对被解释变量是不可缺少的,则不能简单舍弃,而是应研究改善模型的形式,寻找更符合实际的模型,重新进行估计。如果通过检验证明回归模型存在明显线性相关的两个解释变量中的其中一个可以被另一个很好地解释,则可略去其中对被解释变量影响较小的那个变量,模型中保留影响较大的那个变量。
下边我们通过实例来说明逐步回归分析方法在解决多重共线性问题上的具体应用过程。
具体实例
例1 设某地10年间有关服装消费、可支配收入、流动资产、服装类物价指数、总物价指数的调查数据如表1,请建立需求函数模型。
表1 服装消费及相关变量调查数据
年份
服装开支
C
(百万元)
可支配收入
Y
(百万元)
流动资产
L
(百万元)
服装类物价指数Pc
1992年=100
总物价指数
P0
1992年=100
1988
8.4
82.9
17.1
92
94
1989
9.6
88.0
21.3
93
96
1990
10.4
99.9
25.1
96
97
1991
11.4
105.3
29.0
94
97
1992
12.2
117.7
34.0
100
100
1993
14.2
131.0
40.0
101
101
1994
15.8
148.2
44.0
105
104
1995
17.9
161.8
49.0
112
109
1996
19.3
174.2
51.0
112
111
1997
20.8
184.7
53.0
112
111
(1)设对服装的需求函数为

用最小二乘法估计得估计模型:

模型的检验量得分,R2=0.998,D·W=3.383,F=626.4634
R2接近1,说明该回归模型与原始数据拟合得很好。由得出拒绝零假设,认为服装支出与解释变量间存在显着关系。
(2)求各解释变量的基本相关系数

上述基本相关系数表明解释变量间高度相关,也就是存在较严重的多重共线性。
(3)为检验多重共线性的影响,作如下简单回归:

各方程下边括号内的数字分别表示的是对应解释变量系数的t检验值。
观察以上四个方程,根据经济理论和统计检验(t检验值=41.937最大,拟合优度也最高),收入Y是最重要的解释变量,从而得出最优简单回归方程。
(4)将其余变量逐个引入,计算结果如下表2:
表2服装消费模型的估计
结果分析:
①在最优简单回归方程中引入变量Pc,使R2由0.9955提高到0.9957;根据经济理论分析,正号,负号是合理的。然而t检验不显着(),而从经济理论分析,Pc应该是重要因素。虽然Y与Pc高度相关,但并不影响收入Y回归系数的显着性和稳定性。依照第1条判别标准,Pc可能是“有利变量”,暂时给予保留。
②模型中引入变量L ,R2 由0.9957提高到0.9959, 值略有提高。一方面,虽然Y 与L ,Pc与L 均高度相关,但是L 的引入对回归系数、的影响不大(其中的值由0.1257变为0.1387,值由-0.0361变为-0.0345,变化很小);另一方面,根据经济理论的分析,L与服装支出C之间应该是正相关关系,即的符号应该为正号而非负号,依照第2条判别标准,解释变量L不必保留在模型中。
③舍去变量L ,加入变量P0 ,使R2 由0.9957提高到0.9980,R2 值改进较大。、、均显着(这三个回归系数的t检验值绝对值均大于),从经济意义上看也是合理的(服装支出C与Y,P0之间呈正相关,而与服装价格Pc之间呈负相关关系)。根据判别标准第1条,可以认为Pc、P0皆为“有利变量”,给予保留。
④最后再引入变量L ,此时R2 =0.9980没有增加(或几乎没有增加),新引入变量对其他三个解释变量的参数系数也没有产生多大影响,可以确定L 是多余变量,根据判别标准第2条,解释变量L 不必保留在模型中。
因此我们得到如下结论:回归模型为最优模型。
通过以上案例的分析,我们从理论和实际问题两方面具体了解了逐步回归分析是如何对多重共线性问题进行处理的。事实上,一般统计软件如SPSS,在回归模型的窗口中都会提供变量逐步进入的选项,勾选后实际上就是选择了运用逐步回归的思想来构建回归模型。运用SPSS软件不需要我们懂得其背后的运行规律,然而作为分析师,了解并理解模型背后的理论知识,将更有助于我们理解模型、解释结论背后的内在含义,从而达到更好地分析问题的目的。

③ spss如何消除多重共线性

SPSS用逐步回归分析可以消除多重共线性。

1、用被解释变量对每一个所考虑的解释变量做简单回归。并给解释变量的重要性按可决系数大小排序。

2、以对被解释变量贡献最大的解释变量所对应的回归方程为基础,按解释变量重要性大小为顺序逐个引入其余的解释变量。这个过程会出现3种情形。

(1)若新变量的引入改进了R平方,且回归参数的t检验在统计上也是显着的,则该变量在模型中予以保留。

(2)若新变量的引入未能改进R平方,且对其他回归参数估计值的t检验也未带来什么影响,则认为该变量是多余的,应该舍弃。

(3)若新变量的引入未能改进R平方,且显着地影响了其他回归参数估计值的符号与数值,同时本身的回归参数也通不过t检验,这说明出现了严重的多重共线性,舍弃该变量。

(3)两种解决共线性的方法扩展阅读:

消除多重共线性的其他方法:

1、 直接合并解释变量 

当模型中存在多重共线性时,在不失去实际意义的前提下,可以把有关的解释变量直接合并,从而降低或消除多重共线性。

2 、利用已知信息合并解释变量 

通过理论及对实际问题的深刻理解,对发生多重共线性的解释变量引入附加条件从而减弱或消除多重共线性。

3、增加样本容量或重新抽取样本 

这种方法主要适用于那些由测量误差而引起的多重共线性。当重新抽取样本时,克服了测量误差,自然也消除了多重共线性。另外,增加样本容量也可以减弱多重共线性的程度。

④ 在线性回归分析中如何解决多重共线性的问题

对多重共线性的两点认识:
①在实际中,多重共线性是一个程度问题而不是有无的问题,有意义的区分不在于有和无,而在于多重共线性的程度。②多重共线性是针对固定的解释变量而言,是一种样本的特征,而非总体的特征。
消除多重共线性的方法:
1.增加样本容量
2.利用先验信息改变
3.删除不必要的解释变量:参数的约束形式
4.其它方法:逐步回归法,岭回归(ridge
regression),主成分分析(principal
components
).
这些方法spss都可以做的,你在数据分析的子菜单下可以找到相应的做法。
删除不必要的方法的时候,最好使用一下逐步回归法,这样比较科学一点。
主成分分析的方法使用比较简单科学,本人介意用该方法。

⑤ SPSSAU具有共线性怎么

如果出现多重共线性问题,一般可有3种解决办法,一是使用spssau逐步回归分析(让模型自动剔除掉共线性过高项);二是使用spssau岭回归分析(使用数学方法解决共线性问题),三是进行spssau相关分析,手工移出相关性非常高的分析项(通过主观分析解决),然后再做线性回归分析。

⑥ 在线性回归分析中如何解决多重共线性的问题

对多重共线性的两点认识:
①在实际中,多重共线性是一个程度问题而不是有无的问题,有意义的区分不在于有和无,而在于多重共线性的程度。②多重共线性是针对固定的解释变量而言,是一种样本的特征,而非总体的特征。
消除多重共线性的方法:
1.增加样本容量
2.利用先验信息改变
3.删除不必要的解释变量:参数的约束形式
4.其它方法:逐步回归法,岭回归(ridge regression),主成分分析(principal components ).
这些方法spss都可以做的,你在数据分析的子菜单下可以找到相应的做法。
删除不必要的方法的时候,最好使用一下逐步回归法,这样比较科学一点。
主成分分析的方法使用比较简单科学,本人介意用该方法。

⑦ 如何克服和处理多重共线性

在多元线性回归模型经典假设中,其重要假定之一是回归模型的解释变量之间不存在线性关系,也就是说,解释变量X1,X2,……,Xk中的任何一个都不能是其他解释变量的线性组合。如果违背这一假定,即线性回归模型中某一个解释变量与其他解释变量间存在线性关系,就称线性回归模型中存在多重共线性。多重共线性违背了解释变量间不相关的古典假设,将给普通最小二乘法带来严重后果。

所谓多重共线性是指线性回归模型的解释变量之间由于存在精确相关关系或者高度相关关系而使模型评估失真或者不准确。这里,我们总结了8个处理多重共线性问题的可用方法,大家在遇到多重共线性问题时可作参考:

1、保留重要解释变量,去掉次要或可替代解释变量

自变量之间存在共线性,说明自变量所提供的信息是重叠的,可以删除不重要的自变量减少重复信息。但从模型中删去自变量时应该注意:从实际经济分析确定为相对不重要并从偏相关系数检验证实为共线性原因的那些变量中删除。如果删除不当,会产生模型设定误差,造成参数估计严重有偏的后果。

⑧ 怎么解决建模中共线性,不同模型针对的数据类型

共线性有两种解决方法
一种是通过岭回归
一种是通过主成份分析。
通常情况下,推荐使用主成份分析

⑨ 多重共线性解决方法是什么

1、排除引起共线性的变量:

找出引起多重共线性的解释变量,将它排除出去,以逐步回归法得到最广泛的应用。

2、差分法:

时间序列数据、线性模型:将原模型变换为差分模型。

3、减小参数估计量的方差:

岭回归法(Ridge Regression)。

4、简单相关系数检验法。

(9)两种解决共线性的方法扩展阅读:

相关影响

(1)完全共线性下参数估计量不存在

(2)近似共线性下OLS估计量非有效

(3)参数估计量经济含义不合理

(4)变量的显着性检验失去意义,可能将重要的解释变量排除在模型之外

(5)模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。

需要注意:即使出现较高程度的多重共线性,OLS估计量仍具有线性性等良好的统计性质。但是OLS法在统计推断上无法给出真正有用的信息。

阅读全文

与两种解决共线性的方法相关的资料

热点内容
改善敏感肌的有效方法有哪些 浏览:964
在家如何自主学习的方法 浏览:873
太极练胯的方法有哪些 浏览:773
欧盟检测食品水份的方法 浏览:579
碘伏治疗新冠肺炎的方法 浏览:585
灌香肠正确套肠的方法视频教程 浏览:274
有什么方法可以解决鬓角过长 浏览:615
鉴别19年五粮液的方法 浏览:800
not函数的使用方法及实例 浏览:431
空腹喝牛奶胃痛解决方法 浏览:948
止咳化痰的最佳方法宝宝 浏览:167
什么该方法 浏览:446
螺丝杆的连接方法 浏览:924
怎么忘记一个徒弟最快的方法 浏览:83
发现学习的教学方法适合所有学科 浏览:902
各种水晶珠子的鉴别方法 浏览:734
床上什么方法可以排湿 浏览:862
住宅雨水管沉水弯的安装方法 浏览:819
胃虚怎么治疗方法 浏览:486
物理规律有哪些科学方法 浏览:950