導航:首頁 > 研究方法 > 回歸分析解決異常值方法

回歸分析解決異常值方法

發布時間:2022-06-09 03:17:15

『壹』 自變數存在異常值

自變數存在異常值有以下方法處理:
(1)手動移除出共線性的自變數
先做下相關分析,如果發現某兩個自變數X(解釋變數)的相關系數值大於0.7,則移除掉一個自變數(解釋變數),然後再做回歸分析。但此種辦法有一個小問題,即有的時候根本就不希望把某個自變數從模型中剔除,如果有此類情況,可考慮使用逐步回歸讓軟體自動剔除,同時更優的辦法可能是使用嶺回歸進行分析。
(2)逐步回歸法
讓軟體自動進行自變數的選擇剔除,逐步回歸會將共線性的自變數自動剔除出去。此種解決辦法有個問題是,可能演算法會剔除掉本不想剔除的自變數,如果有此類情況產生,此時最好是使用嶺回歸進行分析。
(3)增加樣本容量
增加樣本容量是解釋共線性問題的一種辦法,但在實際操作中可能並不太適合,原因是樣本量的收集需要成本時間等。
(4)嶺回歸
上述第1和第2種解決辦法在實際研究中使用較多,但問題在於,如果實際研究中並不想剔除掉某些自變數,某些自變數很重要,不能剔除。此時可能只有嶺回歸最為適合了。嶺回歸是當前解決共線性問題最有效的解釋辦法,但是嶺回歸的分析相對較為復雜,後面會提供具體例子,當然也可以參考SPSSAU官網嶺回歸說明。

鏈接:https://www.hu.com/question/34587423/answer/660652731
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請註明出處。

『貳』 數據分析師必須掌握的7種回歸分析方法

1、線性回歸


線性回歸是數據分析法中最為人熟知的建模技術之一。它一般是人們在學習預測模型時首選的技術之一。在這種數據分析法中,由於變數是連續的,因此自變數可以是連續的也可以是離散的,回歸線的性質是線性的。


線性回歸使用最佳的擬合直線(也就是回歸線)在因變數(Y)和一個或多個自變數(X)之間建立一種關系。


2、邏輯回歸


邏輯回歸是用來計算“事件=Success”和“事件=Failure”的概率。當因變數的類型屬於二元(1 /0,真/假,是/否)變數時,我們就應該使用邏輯回歸.


邏輯回歸不要求自變數和因變數是線性關系。它可以處理各種類型的關系,因為它對預測的相對風險指數OR使用了一個非線性的log轉換。


為了避免過擬合和欠擬合,我們應該包括所有重要的變數。有一個很好的方法來確保這種情況,就是使用逐步篩選方法來估計邏輯回歸。它需要大的樣本量,因為在樣本數量較少的情況下,極大似然估計的效果比普通的最小二乘法差。


3、多項式回歸


對於一個回歸方程,如果自變數的指數大於1,那麼它就是多項式回歸方程。雖然會有一個誘導可以擬合一個高次多項式並得到較低的錯誤,但這可能會導致過擬合。你需要經常畫出關系圖來查看擬合情況,並且專注於保證擬合合理,既沒有過擬合又沒有欠擬合。下面是一個圖例,可以幫助理解:


明顯地向兩端尋找曲線點,看看這些形狀和趨勢是否有意義。更高次的多項式最後可能產生怪異的推斷結果。


4、逐步回歸


在處理多個自變數時,我們可以使用這種形式的回歸。在這種技術中,自變數的選擇是在一個自動的過程中完成的,其中包括非人為操作。


這一壯舉是通過觀察統計的值,如R-square,t-stats和AIC指標,來識別重要的變數。逐步回歸通過同時添加/刪除基於指定標準的協變數來擬合模型。


5、嶺回歸


嶺回歸分析是一種用於存在多重共線性(自變數高度相關)數據的技術。在多重共線性情況下,盡管最小二乘法(OLS)對每個變數很公平,但它們的差異很大,使得觀測值偏移並遠離真實值。嶺回歸通過給回歸估計上增加一個偏差度,來降低標准誤差。


除常數項以外,這種回歸的假設與最小二乘回歸類似;它收縮了相關系數的值,但沒有達到零,這表明它沒有特徵選擇功能,這是一個正則化方法,並且使用的是L2正則化。


6、套索回歸


它類似於嶺回歸。除常數項以外,這種回歸的假設與最小二乘回歸類似;它收縮系數接近零(等於零),確實有助於特徵選擇;這是一個正則化方法,使用的是L1正則化;如果預測的一組變數是高度相關的,Lasso 會選出其中一個變數並且將其它的收縮為零。


7、回歸


ElasticNet是Lasso和Ridge回歸技術的混合體。它使用L1來訓練並且L2優先作為正則化矩陣。當有多個相關的特徵時,ElasticNet是很有用的。Lasso會隨機挑選他們其中的一個,而ElasticNet則會選擇兩個。Lasso和Ridge之間的實際的優點是,它允許ElasticNet繼承循環狀態下Ridge的一些穩定性。


通常在高度相關變數的情況下,它會產生群體效應;選擇變數的數目沒有限制;並且可以承受雙重收縮。


關於數據分析師必須掌握的7種回歸分析方法,青藤小編就和您分享到這里了,希望這篇文章可以為您提供幫助。如果您還想了解更多關於數據分析師、大數據工程師的職業前景及就業內容,可以點擊本站的其他文章進行學習。

『叄』 如何用統計方法去除一組數中的異常值

可以選擇以下方法。用線性回歸的辦法求得某一點到直線最遠,去除這一點即可。異常值也稱離群值,具體地說,判斷標准依據實際情況,根據業務知識及實際需要而定。

要是一般地說,可以用公式計算:

upper adjacent value = 75th percentile + (75th percentile – 25th percentile) * 1.5。

lower adjacent value = 25th percentile – (75th percentile – 25th percentile) * 1.5。


(3)回歸分析解決異常值方法擴展閱讀:

計算統計量:

μ=(X1+X2+…+Xn)/n。

s=(∑(Xi-μ)/(n-1))½(i=1,2…n)。

Gn=(X(n)-μ)/s。

式中μ——樣本平均值;

s——樣本標准差;

Gn——格拉布斯檢驗統計量。

確定檢出水平α,查表(見GB4883)得出對應n,α的格拉布斯檢驗臨界值G1-α(n)。當Gn>G1-α(n),則判斷Xn為異常值,否則無異常值。給出剔除水平α』的G1-α』(n),當當Gn>G1-α』(n)時,Xn為高度異常值,應剔除。

『肆』 用spss做回歸分析中怎樣刪除異常值

spss沒有辦法做 要用stata做,用winsor命令,擅長離群值。
SPSS(Statistical Proct and Service Solutions),「統計產品與服務解決方案」軟體。最初軟體全稱為「社會科學統計軟體包」(SolutionsStatistical Package for the Social Sciences),但是隨著SPSS產品服務領域的擴大和服務深度的增加,SPSS公司已於2000年正式將英文全稱更改為「統計產品與服務解決方案」,標志著SPSS的戰略方向正在做出重大調整。為IBM公司推出的一系列用於統計學分析運算、數據挖掘、預測分析和決策支持任務的軟體產品及相關服務的總稱SPSS,有Windows和Mac OS X等版本。

『伍』 每個數據科學人都應該知道的7種回歸技術

介紹 線性回歸和邏輯回歸通常是人們在數據科學中學習的第一種演算法。由於它們的受歡迎程度,許多分析師甚至認為它們是唯一的回歸形式。哪兒些稍微有工作經驗的人也會認為它們是所有回歸分析形式的中最重要的。
事實是,有無數種形式的回歸可以使用。每種形式的回歸都有其自身的重要性和最適合應用的特定場景。在本文中,我會以簡單的方式解釋了數據科學中最常用的7種回歸形式。通過這篇文章,我也希望人們能夠對回歸的廣度有一個概念,而不是僅僅對他們遇到的每個問題應都用線性/邏輯回歸,並希望他們能夠使用這么多的回歸技術!

如果您是數據科學的新手,並且正在尋找一個開始學習的地方,那麼「 數據科學 」課程是一個很好的起點!它涵蓋了Python,統計和預測建模的核心主題,它是你進入數據科學的第一步的完美方法。
什麼是回歸分析?
回歸分析是預測建模技術的一種技術,它研究依賴(目標)和自變數(預測變數)之間的關系。該技術用於預測,時間序列建模和查找變數之間的因果關系。例如,通過回歸可以最好地研究魯莽駕駛與駕駛員發生道路交通事故數量之間的關系。
回歸分析是建模和分析數據的重要工具。在這里,我們將曲線/直線線擬合到數據點,使得數據點距曲線或直線的距離之間的差異最小化。我將在接下來的章節中詳細解釋這一點。

為什麼我們使用回歸分析?
如上所述,回歸分析是估計兩個或更多變數之間的關系。讓我們通過一個簡單的例子來理解這一點:
比方說,你想根據當前的經濟狀況估算公司的銷售增長率。您有最近的公司數據表明銷售增長約為經濟增長的2.5倍。利用這種洞察力,我們可以根據當前和過去的信息預測公司的未來銷售情況。
使用回歸分析有許多好處。如下:
它表明因變數和自變數之間的顯著關系。 它表示多個自變數對一個因變數的影響強度。
回歸分析還允許我們比較不同尺度上測量的變數的影響,例如價格變化的影響和促銷活動的數量。這些優勢有助於市場研究人員/數據分析師/數據科學家消除和評估用於構建預測模型的最佳變數集。
我們有多少種回歸技術?
我們有各種各樣的回歸技術可用用於預測。這些技術主要由三個指標(自變數的數量,因變數的類型和回歸線的形狀)驅動。我們將在以下部分詳細討論它們。

對於創造性的,如果您覺得需要使用上述參數的組合,您甚至可以製作新的回歸,以前人們沒有使用過。但在開始之前,讓我們了解最常用的回歸:
1.線性回歸
它是最廣為人知的建模技術之一。線性回歸通常是人們在學習預測建模時最先選擇的幾個方法之一。在該方法中,因變數是連續的,自變數可以是連續的或離散的,並且回歸線的性質是線性的。
線性回歸使用最佳擬合直線(也稱為回歸線)在因變數(Y)和一個或多個自變數(X)之間建立關系。
它由方程Y = a + b * X + e表示,其中a是截距,b是直線的斜率,e是誤差項。該等式可以根據給定的預測變數預測目標變數的值。

簡單線性回歸和多元線性回歸之間的區別在於,多元線性回歸具有(> 1)個獨立變數,而簡單線性回歸只有1個獨立變數。現在的問題是「我們如何獲得最佳擬合線?」。
如何獲得最佳擬合線(a和b的值)?
這項任務可以通過最小二乘法輕松完成。它是用於擬合回歸線的最常用方法。它通過最小化每個數據點到直線的垂直偏差的平方和來計算觀測數據的最佳擬合線。因為偏差首先要平方,所以當相加時,正值和負值之間不會抵消。

我們可以使用度量的R平方來評估模型性能 。
重點: 自變數和因變數之間必須存在線性關系 多元回歸存在多重共線性,自相關,異方差等問題。 線性回歸對異常值非常敏感。它可以極大地影響回歸線並最終影響預測值。 多重共線性可以增加系數估計的方差,並使估計對模型中的微小變化非常敏感。結果是系數估計不穩定 在多個獨立變數的情況下,我們可以選擇正向選擇,逆向淘汰和逐步方法來選擇最重要的自變數。 2. 邏輯回歸
邏輯回歸方法用於查找事件成功的概率和失敗的概率。當因變數本質上是二進制(0/1,真/假,是/否)時,我們應該使用邏輯回歸。這里Y值的范圍從0到1,它可以用下面的等式表示。
odds = p /(1-p)=事件發生概率/非事件發生概率 ln(賠率)= ln(p /(1-p)) logit(p)= ln(p /(1-p))= b0 + b1X1 + b2X2 + b3X3 .... + bkXk
以上,p是存在感興趣特徵的概率。這時候你應該要問一個問題就是「為什麼我們要在等式中使用對數log?」。
由於我們在這里使用的是二項分布(因變數),我們需要選擇最適合此分布的鏈接函數。而且,它是logit函數。在上面的等式中,選擇此參數是為了以最大化觀察樣本值的可能性,而不是最小化平方誤差的總和(如在普通回歸中一樣)。
重點: 它被廣泛用於分類問題 邏輯回歸不需要依賴因變數和自變數之間的線性關系。它可以處理各種類型的關系,因為它將非線性對數變換應用於預測的優勢比 為避免過度擬合和欠擬合,我們應該包括所有重要的變數。確保這種做法的一個好方法是使用逐步方法來估計邏輯回歸 它需要較大樣本量,因為在樣本量較小時,最大似然估計的效率低於普通的最小二乘法 自變數不應相互關聯,即不具有多重共線性。但是,我們可以選擇在分析和模型中包含分類變數的交互作用。 如果因變數的值是序數,那麼它被稱為序數邏輯回歸 如果因變數是多類的,那麼它被稱為多元邏輯回歸。 3.多項式回歸
如果自變數的冪大於1,則回歸方程是多項式回歸方程。下面的等式表示多項式方程:
Y = A + B * X ^ 2
在這種回歸技術中,最佳擬合線不是直線。它是一條與數據點吻合的曲線。
重點: 雖然可能存在擬合更高次多項式以獲得更低誤差的誘惑,但這可能會導致過度擬合。始終繪制關系圖以查看是否匹配,並專注於確保曲線符合問題的本質。以下是繪圖如何幫助的示例: 特別注意的是末端的曲線,看看這些形狀和趨勢是否有意義。較高的多項式最終會產生奇怪的結果。 4.逐步回歸
當我們處理多個自變數時,會使用這種形式的回歸。在這種技術中,自變數的選擇是在自動過程的幫助下完成的,這個過程是不需要人為的去進行干預的。
通過觀察R方、t檢驗和AIC指標等統計值來識別重要變數,可以實現這一壯舉。逐步回歸基本上適合回歸模型,通過基於指定的標准一次一個地添加/刪除協變數。下面列出了一些最常用的逐步回歸方法:
標准逐步回歸做兩件事。它根據每個步驟的需要添加和刪除預測變數。 正向選擇從模型中最重要的預測變數開始,並為每個步驟添加變數。 向後消除從模型中的所有預測變數開始,並刪除每個步驟的最不重要的變數。
該建模技術的目的是以最少的預測變數來最大化預測能力。它是處理數據集更高維度的方法之一。
5.嶺回歸
嶺回歸是一種在數據存在多重共線性(自變數高度相關)時使用的技術。在多重共線性中,即使最小二乘估計(OLS)是無偏的,但它們的方差也很大,這使得觀測值偏離真實值。通過在回歸估計中增加一定程度的偏差,嶺回歸可以減少標准誤差。
上面,我們看到了線性回歸的方程。還記得嘛?它可以表示為:
y = a + b * x
這個方程也有一個誤差項。完整的等式變為:
y = a + b * x + e(誤差項),[誤差項是校正觀測值和預測值之間預測誤差所需的值] 表示多個自變數,=> y = a + y = a + b1x1 + b2x2 + .... + e。
在線性方程中,預測誤差可以分解為兩個子分量。首先是由於偏差,第二是由於方差。由於這兩個或兩個組件中的任何一個,都可能發生預測錯誤。在這里,我們將討論由於方差引起的錯誤。
嶺回歸通過收縮參數 λ(lambda)解決了多重共線性問題 。看下面的方程。

在這個方程中,我們有兩個組成部分。第一個是最小二乘項,另一個是β2 (β平方)總和的λ,其中β是系數。這被添加到最小二乘項,以便縮小參數以具有非常低的方差。
重點: 該回歸的假設與最小二乘回歸相同,但不假設正態性 它會縮小系數的值,但不會達到零,這表明沒有特徵選擇功能 這是一種正則化方法,並使用l2正則化。 6.Lasso回歸
類似於嶺回歸,Lasso(最小絕對收縮和選擇運算元)也會對回歸系數的絕對大小進行限制。此外,它還能夠降低線性回歸模型的可變性並提高其准確性。請看下面的方程:

Lasso回歸與嶺回歸的不同之處在於,它在懲罰函數中使用絕對值而不是平方。這導致懲罰(或等效地約束估計值的絕對值的總和)值,從而導致一些參數估計值恰好為零。應用的懲罰越大,估計值就會縮小到絕對零值。這導致從給定的n個變數中進行變數選擇。
重點: 該回歸的假設與最小二乘回歸相同,但不假設正態性 它將系數縮小到零(恰好為零),這肯定有助於特徵選擇 這是一種正則化方法並使用l1正則化 如果預測變數高度相關,則Lasso僅選取其中一個並將其他預測縮減為零 7.彈性網路回歸
彈性網路回歸是Lasso回歸和嶺回歸技術的混合體。它使用L1和L2先驗作為正則化器進行訓練。當存在多個相關的特徵時,彈性網路是很有用的。Lasso可能隨機選擇其中一種,而彈性網很可能同時選擇兩個。

在Lasso回歸和嶺回歸之間進行權衡的一個實際優勢是,它允許彈性網路在旋轉下繼承嶺回歸的一些穩定性。
重點: 在變數高度相關的情況下,它鼓勵群體效應 所選變數的數量沒有限制 它會受到雙重收縮的影響 如何選擇正確的回歸模型?
當你只知道一兩種技術時,生活通常是很簡單的。我所知道的其中一個培訓機構告訴他們的學生 - 如果結果是連續的 - 那就用線性回歸。如果是二進制的 - 那就用邏輯回歸!但是,我們可以使用的選項數量越多,選擇正確的選項就越困難。回歸模型也會發生類似的情況。
在多種類型的回歸模型中,基於自變數和因變數的類型,數據中的維度以及數據的其他基本特徵來選擇最適合的回歸方法是很重要的。以下是應該選擇正確的回歸模型的關鍵因素:
數據挖掘是構建預測模型的必然部分。在選擇正確的模型之前,應該首先確定變數之間的相關系數和影響 為了比較不同模型的擬合優度,我們可以分析不同的指標,如參數的統計顯著性,R方,調整後的R方,AIC指標,BIC指標和誤差項。另一個是Mallow的Cp標准。這基本上通過將模型與所有可能的子模型(仔細選擇它們)進行比較,來檢查模型中可能存在的偏差。 交叉驗證是評估用於預測的模型的最佳方式。在這里,可以將數據集分為兩組(訓練和驗證)。觀測值和預測值之間的簡單均方差可以衡量預測的准確性。 如果你的數據集有多個混淆變數,則不應選擇自動模型選擇方法,因為你不會希望同時將它們放在模型中。 這也取決於你的目標。與具有高度統計意義的模型相比,功能較弱的模型更容易實現。 回歸正則化方法(Lasso回歸,嶺回歸和彈性網路回歸)在數據集中各變數之間具有高維度和多重共線性的情況下運行良好。 結束語
到現在為止,我希望你已經對回歸有所了解。考慮數據條件來應用這些回歸技術。找出使用哪種技術的最佳技巧之一就是檢查變數族,即離散變數還是連續變數。
在本文中,我討論了7種類型的回歸以及與每種技術相關的一些關鍵事實。作為這個行業的新人,我建議你學習這些技術,然後在你的模型中實現它們。
-以上就是作者推薦的七種數據科學人必知必會的七種回歸模型,如果大家對這七種模型感興趣,那就自己動手去實驗一下吧,只知道理論是不夠的,要多動手實驗,才能真正的掌握這些模型。
7 Types of Regression Techniques you should know!

『陸』 異常值處理

異常值處理的常用方法:直接將該條觀測刪除在SPSS軟體里有2種不同的刪除方法,整條刪除和成對刪除。

Gn——格拉布斯檢驗統計量:

確定檢出水平α,查表(見GB4883)得出對應n,α的格拉布斯檢驗臨界值G1-α(n)。

當Gn>G1-α(n),則判斷Xn為異常值,否則無異常值。

給出剔除水平α』的G1-α』(n),當當Gn>G1-α』(n)時,Xn為高度異常值,應剔除。

測區混凝土強度標准差:

取檢出水平α為5%,剔除水平α』為1%,按雙側情形檢驗,從附表中查得檢出水平α對應格拉布斯檢驗臨界值G0.975,剔除水平α』對應格拉布斯檢驗臨界值G0.995。

若Gn>Gn』,且Gn>G0.975,則判斷fn為異常值,否則,判斷無異常值;

若Gn>Gn』,且Gn>G0.995,則判斷fn為高度異常值,可考慮剔除;

若Gn』>Gn,且Gn』>G0.975,則判斷f1為異常值,否則,判斷無異常值;

若Gn』>Gn,且Gn』>G0.995,則判斷f1為高度異常值,可考慮剔除。

以上內容參考:網路-異常值

『柒』 spss回歸前如何批量刪除異常值

spss沒有辦法做 要用stata做,用winsor命令,擅長離群值。
SPSS(Statistical
Proct and Service
Solutions),「統計產品與服務解決方案」軟體。最初軟體全稱為「社會科學統計軟體包」(SolutionsStatistical
Package for the Social
Sciences),但是隨著SPSS產品服務領域的擴大和服務深度的增加,SPSS公司已於2000年正式將英文全稱更改為「統計產品與服務解決方案」,標志著SPSS的戰略方向正在做出重大調整。為IBM公司推出的一系列用於統計學分析運算、數據挖掘、預測分析和決策支持任務的軟體產品及相關服務的總稱SPSS,有Windows和Mac OS X等版本。

『捌』 spss進行線性回歸分析時,相關系數都符合,但是顯著性不符合,如何調整

線性回歸時候,相關系數只是表明了各個系數之間的相關程度。但是自變數對因變數不顯著的話,可能存在多重共線性、數據存在異常值、異方差的問題。

1、自變數存在共線性問題

在進行線性回歸分析時,很容易出現自變數共線性問題,通常情況下VIF值大於10說明嚴重共線,VIF大於5則說明有共線性問題。當出現共線性問題時,可能導致回歸系數的符號與實際情況完全相反,本應該顯著的自變數不顯著,本不顯著的自變數卻呈現出顯著性。

解決方法:手動移除出共線性的自變數,先做下相關分析,如果發現某兩個自變數X(解釋變數)的相關系數值大於0.7,則移除掉一個自變數(解釋變數),然後再做回歸分析。逐步回歸法,讓軟體自動進行自變數的選擇剔除,逐步回歸會將共線性的自變數自動剔除出去。

2、數據存在異常值,如果數據中存在極端異常值,會導致數據偏移對分析結果產生嚴重影響。如果回歸分析出現各類異常,可通過比如描述分析、箱線圖、散點圖等方法,找出並處理掉異常值後再做分析。

解決方法:查看數據中是否有異常值,可通過箱線圖、散點圖查看,剔除異常值可通過SPSSAU「異常值」功能進行剔除。

3、異方差,如果模型存在明顯的異方差性,會影響回歸系數的顯著情況,得到的回歸模型是低效並且不穩定的。

解決方法:保存殘差項,將殘差項分別與模型的自變數X或者因變數Y,作散點圖,查看散點是否有明顯的規律性。如果有明顯的異方差性,建議重新構建模型,比如對Y取對數後再次構建模型等。

如果排除了這些原因還是不顯著,那麼基本說明該變數對被解釋變數無顯著影響。

(8)回歸分析解決異常值方法擴展閱讀

在做實證就是做回歸等等方法的時候,一般就看中三點,一是相關系數,看因變數和自變數是否相關。二是擬合優度(R平方),看回歸方程擬合的好不好,一般0.8以上就算擬合的比較好了。

三是自變數的系數對於因變數是否顯著啦,P值小於0.05就說明自變數對於因變數是顯著的。如果自變數的P值都比0.05大,那就說明自變數對於因變數是不顯著的,這個自變數就沒什麼意義,所以如果變數比較多的情況下,還是做一下逐步回歸。

如果變數比較少,做逐步回歸就會導致最後有可能只剩下一個變數。逐步回歸就是一個模型優化的過程,更加能解釋自變數和因變數之間的關系,一般回歸之後效果不好都要逐步回歸來優化線性模型的。

『玖』 SPSS回歸分析與數據預處理體會

SPSS回歸分析與數據預處理體會

關於SPSS數據預處理

拿到一份數據,或者在看到國內外某個學者的文章有想法而自己手裡的數據剛好符合這個想法可以做時,在整理好數據後不要急於建模。一定要對數據做缺失值處理、異常值處理。在數據預處理的基礎上再進一步建模,否則可能得到錯誤的結果。
心得1:數據預處理怎麼做。
一是 缺失值的處理。我個人有幾個看法:
數據樣本量足夠大,在刪除缺失值樣本的情況下不影響估計總體情況,可考慮刪除缺失值;
二是數據樣本量本身不大的情況下,可從以下兩點考慮:1是採用缺失值替換,SPSS中具體操作為「轉換」菜單下的「替換缺失值」功能,裡面有5種替換的方法。若數據樣本量不大,同質性比較強,可考慮總體均值替換方法,如數據來自不同的總體(如我做農戶調研不同村的數據),可考慮以一個小總體的均值作為替換(如我以一個村的均值替換缺失值)。2是根據原始問卷結合客觀實際自行推斷估計一個缺失值的樣本值,或者以一個類似家庭的值補充缺失值。心得2:數據預處理第二點異常值的處理。
我大概學了兩門統計軟體SPSS和Stata,SPSS用的時間久些,熟悉一下,Stata最近才學,不是太熟。關於這點我結合著來說。關於異常值的處理可分為兩點,一是怎麼判定一個值是異常值,二是怎麼去處理。
判定異常值的方法我個人認為常用的有兩點:1是描述性統計分析,看均值、標准差和最大最小值。一般情況下,若標准差遠遠大於均值,可粗略判定數據存在異常值。2是通過做指標的箱圖判定,箱圖上加「*」的個案即為異常個案。
發現了異常值,接下來說怎麼處理的問題。大概有三種方法:
1是正偏態分布數據取對數處理。我做農戶微觀實證研究,很多時候得到的數據(如收入)都有很大的異常值,數據呈正偏態分布,這種我一般是取對數處理數據。若原始數據中還有0,取對數ln(0)沒意義,我就取ln(x+1)處理;
2是樣本量足夠大刪除異常值樣本;
3是從stata里學到的,對數據做結尾或者縮尾處理。這里的結尾處理其實就是同第二個方法,在樣本量足夠大的情況下刪除首尾1%-5%的樣本。縮尾指的是人為改變異常值大小。如有一組數據,均值為50,存在幾個異常值,都是500多(我這么說有點誇張,大概是這個意思),縮尾處理就是將這幾個500多的數據人為改為均值+3標准差左右數據大小,如改為100。
總結而言,我個人認為做數據變換的方式比較好,數據變換後再做圖或描述性統計看數據分布情況,再剔除個別極端異常值。
關於SPSS回歸分析心得1:如何做好回歸分析。
經過多次實戰,以及看了N多視頻,上了N多課,看了N多專業的書。我個人總結做回歸的步奏如下:
1對數據進行預處理,替換缺失值和處理異常值;
2是將單個自變數分別與因變數做散點圖和做回歸,判定其趨勢,並做好記錄(尤其是系數正負號,要特別記錄);
3是自變數和因變數一起做相關系數,看各個變數相關關系強弱,為下一步檢驗多重共線性做准備;
4是自變數多重共線性診斷。若變數存在多重共線性,可採用主成分回歸,即先將存在多重共線性的變數做主成分分析合並為1個變數,然後再將合並成的新變數和其餘自變數一起納入模型做回歸;
5是做殘差圖,看殘差圖分布是否均勻(一般在+-3個單位之間均勻分布就比較好);
6是報告相應結果。
心得2:看到論壇上有網友問為什麼他(她)老師不建議採用後向步進法處理變數多重共線性。
記得張文彤老師說過他有個同學做過一個研究,即採用後向步進法剔除變數的方式去做回歸,得到的結果犯錯的幾率比較大。張老師也不建議用這個方法處理多重共線性。處理多重共線性比較好的方法是做主成分回歸。
心得3:有個朋友問我在報到回歸結果時用未標准化的回歸系數好,還是用標准化後的回歸系數好。
我個人覺得這個問題仁者見仁智者見智,要看想表達什麼。具體而言,如果想表達在其它條件不變的情況下,自變數X每變化1個單位,因變數變化多少個單位,這種情況用未標准化回歸系數就好;如果想比較各個自變數對因變數影響的相對大小,即判斷相對而言,哪個變數對因變數影響更大。這時需要消除量綱的影響,看標准化後的回歸系數。
心得4:這是投稿一篇SSCI外審專家提出的意見。
我做的是 無序多分類logistic回歸模型。因變數分了5類,有一類個數比較多,達到300多,有1-2類個案比較少,只有30左右。專家提到了要做穩健性檢驗。這個用stata軟體編程加一個robust即可解決問題。不知道在SPSS裡面怎麼做。歡迎知道的朋友一起討論下。我個人認為這是一個好問題的。不做穩健性檢驗模型可能受一些極端值的影響,結果不穩定。可能本來顯著的變數剔除1-2個樣本後就變得不顯著了。所以做回歸分析穩健性檢驗也比較重要。

以上是小編為大家分享的關於SPSS回歸分析與數據預處理體會的相關內容,更多信息可以關注環球青藤分享更多干貨

閱讀全文

與回歸分析解決異常值方法相關的資料

熱點內容
水晶糕的簡單製作方法 瀏覽:534
蛋黃包檢測方法 瀏覽:326
不同調節後視鏡方法的種類圖片 瀏覽:366
睡眠淺怎麼解決方法 瀏覽:587
保險合同的保險期限通常採用的計算方法有 瀏覽:531
地下水高錳酸鉀指數測量方法 瀏覽:342
纖維樁使用方法 瀏覽:693
貴州點光源安裝方法 瀏覽:817
化學鍍方法和技巧 瀏覽:500
寶寶怎麼治療最好的方法 瀏覽:467
csgo連入專屬伺服器失敗解決方法 瀏覽:947
溶液酸鹼性計算方法 瀏覽:213
戰馬貼膜的正確方法 瀏覽:181
復印機安裝與操作方法 瀏覽:29
概率中的個數計算方法 瀏覽:833
金帥洗衣機使用方法 瀏覽:662
怎麼選擇樁的施工方法 瀏覽:601
聯想筆記本限速在哪裡設置方法 瀏覽:496
怎樣快速止牙痛土方法 瀏覽:64
子宮肌層2mm治療方法 瀏覽:801