13 svar
222 visningar
Ygolopot behöver inte mer hjälp
Ygolopot 215
Postad: 21 dec 2021 16:08

Multipel linjär regression, fördelning för beta

Hej! 

Jag behöver hjälp med att förstå hur man ska tolka fördelningen för beta i en multipel linjär regression.

Här är vad jag förstår:

När vi har en enkel linjär regression så kan man ju skriva  slumpvariabeln β(Y) för en linjär ekvation: Y_i  = alpha + beta*x_i som:

β*(Y)=i=1n(xi-x¯)(Yi-Y¯)i=1n(xi-x¯)2,  där X\bar symboliserar att det är medelvärdet för den variabeln. Vi antar här att alla Y_i är oberoende, normalfördelade och med gemensam varians sigma samt att följande samband för deras väntevärde är sant:

E[Y_i] = alpha + x_i*beta

Från dessa antaganden och från formeln för beta så kan man skriva om beta till:

β*(Y)=i=1n(xi-x¯)Yii=1n(xi-x¯)2, som alltså är en linjär kombination av oberoende normalfördelade variabler vilket i sig blir en normalfördelad variabel. Sen kan man visa att den här estimatorn som är en funktion av slumpvariabler och därav en är även estimatorn en slumpvariabel, är unbiased då dess väntevärde är det "sanna" beta samt så har den en varias som beror på värdena på x.

Om man inte vet om sigma för Y_i~(alpha+x_i * beta, sigma), så kan man visa att

n-k-1σ2s2(Y)~ Chi-square(n-k-1)

Och från detta kan man sen härleda en t-fördelning osv.

(Ovan är Y = Y_1,...,Y_n och dom hör ihop med x = (x_1,...,x_n))

Vad jag behöver hjälp med:

Jag förstår inte hur jag ska göra när vi har en multipel linjär regression. Överallt där jag kollar så går man över och kör på matrisform och den least square lösningen där är samma som vi lärde oss i Linjär Algebra:

β*(Y)=(XTX)-1XTY, där β*=αβ1...βp, X=1x11...x1p......1xn1...xnp, Y=Y1...Yn

Och såhär långt är jag helt med men när man ska visa vilken fördelning beta har förstår jag inte riktigt, det jag hittar kommer från följande källa:

section15.pdf (mit.edu)

och där skriver man på sida 2 att: β*(Y)~N(β, σ2(XTX)-1) 

Jag förstår dock inte variansen här, det blir ju en matris med p+1 rader och n kolumner och då blir ju variansen, för en specifik variabel i vektorn beta,  en vektor av dimension n och inte ett reellt tal, eller missuppfattar jag detta?

Mitt mål är att förstå/se vilken normalfördelning som varje variabel i vektorn beta. Jag vill veta detta så att jag sen kan härleda med hjälp av en sats som säger att:

Om X~N(0,1) och Y ~ Chi-square(f) är oberoende så gäller att:

Z=XYf~ t(f)

M.h.a detta kan jag sen visa att en viss variabel är t-fördelad.

Tack på förhand!

Smutsmunnen 1050
Postad: 21 dec 2021 16:24

Variansen i den formeln är en (p+1)x(p+1) matris, det är alltså en matris där

aij=Cov(β*i,β*j)

så variansen i den vanliga meningen är diagonalelementen i den matrisen.

Givet n normalfördelade variabler så räcker det ju inte att ange deras väntevärde och varians för att specificera deras simultana fördelning, vi måste också ange deras kovarians.

Du är ju dock alltså av deras marginella fördelningar, jag känner inte på rak arm till ett enkelt uttryck för det men ställer man upp ML-ekvationerna explicit bör man väl kunna härleda det.

Ygolopot 215
Postad: 21 dec 2021 16:45

My bad, glömde att jag multiplicerar ihop matriserna så det blir (p+1)x(p+1), men jag känner mig fortfarande obekväm med att variansen beskrivs av en matris.

Anledningen till att beta i en enkel linjär regression blir normalfördelad är ju för att:

X~N(a,b), Y~N(c,d), Z = X+Y ~ N(a+c, d+b), men det kanske inte längre är möjligt att skriva beta i en multipel linjär regression som en linjär kombination av Y_1,...,Y_n?

Mitt mål är alltså att hitta ett uttryck för beta så att: beta_j ~ N(a,b) för några reella tal a och b. Det måste ju finnas eftersom man slutligen gör ett t-test för att beräkna p-värde och signifikans för ett givet beta_j i en multipel linjär regression.

Smutsmunnen 1050
Postad: 21 dec 2021 16:48

Alltså du har fortfarande linjäritet,

β(Y) = (X^T*X)^(−1)*X^T*Y

är ett linjärt samband i Y.

Ygolopot 215
Postad: 21 dec 2021 16:59

Helvete just det. Ska se om jag kommer någon vart av att ställa upp ML-ekvationerna. Tack!

Ygolopot 215
Postad: 22 dec 2021 09:06 Redigerad: 22 dec 2021 10:45

Hej igen, jag var nog inte helt med igår när jag tänkte på det här...

Men förstår jag det rätt om jag tänker på följande sätt:

Låt:

β(Y)=β1...βp, Y=Y1...Yn, X=x11...x1p......xn1...xnp

Vi vet att:  \beta(Y) = (X^T*X)^(-1)*X^T*Y gäller, och (X^T*X)^(-1)*X blir en p x n matris. Om vi betecknar elementen i (X^T*X)^(-1)*X:

(XTX)-1XT=a11...a1n......ap1...apn

 

Så är ju:βj(Y)=Y1aj1+...+Ynajn och V(βj(Y))=V(i=1najiYi)=σ2i=1na2ji

Jag kan alltså tilllämpa att V(X+Y)  = V(X) + V(Y) då alla slumpvariable är oberoende. Och alla Y_i har gemensam varians sigma^2.

Tänker jag rätt?

Tillägg:

Fördelningen för slumpvariabeln beta_j (Y) blir då, βj(Y) ~ N(βj, σ2i=1na2ji)

Smutsmunnen 1050
Postad: 22 dec 2021 10:59 Redigerad: 22 dec 2021 11:04

Du tänker tyvärr fel, observationerna Y är inte oberoende, det vi vet är att det har samma varians och att de är betingat oberoende, dvs oberoende för givna värden på kovariaterna, dvs residualerna är oberoende.

Du får istället:

β(Y)=β((XTX)-1XTY)

Var(β(Y))=Var((XTX)-1XTY)=(XTX)-1XTVar(Y)((XTX)-1XT)T=(XTX)-1XTσ2IX(XTX)-1=σ2(XTX)-1

vilket allså leder oss till formeln i din första post.

Men detta är också ett enklare uttryck! Titta på diagonalelement i matrisen (X^tX)^(-1), det är varianserna för motsvarande beta-parameter. Problemet för dina syften är att det nog inte finns ett snyggt ett snyggt slutet uttryck för detta men det kanske du inte behöver.

Sedan en liten sak, du verkar i din senaste post ha slarvat bort interceptet, så beta-vektorn börjar med en etta, och X-matrisen har en första kolumn som består av ettor. Alternativt så får du tänka att du normaliserar kovariaterna och susbstraherar genomsnittet av varje kolumn i X från elementen i den kolumnen.

Smutsmunnen 1050
Postad: 22 dec 2021 11:01

Äsch jag tänker fel, klart observationerna är oberoende.

Ygolopot 215
Postad: 22 dec 2021 11:09

Sedan en liten sak, du verkar i din senaste post ha slarvat bort interceptet, så beta-vektorn börjar med en etta, och X-matrisen har en första rad som består av ettor. Alternativt så får du tänka att du normaliserar kovariaterna och susbstraherar genomsnittet av varje kolumn i X från elementen i den kolumnen.

Tack så mycket för svaren! Sorry, jag var lite otydlig men jag tänkte att jag håller beteckningen helt generell men att man då för intercepter har att x_11 = ...=x_n1  = 1 och att beta_1 blir det som jag betecknade som alpha förut. Skrev såhär nu för att det kändes lättare att få ett "snyggare" uttryck tillslut.

 

Men om man då antar att Y_1, ..., Y_n är oberoende då kan man skriva som jag gjorde men om det endast gäller att de är betingat oberoende så blir det som du skrev?

Förstår jag dig rätt då?

Smutsmunnen 1050
Postad: 22 dec 2021 11:12 Redigerad: 22 dec 2021 11:12

Nä jag tänkte helt knäppt, de är helt oberoende så man kan göra som du skrev, men det jag skrev stämmer också, formlerna ser olika ut men det är för att vi har olika matriser.

Men din formel är ju då lite tillkrånglad men den funkar, jag vet inte om det är så att du har lite svårt för kovarians-varians matrisen som begrepp och hellre skriver om det så där så går det bra.

Men du borde verkligen se till att du förstår kovarians-varians matrisen också.

Smutsmunnen 1050
Postad: 22 dec 2021 11:14

https://en.wikipedia.org/wiki/Covariance_matrix

Ygolopot 215
Postad: 22 dec 2021 11:27

Min enda erfarenhet av kovarians - varians matrisen är att man för godtyckliga slumpvariabler

X_1,...,X_N så blir Var(a_1*X_1+ ...+ a_n*X_N) = i=1Na2iV(Xi) + 2i<jaiajC(Xi, Xj)

där a_i är konstanter för i = 1, ..., N

Vilket man sen kan skriva om på matrisform till:

Har härlett ovan själv så kanske är fel, men oavsett har jag hitills haft lite att göra med den matrisen och det har mer varit praktisk notation än något annat. Men den kanske har en hel del intressanta egenskaper, ska kolla in Wikipedia-artiklen du länkade!

Tack för all hjälp :)

Smutsmunnen 1050
Postad: 22 dec 2021 12:14

Det är som är viktigt här är egentligen:

Om X är en n-vektor av slumpvariabler med kovariansmatris S och A är en nxn matris så har vektorn AX kovariansmatrisen ASA^t.

Ygolopot 215
Postad: 7 mar 2022 15:54

Hej igen,

Tänkte lite på det här med variansen igen för beta estimatorn. Jag förstår att alla representerar det på matrisform men om jag ändå vill ha ett "explicit" uttryck likt det jag fick ovan i fallet där variansen inte är konstant och vi inte har oberoende variabler. Borde inte den slumpmässiga variablen beta:

βj(Y1,..., Yn) = Y1aj1+...+Ynajn

Ha variansen:

V(βj(Y1aj1+...+Ynajn))=i=1na2jiV(Yi) + 2i<kajiajkC(Yk,Yi) 

Och givet att summan av beroende normalfördelade variabler är normalfördelad så borde väl fördelningen bli:

βj(Y) ~ N(β,    i=1na2jiV(Yi) + 2i<kaiakC(Yk,Yi) )

Eller?

Om detta är sant så borde det enda kravet för att ovan fördelning ska stämma vara att det förväntade värdet för error-termen ska vara noll, givet icke-stokastiska regressors?

Svara
Close