3 svar
249 visningar
avenged 134 – Fd. Medlem
Postad: 13 mar 2020 08:48

Minsta-kvadrat-metoden

Vad är kopplingen mellan minsta-kvadrat-metoden och förväntat värde samt variansen mellan mätdata? 

Inabsurdum 118
Postad: 13 mar 2020 09:37 Redigerad: 13 mar 2020 09:39

Menar du om vi har modellen yi=β0+β1xi+ϵiy_i = \beta_0 + \beta_1 x_i + \epsilon_i, vad är väntevärde och varians av yiy_i? Man brukar anta att ϵi\epsilon_i har väntevärde 00 och varians σ2\sigma^2 och ϵi\epsilon_i i.i.d. Då "försvinner" den från väntevärden av yiy_i eftersom den är 00E[yi]=β0+β1xiE[y_i] = \beta_0 + \beta_1 x_i men för variansen är det tvärtom så att det är bara ϵi\epsilon_i som bidrar eftersom resten är konstanter så Var[yi]=σ2Var[y_i] = \sigma^2.

avenged 134 – Fd. Medlem
Postad: 13 mar 2020 10:31
Inabsurdum skrev:

Menar du om vi har modellen yi=β0+β1xi+ϵiy_i = \beta_0 + \beta_1 x_i + \epsilon_i, vad är väntevärde och varians av yiy_i? Man brukar anta att ϵi\epsilon_i har väntevärde 00 och varians σ2\sigma^2 och ϵi\epsilon_i i.i.d. Då "försvinner" den från väntevärden av yiy_i eftersom den är 00E[yi]=β0+β1xiE[y_i] = \beta_0 + \beta_1 x_i men för variansen är det tvärtom så att det är bara ϵi\epsilon_i som bidrar eftersom resten är konstanter så Var[yi]=σ2Var[y_i] = \sigma^2.

Jag kan inte riktigt koppla det till regressionslinjen.. I det här fallet rör det sig om att man har gjort fyra oberoende mätningar med väntevärdet β, β, β samt 3β.

De har alla samma varians. Man vill skatta beta med minsta-kvadrat-metoden och undrar hur olika värden på mätningarna påverkar skattningen. 

Säg att man i mätning ett har 3, 4, 3, samt 12 men i mätning två utelämnat 12 och istället lagt till värden runt 3,4 samt i mätning tre enbart 9 samt 12. Min fråga är hur skattningen påverkas med ursprung från E(X) samt V(X). Borde inte skattningen av beta ha större varians ifall även 12 räknas med och även större förväntat värde? 

Inabsurdum 118
Postad: 13 mar 2020 18:09 Redigerad: 13 mar 2020 18:29

Ok, väntevärde och varians är för β^\hat{\beta} är annorlunda.

Om du har samma modell som jag beskrev ovan och har tagit fram β1^\hat{\beta_1} genom minsta kvadratmetoden från ett sample med storlek nn har du E[β1^]=β1E[\hat{\beta_1}] = \beta_1 (d.v.s. den är väntevärdesriktig) och Var[β1^]=σ2i=1n(xi-x¯)2Var[\hat{\beta_1}] = \frac{\sigma^2}{\sum_{i=1}^{n}(x_i - \bar{x})^2}. Alltså är det tvärtom: har man stor spridning på xx (värdena i mätningen du nämner är xx alltså oberoende variabeln?) så blir variansen lägre! Det kan se märkligt ut först men är egentligen ganska naturligt: man kan vara säkrare på att ens estimat är korrekt och kan generaliseras om man har många datapunkter som skiljer sig mycket från varandra (alltså stor spridning på xx).

Jag förstår inte riktigt vad som menas med att det är 3β3 \beta för en mätning?

Svara
Close