Minsta-kvadrat-metoden
Vad är kopplingen mellan minsta-kvadrat-metoden och förväntat värde samt variansen mellan mätdata?
Menar du om vi har modellen , vad är väntevärde och varians av ? Man brukar anta att har väntevärde och varians och i.i.d. Då "försvinner" den från väntevärden av eftersom den är så men för variansen är det tvärtom så att det är bara som bidrar eftersom resten är konstanter så .
Inabsurdum skrev:Menar du om vi har modellen , vad är väntevärde och varians av ? Man brukar anta att har väntevärde och varians och i.i.d. Då "försvinner" den från väntevärden av eftersom den är så men för variansen är det tvärtom så att det är bara som bidrar eftersom resten är konstanter så .
Jag kan inte riktigt koppla det till regressionslinjen.. I det här fallet rör det sig om att man har gjort fyra oberoende mätningar med väntevärdet .
De har alla samma varians. Man vill skatta beta med minsta-kvadrat-metoden och undrar hur olika värden på mätningarna påverkar skattningen.
Säg att man i mätning ett har 3, 4, 3, samt 12 men i mätning två utelämnat 12 och istället lagt till värden runt 3,4 samt i mätning tre enbart 9 samt 12. Min fråga är hur skattningen påverkas med ursprung från E(X) samt V(X). Borde inte skattningen av beta ha större varians ifall även 12 räknas med och även större förväntat värde?
Ok, väntevärde och varians är för är annorlunda.
Om du har samma modell som jag beskrev ovan och har tagit fram genom minsta kvadratmetoden från ett sample med storlek har du (d.v.s. den är väntevärdesriktig) och . Alltså är det tvärtom: har man stor spridning på (värdena i mätningen du nämner är alltså oberoende variabeln?) så blir variansen lägre! Det kan se märkligt ut först men är egentligen ganska naturligt: man kan vara säkrare på att ens estimat är korrekt och kan generaliseras om man har många datapunkter som skiljer sig mycket från varandra (alltså stor spridning på ).
Jag förstår inte riktigt vad som menas med att det är för en mätning?