Standardavvikelse och osäkerhet för ett stickprov
Hej, jag går en kurs i experimentell fysik (jag sorterade posten som matematik eftersom det är mer en statistisk fråga dvs. matematisk) där vi håller på att lära oss om osäkerheten av mätningen av en kvantitet (vi kan kalla kvantiteten för x). Ett viktigt begrepp inom det området är stickprovsstandardavvikelse (sample standard deviation) som jag har lite svårt att förstå, här kommer en fråga och kanske några relaterade frågor som kan göra det hela tydligare för mig (jag ställer alla frågor i samma post för att de hjälper mig att besvara varandra).
1. Är det korrekt att stickprovsstandardavvikelsen av en mängd mätningar av vår kvantiet x ger ett estimat till standardavikelsen till den bakomliggande sannolikhetsfördelningen för x?
2. Om så är fallet så har jag lite svårt att förstå följande stycke (Introduction to Error Analysis, John R. Taylor)
det jag har svårt att förstå är hur dom drar kopplingen att helt plötsligt blir osäkerheten i en mätning ? Menar dom att ligger i intervallet ?
All hjälp uppskattas!
På andra frågan uppfattar jag det som att det står att om du upprepar en mätning flera gånger så kommer 68 % av de uppmätta värdena vara inom en standardavvikelse från det verkliga värdet
Och detta ger oss en uppfattning om hur stor osäkerhet som finns i mätningen. Om 68 % av mätningarna ligger i ett väldigt litet intervall har vi en låg osäkerhet, och vice versa om 68 % av mätningarna täcker ett väldigt stort intervall
På fråga 1 så tror jag svaret är ja, det är så jag har fattat det iaf. Men jag ser inte hur du menar att det inte skulle passa med texten under.
Micimacko skrev:På fråga 1 så tror jag svaret är ja, det är så jag har fattat det iaf. Men jag ser inte hur du menar att det inte skulle passa med texten under.
Det finns nog ingen logisk koppling mellan dom det är mer att det tydilggör alla bakomliggande begreppen typ.
Hondel skrev:Och detta ger oss en uppfattning om hur stor osäkerhet som finns i mätningen. Om 68 % av mätningarna ligger i ett väldigt litet intervall har vi en låg osäkerhet, och vice versa om 68 % av mätningarna täcker ett väldigt stort intervall
Hmm okej, för när jag läser det här exemplet (som dom tar upp i boken) så verkar det fortfarande som att det är osäkerheten hos en mätning se bild: https://imgur.com/a/QwkzDzR (pluggakuten ville inte ladda upp mina bilder av någon anledning). Eller hur tolkar du det som?
I de två första styckena göra två ekvivalenta påståenden. I första stycket sägs det att om man upprepar samma mätning många gånger kommer 68 % av de ligga inom en standardavvikelse från de faktiska värdet.
Det innebär, som det sägs i andra stycket att om du gör EN mätning kommer den med 68 % sannolikhet ligga inom en standardavvikelse från det faktiska värdet, eller i med andra ord, det faktiska värdet ligger med 68 sannolikhet inom en standardavvikelse från din mätning