Beräkna felmarginal
Jag är inte helt säker på var tråden hör hemma men jag gör ett försök här.
Hur beräknar man felmarginal när uppmätta siffror ej stämmer med teorin?
Det mest direkta är att räkna med de minsta och störsa möjliga värdena på indata för att få minsta och största värdet på utdata.
T.ex. om du ska beräkna c=a2/b, och har fått a = 3,4 och b = 4,1. Värdet på c rakt av är 2.82, avrundat 2.8. Största möjliga värde på a om det bara är avrundningsfel i det är 3,45 och minsta är 3,35. För b är det 4,15 och 4,05. Största möjliga värde på c är 3,452/4,05 = 2,94. Minsta värdet på c är 3,352/4,15 = 2,70. Vi kan ange svaret som c = 2,8 ± 0,1.
Ett annat sätt som är mindre komplicerat i längden är att räkna med procent. Två gällande siffror gör att felet kan vara ungefär ± 1%. När man multiplicerar eller dividerar två tal med en felmarginal i procent så adderar man bara procenttalen: här blir det 1% + 1% + 1% = 3%. Så c = 2,8 ± 3%, vilket inte är exakt samma sak som ovan, men nästan.
Procentsättet har en fördel: nu kan du skicka vidare ditt värde till någon annan som ska använda det, med felmarginal och det är bara att köra vidare på samma sätt. Det har en nackdel: om det förekommer subtraktioner av tal som ligger nära varandra så kan det verkliga felet bli mycket större: t.ex. (3,3±10%)-(3,1±10%) räknas ut som 0,3±20%, men i själva verket kan det ligga mellan -0,4 och +0,8, dvs. rentav vara noll. Detta kan sabba beräkningarna totalt om man sedan ska dividera med det värdet.
Om en mätning beror av många variabler (där man inte nödvändigtvis mäter varje enskilt), var och en med sin felmarginal, så är det mycket osannolikt att alla har sitt maximala fel, så beräkningarna ovan kan betraktas som pessimistiska. Då räknar man i stället med en sannolikhetsfördelning och kommer in på ämnet statistik, och säger t.ex. att värdet med sannolikheten 90% ligger inom ett visst intervall, men med otur kan ligga utanför det.
Med statistik kan man komma fram till att ett fel som ligger inom felmarginalen för en mätning ändå visar något intressant, ifall samma fel uppträder t.ex. vid 20 mätningar i rad. Då är det antingen ett systematiskt fel i indata, eller nåt fel i teorin, troligen det förra, ibland det senare.
Teorin består av en matematisk modell av verkligheten.
Ett vanligt fel är att den matematiska modellen är för enkel för att beskriva verkligheten.
Laguna skrev:Det mest direkta är att räkna med de minsta och störsa möjliga värdena på indata för att få minsta och största värdet på utdata.
T.ex. om du ska beräkna c=a2/b, och har fått a = 3,4 och b = 4,1. Värdet på c rakt av är 2.82, avrundat 2.8. Största möjliga värde på a om det bara är avrundningsfel i det är 3,45 och minsta är 3,35. För b är det 4,15 och 4,05. Största möjliga värde på c är 3,452/4,05 = 2,94. Minsta värdet på c är 3,352/4,15 = 2,70. Vi kan ange svaret som c = 2,8 ± 0,1.
Ett annat sätt som är mindre komplicerat i längden är att räkna med procent. Två gällande siffror gör att felet kan vara ungefär ± 1%. När man multiplicerar eller dividerar två tal med en felmarginal i procent så adderar man bara procenttalen: här blir det 1% + 1% + 1% = 3%. Så c = 2,8 ± 3%, vilket inte är exakt samma sak som ovan, men nästan.
Procentsättet har en fördel: nu kan du skicka vidare ditt värde till någon annan som ska använda det, med felmarginal och det är bara att köra vidare på samma sätt. Det har en nackdel: om det förekommer subtraktioner av tal som ligger nära varandra så kan det verkliga felet bli mycket större: t.ex. (3,3±10%)-(3,1±10%) räknas ut som 0,3±20%, men i själva verket kan det ligga mellan -0,4 och +0,8, dvs. rentav vara noll. Detta kan sabba beräkningarna totalt om man sedan ska dividera med det värdet.
Om en mätning beror av många variabler (där man inte nödvändigtvis mäter varje enskilt), var och en med sin felmarginal, så är det mycket osannolikt att alla har sitt maximala fel, så beräkningarna ovan kan betraktas som pessimistiska. Då räknar man i stället med en sannolikhetsfördelning och kommer in på ämnet statistik, och säger t.ex. att värdet med sannolikheten 90% ligger inom ett visst intervall, men med otur kan ligga utanför det.
Med statistik kan man komma fram till att ett fel som ligger inom felmarginalen för en mätning ändå visar något intressant, ifall samma fel uppträder t.ex. vid 20 mätningar i rad. Då är det antingen ett systematiskt fel i indata, eller nåt fel i teorin, troligen det förra, ibland det senare.
Tack för att du bemödade dig med att skriva inlägget och jag är ledsen för att jag inte förtydligade min fråga i trådstarten.
Jag räknar på krafter. Ett föremål är i vila, tre krafter verkar. Den resulterande kraften av två av krafterna, bör vara lika stor som den tredje som är i motsatt riktning. Resultantkraften borde i teorin vara 1,6 N stor (16 cm på papper), men istället blev den 14 cm lång (motsvarar 1,4 N). Hur räknar man felmarginalen i detta fall?
Hur har du gjort för att mäta upp storlek och riktning för de båda krafter som du tydligen känner till?
Smaragdalena skrev:Hur har du gjort för att mäta upp storlek och riktning för de båda krafter som du tydligen känner till?
Två dynamometrar var uppsatta på en fastsättningsanordning, de var samtidigt krokade i varandra. En 100-grams vikt var fäst i ena ändan av ett snöre, som i sin tur var knuten kring krokarna. En av dynamometrarna visade 1,6 N, den andra (som var vinkelrät mot snöret med vikten) visade 1,06 N och viktens kraft är (F=mg) 0,982 N.
Så för att beräkna resultantkraften på vikten och dynamometer 2, använde jag Pythagoras sats:
N
Resultantkraften borde väl ha varit 1,6 N?
När det är vinklar inblandade så kan man inte bara propagera felprocenten. T.ex. gör ganska många procent fel i x inte så mycket för sin(x) när x är nära 90 grader, men väldigt mycket för tan(x). Man kan använda derivatan, men jag vet inte hur ingenjörer och fysiker brukar göra i praktiken. Första metoden jag beskrev fungerar alltid.