Osäkerhet i mätningar
Hej, jag har kört fast lite på en uppgift som jag inte kommer vidare med pga noll förståelse.... förhoppningsvis kan ni hjälpa mig :)
Vid GPS-mätning krävs en extremt noggrann klocka. Studera till exempel följande exempel:
När satellitens klocka visar exakt 12.00 sänder den ut en tidssignal. Vi tar emot signalen samtidigt som vår mycket noggranna klocka visar 1/10 sekund över 12.00. Det skulle betyda att vi befann oss lika långt från satelliten som den sträcka ljuset går på 1/10 sekund, dvs.
s = ct = 3*10^8 * 0,1 m = 3*10^7 m = 3000 mil.
b) Vid GPS-mätning har vi en osäkerhet på under 1 m. Vilken osäkerhet i tidmätningen skulle det svara mot i vårt förenklade exempel?
Observera att feltryck finns i uppgiften, det ska stå "0,1 s" (s = sekunder) i stället för "0,1 m" (m = meter).
Jag är jätte osäker på hur och vad jag ska börja med, men jag chansade lite och började med att omvandla 1 m till mil:
Osäkerheten ligger alltså mellan 3000,0001 och 2999,9999
sedan tänkte jag att tiden ljusteshastighet mulitplicerat med tiden (som är som vi vill ha osäkerheten på) borde ge rätt svar:
3000,0001 = 299 792 458 x
x=1,0 ?
jag vet inte vad eller hur jag tänker....snälla hjälp mig.
Jag skulle tänka så här:
Hur många sekunders felmätning krävs det för att avståndet ljuset färdats ska ändras med 1 m? Använd formeln ct-formeln i exemplet och lös för tiden.
+ eller - en meter? för att då är ju mitt svar rätt. I min uträkning så skrev har ju tiden som x. Eller hur menar du?
Nu är det i verkligheten mer komplicerat.
Det krävs bl.a. att mottagaren ser minst fyra GPS-satelliter och signalerna färdas inte alltid "raka vägen".