Sinus av ett infinitesimalt argument
Hej!
Ett intressant tankeexperiment åt er. Låt säga att vi har en positiv infinitesimal a och stoppar in den som argument i sinusfunktionen. Vad tror/tycker ni att det värdet borde motsvara? Borde sina=a? Eller något annat?
Jag tror att om man låter argumentet bli infinitesimalt kommer sträckan mellan enhetscirkelns skärningspunkt med x-axeln och punkten på enhetscirkeln för sina kunna approximeras som en rät linje med längden a. Och det kan man kanske acceptera. Men vad händer då om man tar sin(2a), eller sin(3a), eller sin(ka) för något positivt k? Rimligt verkar vara att sin(ka)=ka. Men det kanske är helt bananas.
Vad tror ni?
Din slutsats stämmer, förutsatt att vinkeln anges i radianer.
I själva verket så är ett känt standardgränsvärde.
Här är ett exempel på hur det kan härledas.
Ur detta följer även att går mot då går mot 0.
Detta går att visa på ett väldigt enkelt sätt. Kommer du på hur?
Ja, om man får acceptera det som ett standardgränsvärde kan vi säga att:
då v är mycket litet. Ur det följer att då är infinitesimalt. Eller så skulle jag motivera det i alla fall. Men egentligen vill jag motivera det utan att använda kända gränsvärden. Jobbar nämligen med infinitesimaler i allmänhet och vill hitta sätt att definiera trigonometriska funktioner för infinitesimala argument (i radianer). Jag vet att det är möjligt enligt "the transfer principle".
Och härledningen av gränsvärdet med hjälp av "the squeeze theorem" känner jag till!
OK, jag uppdaterade mitt svar samtidigt som du skrev.
Kolla videon jag länkade till där.
Tack så mycket för videon och svaret! Ditt svar fick mig att komma till en insikt. Jag lyckades inte få till grundläggande definitioner för trigonometriska funktioner av infinitesimala argument, men om man utnyttjar standardgränsvärden försvinner problemet och man kan definiera dem utan större svårighet. Mitt stora problem var hur man skulle definiera för någon infinitesimal . Min första tanke var att det borde bli infinitesimalt mindre än 1 men i själva verket blir det 1, oavsett storlek på infinitesimalen! Nu går det ihop!
Tack så mycket!
Eller nej, det stämmer inte för kosinus. Den funktionen är lite mer suspekt. Har du något bra förslag på hur man skulle kunna lirka fram hur den beter sig för infinitesimala argument?
Man tycker ju den borde vara infinitesimalt nära eller alternativt vara 1, men det funkar inte med andra kända gränsvärden.
Känner du till Maclaurin-utveckling?
Jag tror det. Är det att man kan approximera funktioner med ett polynom?
Ja, t.ex. cos(x) = 1 - x2/2 + x4/24 - ...
Så blir det så här då?:
Hur som helst verkar det då rimligt att , eftersom alla termer innehållande ett blir försumbara. Men hur skulle man skriva utvecklingen för t.ex. ?
Det ser ut att stämma.
För cos(2x) får man sätta in 2x i stället för x i formeln, så det blir en faktor 22n också.
Alla sådana här serier har ett visst intervall där de konvergerar, ibland kanske när |x| < 1, ibland kanske för alla x.
Den här serien konvergerar för alla x.
Vad innebär det nu igen att den konvergerar? Att den "får ett värde som går att bestämma"?
Ja, ungefär. Om den inte konvergerar så är det t.ex. för att den växer obegränsat, eller för att den hoppar mellan positiva och negativa värden.
Om vi betraktar , skulle dess McLaurin-utveckling vara konvergent för alla också?
Ja. Du kan byta ut 3x mot t.
Medför det att och får samma värde då blir infinitesimalt?
Nja, om vi lämnar vanliga tal och inför infinitesimaler så vet jag inte hur det blir.
Men låt säga att båda serierna är konvergenta för infinitesimala värden på . Bara för att båda är konvergenta för samma infinitesimal måste de inte konvergera mot samma värde, eller hur? Och även om de gör de måste de väl inte konvergera lika snabbt? Det är nämligen kruxet i ett gränsvärde jag försöker lösa med infinitesimaler:
På exempelvis McLaurin-utvecklingen ser vi att både och blir 1 då deras argument är infinitesimala. Men kanske konvergerar långsammare eller snabbare än ? Det stämmer i alla fall inte att den differensen blir 0. Men om man skriver om allting i termer av och , då beter sig funktionerna bra igen och man kan direkt stoppa in en infinitesimal och erhålla -4.
Kosinusfunktionen verkar bete sig väldigt konstigt för infinitesimala argument, och jag kan inte riktigt förstå beteendet. Låt säga att vi kan följande gränsvärde:
Då kan vi plocka fram ett uttryck för
Låt sedan säga att vi vet att:
Om vi nu vill beräkna ett helt nytt gränsvärde med vår nyvunna kunskap kan vi testa:
Och ser man på! Det är rätt!... endast då nämnaren är ... För alla andra exponenter på slutar våra uttryck för kosinus av olika infinitesimala kvantiteter vara sanna. Väldigt skumt. Om man jämför med sinfunktionen är det en dans på rosor att beräkna liknande gränsvärden:
Och så vidare...
Jag fattar inte varför det är så svårt att få till det snyggt för kosinus när det är så lätt för sinus.
Man använder ofta Maclaurin-utvecklingen, med tillräckligt många termer, för att räkna ut sådana gränsvärden. Jag är inte säker på att du gjorde rätt i alla exempel. Det brukar gå bra.
Målet så att säga är att på något sätt definiera de trigonometriska funktionerna för infinitesimala argument. Och för sinusfunktionen går det helt utan problem! Men för just kosinusfunktionen blir det väldigt skumt.
En intressant tanke: skulle en oändlig summa/differens av infinitesimaler kunna konvergera mot ett reellt tal?
Om du ska få ett nytt räknesystem med infinitesimaler att fungera måste de efterlikna de riktiga gränsvärdena.
För tillräckligt små värden på x kan man använda approximationen
Sätter vi in ditt får vi alltså
Och då blir uttrycket
Tänk på att du inte får "bryta isär" ett gränsvärde. Räknereglerna för gränsvärden tillåter inte att du försöker multiplicera upp när du redan gått i en för täljare och nämnare "gemensam" gräns.
Ska du dela med högre potenser av måste du ta med fler termer i utvecklingen (göra en bättre approximation) av .
Tack för svar!
Varför måste man göra approximeringen bättre ju större exponent vi väljer på :et i nämnaren? Och varför måste vi approximera överhuvudtaget? Det är lite detta som är kruxet för mig. Det verkar för mig som om borde motsvara:
Men det kanske till och med är svårt att slå med digitala verktyg (tar väldigt lång tid)... Hur avgör man hur exakt ens approximering måste vara?
Tänk på att du inte får "bryta isär" ett gränsvärde. Räknereglerna för gränsvärden tillåter inte att du försöker multiplicera upp när du redan gått i en för täljare och nämnare "gemensam" gräns.
Nej, det är jag med på egentligen. Men jag tänkte att om gränsvärdet är lika med -4 kommer uttrycket då man stoppar in vara lika med -4 också (inget gränsvärde längre utan en likhet som får manipuleras algebraiskt om man accepterar en utvidgning där all första ordningens logik överförs till infinitesimaler också).
naytte skrev:Tack för svar!
Varför måste man göra approximeringen bättre ju större exponent vi väljer på :et i nämnaren?
Det beror på hur snabbt något går mot noll (eller oändligheten). Om vi låter x anta värdena 0.1, 0.01, 0.001 för och får vi:
: 0.01, 0.001, 0.000001
: 0.001, 0.000001, 0.000000001
På tre steg kom vi mycket närmare 0 med än med trots att vi tog lika långa kliv längs x-axeln, ser du skillnaden?
Och varför måste vi approximera överhuvudtaget?
Men det kanske till och med är svårt att slå med digitala verktyg (tar väldigt lång tid)... Hur avgör man hur exakt ens approximering måste vara?
Eftersom summan du nämner är oändlig kan det vara behändigt att approximera, eftersom resterande termer går väldigt fort mot noll och blir försumbara. Men om du vill får du såklart räkna med alla termer :) Tänk dock på att de som sagt är ganska många...
På tre steg kom vi mycket närmare 0 med än med trots att vi tog lika långa kliv längs x-axeln, ser du skillnaden?
Ja, jag är med på att skillnad i potens leder till en rasant växthastighetsförändring. Men det jag inte förstår är varför vi måste approximera bättre och bättre ju större potenser vi väljer? Är det för att approximeringen för växer i storlek då den blir bättre, och vi vill kompensera för den höga växthastigheten på nämnaren?
Ja, ditt gränsvärde existerar bara om täljaren och nämnaren närmar sig noll med ungefär samma hastighet. Om t.ex. nämnaren går mot noll mycket snabbare än täljaren saknas gränsvärde (går mot oändligheten). Om täljaren går mot noll snabbare än nämnaren blir gränsvärdet trivialt 0.
Jämför uttrycken
(gränsvärde saknas, går mot )
(0)
Okej, då är jag med på alla punkter förutom en. Hur visste du vilken approximering som var rimlig att göra? Du visste att då nämnaren är av grad 2 kan man approximera som . Hur visste du att just den approximeringen var passande och inte någon med fler termer?
Det är tillåtet att approximera med fler termer, men när nämnaren är är det rimligt att utveckla till åtminstone potens 2.
Om du nöjer dig med endast en term får du ett uttryck på formen vilket betyder att du behöver göra en djupare analys.
Helst ska du göra approximationen med en "extra" term och sedan visa att den högsta termen går så snabbt mot noll att man kan försumma eventuella bidrag från den.
Okej. En liten sak till, om det är okej. Det förefaller vara lite märkligt att tala om approximationer när vi ändå får exakta svar. Om vi hade valt tre termer istället så blir täljaren:
Aha, och sedan får man -4 + en term som är ekvivalent med noll. Fattar. Tack!
Just det! :)
Tack så jättemycket för hjälpen!
Lämnar denna tråd icke-grönmarkerad tills vidare då jag fortfarande vill undersöka bl.a. sinus på samma sätt. Men nu är det läggdags.
Hej, igen!
Om vi skulle betrakta en Maclaurin-utveckling för , då skulle den ju se ut så här:
Om vi skulle stoppa in här skulle vi få:
Och vi ser att alla termer som kommer efter den allra första i princip är försumbara. Så utifrån denna utveckling skulle jag säga att man kan säga att . Men å andra sidan funkar inte samma resonemang för . Kan ni komma på något gränsvärde där det värdet av sin inte funkar?
Tillägg: 2 feb 2024 15:30
Nej, nu mär jag tänker efter är det nog en väldigt bra approximering för sinkx. För om nämnaren är av tillräckligt hög grad går det bara mot oändligheten ändå (i sådana här enkla fall). Problemet i fallet med coskx är ju att ettorna alltid tar ut varandra, men det problemet får vi inte här.
Vad sägs om x3/(x - sin(x)) när x går mot 0?
Ja, utmärkt exempel! Men det är fortfarande lite svårt att greppa tycker jag. Vi gör en approximering som egentligen bara är "infinitesimalt bättre" och det påverkar resultatet markant. Det känns ytterst märkligt att en infinitesimal skillnad kan göra så stor skillnad.
Löste för övrigt ett lite klurigare gränsvärde med samma metod:
Så trots att jag inte riktigt formellt har definierat dessa infinitesimaler verkar det funka ganska bra om man använder en Maclaurin-utveckling (vilket inte är så konstigt för man hade kunnat göra exakt samma sak utan infinitesimaler). Men hur kommer det sig att en Maclaurin-utveckling alltid existerar, och hur kan man visa vad den motsvarar? Läste lite på Wikipedia på spårvagnen idag men där beskrev de det inte för reellvärda funktioner. Det måste inte vara någon superrigorörs förklaring, jag skulle bara vilja bygga en intuition.
Tillägg: 3 feb 2024 00:25
Såg just en jättebra video om Taylorpolynom. Nu förstår jag.
Men detta får mig att fundera lite. Är det ens möjligt att definiera trigonometriska funktioner väl för infinitesimala argument? Jag tänkte ju intuitivt tidigare att , men i själva verket var detta bara en approximering och beroende på sammanhang behövde man göra den bättre.
Anledningen till att jag vill införa infinitesimaler på detta sätt är för att jag vill kunna beräkna gränsvärden på formen då enklare. Men det förutsätter att det ens går att designera bestämda värden till alla funktioner som behandlas.
Tillägg: 3 feb 2024 01:26
(Om man inte definierar funktionerna som Taylorserierna runt )
Det kan hända att jag missförstår vad du vill göra med infinitesimaler, men dina tankar liknar det sätt på vilket vi vanligtvis definierar gränsvärden (även om man brukar använda för det du kallar och tvärtom). Så min första fråga blir; har ni gått igenom gränsvärdesdefinitionen "epsilon-delta"?
Om inte är kanske den här videon en rimlig introduktion: https://www.youtube.com/watch?v=fPOX0QX8AH0
Det går utmärkt att beräkna gränsvärden för kontinuerliga funktioner när de går mot någon punkt som inte ligger i funktionens definitionsmängd .
Trigonometriska funktioner är exempel på kontinuerliga funktioner. Funktioner sammansatta av kontinuerliga funktioner blir också kontinuerliga funktioner.
Ett exempel på en funktion som inte är definierad i en punkt (x=0), men som är kontinuerlig i varje punkt av sin definitionsmängd (alltså en kontinuerlig funktion) och som dessutom har en hävbar diskontinuitet i punkten (x=0) är funktionen
Oavsett om vi närmas oss punkten från vänster eller från höger blir gränsvärdet
Vi kan därför "laga" funktionen genom att lägga till definitionen . Då får vi en helt sammanhängande kurva.
Funktionen är ett annat exempel på en kontinuerlig funktion eftersom den är kontinuerlig i varje punkt av sin definitionsmängd. Trots det säger man att den är diskontinuerlig i och till skillnad från exemplet ovan går det inte att "laga" funktionen genom att lägga till en extra definition av den förbjudna punkten .
Jag tänker att du kan utgå från kontinuerliga funktioner och göra skillnad på kontinuerliga funktioner som går att "laga" (dvs som har hävbara diskontinuiteter) och funktioner som är omöjliga att laga.
Det kan hända att jag missförstår vad du vill göra med infinitesimaler, men dina tankar liknar det sätt på vilket vi vanligtvis definierar gränsvärden (även om man brukar använda för det du kallar och tvärtom). Så min första fråga blir; har ni gått igenom gränsvärdesdefinitionen "epsilon-delta"?
Jajjemensan! Jag känner till --definitionen. Det jag vill göra i grunden är att skapa något system där man slipper krångla till det med jobbiga beräkningar varje gång man stöter på ett gränsvärde som inte är trivialt att skriva om som ett standardgränsvärde.
Just kontinuitet är ett viktigt begrepp här. Grundtanken till allt detta är:
Antag att vi betraktar en runt kontinuerlig funktion och vill beräkna något gränsvärde då . Då skulle man då kunna betrakta höger- och vänstergränsvärden. Om vi accepterar att det finns infinitesimaler skulle det inte vara några problem att beräkna gränsvärden från sidan då: , dvs dessa värden, som bara skiljer sig infinitesimalt från värdet som inte ingår i domänen, ingår i domänen. Och då borde gränsvärdesberäkningen i princip bli helt oproblematisk. Detta är likt Robinsons arbete om hyperreella tal.
Problemet är att det inte är trivialt vad t.ex. ska vara. , eller är alla tal som borde ingå i definitionsmängden för . Så rent principiellt borde det vara möjligt att definiera funktionen väl för infinitesimala argument utan att ta hjälp av en Taylorserie eller andra oändliga summor.
Tillägg: 3 feb 2024 13:31
För funktioner av enklare karaktär är detta inga problem! T.ex. är följande gränsvärde inga problem att beräkna:
Tillägg: 3 feb 2024 13:38
Och ett annat problem som slog nu är att jag tidigare tänkte att infinitesimalen skulle vara "det minsta reella talet större än 0", men i själva verket (som vi har kommit fram till i denna tråd) kommer infinitesimaler i olika storleksordningar så den tanken måste omarbetas.
Som ett tillägg till inlägget ovan:
Vi skulle ju principiellt kunna ansätta följande definition:
Men det är ganska otillfredsställande att inte kunna hitta ett annat sätt att uttrycka värdet på. Det huvudsakliga i det här sammanhanget är om det är möjligt. Man kanske på något sätt kan visa att det inte går att uttrycka som en algebraisk kvantitet eller i termer av elementära funktioner (förutom de trigonometriska) utan oändliga summor?
Tillägg: 3 feb 2024 16:53
(Man skulle ju naturligtvis kunna göra det om man använder komplexvärda funktioner. Men det vill jag helst undvika.)
Jag fick ett argument från någon på math stackexchange om varför inte generellt kan skrivas med andra elementära funktioner. Jag förstår dock inte hela bevisföringen och undrar om någon här har några bra tankar. Argumentionen lyder:
Let denote the set of trigonometry-free elementary functions defined on subintervals of the real line: the ones generated by rational powers, exponentials and logarithms by closing under sums, differences, products, reciprocals, and compositions.
Assume we manage to write down an so that holds for all infinitesimal . Then and must agree on every interval of infinitesimal length around 0. Since sin is analytic on such an interval, so would . Using the fact that allows us to get clever with complex analytic extensions, and deduce that a similar formula must hold over an unbounded interval as well for some related to . However, this goes against Wilkie's theorem, which states that the zero set of any has to be a finite union of points and open intervals: the zero set of sinsin on an unbounded interval is instead countably infinite.
Jag förstår inte hur han kommer fram till detta:
Using the fact that allows us to get clever with complex analytic extensions, and deduce that a similar formula must hold over an unbounded interval as well for some related to .
När jag frågade ville han inte utveckla vidare, men han hänvisade till "Risch's structure theorem", någonting som vid googling inte leder till några resultat.
Någon men kunskap inom komplex analys som skulle ha lust att upplysa mig?