38 svar
202 visningar
naytte Online 5010 – Moderator
Postad: 1 feb 10:19 Redigerad: 1 feb 10:20

Sinus av ett infinitesimalt argument

Hej!

Ett intressant tankeexperiment åt er. Låt säga att vi har en positiv infinitesimal a och stoppar in den som argument i sinusfunktionen. Vad tror/tycker ni att det värdet borde motsvara? Borde sina=a? Eller något annat?

Jag tror att om man låter argumentet bli infinitesimalt kommer sträckan mellan enhetscirkelns skärningspunkt med x-axeln och punkten på enhetscirkeln för sina kunna approximeras som en rät linje med längden a. Och det kan man kanske acceptera. Men vad händer då om man tar sin(2a), eller sin(3a), eller sin(ka) för något positivt k? Rimligt verkar vara att sin(ka)=ka. Men det kanske är helt bananas.

Vad tror ni?

Yngve 40278 – Livehjälpare
Postad: 1 feb 12:29 Redigerad: 1 feb 12:36

Din slutsats stämmer, förutsatt att vinkeln anges i radianer.

I själva verket så är limv0sin(v)v=1\lim_{v\rightarrow0}\frac{\sin(v)}{v}=1 ett känt standardgränsvärde.

Här är ett exempel på hur det kan härledas.

Ur detta följer även att sin(ka)\sin(ka) går mot kakaaa går mot 0.

Detta går att visa på ett väldigt enkelt sätt. Kommer du på hur?

naytte Online 5010 – Moderator
Postad: 1 feb 12:36 Redigerad: 1 feb 12:37

Ja, om man får acceptera det som ett standardgränsvärde kan vi säga att:

sinvv1\displaystyle \frac{\sin v}{v}\approx 1 då v är mycket litet. Ur det följer att sinv=v\displaystyle \sin v = vvv är infinitesimalt. Eller så skulle jag motivera det i alla fall. Men egentligen vill jag motivera det utan att använda kända gränsvärden. Jobbar nämligen med infinitesimaler i allmänhet och vill hitta sätt att definiera trigonometriska funktioner för infinitesimala argument (i radianer). Jag vet att det är möjligt enligt "the transfer principle".

Och härledningen av gränsvärdet med hjälp av "the squeeze theorem" känner jag till!

OK, jag uppdaterade mitt svar samtidigt som du skrev.

Kolla videon jag länkade till där.

naytte Online 5010 – Moderator
Postad: 1 feb 13:06 Redigerad: 1 feb 13:13

Tack så mycket för videon och svaret! Ditt svar fick mig att komma till en insikt. Jag lyckades inte få till grundläggande definitioner för trigonometriska funktioner av infinitesimala argument, men om man utnyttjar standardgränsvärden försvinner problemet och man kan definiera dem utan större svårighet. Mitt stora problem var hur man skulle definiera cos(kε)\displaystyle \cos(k\varepsilon) för någon infinitesimal ε\varepsilon. Min första tanke var att det borde bli infinitesimalt mindre än 1 men i själva verket blir det 1, oavsett storlek på infinitesimalen! Nu går det ihop! 

Tack så mycket!

naytte Online 5010 – Moderator
Postad: 1 feb 19:01 Redigerad: 1 feb 19:17

Eller nej, det stämmer inte för kosinus. Den funktionen är lite mer suspekt. Har du något bra förslag på hur man skulle kunna lirka fram hur den beter sig för infinitesimala argument?

Man tycker ju den borde vara infinitesimalt nära eller alternativt vara 1, men det funkar inte med andra kända gränsvärden.

Laguna Online 30472
Postad: 1 feb 19:24

Känner du till Maclaurin-utveckling?

Jag tror det. Är det att man kan approximera funktioner med ett polynom?

Laguna Online 30472
Postad: 1 feb 19:28

Ja, t.ex. cos(x) = 1 - x2/2 + x4/24 - ...

naytte Online 5010 – Moderator
Postad: 1 feb 19:30 Redigerad: 1 feb 19:33

Så blir det så här då?:

1-n=1x2n(2n)!·(-1)n\displaystyle 1-\sum_{n=1}^{\infty }\frac{x^{2n}}{(2n)!}\cdot (-1)^n

Hur som helst verkar det då rimligt att cos(ε)=1\cos(\varepsilon)=1, eftersom alla termer innehållande ett xx blir försumbara. Men hur skulle man skriva utvecklingen för t.ex. cos2x\cos2x?

Laguna Online 30472
Postad: 1 feb 19:32 Redigerad: 1 feb 19:36

Det ser ut att stämma.

För cos(2x) får man sätta in 2x i stället för x i formeln, så det blir en faktor 22n också.

Alla sådana här serier har ett visst intervall där de konvergerar, ibland kanske när |x| < 1, ibland kanske för alla x.

Den här serien konvergerar för alla x.

 

Vad innebär det nu igen att den konvergerar? Att den "får ett värde som går att bestämma"?

Laguna Online 30472
Postad: 1 feb 19:39

Ja, ungefär. Om den inte konvergerar så är det t.ex. för att den växer obegränsat, eller för att den hoppar mellan positiva och negativa värden.

Om vi betraktar cos3x\cos3x, skulle dess McLaurin-utveckling vara konvergent för alla xx också?

Laguna Online 30472
Postad: 1 feb 19:41

Ja. Du kan byta ut 3x mot t.

naytte Online 5010 – Moderator
Postad: 1 feb 19:42 Redigerad: 1 feb 19:42

Medför det att cos3x\cos3x och cosx\cos x får samma värde då xx blir infinitesimalt?

Laguna Online 30472
Postad: 1 feb 19:43

Nja, om vi lämnar vanliga tal och inför infinitesimaler så vet jag inte hur det blir.

naytte Online 5010 – Moderator
Postad: 1 feb 19:45 Redigerad: 1 feb 19:56

Men låt säga att båda serierna är konvergenta för infinitesimala värden på xx. Bara för att båda är konvergenta för samma infinitesimal måste de inte konvergera mot samma värde, eller hur? Och även om de gör de måste de väl inte konvergera lika snabbt? Det är nämligen kruxet i ett gränsvärde jag försöker lösa med infinitesimaler:

limx0cos3x-cosxx2

På exempelvis McLaurin-utvecklingen ser vi att både cos3x\cos3x och cosx\cos x blir 1 då deras argument är infinitesimala. Men cos3x\cos3x kanske konvergerar långsammare eller snabbare än cosx\cos x? Det stämmer i alla fall inte att den differensen blir 0. Men om man skriver om allting i termer av sinx\sin x och cosx\cos x, då beter sig funktionerna bra igen och man kan direkt stoppa in en infinitesimal och erhålla -4.

naytte Online 5010 – Moderator
Postad: 1 feb 22:03 Redigerad: 1 feb 22:10

Kosinusfunktionen verkar bete sig väldigt konstigt för infinitesimala argument, och jag kan inte riktigt förstå beteendet. Låt säga att vi kan följande gränsvärde:

limx0cos3x-cosxx2=-4\displaystyle \lim_{x \to 0} \frac{\cos 3x-\cos x}{x^{2}}=-4

Då kan vi plocka fram ett uttryck för cos3ε=1-4ε2\displaystyle \cos{3\varepsilon}=1-4\varepsilon^2

Låt sedan säga att vi vet att:

limx0cos5x-cosxx2=-12cos5ε=1-12ε2\displaystyle \lim_{x \to 0} \frac{\cos5x-\cos x}{x^2}=-12\implies \cos 5\varepsilon=1-12\varepsilon^2

Om vi nu vill beräkna ett helt nytt gränsvärde med vår nyvunna kunskap kan vi testa:

limx0cos3x-cos5xx2=cos3ε-cos5εε2=(1-4ε2)-(1-12ε2)ε2=8\displaystyle \lim_{x \to 0}\frac{\cos 3x-\cos 5x}{x^2} =\frac{\cos 3\varepsilon-\cos 5\varepsilon}{\varepsilon^2}=\frac{(1-4\varepsilon^2)-(1-12\varepsilon^2)}{\varepsilon^2}=8

Och ser man på! Det är rätt!... endast då nämnaren är x2x^2... För alla andra exponenter på xx slutar våra uttryck för kosinus av olika infinitesimala kvantiteter vara sanna. Väldigt skumt. Om man jämför med sinfunktionen är det en dans på rosor att beräkna liknande gränsvärden:

limx0sin3x-sin5xx=3ε-5εε=-2\displaystyle \lim_{x \to 0}\frac{\sin3x-\sin5x}{x}=\frac{3\varepsilon-5\varepsilon}{\varepsilon}=-2

limx0sin23x-sin5xsinx=9ε2-5εε=9ε-5-5\displaystyle \lim_{x \to 0}\frac{\sin^23x-\sin5x}{\sin x}=\frac{9\varepsilon^2-5\varepsilon}{\varepsilon}=9\varepsilon-5\approx -5

Och så vidare...

Jag fattar inte varför det är så svårt att få till det snyggt för kosinus när det är så lätt för sinus.

Laguna Online 30472
Postad: 1 feb 22:18

Man använder ofta Maclaurin-utvecklingen, med tillräckligt många termer, för att räkna ut sådana gränsvärden. Jag är inte säker på att du gjorde rätt i alla exempel. Det brukar gå bra.

Målet så att säga är att på något sätt definiera de trigonometriska funktionerna för infinitesimala argument. Och för sinusfunktionen går det helt utan problem! Men för just kosinusfunktionen blir det väldigt skumt.

En intressant tanke: skulle en oändlig summa/differens av infinitesimaler kunna konvergera mot ett reellt tal?

D4NIEL Online 2932
Postad: 1 feb 22:49 Redigerad: 1 feb 22:55

Om du ska få ett nytt räknesystem med infinitesimaler att fungera måste de efterlikna de riktiga gränsvärdena.

För tillräckligt små värden på x kan man använda approximationen

cos(x)1-x22\cos(x)\approx 1-\frac{x^2}{2}

Sätter vi in ditt ε\varepsilon får vi alltså

cos(ε)=1-ε2/2\cos(\varepsilon)=1-\varepsilon^2/2

cos(3ε)=1-(3ε)2/2=1-9ε2/2\cos(3\varepsilon)=1-(3\varepsilon)^2/2=1-9\varepsilon^2/2

Och då blir uttrycket

1-9ε2/2-1+ε2/2ε2=-82=-4\frac{1-9\varepsilon^2/2-1+\varepsilon^2/2}{\varepsilon^2}=\frac{-8}{2}=-4

Tänk på att du inte får "bryta isär" ett gränsvärde. Räknereglerna för gränsvärden tillåter inte att du försöker multiplicera upp x2x^2 när du redan gått i en för täljare och nämnare "gemensam" gräns.

Ska du dela med högre potenser av xx måste du ta med fler termer i utvecklingen (göra en bättre approximation) av cos(x)\cos(x).

naytte Online 5010 – Moderator
Postad: 1 feb 23:01 Redigerad: 1 feb 23:21

Tack för svar!

Varför måste man göra approximeringen bättre ju större exponent vi väljer på xx:et i nämnaren? Och varför måste vi approximera cosx\cos x överhuvudtaget? Det är lite detta som är kruxet för mig. Det verkar för mig som om cosε\cos\varepsilon borde motsvara:

limxε[1-n=1x2n(2n)!·(-1)n]\displaystyle \lim_{x \to \varepsilon} [1-\sum_{n=1}^{\infty}\frac{x^{2n}}{(2n)!}\cdot (-1)^n]

Men det kanske till och med är svårt att slå med digitala verktyg (tar väldigt lång tid)... Hur avgör man hur exakt ens approximering måste vara?

Tänk på att du inte får "bryta isär" ett gränsvärde. Räknereglerna för gränsvärden tillåter inte att du försöker multiplicera upp x2x^2 när du redan gått i en för täljare och nämnare "gemensam" gräns.

Nej, det är jag med på egentligen. Men jag tänkte att om gränsvärdet är lika med -4 kommer uttrycket då man stoppar in ε\varepsilon vara lika med -4 också (inget gränsvärde längre utan en likhet som får manipuleras algebraiskt om man accepterar en utvidgning där all första ordningens logik överförs till infinitesimaler också).

D4NIEL Online 2932
Postad: 1 feb 23:25 Redigerad: 1 feb 23:30
naytte skrev:

Tack för svar!

Varför måste man göra approximeringen bättre ju större exponent vi väljer på xx:et i nämnaren?

Det beror på hur snabbt något går mot noll (eller oändligheten). Om vi låter x anta värdena 0.1, 0.01, 0.001 för x2x^2 och x3x^3 får vi:

x2x^2: 0.01, 0.001, 0.000001

x3x^3: 0.001, 0.000001, 0.000000001

På tre steg kom vi mycket närmare 0 med x3x^3 än med x2x^2 trots att vi tog lika långa kliv längs x-axeln, ser du skillnaden?

Och varför måste vi approximera cosx\cos x överhuvudtaget?

limxε[1-n=1x2n(2n)!]\displaystyle \lim_{x \to \varepsilon} [1-\sum_{n=1}^{\infty}\frac{x^{2n}}{(2n)!}]

Men det kanske till och med är svårt att slå med digitala verktyg (tar väldigt lång tid)... Hur avgör man hur exakt ens approximering måste vara?

Eftersom summan du nämner är oändlig kan det vara behändigt att approximera, eftersom resterande termer går väldigt fort mot noll och blir försumbara. Men om du vill får du såklart räkna med alla termer :) Tänk dock på att de som sagt är ganska många...

naytte Online 5010 – Moderator
Postad: 1 feb 23:29 Redigerad: 1 feb 23:30

På tre steg kom vi mycket närmare 0 med x3x^3 än med x2x^2 trots att vi tog lika långa kliv längs x-axeln, ser du skillnaden?

Ja, jag är med på att skillnad i potens leder till en rasant växthastighetsförändring. Men det jag inte förstår är varför vi måste approximera cosx\cos x bättre och bättre ju större potenser vi väljer? Är det för att approximeringen för cosx\cos x växer i storlek då den blir bättre, och vi vill kompensera för den höga växthastigheten på nämnaren?

D4NIEL Online 2932
Postad: 1 feb 23:35 Redigerad: 1 feb 23:37

Ja, ditt gränsvärde existerar bara om täljaren och nämnaren närmar sig noll med ungefär samma hastighet. Om t.ex. nämnaren går mot noll mycket snabbare än täljaren saknas gränsvärde (går mot oändligheten). Om täljaren går mot noll snabbare än nämnaren blir gränsvärdet trivialt 0.

Jämför uttrycken

limx0+x2x3\lim_{x\to 0^+}\frac{x^2}{x^3} (gränsvärde saknas, går mot \infty)

limx0+x3x2\lim_{x \to 0^+}\frac{x^3}{x^2} (0)

naytte Online 5010 – Moderator
Postad: 1 feb 23:37 Redigerad: 1 feb 23:38

Okej, då är jag med på alla punkter förutom en. Hur visste du vilken approximering som var rimlig att göra? Du visste att då nämnaren är av grad 2 kan man approximera cosx\cos x som 1-x2/21-x^2/2. Hur visste du att just den approximeringen var passande och inte någon med fler termer?

D4NIEL Online 2932
Postad: 1 feb 23:40 Redigerad: 1 feb 23:42

Det är tillåtet att approximera med fler termer, men när nämnaren är x2x^2 är det rimligt att utveckla till åtminstone potens 2.

Om du nöjer dig med endast en term får du ett uttryck på formen 00\frac{0}{0} vilket betyder att du behöver göra en djupare analys.

Helst ska du göra approximationen med en "extra" term och sedan visa att den högsta termen går så snabbt mot noll att man kan försumma eventuella bidrag från den.

Okej. En liten sak till, om det är okej. Det förefaller vara lite märkligt att tala om approximationer när vi ändå får exakta svar. Om vi hade valt tre termer istället så blir täljaren:

1-9ε22+81ε424-(1-ε22+ε424)=-4ε2+80ε424\displaystyle 1-\frac{9\varepsilon^{2}}{2}+\frac{81\varepsilon^{4}}{24}-(1-\frac{\varepsilon^{2}}{2}+\frac{\varepsilon^{4}}{24})=-4\varepsilon^2+\frac{80\varepsilon^4}{24}

Aha, och sedan får man -4 + en term som är ekvivalent med noll. Fattar. Tack!

D4NIEL Online 2932
Postad: 1 feb 23:52

Just det! :)

naytte Online 5010 – Moderator
Postad: 1 feb 23:54 Redigerad: 1 feb 23:54

Tack så jättemycket för hjälpen!

Lämnar denna tråd icke-grönmarkerad tills vidare då jag fortfarande vill undersöka bl.a. sinus på samma sätt. Men nu är det läggdags.

naytte Online 5010 – Moderator
Postad: 2 feb 14:12 Redigerad: 2 feb 15:31

Hej, igen!

Om vi skulle betrakta en Maclaurin-utveckling för sinkx\sin kx, då skulle den ju se ut så här:

n=0(-1)nx2n(2n)!=kx-(kx)22!+(kx)44!+...\displaystyle \sum_{n=0}^{\infty}\frac{(-1)^{n}x^{2n}}{(2n)!}=kx-\frac{(kx)^{2}}{2!}+\frac{(kx)^{4}}{4!}+...

Om vi skulle stoppa in ε\varepsilon här skulle vi få:

kε-(kε)22!+(kε)44!+...\displaystyle k\varepsilon-\frac{(k\varepsilon)^{2}}{2!}+\frac{(k\varepsilon)^{4}}{4!}+...

Och vi ser att alla termer som kommer efter den allra första i princip är försumbara. Så utifrån denna utveckling skulle jag säga att man kan säga att sinkε=kε\sin k\varepsilon = k\varepsilon. Men å andra sidan funkar inte samma resonemang för coskε\cos k\varepsilon. Kan ni komma på något gränsvärde där det värdet av sin inte funkar?


Tillägg: 2 feb 2024 15:30

Nej, nu mär jag tänker efter är det nog en väldigt bra approximering för sinkx. För om nämnaren är av tillräckligt hög grad går det bara mot oändligheten ändå (i sådana här enkla fall). Problemet i fallet med coskx är ju att ettorna alltid tar ut varandra, men det problemet får vi inte här.

Laguna Online 30472
Postad: 2 feb 16:06

Vad sägs om x3/(x - sin(x)) när x går mot 0?

naytte Online 5010 – Moderator
Postad: 3 feb 00:04 Redigerad: 3 feb 00:31

Ja, utmärkt exempel! Men det är fortfarande lite svårt att greppa tycker jag. Vi gör en approximering som egentligen bara är "infinitesimalt bättre" och det påverkar resultatet markant. Det känns ytterst märkligt att en infinitesimal skillnad kan göra så stor skillnad. 

Löste för övrigt ett lite klurigare gränsvärde med samma metod: 

limx01sin2x+1tan2x-2x2\displaystyle \lim_{x \to 0} \frac{1}{\sin^2x}+\frac{1}{\tan^2x}-\frac{2}{x^2}

Så trots att jag inte riktigt formellt har definierat dessa infinitesimaler verkar det funka ganska bra om man använder en Maclaurin-utveckling (vilket inte är så konstigt för man hade kunnat göra exakt samma sak utan infinitesimaler). Men hur kommer det sig att en Maclaurin-utveckling alltid existerar, och hur kan man visa vad den motsvarar? Läste lite på Wikipedia på spårvagnen idag men där beskrev de det inte för reellvärda funktioner. Det måste inte vara någon superrigorörs förklaring, jag skulle bara vilja bygga en intuition.


Tillägg: 3 feb 2024 00:25

Såg just en jättebra video om Taylorpolynom. Nu förstår jag.

naytte Online 5010 – Moderator
Postad: 3 feb 00:44 Redigerad: 3 feb 00:46

Men detta får mig att fundera lite. Är det ens möjligt att definiera trigonometriska funktioner väl för infinitesimala argument? Jag tänkte ju intuitivt tidigare att sinkε=kε\displaystyle \sin k\varepsilon = k\varepsilon, men i själva verket var detta bara en approximering och beroende på sammanhang behövde man göra den bättre. 

Anledningen till att jag vill införa infinitesimaler på detta sätt är för att jag vill kunna beräkna gränsvärden på formen limxaf(x)\displaystyle \lim_{x \to a} f(x)f:{a}\displaystyle f:\mathbb{R}\setminus \{ a \}\to\mathbb{R} enklare. Men det förutsätter att det ens går att designera bestämda värden till alla funktioner som behandlas.


Tillägg: 3 feb 2024 01:26

(Om man inte definierar funktionerna som Taylorserierna runt x=εx=\varepsilon)

D4NIEL Online 2932
Postad: 3 feb 12:57 Redigerad: 3 feb 13:08

Det kan hända att jag missförstår vad du vill göra med infinitesimaler, men dina tankar liknar det sätt på vilket vi vanligtvis definierar gränsvärden (även om man brukar använda δ\delta för det du kallar ε\varepsilon och tvärtom). Så min första fråga blir; har ni gått igenom gränsvärdesdefinitionen "epsilon-delta"?

Om inte är kanske den här videon en rimlig introduktion: https://www.youtube.com/watch?v=fPOX0QX8AH0

Det går utmärkt att beräkna gränsvärden för kontinuerliga funktioner när de går mot någon punkt som inte ligger i funktionens definitionsmängd DfD_f.

Trigonometriska funktioner är exempel på kontinuerliga funktioner. Funktioner sammansatta av kontinuerliga funktioner blir också kontinuerliga funktioner.

Ett exempel på en funktion som inte är definierad i en punkt (x=0), men som är kontinuerlig i varje punkt av sin definitionsmängd DfD_f (alltså en kontinuerlig funktion) och som dessutom har en hävbar diskontinuitet i punkten (x=0) är funktionen

f(x)=11+1/x2f(x)=\frac{1}{1+1/x^2}

Oavsett om vi närmas oss punkten x=0x=0 från vänster eller från höger blir gränsvärdet

limx0+f(x)=limx0-f(x)=0\lim_{x\to 0^+}f(x)=\lim_{x\to 0^-}f(x)=0

Vi kan därför "laga" funktionen genom att lägga till definitionen f(0)=0f(0)=0. Då får vi en helt sammanhängande kurva.

Funktionen f(x)=1/xf(x)=1/x är ett annat exempel på en kontinuerlig funktion eftersom den är kontinuerlig i varje punkt av sin definitionsmängd. Trots det säger man att den är diskontinuerlig i x=0x=0 och till skillnad från exemplet ovan går det inte att "laga" funktionen genom att lägga till en extra definition av den förbjudna punkten x=0x=0.

Jag tänker att du kan utgå från kontinuerliga funktioner och göra skillnad på kontinuerliga funktioner som går att "laga"  (dvs som har hävbara diskontinuiteter) och funktioner som är omöjliga att laga.

naytte Online 5010 – Moderator
Postad: 3 feb 13:18 Redigerad: 3 feb 13:23

Det kan hända att jag missförstår vad du vill göra med infinitesimaler, men dina tankar liknar det sätt på vilket vi vanligtvis definierar gränsvärden (även om man brukar använda δ\delta för det du kallar ε\varepsilon och tvärtom). Så min första fråga blir; har ni gått igenom gränsvärdesdefinitionen "epsilon-delta"?

Jajjemensan! Jag känner till ϵ\epsilon-δ\delta-definitionen. Det jag vill göra i grunden är att skapa något system där man slipper krångla till det med jobbiga beräkningar varje gång man stöter på ett gränsvärde som inte är trivialt att skriva om som ett standardgränsvärde. 

Just kontinuitet är ett viktigt begrepp här. Grundtanken till allt detta är:

Antag att vi betraktar en runt x=ax=a kontinuerlig funktion f:{a}\displaystyle f:\mathbb{R}\setminus\{ a \}\to\mathbb{R} och vill beräkna något gränsvärde då xax\to a. Då skulle man då kunna betrakta höger- och vänstergränsvärden. Om vi accepterar att det finns infinitesimaler skulle det inte vara några problem att beräkna gränsvärden från sidan då: limxa±f=f(a±)\displaystyle \lim_{x \to a^{\pm}} f=f(a^\pm), dvs dessa värden, som bara skiljer sig infinitesimalt från värdet som inte ingår i domänen, ingår i domänen. Och då borde gränsvärdesberäkningen i princip bli helt oproblematisk. Detta är likt Robinsons arbete om hyperreella tal

Problemet är att det inte är trivialt vad t.ex. sinε\sin \varepsilon ska vara. ε\varepsilon, 7ε7\varepsilon eller 990ε990\varepsilon är alla tal som borde ingå i definitionsmängden för sinx\sin x. Så rent principiellt borde det vara möjligt att definiera funktionen väl för infinitesimala argument utan att ta hjälp av en Taylorserie eller andra oändliga summor. 


Tillägg: 3 feb 2024 13:31

För funktioner av enklare karaktär är detta inga problem! T.ex. är följande gränsvärde inga problem att beräkna:

limx0+3x2-5x2=3ε2-5ε2=-\displaystyle \lim_{x \to 0^{+}} \frac{3x^{2}-5}{x^{2}}=\frac{3\varepsilon^2-5}{\varepsilon^2}=-\infty


Tillägg: 3 feb 2024 13:38

Och ett annat problem som slog nu är att jag tidigare tänkte att infinitesimalen skulle vara "det minsta reella talet större än 0", men i själva verket (som vi har kommit fram till i denna tråd) kommer infinitesimaler i olika storleksordningar så den tanken måste omarbetas.

naytte Online 5010 – Moderator
Postad: 3 feb 16:23 Redigerad: 3 feb 16:53

Som ett tillägg till inlägget ovan:

Vi skulle ju principiellt kunna ansätta följande definition:

sinkε=n=0(kε)2n+1·(-1)n(2n+1)!\displaystyle \sin k\varepsilon=\sum_{n=0}^{\infty}\frac{(k\varepsilon)^{2n+1}\cdot(-1)^n}{(2n+1)!}

Men det är ganska otillfredsställande att inte kunna hitta ett annat sätt att uttrycka värdet på. Det huvudsakliga i det här sammanhanget är om det är möjligt. Man kanske på något sätt kan visa att det inte går att uttrycka sinkε\sin k\varepsilon som en algebraisk kvantitet eller i termer av elementära funktioner (förutom de trigonometriska) utan oändliga summor?


Tillägg: 3 feb 2024 16:53

(Man skulle ju naturligtvis kunna göra det om man använder komplexvärda funktioner. Men det vill jag helst undvika.)

naytte Online 5010 – Moderator
Postad: 4 feb 17:52 Redigerad: 4 feb 17:54

Jag fick ett argument från någon på math stackexchange om varför sinε\sin \varepsilon inte generellt kan skrivas med andra elementära funktioner. Jag förstår dock inte hela bevisföringen och undrar om någon här har några bra tankar. Argumentionen lyder:

Let \displaystyle \mathcal{F} denote the set of trigonometry-free elementary functions defined on subintervals of the real line: the ones generated by rational powers, exponentials and logarithms by closing under sums, differences, products, reciprocals, and compositions.

Assume we manage to write down an f \displaystyle f\in\mathcal{F} so that sin(ε)=f(ε)\displaystyle \sin(\varepsilon)=f(\varepsilon) holds for all infinitesimal ε\displaystyle \varepsilon. Then sin\displaystyle \sin and ff must agree on every interval of infinitesimal length around 0. Since sin is analytic on such an interval, so would ff. Using the fact that ff\in\mathcal{F} allows us to get clever with complex analytic extensions, and deduce that a similar formula sin(x)=g(x)\displaystyle \sin(x)=g(x) must hold over an unbounded interval as well for some g\displaystyle g\in\mathcal{F} related to ff. However, this goes against Wilkie's theorem, which states that the zero set of any g\displaystyle g\in\mathcal{F} has to be a finite union of points and open intervals: the zero set of sinsin on an unbounded interval is instead countably infinite.

Jag förstår inte hur han kommer fram till detta:

Using the fact that f\displaystyle f\in\mathcal{F} allows us to get clever with complex analytic extensions, and deduce that a similar formula sin(x)=g(x)\displaystyle \sin(x)=g(x) must hold over an unbounded interval as well for some g\displaystyle g\in\mathcal{F} related to ff.

När jag frågade ville han inte utveckla vidare, men han hänvisade till "Risch's structure theorem", någonting som vid googling inte leder till några resultat.

Någon men kunskap inom komplex analys som skulle ha lust att upplysa mig?

Svara
Close