Flervariabelanalys: anourlunda version av derivatans definiton
Hej:
Jag har sett denna förut (såklart):
Men nu i boken stöter jag på:
Jag finner ingen intuition i detta, var kommer denna rho-funktionen från? Varför finns den?
Dela leden med h och låt h gå mot 0.
Vad blir kvar?
Ja... det blir den som jag har sett förrut!
Men finns det någon geometrisk tolkning av detta?
Boken jag använde, Flerdimensionell analys av Jonas Månsson och Patrik Nordbeck hade följande förklaring
är basically samma sak som för någon funktion så att
Sök runt lite på differentierbarhet ifall du vill ha utförligare förklaring.
Är det meningen att den alternativa definitionen skrivs utan "limes?
Yeah
I flervariabel analysen använder man differentierbarhet för att bestämma ifall en funktion är partiellt deriverbar och kontinuerlig.
Ser ut så här i två variabler i punkten (a,b)
med
(där )
Det har redan konstaterats att det boken skriver i princip bara är en ekvivalent formulering av derivatans definition, men eftersom du också frågar om det finns någon geometrisk tolkning av den här formuleringen, så tänkte jag att jag kunde säga några ord om detta.
Idén är följande: Låt vara en realvärd funktion som är deriverbar vid . Då kommer den räta linjen genom punkten med lutningen att vara en väldigt bra approximation till funktionen för som ligger nära .
Detta kan lite mer precist uttryckas som att
för , där beskriver hur långt ifrån vi befinner oss.
(Jämför gärna detta med enpunktsformeln från gymnasiematten.)
Vill man uttrycka det ännu lite mer precist, utan de lite flummiga "ungefär lika med"-tecknen, så skulle man kunna skriva
där är en funktion som mäter felet i approximationen, och som uppfyller .
Problemet är bara att detta helt misslyckas med att fånga hur bra den här linjära approximationen av funktionen är.
Oavsett vilken lutning vi än väljer för vår linjära approximation, så kommer den motsvarande felfunktionen (som beror av och som vi väljer så att uppfylls) automatiskt att uppfylla .
Detta är en direkt konsekvens av att är kontinuerlig i . (Kom ihåg att deriverbarhet medför kontinuitet!)
Det som gör den linjära approximationen där just derivatan används som riktningskoefficient extra bra, är att den motsvarande felfunktionen går mot noll snabbare än vår avvikelse i -led.
Detta kan vi uttrycka som går mot noll även om vi dividerar med , dvs. att .
Eller, om vi så vill, som att för någon funktion sådan att .
Det bästa sättet att greppa detta är att leka runt lite med en grafritare.
Här har jag satt ihop en liten GeoGebra-applet, som plottar en funktion (svart), ihop med en linjär approximation (blå) genom en viss punkt med en viss lutning , samt skillnaden mellan funktionen och apporixmationen (rött). Testa att justera lutningen tills den sammanfaller med derivatan , och lägg märke till att felet då blir särskilt litet. Du kan även testa att lägga till felet dividerat med avvikelsen i -led till plotten (orange).
(Observera att jag i appleten har valt att uttrycka den linjära approximationen som , och att jag har låtit felfunktionen bero på i stället för .)
Oggih skrev:[...]
Problemet är bara att detta helt misslyckas med att fånga hur bra den här linjära approximationen av funktionen är.[...]
Detta är en direkt konsekvens av att är kontinuerlig i . (Kom ihåg att deriverbarhet medför kontinuitet!)
Det som gör den linjära approximationen där just derivatan används som riktningskoefficient extra bra, är att den motsvarande felfunktionen går mot noll snabbare än vår avvikelse i -led.
[...]
Alldeles utmärkt förkarat. Jag förstod inte riktigt när jag läste det först, men nu blev det enkelt.