Flervariabelanalys: gradient
Hej, jag kollade denna video på youtube https://youtu.be/GkB4vW16QHI
De låter en variabel vara konstant och den andra variera, och så kan man derivera längs en linje "som vanligt", alltså som man gör i R->R, derivatan är då en skalär, säg a. Men i animationen så låter de derivatans värde representeras av en vektor (x,y,z)=(a,0,0) och (0,b,0) istället. Och så förklarar de att gradienten är (a,b,0) eftersom man adderar de.
Det låter konstigt, a är inte samma sak som (a,0,0) ju. Hur kan de bara låta derivatan som egentligen är en skalär bli till en vektor?
är ju inte samma sak som , men du kan väl representera det så om du bestämmer dig för det?
Jag tycker inte de förklarar varför gradienten är (gradienten har ju bara två komponenter!). Jag tycker däremot att videon kanske kan ge en och annan ledtråd till varför funktionen ökar snabbast i gradientens riktning. Ska jag vara ärlig är jag inte jätteimponerad av den där filmen.
Derivatan de pratar om är inte en skalär utan den är helt enkelt gradienten av funktionen när vi begränsat dess definitionsmängd vilket reduceras till en endimensionell vektor på grund av att de partiella derivatorna för övriga variabler är noll. I den aspekten kan gradienten ses som en generalisering av derivatan. Om vi har får vi gradienten:
Givetvis är inte en skalär samma sak som en endimensionell vektor generellt eftersom det är enorm skillnad på om du är 2 meter lång eller 2 meter bred. Om jag inte minns helt fel är anledningen att vi kan reducera ovan resultat till en skalär faktumet att vektorrummet som vektorn tillhör sammanfaller med skalärfältet .
Utöver att titta på Khan Academy finns det många ställen att lära sig om detta på.
Denna artikeln är väldigt bra: Vector Calculus: Understanding the Gradient
Denna serien med föreläsningar är väldigt bra: MIT 18.02 Multivariable Calculus
Specifikt Lec 8 börjar titta på det som din video försöker visualisera.
Ebola skrev:I den aspekten kan gradienten ses som en generalisering av derivatan. Om vi har får vi gradienten:
Ja!! Jag misstänkte nåt liknande såhär också. Alltså derivata är en endimensionell vektor om funktionen beror på en variabel.
Ebola skrev:Utöver att titta på Khan Academy finns det många ställen att lära sig om detta på.
(Den där videon är inte från khan academy!)
Denna artikeln är väldigt bra: Vector Calculus: Understanding the Gradient
Den här tycker jag inte heller är så bra.
Denna serien med föreläsningar är väldigt bra: MIT 18.02 Multivariable Calculus
Jag har redan kollat på den några minuter, men den är inte så bra.
Jag vill ha en animerad film av 3blue1brown klass, men det finns inte
AlvinB skrev:är ju inte samma sak som , men du kan väl representera det så om du bestämmer dig för det?
Om du säger det så så accepterar jag väl det haha
Jag tycker inte de förklarar varför gradienten är (gradienten har ju bara två komponenter!). Jag tycker däremot att videon kanske kan ge en och annan ledtråd till varför funktionen ökar snabbast i gradientens riktning. Ska jag vara ärlig är jag inte jätteimponerad av den där filmen.
Att gradienten pekar åt den riktning f ökar mest förstod jag.
Det är den bästa och typ enda filmen jag har hittat som är animerad. Jag vill inte ha handskriva saker.
Gradienten är väl bara de partiella derivatorna för funktionen i 3 variabler blir det df/dx i+df/dy j+df/dz k.
dvs gradienten ges om du deriverar funktionen först med avseende på x, det blir i-komponenten , sen derivera funktionen med avseende på y , å sen z.
Liddas skrev:Gradienten är väl bara de partiella derivatorna för funktionen i 3 variabler blir det df/dx i+df/dy j+df/dz k.
dvs gradienten ges om du deriverar funktionen först med avseende på x, det blir i-komponenten , sen derivera funktionen med avseende på y , å sen z.
Yes?
Då är vi överens ! ;)
Trevligt!
Jag vet att videon inte är från Khan Academy men om du kollar serien om gradienten där kommer du kunna skapa den där animerade filmen du söker i ditt eget huvud.
Vad menar du med "inte så bra"? Föreläsningarna från MIT håller världsklass och artikeln från better explained ger många exempel på vad en gradient beskriver i olika situationer. Det var bara tips på resurser för att bredda din intuition, en animerad video kommer aldrig förklara allt.
Såhär i skrivande stund finns inte längre så mycket frågetecken kring gradienten. Och ja, jag kan föreställa mig den i huvudet, det är nice.
Vad menar du med "inte så bra"? Föreläsningarna från MIT håller världsklass
Jag vet själv inte