12 svar
273 visningar
Qetsiyah behöver inte mer hjälp
Qetsiyah 6567 – Livehjälpare
Postad: 13 jan 2020 14:49

Flervariabelanalys: gradient

Hej, jag kollade denna video på youtube https://youtu.be/GkB4vW16QHI

De låter en variabel vara konstant och den andra variera, och så kan man derivera längs en linje "som vanligt", alltså som man gör i R->R, derivatan är då en skalär, säg a. Men i animationen så låter de derivatans värde representeras av en vektor (x,y,z)=(a,0,0) och (0,b,0) istället. Och så förklarar de att gradienten är (a,b,0) eftersom man adderar de. 

Det låter konstigt, a är inte samma sak som (a,0,0) ju. Hur kan de bara låta derivatan som egentligen är en skalär bli till en vektor?

AlvinB 4014
Postad: 13 jan 2020 22:44

aa är ju inte samma sak som (a,0,0)(a,0,0), men du kan väl representera det så om du bestämmer dig för det?

Jag tycker inte de förklarar varför gradienten är (a,b)(a,b) (gradienten har ju bara två komponenter!). Jag tycker däremot att videon kanske kan ge en och annan ledtråd till varför funktionen ökar snabbast i gradientens riktning. Ska jag vara ärlig är jag inte jätteimponerad av den där filmen.

SaintVenant 3930
Postad: 14 jan 2020 01:01 Redigerad: 14 jan 2020 01:09

Derivatan de pratar om är inte en skalär utan den är helt enkelt gradienten av funktionen när vi begränsat dess definitionsmängd vilket reduceras till en endimensionell vektor på grund av att de partiella derivatorna för övriga variabler är noll. I den aspekten kan gradienten ses som en generalisering av derivatan. Om vi har f(x)=x2 får vi gradienten:

f=ddxexx2=2xex

Givetvis är inte en skalär samma sak som en endimensionell vektor generellt eftersom det är enorm skillnad på om du är 2 meter lång eller 2 meter bred. Om jag inte minns helt fel är anledningen att vi kan reducera ovan resultat till en skalär faktumet att vektorrummet som vektorn tillhör sammanfaller med skalärfältet .

SaintVenant 3930
Postad: 14 jan 2020 01:08

Utöver att titta på Khan Academy finns det många ställen att lära sig om detta på.

Denna artikeln är väldigt bra: Vector Calculus: Understanding the Gradient

Denna serien med föreläsningar är väldigt bra: MIT 18.02 Multivariable Calculus

Specifikt Lec 8 börjar titta på det som din video försöker visualisera.

Qetsiyah 6567 – Livehjälpare
Postad: 14 jan 2020 10:00 Redigerad: 14 jan 2020 10:00
Ebola skrev:

I den aspekten kan gradienten ses som en generalisering av derivatan. Om vi har f(x)=x2 får vi gradienten:

f=ddxexx2=2xex

Ja!! Jag misstänkte nåt liknande såhär också. Alltså derivata är en endimensionell vektor om funktionen beror på en variabel.

Qetsiyah 6567 – Livehjälpare
Postad: 14 jan 2020 10:03
Ebola skrev:

Utöver att titta på Khan Academy finns det många ställen att lära sig om detta på.

(Den där videon är inte från khan academy!)

Denna artikeln är väldigt bra: Vector Calculus: Understanding the Gradient

Den här tycker jag inte heller är så bra.

Denna serien med föreläsningar är väldigt bra: MIT 18.02 Multivariable Calculus

Jag har redan kollat på den några minuter, men den är inte så bra.

Jag vill ha en animerad film av 3blue1brown klass, men det finns inte

Qetsiyah 6567 – Livehjälpare
Postad: 14 jan 2020 10:06
AlvinB skrev:

aa är ju inte samma sak som (a,0,0)(a,0,0), men du kan väl representera det så om du bestämmer dig för det?

Om du säger det så så accepterar jag väl det haha

Jag tycker inte de förklarar varför gradienten är (a,b)(a,b) (gradienten har ju bara två komponenter!). Jag tycker däremot att videon kanske kan ge en och annan ledtråd till varför funktionen ökar snabbast i gradientens riktning. Ska jag vara ärlig är jag inte jätteimponerad av den där filmen.

Att gradienten pekar åt den riktning f ökar mest förstod jag.

Det är den bästa och typ enda filmen jag har hittat som är animerad. Jag vill inte ha handskriva saker.

Liddas 294 – Fd. Medlem
Postad: 14 jan 2020 14:24

Gradienten är väl bara de partiella derivatorna för funktionen i 3 variabler blir det df/dx i+df/dy j+df/dz k.

dvs gradienten ges om du deriverar funktionen först med avseende på x, det blir i-komponenten , sen derivera funktionen med avseende på y , å sen z.

Qetsiyah 6567 – Livehjälpare
Postad: 14 jan 2020 14:25
Liddas skrev:

Gradienten är väl bara de partiella derivatorna för funktionen i 3 variabler blir det df/dx i+df/dy j+df/dz k.

dvs gradienten ges om du deriverar funktionen först med avseende på x, det blir i-komponenten , sen derivera funktionen med avseende på y , å sen z.

Yes?

Liddas 294 – Fd. Medlem
Postad: 14 jan 2020 14:32

Då är vi överens ! ;)

Qetsiyah 6567 – Livehjälpare
Postad: 14 jan 2020 14:40 Redigerad: 14 jan 2020 14:40

Trevligt!

SaintVenant 3930
Postad: 14 jan 2020 15:10

Jag vet att videon inte är från Khan Academy men om du kollar serien om gradienten där kommer du kunna skapa den där animerade filmen du söker i ditt eget huvud.

Vad menar du med "inte så bra"? Föreläsningarna från MIT håller världsklass och artikeln från better explained ger många exempel på vad en gradient beskriver i olika situationer. Det var bara tips på resurser för att bredda din intuition, en animerad video kommer aldrig förklara allt.

Qetsiyah 6567 – Livehjälpare
Postad: 29 jan 2020 18:16

Såhär i skrivande stund finns inte längre så mycket frågetecken kring gradienten. Och ja, jag kan föreställa mig den i huvudet, det är nice.

Vad menar du med "inte så bra"? Föreläsningarna från MIT håller världsklass 

Jag vet själv inte

Svara
Close