Flervariabelanalys: föredrar ni ∇ eller grad, div respektive rot?
Jag råkade veta om nablasymbolen och dess betydelse innan jag började plugga flervarren, jag tycker att det är konstigt att böjers undviker att använda den, den är smidig.
Något mindre pedagogiskt (man får minnas det helt enkelt), men det sparar plats och tid!
Jag gillar att använda överallt där det är möjligt. Låter man ser man ju direkt på uttrycken , och hur de beräknas, något som man inte gör om man skriver, , och .
Föredrar också nabla, mycket p.g.a. alla smidiga samband som involverar operatorn, se här: https://en.wikipedia.org/wiki/Vector_calculus_identities
Mycket användbart när jag pluggade elektromagnetisk fältteori minns jag :)
Åhhh den där wikipediasidan har jag sett en gång. Jag blir imponerad och förundrad, men förstår inte.
Jag minns inte i vilken bok eller hemsida jag läste det, men de påstod att nabla främst användes vid europeiska universitet. Jag kan inte uttrycka mig om påståendes sanningshalt, men... Nää?
--------------
Ett annat sätt att störa examinatorn är att skriva nabla framför funktionen, den kommuterar ju hehe. Inte kryssprodukten då!
Qetsiyah skrev:Ett annat sätt att störa examinatorn är att skriva nabla framför funktionen, den kommuterar ju hehe. Inte kryssprodukten då!
Nja, det skulle jag faktiskt inte säga att det är korrekt. Det är ju faktiskt så att operatorerna o.s.v. inte kommuterar. Operatorn borde stå till vänster.
Studera till exempel följande exempel, där är ett vektorfält och är ett skalärfält:
och
Dessa två uttryck är inte lika med varandra. Ser du varför?
Är de inte?
=
och f är en skalär? Eller? Har min hjärna lämnat kontoret såhär tidigt på kvällen?
EDIT: jag kollade wikipedia, jag förstår. Isåfall betyder ingenting alls eftersom det inte finns någon funktion framför att derivera. Detta visste jag inte.
EDIT2: Men skalärprodukten måste ju kommutera, vad spelar det för roll om nablas egenskaper?
EDIT3: Isåfall är nabla inte en vektor, eller så är detta inte en skalärprodukt
Differentialoperatorn deriverar bara saker som står till höger om den.
är alltså derivatan av med avseende på , medan i fallet "väntar" differentialoperatorn fortfarande på att en funktion ska sättas till höger om den så att den kan deriveras.
I mina exempel resulterar det i följande (nu låtsas jag att och är tredimensionella för enkelhetens skull):
I det första fallet slutar det med att vi deriverar komponenterna i medan i det andra fallet slutar det med vi att vi deriverar , eftersom deriveringsoperatorn bara deriverar det som står till höger om den.
Nablaoperatorn är av denna inledning inte kommutativ. Det gäller att skilja på operatorer och tal. Differentialoperatorn är inget vanligt tal, vilket gör att nablaoperatorn inte heller är en vanlig vektor. Därför kan skalärprodukter med nabla inte förväntas ha samma egenskaper som en vanlig skalärprodukt.
Så vilken (eller båda) av mina påståenden gäller? 1) nabla är inte en vektor 2) pricken betecknar inte skalärprodukt.
Det kanske inte är en intressant frågeställning, och nabla och pricken är bara konvention/räkneregel?
EDIT: är isåfall en operator?
Qetsiyah skrev:Så vilken (eller båda) av mina påståenden gäller? 1) nabla är inte en vektor 2) pricken betecknar inte skalärprodukt.
Det kanske inte är en intressant frågeställning, och nabla och pricken är bara konvention/räkneregel?
Ettan är definitivt sann. Nabla är inte en vektor, utan en vektoroperator precis som differentialoperatorn inte är ett tal, utan en operator. Sen är frågan om man kan utföra skalärprodukt med något som inte är en vektor. Jag skulle säga nej, eftersom skalärprodukten då slutar kommutera, så vi får väl säga att tvåan också är sann och kalla pricken för något annat.
Man skulle så klart som du säger kunna se alltsammans som en fiffig minnesregel, men jag tycker faktiskt att operatorer är såpass rigoröst definierade att man kan använda dem "på riktigt". Man får bara vara uppmärksam på när deras räkneregler skiljer sig från de vanliga.
Qetsiyah skrev:Så vilken (eller båda) av mina påståenden gäller? 1) nabla är inte en vektor 2) pricken betecknar inte skalärprodukt.
Det kanske inte är en intressant frågeställning, och nabla och pricken är bara konvention/räkneregel?
EDIT: är isåfall en operator?
Jag skulle säga att båda dina påståenden är korrekta. är en operator och är också en operator, som båda kan ta en skalär funktion som input. Nabla och pricken är som du säger bara en konvention/räkneregel. Att man använder just samma notation som man gör för för skalärprodukten är p.g.a. hur suggestiv den är, då man förstår precis hur man ska "räkna" med operatorn, som AlvinB visar.
Qetsiyah skrev:Jag minns inte i vilken bok eller hemsida jag läste det, men de påstod att nabla främst användes vid europeiska universitet. Jag kan inte uttrycka mig om påståendes sanningshalt, men... Nää?
Hmm, i vår lärobok i den s.k. "TET:en" (kurs i elektromagnetisk fältteori) så användes nabla-operatorn väldigt friskt i alla fall och det var en amerikansk bok. Det är ju i och för sig en fysikkurs :)
Ja, pricken och speciellt är VÄLDIGT suggestiva om hur man räknar med de. När jag clickar mig vidare på "vector operator" i wikipedia finns inte många andra exempel på det (det fanns laplacianen och d'Alembert operatorn).
Jag får nog nöja mig med att säga att nabla är en operator som uppvisar vektorliknande egenskaper, men är inte en vektor.
Låt oss säga att vektorn är gradienten till ett temperaturfält T i ett område.
Då talar gradienten om i vilken riktning temperaturen ändrar sig som mest. Längden av vektorn talar om hur stor förändringen är.
I en viss given punkt, oavsett i vilket koordinatsystem vi mäter, borde fältet ändra sig som mest i en given riktning (och med en given storlek). Temperaturen vet ju inte om i vilket koordinatsystem vi valt att studera systemet. Fältet borde alltså ge oss samma resultat, oavsett koordinatsystem.
Men hur uppför sig egentligen den "vektorlika" vektoroperatorn ∇ i andra koordinatsystem?
Och hur kan vi konstruera vektorstorheten så att den blir oberoende av valet av koordinatsystem?
Ja... det är det jag ska komma till! Jag har köpt boken vektoranalys. Det verkar vara viktigt, olika basvektorer och koordinatsystem. Jag hoppas att det blir ett annat tillgängligare sätt att förstå mig på tensorn också, men det är långt bak i boken.
Om du vill så avslöja svaren på dina frågor själv! Jag sitter verkligen inte på svaren.
Ja, det har med vektoranalys, basvektorer och tensorer att göra :)
Antag att vi lägger ut två alternativa koordinatsystem i rummet. I det vänstra är det 1m mellan strecken. I det högra är det 2m mellan strecken. Vi kallar det vänstra för -systemet och det högra för -systemet. En transformation mellan systemen ser då ut så här:
I det vänstra systemet är gradienten
I det högra systemet är gradienten:
Basvektorerna är tydligen dubbelt så långa; för att garantera en invariant storlek på gradienten måste därför derivatorna halveras. Gör de det?
Tyvärr inte! I det högra systemet ändrar sig saker istället dubbelt så fort. Om man tänker på det gäller ungefär:
Dessvärre verkar alltså storleken av gradienten i det högra systemet vara fyra gånger så stor.
En vanlig vektor har vett nog att under transformation röra sig åt motsatt håll (kontra) en förändring av basvektorernas längd. Men gradienten tycks vara motvalls! Den rör sig MED en förändring och gör saken VÄRRE (co-moving). Den tycks komma från ett annat universum, the upside-down.
Hur lagar vi det då? För att svara på den frågan behöver man egentligen en ganska omfattande matematisk apparat, men syftet med det här inlägget är bara att ge en känsla för hur det hänger ihop.
Det visar sig (i kursen linjär algebra) att en transformation av en" vanlig" vektor ges av en matrismultiplikation med transformationens jakobian (J),
Vill man kan man skriva matrismultiplikationen som en summa (för varje komponent j):
Här använder vi summakonventionen över indexet .
Vektorer som uppför sig så kallar vi kontravarianta
Den andra sorten, scary creatures from the upside-down, kallar vi således kovarianta. De transformerar enligt
Nu visar det sig (med kedjeregeln) att gradienten i det högra systemet kan uttryckas som
Så komponenterna i gradienten transformerar som en kovariant vektor.
För att teckna gradienten som en fristående vektor måste vi använda dualbasen:
I ett vanligt kartesiskt system sammanfaller baserna, dvs och gradienten och dess nabla-kusiner uppför sig bedrägligt normalt i uttryck som och .
Men låt dig inte luras, gradienten är en invånare från the upside-down!
Okej...
I det högra systemet är basvektorerna dubbelt så långa samtidigt som derivatorna är dubbelt så stora? Alltså gradienten är *4?
Varför skriver du T först sedan F?
En vanlig vektor har vett nog att under transformation röra sig åt motsatt håll (kontra) en förändring av basvektorernas längd. Men gradienten tycks vara motvalls!
Alltså att om vi vill skriva koordinater på en vektor så blir koordinaterna hälften i högra systemet? Verkar vettigt.
Vad heter denna matematiska apparat?
Kontravariant är så som jag förväntar mig att en vektor ska bete sig, ja.
Jag har bara snuddat vid Einsteins summakonvention, kan du uttolka dina ekvationer i slutet?
Dualbas? Bas för dualrummet? Är det inte en mängd vektorer? Det du skrivit är inte ens en mängd, vad menas?
Summakonventionen betyder bara att om du hittar två index som heter samma, ett där upp och ett där nere, ska man summera dessa över där är dimensionen. Låt oss titta på den "nya" gradienten:
Här förekommer två gånger, alltså ska vi summera. Eftersom i vårt exempel blir det bara två termer. Låt oss studera gradienten i -systemet:
Utan att närmare specificera rummet påstår vi att alla kontravarianta vektorer bor där. Om är en ordnad bas för finns en ordnad bas för dualrummet där de kovarianta vektorerna bor. Denna bas uppfyller . Vidare gäller för och
samt
En tangentbas för vårt exempelsystem är
Om vi låter parbildningen mellan och vara den vanliga skalärprodukten ska tangentbasen tillsammans med dualbasen uppfylla:
Därför måste dualbasen (eller normalbasen, eller den kontravarianta basen) i vårt exempel vara
Ett annat sätt att hitta normalbasen under samma förutsättningar är att bilda gradienten av och med avseende på .
Notera att man ibland kallar tangenbasen den kontravarianta basen, trots att den är en bas för rummet där de kovarianta vektorerna bor.
Låt oss som avslutning beräkna gradienten i en punkt (2,4) till en funktion
I vårt primmade system får vi
Som rolig övning kan du testa att beräkna gradienten i polära koordinater
Tangentbasen för polära koordinater är
Vad blir dualbasen ? Hur ser ut?
Vad är punkten uttryckt i polära koordinater? Vad blir gradienten i punkten ? Stämmer det med tidigare resultat?