Linjär algebra, skalärprodukten
Hej!
https://gyazo.com/c3705e7b1d79f1e3e510ce0e363b5387
Jag förstår inte varför (* = skalärt), f(u)= (1/(u^(2)) u*v v = (1/(u^(2))vv^(t)u
Borde det inte bli, f(u)= (1/(u^(2)) u*v v = (1/(u^(2))v^(t)uv, ? Är (1/(u^(2))v^(t)uv = (1/(u^(2))vv^(t)u? Hur kommer det sig?
Tack för all typ av hjälp i förväg!
Vad är frågan? Att bestämma en matris för ortogonal projektion av en vektor på vektorn ?
AlvinB skrev:Vad är frågan? Att bestämma en matris för ortogonal projektion av en vektor på vektorn ?
Ja, exakt så! Jag råkade visst glömma att få med det, ledsen.
Är du med på varför det gäller att:
och att vi därför får:
AlvinB skrev:Är du med på varför det gäller att:
och att vi därför får:
Min företåelse: första gäller eftersom, (a,b) * (a,b) = a^2 + b^2, men, (a,b)^(T) * (a,b)= a^2 + b^2. Jag är inte med på varför u’et kan skrivas utanför vv^(T)u, borde det inte bli, v^(T)uv och inte vv^(T)u?
Jaha, du undrar alltså varför det gäller att .
Det enkla svaret är att är en skalär (vi kom ju fram till att detta var lika med skalärprodukten ) och att den därför kommuterar med matriser (och vektorer). Om du sätter är det ju inte så konstigt att , eller hur?
(Jag fick intrycket av att du undrade över fler saker eftersom du skrivit istället för , men detta kanske bara var ett misstag när du skrev)
AlvinB skrev:Är du med på varför det gäller att:
och att vi därför får:
Jag är kanske inte riktigt med här, men om u är en radvektor och v en kolumnvektor, hur kan då högerledet i första ekvationen fungera?
Laguna skrev:AlvinB skrev:Är du med på varför det gäller att:
och att vi därför får:
Jag är kanske inte riktigt med här, men om u är en radvektor och v en kolumnvektor, hur kan då högerledet i första ekvationen fungera?
och är båda kolonnvektorer. Vad skulle vara poängen att ha den ena som kolonn- och den andra som radvektor?
AlvinB skrev:Jaha, du undrar alltså varför det gäller att .
Det enkla svaret är att är en skalär (vi kom ju fram till att detta var lika med skalärprodukten ) och att den därför kommuterar med matriser (och vektorer). Om du sätter är det ju inte så konstigt att , eller hur?
(Jag fick intrycket av att du undrade över fler saker eftersom du skrivit istället för , men detta kanske bara var ett misstag när du skrev)
Ja nu förstår jag! Vad självklart blev när du nu förklarade! Oj! Ja, jag antar att jag visst råkade skriva u istället för v, jag var väl allt för fokuserad på delen jag hade problem med! Ledsen om det blev missvisande. Tack för din hjälp Alvin, dina svar brukar i regel alltid vara mycket givande!
AlvinB skrev:Laguna skrev:AlvinB skrev:Är du med på varför det gäller att:
och att vi därför får:
Jag är kanske inte riktigt med här, men om u är en radvektor och v en kolumnvektor, hur kan då högerledet i första ekvationen fungera?
och är båda kolonnvektorer. Vad skulle vara poängen att ha den ena som kolonn- och den andra som radvektor?
För att man brukar ta rader gånger kolumner när man multiplicerar vektorer och matriset. Men om det nu är så att det går bra ändå för skalärprodukter, vad är då poängen med att använda transponat på vektorerna?
Det går ju inte att multiplicera ihop två kolonnvektorer med matrismultiplikation. Poängen med transponatet är att är en radvektor (eftersom är en kolonnvektorer) och att det då går att utföra matrismultiplikationen , som blir en -matris vars enda element är skalärprodukten .
Jag förstår inte riktigt ditt resonemang för varför någon av vektorerna skulle vara radvektorer. Matrismultiplikationens definition är ju utformad för att vektorer skall vara i kolonnform. Vi har ju att multiplikationen:
är odefinierad p.g.a. matrisernas dimensioner medan multiplikationen:
är väldefinierad.
Att man multiplicerar radvektorer med kolonnvektorer när man multiplicerar matriser är förvisso det vanligaste sättet att beskriva hur matrismultiplikation utförs (jag tycker dock att det finns mer intuitiva om än mindre beräkningseffektiva sätt att förklara det på som beskriver hur man just använder en linjär transformations egenskaper för att multiplicera ihop matriser, men det är väl en annan historia...), men jag förstår inte varför det skulle motivera att eller skulle vara en radvektor.
Om du har de två kolonnvektorerna och som alltså båda är matriser av typ så är produkten en matris av typ
det vill säga en skalär och produkten är en matris av typ
det vill säga en kvadratisk matris med två rader och två kolonner.
och denna summa känner du igen som skalärprodukten mellan vektorerna och
medan
.
Notera att summan av diagonalelementen (spåret) är samma sak som skalärprodukten mellan och .
Detta resultat är en konsekvens av räkneregel för spår: och är en skalär lika med skalärprodukten mellan vektorerna och , som förstås är samma sak som skalärprodukten mellan vektorerna och .
Nu förstår jag. Jag såg vänsterledet som en matrismultiplikation även den, men skalärprodukten är en annan sak - det spelar roll om det är en skalärproduktsprick där eller inte. Det var blandningen som förvirrade mig.