9 svar
825 visningar
Einstein Euler behöver inte mer hjälp
Einstein Euler 43
Postad: 8 dec 2019 02:21 Redigerad: 8 dec 2019 02:22

Linjär algebra, avgör om avbildningen är diagonaliserbar

Jag förstår inte riktigt hur egenvärdet som är lika med 2 för symmetriska matriser och summan av dess egenrums dimension och nollrummets dimension leder till att avbildningen F är diagonaliserbar. Någon som kan bevisa detta, alternativt ge en väldigt väl grundad förklaring. Alla bevis om detta i min bok berör endast rad och kolumn vektorer och det står inget om dimensioner för matriser.

 

Tack på förhand!

oggih 1375 – F.d. Moderator
Postad: 8 dec 2019 04:10 Redigerad: 8 dec 2019 06:23

Kul uppgift! Det är inte konstigt att man blir lite förvirrad första gången man stöter på ett vektorrum där vektorerna är matriser, så det gäller att ta det lugnt här och inte låta sig skrämmas! 

Låt oss bryta ner argumentet i mindre bitar, så att det blir lättare att identifiera vilka bitar det är som förivrrar dig.


1. Grunden för hela lösningen är följande faktum: En linjär avbildning F:VVF:V\to V är diagonaliserbar om och endast om vi kan hitta en bas för VV bestående av egenvektorer. Är du med på varför detta gäller?

Det de gör i lösningsförslaget är att de konstruerar just sådan bas av egenvektorer, nämligen mängden

B={Ei,i}i=1n{Ei,j+Ej,i}1i<jn{Ei,j-Ej,i}1i<jn.\mathcal{B}=\{E_{i,i}\}_{i=1}^n\cup \{E_{i,j}+E_{j,i}\}_{1\leqslant i<j\leqslant n}\cup \{E_{i,j}-E_{j,i}\}_{1\leqslant i<j\leqslant n}\,.


2. De börjar med att visa att det verkligen rör sig om egenvektorer. Mer precist så har elementen på formen Ei,iE_{i,i} och Ei,j+Ej,iE_{i,j}+E_{j,i} egenvärdet 2, och de som har formen Ei,j-Ej,iE_{i,j}-E_{j,i} har egenvärdet 0. Är du med på hur de kommer fram till detta?


3. Nästa steg är att visa att B\mathcal{B} verkligen är en bas, alltså en linjärt oberoende mängd som spänner upp VV.

De nämner det inte rakt ut, men elementen i mängden B\mathcal{B} är linjärt oberoende. Det är ganska enkelt att övertyga sig om att att elementen i {Ei,i}i=1n{Ei,j+Ej,i}1i<jn\{E_{i,i}\}_{i=1}^n\cup \{E_{i,j}+E_{j,i}\}_{1\leqslant i<j\leqslant n} är linjärt oberoende, och att elementen i {Ei,j-Ej,i}1i<jn\{E_{i,j}-E_{j,i}\}_{1\leqslant i<j\leqslant n} är linjärt oberoende (är du med på hur?). Vidare så gäller det allmänt att egenvektorer med olika egenvärden är linjärt oberoende från varandra (vet du varför?), och vi kan därför dra slutsatsen att hela B\mathcal{B} är linjärt oberoende.


4. Sist men inte minst visar de att elementen i B\mathcal{B} spänner upp hela vektorrummet VV.

Det tycker jag egentligen att man skulle kunna visa direkt, genom att utnyttja faktumet att varje (n×n)(n\times n)-matris kan skrivas som summan av en symmetrisk och en skev-symmetrisk matris (vet du hur man visar detta?).

Men det de gör i lösningsförslaget är i stället att de utnyttjar ett litet trick, som ni säkert har gått igenom i kursen. Det gäller nämligen generellt för ett ändligt-dimensionella vektorrum VV att om man har en linjärt oberoende delmängd BV\mathcal{B}\subseteq V där antalet element är lika med dim(V)\dim(V), så måste B\mathcal{B} vara en bas för VV (man behöver alltså inte kontrollera att B\mathcal{B} verkligen spänner upp hela vektorrummet VV, utan det får man "på köpet" om antalet element i B\mathcal{B} är korrekt).

I det här fallet är det ganska lätt att räkna sig fram till att antalet element i B\mathcal{B} är n2n^2 (förstod du hur de kom fram till det?), och detta är precis lika med dimensionen för VV (är du med på varför dimensionen är just n2n^2?). 


Slutsats: Mängden B\mathcal{B} är en bas för VV bestående av egenvektorer, och avbildningen F:VVF:V\to V är alltså diagonaliserbar.


Bonusfråga: Hur ser matrisrepresentationen för FF ut med avseende på basen B\mathcal{B} som vi just hittade (exempelvis för n=2n=2)?

Einstein Euler 43
Postad: 8 dec 2019 18:40 Redigerad: 8 dec 2019 20:51
oggih skrev:

Kul uppgift! Det är inte konstigt att man blir lite förvirrad första gången man stöter på ett vektorrum där vektorerna är matriser, så det gäller att ta det lugnt här och inte låta sig skrämmas! 

Låt oss bryta ner argumentet i mindre bitar, så att det blir lättare att identifiera vilka bitar det är som förivrrar dig.


1. Grunden för hela lösningen är följande faktum: En linjär avbildning F:VVF:V\to V är diagonaliserbar om och endast om vi kan hitta en bas för VV bestående av egenvektorer. Är du med på varför detta gäller?

Det de gör i lösningsförslaget är att de konstruerar just sådan bas av egenvektorer, nämligen mängden

B={Ei,i}i=1n{Ei,j+Ej,i}1i<jn{Ei,j-Ej,i}1i<jn.\mathcal{B}=\{E_{i,i}\}_{i=1}^n\cup \{E_{i,j}+E_{j,i}\}_{1\leqslant i<j\leqslant n}\cup \{E_{i,j}-E_{j,i}\}_{1\leqslant i<j\leqslant n}\,.


2. De börjar med att visa att det verkligen rör sig om egenvektorer. Mer precist så har elementen på formen Ei,iE_{i,i} och Ei,j+Ej,iE_{i,j}+E_{j,i} egenvärdet 2, och de som har formen Ei,j-Ej,iE_{i,j}-E_{j,i} har egenvärdet 0. Är du med på hur de kommer fram till detta?


3. Nästa steg är att visa att B\mathcal{B} verkligen är en bas, alltså en linjärt oberoende mängd som spänner upp VV.

De nämner det inte rakt ut, men elementen i mängden B\mathcal{B} är linjärt oberoende. Det är ganska enkelt att övertyga sig om att att elementen i {Ei,i}i=1n{Ei,j+Ej,i}1i<jn\{E_{i,i}\}_{i=1}^n\cup \{E_{i,j}+E_{j,i}\}_{1\leqslant i<j\leqslant n} är linjärt oberoende, och att elementen i {Ei,j-Ej,i}1i<jn\{E_{i,j}-E_{j,i}\}_{1\leqslant i<j\leqslant n} är linjärt oberoende (är du med på hur?). Vidare så gäller det allmänt att egenvektorer med olika egenvärden är linjärt oberoende från varandra (vet du varför?), och vi kan därför dra slutsatsen att hela B\mathcal{B} är linjärt oberoende.


4. Sist men inte minst visar de att elementen i B\mathcal{B} spänner upp hela vektorrummet VV.

Det tycker jag egentligen att man skulle kunna visa direkt, genom att utnyttja faktumet att varje (n×n)(n\times n)-matris kan skrivas som summan av en symmetrisk och en skev-symmetrisk matris (vet du hur man visar detta?).

Men det de gör i lösningsförslaget är i stället att de utnyttjar ett litet trick, som ni säkert har gått igenom i kursen. Det gäller nämligen generellt för ett ändligt-dimensionella vektorrum VV att om man har en linjärt oberoende delmängd BV\mathcal{B}\subseteq V där antalet element är lika med dim(V)\dim(V), så måste B\mathcal{B} vara en bas för VV (man behöver alltså inte kontrollera att B\mathcal{B} verkligen spänner upp hela vektorrummet VV, utan det får man "på köpet" om antalet element i B\mathcal{B} är korrekt).

I det här fallet är det ganska lätt att räkna sig fram till att antalet element i B\mathcal{B} är n2n^2 (förstod du hur de kom fram till det?), och detta är precis lika med dimensionen för VV (är du med på varför dimensionen är just n2n^2?). 


Slutsats: Mängden B\mathcal{B} är en bas för VV bestående av egenvektorer, och avbildningen F:VVF:V\to V är alltså diagonaliserbar.


Bonusfråga: Hur ser matrisrepresentationen för FF ut med avseende på basen B\mathcal{B} som vi just hittade (exempelvis för n=2n=2)?

Tack för snabbt och utförligt svar! Jag förstår mer nu än innan. Jag har gått igenom det du skrivit några gånger nu och tror kanske jag förstår vad de menar med diagonaliserbar i det här fallet. Jag trodde man skulle visa att vektorerna (kolumnerna i matrisen A+AT ) kunde skrivas på formen PDP^-1, där P är matrisen med kolumner som innehåller egenvektorerna till A+AT och D diagonalmatrisen med respektive egenvärde. Bilden nedan är min tolkning av vad du har bevisat:

P är matrisen med egenvektorerna för avbildningen F (jag ser nu att jag skrev T(A) i bilden ovan men jag menade F(A)=P*D*P^-1), dvs basen ℬ. Har jag tolkat ditt bevis rätt i att man ska inte visa att vektorerna (kolumnerna i matrisen A+AT ) har linjärt oberoende egenvärden och därmed diagonaliserbar?  Men eftersom det nu går att diagonalisera F som både du och facit påstår att det gör. Vad är i såna fall P^-1, dvs P i bilden ovan är uppenbarligen inte kvadratisk så hur hittar en inversen? 

oggih 1375 – F.d. Moderator
Postad: 9 dec 2019 00:23 Redigerad: 10 dec 2019 14:13

Jo, men du verkar vara (typ) helt rätt på det! Diagonaliseringen ger mycket riktigt en matris på den formen. Kan du visa hur den ser ut mer exakt om n=2n=2 eller n=3n=3?

Dock verkar du ha rört till det lite när det gäller den här matrisen PP. Det behövs nämligen ingen sådan i den här uppgiften. Anledningen är att det är viss skillnad på att diagonalisera en linjär avbildning, och att diagonalisera en matris.


Diagonalisering av en avbildning. Låt VV vara ett nn-dimensionellt vektorrum, och låt F:VVF:V\to V vara en linjär avbildning.

För varje val av en bas B={b1,,bn}\mathcal{B}=\{b_1,\ldots,b_n\} för VV, så kan vår linjära avbildning F:VVF:V\to V beskrivas med hjälp av en matris på följande vis:

[F]B=[F(b1)]B[F(bn)]B,\text{} {[F]}_\mathcal{B}=\begin{bmatrix}\\ [F(b_1)]_\mathcal{B} & \cdots & [F(b_n)]_\mathcal{B}\\\end{bmatrix}\,, 

där [F(bi)]B[F(b_i)]_\mathcal{B} betecknar kolumnvektorn bestående av koordinaterna för vektorn F(bi)VF(b_i)\in V med avseende på basen B\mathcal{B}.

Om varje basvektor bib_i är en egenvektor, med F(bi)=λibiF(b_i)=\lambda_i b_i, så kommer alla komponenter i kolumnvektorn [F(bi)]B[F(b_i)]_\mathcal{B} att vara noll, förutom den i:te komponenten, som ju kommer att vara lika med λi\lambda_i. Det innebär att matrisen [F]B[F]_\mathcal{B} kommer vara en diagonalmatris, med egenvärdena på diagonalen, och vi säger att vi har diagonaliserat avbildningen F:VVF:V\to V.

Notera att ingen matris PP är inblandad i detta. 


Diagonalisering av en matris. Låt An×nA\in\mathbb{R}^{n\times n}. Vi kan tänka oss detta som en matrisrepresentation av en linjär avbildning F:nnF:\mathbb{R}^n\to\mathbb{R}^n med avseende på standardbasen {e1,,en}\{e_1,\ldots,e_n\} för n\mathbb{R}^n. Att diagonalisera AA innebär då att byta bas från standardbasen till en bas B={b1,,bn}\mathcal{B}=\{b_1,\ldots,b_n\} bestående av egenvektorer. När man har hittat en sådan bas kan vi bestämma diagonaliseringen D=[F]BD=[F]_\mathcal{B} genom att konjugera AA med hjälp av följande så kallade basbytesmatris:

P=[b1][bn],P=\begin{bmatrix}\\ [b_1] &\cdots & [b_n]\\\end{bmatrix}\,,

där [bi][b_i] är vektorn binb_i\in\mathbb{R}^n uttryckt som en kolumnvektor, och när jag säger 'konjugera' menar jag alltså att formeln D=P-1APD=P^{-1}AP gäller, precis som vi är vana vid.


Sammanfattningsvis så är det alltså viss skillnad på att diagonalisera en linjär avbildning och diagonalisera en matris, även om det i båda fallen i grund och botten handlar om att hitta en bas av egenvektorer.

Skillnaden är att för matris så har man redan en matrisrepresentation för den bakomliggande avbildningen med avseende på en standardbas, och då handlar det om att byta bas, vilket man kan göra med hjälp av en basbytesmatris PP. För en abstrakt linjär avbildning har man normalt sett ingen standardbas alls att utgå från, och då makear det så klart inte sense att göra något basbyte.

Var detta begripligt? Annars är det så klart bara att säga till igen så försöker jag eller någon annan gärna förklara bättre! 

oggih 1375 – F.d. Moderator
Postad: 9 dec 2019 00:35 Redigerad: 9 dec 2019 00:37

I och för sig så kan vi så klart hitta på en standardbas för vårt vektorrum VV, ta fram en matrisrepresentation för F:VVF:V\to V med avseende på denna standardbas, och sedan diagonalisera denna matris med hjälp av en basbytesmatris precis som vanligt.

Detta vore faktiskt en bra övning att göra om du fortfarande känner att detta är lite förvirrande!

Jag föreslår att du som standardbas väljer S={Ei,j}i,j=1n\mathcal{S}=\{E_{i,j}\}_{i,j=1}^n (bestående av n2n^2 basvektorer).

Övertyga dig själv om att detta verkligen är en bas för VV, och bestämm matrisrepresentationen A=[F]SA=[F]_\mathcal{S} (detta kommer att vara en (n2×n2)(n^2\times n^2)-matris). Diagonalisera sedan AA som du brukar diagonalisera matriser. Jämför resultatet med matrisrepresentationen som du fick fram i ditt förra inlägg genom att bestämma en bas av egenvektorer utan att gå omvägen via en standardbas!

För att det inte ska bli alltför stökigt rekommenderar jag att du väljer ett visst specifikt värde på nn, t.ex. n=2n=2 (för vilket vi får S={E1,1,E2,1,E1,2,E2,2}\mathcal{S}=\{E_{1,1}, E_{2,1}, E_{1,2},E_{2,2}\}) eller n=3n=3.

Einstein Euler 43
Postad: 9 dec 2019 16:46
oggih skrev:

Jo, men du verkar vara (typ) helt rätt på det! Diagonaliseringen ger mycket riktigt en matris på den formen. Kan du visa hur den ser ut mer exakt om n=2n=2 eller n=3n=3?

Dock verkar du ha rört till det lite när det gäller den här matrisen PP. Det behövs nämligen ingen sådan i den här uppgiften. Anledningen är att det är viss skillnad på att diagonalisera en linjär avbildning, och att diagonalisera en matris.


Diagonalisering av en avbildning. Låt VV vara ett nn-dimensionellt vektorrum, och låt F:VVF:V\to V vara en linjär avbildning.

För varje val av en bas B={b1,,bn}\mathcal{B}=\{b_1,\ldots,b_n\} för VV, så kan vår linjära avbildning F:VVF:V\to V beskrivas med hjälp av en matris på följande vis:

[F]B=[F(b1)]B[F(bn)]B,\text{} {[F]}_\mathcal{B}=\begin{bmatrix}\\ [F(b_1)]_\mathcal{B} & \cdots & [F(b_n)]_\mathcal{B}\\\end{bmatrix}\,, 

där [F(bi)]B[F(b_i)]_\mathcal{B} betecknar kolumnvektorn bestående av koordinaterna för vektorn F(bi)VF(b_i)\in V med avseende på basen B\mathcal{B}.

Om varje basvektor bib_i är en egenvektor, med F(bi)=λibiF(b_i)=\lambda_i b_i, så kommer alla komponenter i kolumnvektorn [F(bi)]B[F(b_i)]_\mathcal{B} att vara noll, förutom den i:te komponenten, som ju kommer att vara lika med λi\lambda_i. Det innebär att matrisen [F]B[F]_\mathcal{B} kommer vara en diagonalmatris, med egenvärdena på diagonalen, och vi säger att vi har diagonaliserat avbildningen F:VVF:V\to V.

Notera att ingen matris PP är inblandad i detta. 


Diagonalisering av en matris. Låt An×nA\in\mathbb{R}^{n\times n}. Vi kan tänka oss detta som en matrisrepresentation av en linjär avbildning F:nnF:\mathbb{R}^n\to\mathbb{R}^n med avseende på standardbasen {e1,,en}\{e_1,\ldots,e_n\} för n\mathbb{R}^n. Att diagonalisera AA innebär då att byta bas från standardbasen till en bas B={b1,,bn}\mathcal{B}=\{b_1,\ldots,b_n\} bestående av egenvektorer. När man har hittat en sådan bas kan vi bestämma diagonaliseringen D=[F]BD=[F]_\mathcal{B} genom att konjugera AA med hjälp av följande så kallade basbytesmatris:

P=[b1][bn],P=\begin{bmatrix}\\ [b_1] &\cdots & [b_n]\\\end{bmatrix}\,,

där [bi][b_i] är vektorn binb_i\in\mathbb{R}^n uttryckt som en kolumnvektor, och när jag säger 'konjugera' menar jag alltså att formeln D=PAP-1D=PAP^{-1} gäller, precis som vi är vana vid.


Sammanfattningsvis så är det alltså viss skillnad på att diagonalisera en linjär avbildning och diagonalisera en matris, även om det i båda fallen i grund och botten handlar om att hitta en bas av egenvektorer.

Skillnaden är att för matris så har man redan en matrisrepresentation för den bakomliggande avbildningen med avseende på en standardbas, och då handlar det om att byta bas, vilket man kan göra med hjälp av en basbytesmatris PP. För en abstrakt linjär avbildning har man normalt sett ingen standardbas alls att utgå från, och då makear det så klart inte sense att göra något basbyte.

Var detta begripligt? Annars är det så klart bara att säga till igen så försöker jag eller någon annan gärna förklara bättre! 

Tack det klargjorde en hel del! Jag tänkte att diagonalisering av avbildning och av matris var samma vilket jag tydligt nu kan se att det inte är.

Dock är det fortfarande några frågor som kommer med nästa inlägg

Einstein Euler 43
Postad: 9 dec 2019 16:49 Redigerad: 9 dec 2019 16:52
oggih skrev:

I och för sig så kan vi så klart hitta på en standardbas för vårt vektorrum VV, ta fram en matrisrepresentation för F:VVF:V\to V med avseende på denna standardbas, och sedan diagonalisera denna matris med hjälp av en basbytesmatris precis som vanligt.

Detta vore faktiskt en bra övning att göra om du fortfarande känner att detta är lite förvirrande!

Jag föreslår att du som standardbas väljer S={Ei,j}i,j=1n\mathcal{S}=\{E_{i,j}\}_{i,j=1}^n (bestående av n2n^2 basvektorer).

Övertyga dig själv om att detta verkligen är en bas för VV, och bestämm matrisrepresentationen A=[F]SA=[F]_\mathcal{S} (detta kommer att vara en (n2×n2)(n^2\times n^2)-matris). Diagonalisera sedan AA som du brukar diagonalisera matriser. Jämför resultatet med matrisrepresentationen som du fick fram i ditt förra inlägg genom att bestämma en bas av egenvektorer utan att gå omvägen via en standardbas!

För att det inte ska bli alltför stökigt rekommenderar jag att du väljer ett visst specifikt värde på nn, t.ex. n=2n=2 (för vilket vi får S={E1,1,E2,1,E1,2,E2,2}\mathcal{S}=\{E_{1,1}, E_{2,1}, E_{1,2},E_{2,2}\}) eller n=3n=3.

 Mitt försök att bevisa att man kan använda standardbasen för att bevisa att matrisrepresentationen A = [F]S är diagonaliserbar är i bilden nedan:

Jag valde att försöka bevisa så allmänt jag kunde. Några frågor som uppkommer:

För det första så förstår jag inte multiplikationen mellan A och P.

För det andra förstår jag inte likheten i det sista uttrycket förutsatt att jag gjorde rätt ända fram till dess

För det tredje vad är raderna i A? Du påstår att A är (n^2)X(n^2), vilket jag tolkar som innebär att A har n^2 rader och n^2 kolumner.

 

Och återigen Tack!

oggih 1375 – F.d. Moderator
Postad: 10 dec 2019 13:12 Redigerad: 10 dec 2019 13:56

Jag vidhåller att det är bra att göra detta för ett specifikt nn så att man verkligen konkret ser vad som händer. Låt oss därför sätta n=2n=2, så att V=2×2V=\mathbb{R}^{2\times 2}. Vårt mål är nu som bekant att diagonalisera den linjära avbildningen F:VVF:V\to V som är definierad av F(A)=A+AF(A)=A+A^\top.


Det enklaste sättet att göra detta är att direkt hitta en bas för vårt vektorrum VV, bestående av egenvektorer till FF. Det är detta vi gjorde i början av tråden. Med hjälp av resonemanget som vi förde där kommer vi fram till att B={E1,1,E2,2,E1,2+E2,1,E1,2-E2,1}\mathcal{B}=\{E_{1,1},E_{2,2},E_{1,2}+E_{2,1},E_{1,2}-E{2,1}\} är en "egenbas" för VV, där de tre första elementen har egenvärdet 2, och det sista elementet har egenvärdet 0, och det är därför uppenbart att matrisrepresentationen för F:VVF:V\to V med avseende på den här basen kommer att bli

[F]B=[F(E1,1)]B[F(E1,2-E2,1)]B=2000020000200000.\text{} {[F]}_\mathcal{B}=\begin{bmatrix}\\ [F(E_{1,1})]_\mathcal{B} & \cdots & [F(E_{1,2}-E_{2,1})]_\mathcal{B}\\\end{bmatrix}=\begin{bmatrix}2 & 0 & 0 & 0\\ 0 & 2 & 0 & 0\\ 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 0\end{bmatrix}\,.


Att hitta en sådan bas kräver dock ett visst mått av insikt eller att man gör en lyckosam gissning. I allmänhet när man stöter på en linjär avbildning är det lättare sagt än gjort att inse hur egenvektorerna kommer att se ut.

Om man inte lyckas hitta en bas för VV som som består av egenvektorer, kan man kanske i stället försöka hitta en "vanlig" bas för VV i stället, hitta en matrisrepresentation med avseende på den basen, och sedan diagonalisera den här matrisen på vanligt vis (med hjälp av en basbytesmatris).

Här är S={E1,1,E2,1,E1,2,E2,2}\mathcal{S}=\{E_{1,1}, E_{2,1}, E_{1,2}, E_{2,2}\} ett naturligt val av bas för VV.

Vi ser att F(E1,1)=E1,1+E1,1=E1,1+E1,1=2E1,1{F(E_{1,1})}=E_{1,1}+E_{1,1}^\top=E_{1,1}+E_{1,1}=2E_{1,1}\ och att F(E2,1)=E2,1+E2,1=E2,1+E1,2{F(E_{2,1})}=E_{2,1}+E_{2,1}^\top=E_{2,1}+E_{1,2}. På liknande sätt kommer vi fram till att F(E1,2)=E2,1+E1,2F(E_{1,2})=E_{2,1}+E_{1,2} och att F(E2,2)=2E2,2F(E_{2,2})=2E_{2,2}.

Matrisrepresentationen för F:VVF:V\to V med avseende på S\mathcal{S} blir därför

A=[F]S=[F(E1,1)]S[F(E2,2)]S=2000011001100002.A=\text{} {[F]}_\mathcal{S}=\begin{bmatrix}\\ [F(E_{1,1})]_\mathcal{S} & \cdots & [F(E_{2,2})]_\mathcal{S}\\\end{bmatrix}=\begin{bmatrix}2 & 0 & 0 & 0\\ 0 & 1 & 1 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 2\end{bmatrix}\,. 

Vi diagonaliserar nu denna matris på det vanliga sättet man lär sig i en första kurs i linjär algebra. Det karaktäristiska polynomet blir χA(λ)=λ4-6λ3+12λ2-8λ\chi_A(\lambda)=\lambda^4-6\lambda^3+12\lambda^2-8\lambda, och har rötterna 2 [med multiplicitet 3] och 0 [med multiplicitet 1]. Detta innebär att AA har egenvärdena 2 och 0 (och inga andra egenvärden), precis som vi kom fram till i början av tråden.

Vi vill nu hitta en bas för 4\mathbb{R}^4 bestående av egenvektorer till AA, vilket motsvarar att hitta tre linjärt oberoende vektorer i nollrummet till A-2IA-2I samt en nollskild vektor ur nollrummet till matrisen A-0IA-0I. Med lite Gauss-elimination får jag fram vektorerna

b1=1000,b2=0110,b3=0001,b4=0-110.b_1=\begin{bmatrix}1\\0\\0\\0\end{bmatrix}, b_2=\begin{bmatrix}0\\1\\1\\0\end{bmatrix}, b_3=\begin{bmatrix}0\\0\\0\\1\end{bmatrix}, b_4=\begin{bmatrix}0\\-1\\1\\0\end{bmatrix}\,.

Tillsammans bildar de en ny bas för 4\mathbb{R}^4, och den motsvarande basbytesmatrisen blir

P=1000010-101010010.P=\begin{bmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & -1\\ 0 & 1 & 0 & 1\\ 0 & 0 & 1 & 0\end{bmatrix}\,.

När vi genomför basbytet till den nya basen (genom att konjugera med PP) får vi

D=P-1AP=2000020000200000,D=P^{-1}AP=\begin{bmatrix}2 & 0 & 0 & 0\\ 0 & 2 & 0 & 0\\ 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 0\end{bmatrix}\,,

dvs. precis samma resultat som ovan! ^_^


Hänger du med på alla steg i det här inlägget? Detta med matrisrepresentationer, basbyten och diagonalisering är svårt men väldigt viktigt, så om något känns oklart så är det bra om du säger till.

Einstein Euler 43
Postad: 10 dec 2019 15:47
oggih skrev:

Jag vidhåller att det är bra att göra detta för ett specifikt nn så att man verkligen konkret ser vad som händer. Låt oss därför sätta n=2n=2, så att V=2×2V=\mathbb{R}^{2\times 2}. Vårt mål är nu som bekant att diagonalisera den linjära avbildningen F:VVF:V\to V som är definierad av F(A)=A+AF(A)=A+A^\top.


Det enklaste sättet att göra detta är att direkt hitta en bas för vårt vektorrum VV, bestående av egenvektorer till FF. Det är detta vi gjorde i början av tråden. Med hjälp av resonemanget som vi förde där kommer vi fram till att B={E1,1,E2,2,E1,2+E2,1,E1,2-E2,1}\mathcal{B}=\{E_{1,1},E_{2,2},E_{1,2}+E_{2,1},E_{1,2}-E{2,1}\} är en "egenbas" för VV, där de tre första elementen har egenvärdet 2, och det sista elementet har egenvärdet 0, och det är därför uppenbart att matrisrepresentationen för F:VVF:V\to V med avseende på den här basen kommer att bli

[F]B=[F(E1,1)]B[F(E1,2-E2,1)]B=2000020000200000.\text{} {[F]}_\mathcal{B}=\begin{bmatrix}\\ [F(E_{1,1})]_\mathcal{B} & \cdots & [F(E_{1,2}-E_{2,1})]_\mathcal{B}\\\end{bmatrix}=\begin{bmatrix}2 & 0 & 0 & 0\\ 0 & 2 & 0 & 0\\ 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 0\end{bmatrix}\,.


Att hitta en sådan bas kräver dock ett visst mått av insikt eller att man gör en lyckosam gissning. I allmänhet när man stöter på en linjär avbildning är det lättare sagt än gjort att inse hur egenvektorerna kommer att se ut.

Om man inte lyckas hitta en bas för VV som som består av egenvektorer, kan man kanske i stället försöka hitta en "vanlig" bas för VV i stället, hitta en matrisrepresentation med avseende på den basen, och sedan diagonalisera den här matrisen på vanligt vis (med hjälp av en basbytesmatris).

Här är S={E1,1,E2,1,E1,2,E2,2}\mathcal{S}=\{E_{1,1}, E_{2,1}, E_{1,2}, E_{2,2}\} ett naturligt val av bas för VV.

Vi ser att F(E1,1)=E1,1+E1,1=E1,1+E1,1=2E1,1{F(E_{1,1})}=E_{1,1}+E_{1,1}^\top=E_{1,1}+E_{1,1}=2E_{1,1}\ och att F(E2,1)=E2,1+E2,1=E2,1+E1,2{F(E_{2,1})}=E_{2,1}+E_{2,1}^\top=E_{2,1}+E_{1,2}. På liknande sätt kommer vi fram till att F(E1,2)=E2,1+E1,2F(E_{1,2})=E_{2,1}+E_{1,2} och att F(E2,2)=2E2,2F(E_{2,2})=2E_{2,2}.

Matrisrepresentationen för F:VVF:V\to V med avseende på S\mathcal{S} blir därför

A=[F]S=[F(E1,1)]S[F(E2,2)]S=2000011001100002.A=\text{} {[F]}_\mathcal{S}=\begin{bmatrix}\\ [F(E_{1,1})]_\mathcal{S} & \cdots & [F(E_{2,2})]_\mathcal{S}\\\end{bmatrix}=\begin{bmatrix}2 & 0 & 0 & 0\\ 0 & 1 & 1 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 2\end{bmatrix}\,. 

Vi diagonaliserar nu denna matris på det vanliga sättet man lär sig i en första kurs i linjär algebra. Det karaktäristiska polynomet blir χA(λ)=λ4-6λ3+12λ2-8λ\chi_A(\lambda)=\lambda^4-6\lambda^3+12\lambda^2-8\lambda, och har rötterna 2 [med multiplicitet 3] och 0 [med multiplicitet 1]. Detta innebär att AA har egenvärdena 2 och 0 (och inga andra egenvärden), precis som vi kom fram till i början av tråden.

Vi vill nu hitta en bas för 4\mathbb{R}^4 bestående av egenvektorer till AA, vilket motsvarar att hitta tre linjärt oberoende vektorer i nollrummet till A-2IA-2I samt en nollskild vektor ur nollrummet till matrisen A-0IA-0I. Med lite Gauss-elimination får jag fram vektorerna

b1=1000,b2=0110,b3=0001,b4=0-110.b_1=\begin{bmatrix}1\\0\\0\\0\end{bmatrix}, b_2=\begin{bmatrix}0\\1\\1\\0\end{bmatrix}, b_3=\begin{bmatrix}0\\0\\0\\1\end{bmatrix}, b_4=\begin{bmatrix}0\\-1\\1\\0\end{bmatrix}\,.

Tillsammans bildar de en ny bas för 4\mathbb{R}^4, och den motsvarande basbytesmatrisen blir

P=1000010-101010010.P=\begin{bmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & -1\\ 0 & 1 & 0 & 1\\ 0 & 0 & 1 & 0\end{bmatrix}\,.

När vi genomför basbytet till den nya basen (genom att konjugera med PP) får vi

D=P-1AP=2000020000200000,D=P^{-1}AP=\begin{bmatrix}2 & 0 & 0 & 0\\ 0 & 2 & 0 & 0\\ 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 0\end{bmatrix}\,,

dvs. precis samma resultat som ovan! ^_^


Hänger du med på alla steg i det här inlägget? Detta med matrisrepresentationer, basbyten och diagonalisering är svårt men väldigt viktigt, så om något känns oklart så är det bra om du säger till.

Tack oggih du är en hjälte! Jag tänkte inte på att en matris i V kunde representeras som enn2×1 kolumnvektor. Sen tar du bara basvektorn till denna och sätter in i F för att få ut transformationsmatrisen. 

oggih 1375 – F.d. Moderator
Postad: 10 dec 2019 17:14 Redigerad: 10 dec 2019 17:15

Om du vill kontrollera din förståelse så skulle du kunna upprepa det som vi just gjorde för ett annat värde på nn, säg n=3n=3.  Det kommer bli en del att skriva (9×99\times 9-matriser...), men det kan nog vara värt jobbet! ^_^

Svara
Close