Linjär algebra, bevisa att vektorer är linjärt oberoende
Kan någon bevisa att vektorerna i mängden P (se bilden nedan) är linjärt oberoende och spänner upp hela . Jag har försökt själv men lyckas bara visa att ingen vektor är en multipel av någon annan vektor i mängden.
Go fredag!!
Haru koll på att ifall den enda lösningen till (med A=nxn matrix) är den triviella, är colum vektorerna till A en bas för R^n? vilket vi ville vissa(med A=P).
För att bevisa att den enda lösningen v är den triviella måste vi vissa att endast har den trivella lösningen .
är en polynom, detta kan vi använda.
Skriv om högersidan i ekvationen med en polynom av grad n-1 och noll som koefficient framför alla, alltså
Nu har vi två polynomer av samma grad som måste vara = varandra. Per definition måste eftersom båda är koefficent till och på samma sätt måste då de båda är koefficenter framför osv. Nu har vi vissat att den enda lösningen för v är den triviella alltså är A(=P) colum vektorer en bas för R^n
Kalaskull skrev:
Go fredag!!
Haru koll på att ifall den enda lösningen till Av=0Av=0 (med A=nxn matrix) är den triviella, är colum vektorerna till A en bas för R^n? vilket vi ville vissa(med A=P).
För att bevisa att den enda lösningen v är den triviella måste vi vissa att 1a1+a2xk+a3(xk)2+...+an(xk)n−1=01a1+a2xk+a3xk2+...+anxkn-1=0 endast har den trivella lösningen a1=a2=...=an=0a1=a2=...=an=0.
1·a1+a2·xk+a3·(xk)2+...+an·(xk)n−1=01·a1+a2·xk+a3·xk2+...+an·xkn-1=0 är en polynom, detta kan vi använda.
Skriv om högersidan i ekvationen med en polynom av grad n-1 och noll som koefficient framför alla, alltså 1·a1+a2·xk+a3·(xk)2+...+an·(xk)n−1=x0·0+0·(xk)+0·(xk)2+...+0·(xk)n−11·a1+a2·xk+a3·xk2+...+an·xkn-1=x0·0+0·xk+0·xk2+...+0·xkn-1
Nu har vi två polynomer av samma grad som måste vara = varandra. Per definition måste a1=0a1=0 eftersom båda är koefficent till x0x0 och på samma sätt måste a2=0a2=0då de båda är koefficenter framför (xk)1xk1 osv. Nu har vi vissat att den enda lösningen för v är den triviella alltså är A(=P) colum vektorer en bas för R^n
Go fredag!
Du skrev:
Jag förstår inte hur du från detta kan veta att varje skalär =0. Man kan ju lösa ut a1 för att få:
) , här behöver inte vara noll utan det finns oändligt med lösningar förutsatt att man bara betraktar en ekvation som det verkar som att du har gjort
Okej jag kan ha missförstod uppgiften, jag tålkade det som att alla x_n ska behandlas som variabler. Vid antagandet att det behandlas som variabler så stämmer det att polynomen är linjärt oberoende(linear independent, tror de är rätt på svenska men för att vara säker). Ifall vi tar exemplet kan vi så klart ta t.ex x=1 och välja a_ därefter, men i såna här sammanhang har jag förståt det som att vi måste ha a_ som håller likheten för varje värde av x, vilket bara går då a_=0.
Asså typ är ju också en bas för vektor rummet därför är det av definitvt linjärt oberende, ifall din bok har något om detta i sig ger den 100000000% en bättre förklaring än mig.
Kan ta en annan motivation till varför polynomen är linjärt oberoende med hjälp av wronskian determinanten.(för min egen enkelhets skull kommer jag ta 1,x,x^2 och ursäkta vet inte vilket kurs du går och ifall man gör denna)
när den inte är noll är de man stoppa in, i vårt fall (1,x,x^2), inte linjärt beroende.
Jag använder ett bevis genom motsägelse.
Antag att vektorerna i P är linjärt beroende, då kan vi finna skalärer a0, ..., an-1, där åtminstone en skalär är skild från noll, sådana att för alla k = 1, 2, ..., n
a0 + a1xk + a2(xk)2 + ... + am(xk)m = 0.
Här är m det största värde sådant att am 0. Vi har därför att 0 m n-1.
Det betyder att alla värden x1, ..., xn är nollställen till polynomet
.
Men detta är omöjligt eftersom detta polynom kan ha som mest m distinkta nollställen och m < n. Således leder antagandet att vektorerna är linjärt beroende till en motsägelse och vektorerna måste därför vara linjärt oberoende enligt ”reductio ad absurdum”.