Statistik, Markov Chain
Jag pluggar på gamla tentor i Matematisk statistik och fastnade på denna fråga. Helt ärligt förstår jag inte ens frågan. Jag vet vad en transition matrix är, matrisen med sannolikheter att gå vidare till nästa state osv, men vad menar dom med detta?
Markov chain (MC) is fully defined by its matrix of transition probabilities and initial distribution. Can MC be fully defined by an initial distribution and a two-step transition probability matrix?
Jag har absolut ingen susning om Markov-kedjor, men jag tänkte visa mig lite naiv så får du berätta hur jag tänker fel och sen kan du lösa uppgiften med gummianka-faktorn.
Den matris du får är en som har reella icke-negativa egenvärden -- sådana är matriserna för stokastiska processer. Frågan som ställs uppfattar jag som en fråga om (huruvida) du ur en tvåstegs-matris (som är kvadraten på den matris som helt definierar markov-kedjan) kan plocka fram den "enkla" matrisen -- den som definierar Markov-kedjan. Den skulle i så fall ha egenvärden som är roten ur de egenvärden din tvåstegs-matris har, och (tror jag) samma egenvektorer.
Alltså gissar jag att svaret på frågan är ja -- man kan liksom få en känsla av att matriser för stokastiska processer alltid kan "växlas ner" -- Internet har ideer också.
Men som sagt -- jag är inte att lita på som expert i det här ämnet. Vi behöver båda hjälp av någon som är duktig på teorin för funktioner av matriser.
Jag förstår inte riktigt din slutsats för att svaret skulle vara ja, men jag tror kanske att du är inne på rätt spår, men glömt fallet för identitetsmatrisen?
Svaret är nämligen nej, med exemplet:
Can MC be fully defined by an initial distribution and a two-step transition probability matrix?
Är det alltså för att två olika tvåstegsmatrisen ger samma Markov kedja? Vad i detta fall är initial distribution? Eller är svaret nej bara för att vi har motbevisat att en tvåstegsmatris inte är tillräcklig, oavsett initial ditsribution?
Hej!
Svaret är Nej, på grund av att matrisen inte är entydigt definierad; här betecknar tvåstegsövergångsmatrisen och dess kvadratrot är ettstegsövergångsmatrisen (eller övergångsmatrisen som den vanligtvis kallas). Man kan också formulera detta som: För en given matris finns det flera matriser sådana att
Albiki
Den initiala distributionen är en vektor som man startar från. Mitt fel var att tro att en Markov-kedja inte kan ha negativa egenvärden, men det kan den (bara man läser på lite så vet man det). I övrigt tycker jag att jag nästan har förstått det där nu.
Det är lite intressant att fundera vad det innebär att man befinner sig i ett tillsånd med ett negativt egenvärde -- det borde rimligen betyda att man får ett oscillerande beteende. Man kan tydligen ha negativa determinanter också -- jag vet inte hur man tolkar det -- kanske att något delrum har flip-flop beteende.
Som sagt, ta allt jag säger med en nypa salt. :) Lessen att jag hade fel, men jag lärde mig något...