MK-metoden
Hej, boken säger att om man vill minimera Q dvs. kvadratsummorna så deriverar man partiellt och sätter derivatorna till 0.
Men hur vet vi att de stationära punkterna antar det minsta värdet (från flervarre)? Är det för att Q är strängt växande?
I maximum likelihood (ML) metoden gick det då funktionen är av en variabel.
Det borde visas och inte antas. Känns som att en del bakgrund saknas från frågan. Får du ngt exempel?
Micimacko skrev:Det borde visas och inte antas. Känns som att en del bakgrund saknas från frågan. Får du ngt exempel?
Yes! Jag bifogar nedan :) De skriver det som en generaliserad metod och sen ger de ett exempel. Det står också (längst upp i bild 1 för ett tidigare exempel som bara är envariabel att det är lätt att visa, men det är envariabel och då går andra derivatan och ändpunkter bra som bevis)
Bild 1
Bild 2
Det kanske är något uppenbart som jag inte inser med funktionen?
Notera att funktionen går mot oändligheten när vektorn theta gör det. Alltså kommer minimum inträffa i en stationär punkt.
Det du mäter är väl typ avståndet mellan en funktion du har valt att jämföra med och de mätningar du fått. Men att du bara får ett nollställe borde bero på att du bara har linjära funktioner med parametrarna i exemplet.
Okej tack, så det är som att vi skapar en stor kompakt så vi vet att min ligger innanför kompakten och där randen är större än det innanför kompakten, då får vi min vid den enda stationära punkten?