6 svar
101 visningar
lund behöver inte mer hjälp
lund 529
Postad: 11 jan 2022 14:13 Redigerad: 11 jan 2022 14:13

Tikhonov regularisering och minsta kvadrat metoden

Vad är skillnaden/likheter mellan Tikhonovs regularisering och minsta kvadrat metoden? Jag har försökt att lösa på om båda men hittar inga tydliga svar.

För att förtydliga: Jag ska lösa ett problem med hjälp av Tikhonovs regularisering (Tikhonovs regularization) men i svaret så har det löst den med minsta kvadrat metoden (least square method), varför är detta möjligt? Uppgiften gick ut på att deblurra en bild i python.

Hondel 1377
Postad: 11 jan 2022 16:06

Det är samma som ridge regression? Vad menar du med att de löst med minsta kvadratmetoden? Det kan man väl göra även för denna regularisering, men med en tillagd straff-term/diagonalmatris.

lund 529
Postad: 11 jan 2022 16:10 Redigerad: 11 jan 2022 16:11
Hondel skrev:

Det är samma som ridge regression? Vad menar du med att de löst med minsta kvadratmetoden? Det kan man väl göra även för denna regularisering, men med en tillagd straff-term/diagonalmatris.

Eftersom att den löstes i python använde de sig utav kommandot scipy.sparse.lsqr, vilket är minsta kvadrat metoden, för att lösa denna uppgift och det jag inte förstod är varför de kan använda den när de vill lösa den med Tikhonovs regularisering. Ja från vad jag förstår är Tikhonovs regularisering och ridge regression olika namn för samma sak.

Hondel 1377
Postad: 11 jan 2022 16:27

Okej, och skickade de inte också med en regulariseringsparameter? För det verkar man kunna göra när jag läser dokumentationen

lund 529
Postad: 11 jan 2022 16:57 Redigerad: 11 jan 2022 16:59
Hondel skrev:

Okej, och skickade de inte också med en regulariseringsparameter? För det verkar man kunna göra när jag läser dokumentationen

Det som sas var att man skulle använda sig utav minV||Ax-b||F2+β2||x||F2min_V ||Ax-b||^2_F+\beta^2||x||^2_F och att det var Tikhonovs regularization. Med dokumentationen, menar du den för scipy.sparse.lsqr? För där såg jag också att de hade den uträkningen de angav i uppgifte, kan det vara därför man kan använda lsqr?

Hondel 1377
Postad: 11 jan 2022 18:44
lund skrev:
Hondel skrev:

Okej, och skickade de inte också med en regulariseringsparameter? För det verkar man kunna göra när jag läser dokumentationen

Det som sas var att man skulle använda sig utav minV||Ax-b||F2+β2||x||F2min_V ||Ax-b||^2_F+\beta^2||x||^2_F och att det var Tikhonovs regularization. Med dokumentationen, menar du den för scipy.sparse.lsqr? För där såg jag också att de hade den uträkningen de angav i uppgifte, kan det vara därför man kan använda lsqr?

Exakt, det är den regularisering som jag tänker på, och den där ekvationen kan man lösa med lsqr genom att skicka in β\beta som argumentet ”damp” enligt dokumentationen.

Det finns en analytisk lösning på problemet, och om du jämför den lösningen med den analytiska lösningen för samma problem men utan regularisering kommer du se att lösningarna är oerhört lika, och du kommer nog förstå att man implementerat en scipy-funktion som löser båda :)


Tillägg: 11 jan 2022 18:48

Första termen är ju ett minstakvadratproblem, det är du med på? Och om du bara behåller den termen (dvs kastar bort regulariseringstermen) så har du problemet ”utan regularisering” som jag skrev ovan. 

lund 529
Postad: 12 jan 2022 22:59
Hondel skrev:
lund skrev:
Hondel skrev:

Okej, och skickade de inte också med en regulariseringsparameter? För det verkar man kunna göra när jag läser dokumentationen

Det som sas var att man skulle använda sig utav minV||Ax-b||F2+β2||x||F2min_V ||Ax-b||^2_F+\beta^2||x||^2_F och att det var Tikhonovs regularization. Med dokumentationen, menar du den för scipy.sparse.lsqr? För där såg jag också att de hade den uträkningen de angav i uppgifte, kan det vara därför man kan använda lsqr?

Exakt, det är den regularisering som jag tänker på, och den där ekvationen kan man lösa med lsqr genom att skicka in β\beta som argumentet ”damp” enligt dokumentationen.

Det finns en analytisk lösning på problemet, och om du jämför den lösningen med den analytiska lösningen för samma problem men utan regularisering kommer du se att lösningarna är oerhört lika, och du kommer nog förstå att man implementerat en scipy-funktion som löser båda :)


Tillägg: 11 jan 2022 18:48

Första termen är ju ett minstakvadratproblem, det är du med på? Och om du bara behåller den termen (dvs kastar bort regulariseringstermen) så har du problemet ”utan regularisering” som jag skrev ovan. 

Tusen tack för en tydlig förklaring! Då är jag med och förstår varför den löstes på det här sättet. Tack igen!

Svara
Close