Matrisbildning av randvärdesproblem
Hade markerat den förra tråden som löst så gör en ny istället, hoppas inte detta är något problem.
Detta är alltså ett problem ur kurslitteraturen som jag inte förstår, de har följande differentialekvation:
, med de två randvärdesvillkoren: och steglängd
Först diskretiseras problemet:
, alltså ekvationer.
Därefter byter de ut sina derivator mot centraldifferensformeln:
Då får de detta ekvationssystemet (tridiagonala matrisen), för
Men finita differensformeln som angetts innehåller ju en term , som vid blir och man verkar inte ta hänsyn till den. Är det så att och är en -matris då? Har man kanske slarvat med notationen bara?
Nej du har ju att ligger längst till höger i domänen, detta motsvarar . Samma har du ju och då har du problemet med , men detta är ju bara värdet längst till vänster, så alltså .
Ah, såklart, eftersom jag har delintervall. Verkar snöa in mig på formler alldeles för mycket utan att förstå vad jag gör egentligen.
Tack, nu förstår jag!