Metoda Newton#
Metoda Newton, după cum îi spune și numele, reprezintă o generalizare a metodei Newton-Raphson descrisă în subcapitolele anterioare.
Vom prezenta așadar de unde provine această extindere și cum poate fi utilizată pentru soluționarea sistemelor de ecuații neliniare.
Matricea Jacobiană#
Vom aminti cititorilor mai întâi conceptul de matrice Jacobiene.
Fie \(F:\mathbb{R}^n\rightarrow\mathbb{R}^n\) o funcție ce acceptă toate derivatele parțiale aferente variabilelor sale, unde \(n\in\mathbb{N}^*\), de forma:
\[ F(x_1,x_2,\dots,x_n)=\begin{bmatrix} f_1(x_1,x_2,\dots,x_n)\\ f_2(x_1,x_2,\dots,x_n)\\ \vdots\\ f_n(x_1,x_2,\dots,x_n)\\ \end{bmatrix}\Leftrightarrow F(\bm{x})=\begin{bmatrix} f_1(\bm{x})\\ f_2(\bm{x})\\ \vdots\\ f_n(\bm{x})\\ \end{bmatrix} \]Atunci, se definește Jacobianul lui \(F\) (notat și \(D_F\) sau chiar \(\nabla F\)):
\[\Rightarrow J(\bm{x}) =\begin{bmatrix} \frac{\partial f_1}{\partial x_1}(\bm{x}) & \frac{\partial f_1}{\partial x_2}(\bm{x}) & \dots & \frac{\partial f_1}{\partial x_n}(\bm{x})\\ \frac{\partial f_2}{\partial x_2}(\bm{x}) & \frac{\partial f_2}{\partial x_2}(\bm{x}) & \dots & \frac{\partial f_2}{\partial x_n}(\bm{x})\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial f_n}{\partial x_1}(\bm{x}) & \frac{\partial f_n}{\partial x_2}(\bm{x}) & \dots & \frac{\partial f_n}{\partial x_n}(\bm{x}) \end{bmatrix},\,\bm{x}\in\mathbb{R}^n \]Metoda Newton#
Pornind de la metoda tangentei, amintim că, în cazul funcțiilor de o singură variabilă \(f:\mathbb{R}\rightarrow\mathbb{R}\), ne foloseam de convergența următorului șir:
\[ x_k=\begin{cases} \text{o aproximație bună inițială},&k=0\\ x_{k-1}-\left[f'(x_{k-1})\right]^{-1}\cdot{f(x_{k-1})},&k\geq1 \end{cases} \]De data aceasta însă lucrăm cu o funcție de mai multe variabile ce întoarce un vector, așa cum am arătat echivalența sistem-funcție în subcapitolul anterior.
Din acest motiv, este necesară utilizarea unui concept mai general decât derivata, și anume matricea Jacobiană. Intuitiv (acceptat fără demonstrație), obținem:
\[ \boxed{\bm{x_k}=\begin{cases} \text{o aproximație bună inițială},&k=0\\ \bm{x_{k-1}}-\left[J(\bm{x_{k-1}})\right]^{-1}\cdot F(\bm{x_{k-1}}),&k\geq1 \end{cases}} \]Optimizarea soluției#
Să considerăm funcția \(F:\mathbb{R}^n\rightarrow\mathbb{R}^n\), unde \(n\in\mathbb{N}^*\). Calcularea inversei matricei Jacobiene, adică \(J^{-1}\), este, după cum știm din capitolele precedente, greoaie.
Așadar, în practică, se va căută un vector \(\bm{y}\in\mathbb{R}^n\), ales astfel încât:
\[ \boxed{J\bm{y}=-F} \]Utilizând acest vector, putem elimina necesitatea de a mai calcula \(J^{-1}\) astfel:
\[ \boxed{J\bm{y}=-F}\Leftrightarrow \bm{y}=-J^{-1}F \]Cu această valoare ne putem întoarce în formula noastră de recurență:
\[ \boxed{\bm{x_k}=\begin{cases} \text{o aproximație bună inițială},&k=0\\ \bm{x_{k-1}}+\bm{y},&k\geq1 \end{cases}} \]Rezolvarea sistemului \(J\bm{y}=-F\) este echivalentă cu soluționarea unui sistem de ecuații liniare, iar acesta nu ne pune probleme.
Licență#
The book "Metode Numerice", written by Valentin-Ioan Vintilă, is licensed under CC BY-NC-SA 4.0