Metoda Newton#

Metoda Newton, după cum îi spune și numele, reprezintă o generalizare a metodei Newton-Raphson descrisă în subcapitolele anterioare.

Vom prezenta așadar de unde provine această extindere și cum poate fi utilizată pentru soluționarea sistemelor de ecuații neliniare.

Matricea Jacobiană#

Vom aminti cititorilor mai întâi conceptul de matrice Jacobiene.

Fie \(F:\mathbb{R}^n\rightarrow\mathbb{R}^n\) o funcție ce acceptă toate derivatele parțiale aferente variabilelor sale, unde \(n\in\mathbb{N}^*\), de forma:

\[ F(x_1,x_2,\dots,x_n)=\begin{bmatrix} f_1(x_1,x_2,\dots,x_n)\\ f_2(x_1,x_2,\dots,x_n)\\ \vdots\\ f_n(x_1,x_2,\dots,x_n)\\ \end{bmatrix}\Leftrightarrow F(\bm{x})=\begin{bmatrix} f_1(\bm{x})\\ f_2(\bm{x})\\ \vdots\\ f_n(\bm{x})\\ \end{bmatrix} \]

Atunci, se definește Jacobianul lui \(F\) (notat și \(D_F\) sau chiar \(\nabla F\)):

\[\Rightarrow J(\bm{x}) =\begin{bmatrix} \frac{\partial f_1}{\partial x_1}(\bm{x}) & \frac{\partial f_1}{\partial x_2}(\bm{x}) & \dots & \frac{\partial f_1}{\partial x_n}(\bm{x})\\ \frac{\partial f_2}{\partial x_2}(\bm{x}) & \frac{\partial f_2}{\partial x_2}(\bm{x}) & \dots & \frac{\partial f_2}{\partial x_n}(\bm{x})\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial f_n}{\partial x_1}(\bm{x}) & \frac{\partial f_n}{\partial x_2}(\bm{x}) & \dots & \frac{\partial f_n}{\partial x_n}(\bm{x}) \end{bmatrix},\,\bm{x}\in\mathbb{R}^n \]

Metoda Newton#

Pornind de la metoda tangentei, amintim că, în cazul funcțiilor de o singură variabilă \(f:\mathbb{R}\rightarrow\mathbb{R}\), ne foloseam de convergența următorului șir:

\[ x_k=\begin{cases} \text{o aproximație bună inițială},&k=0\\ x_{k-1}-\left[f'(x_{k-1})\right]^{-1}\cdot{f(x_{k-1})},&k\geq1 \end{cases} \]

De data aceasta însă lucrăm cu o funcție de mai multe variabile ce întoarce un vector, așa cum am arătat echivalența sistem-funcție în subcapitolul anterior.

Din acest motiv, este necesară utilizarea unui concept mai general decât derivata, și anume matricea Jacobiană. Intuitiv (acceptat fără demonstrație), obținem:

\[ \boxed{\bm{x_k}=\begin{cases} \text{o aproximație bună inițială},&k=0\\ \bm{x_{k-1}}-\left[J(\bm{x_{k-1}})\right]^{-1}\cdot F(\bm{x_{k-1}}),&k\geq1 \end{cases}} \]

Optimizarea soluției#

Să considerăm funcția \(F:\mathbb{R}^n\rightarrow\mathbb{R}^n\), unde \(n\in\mathbb{N}^*\). Calcularea inversei matricei Jacobiene, adică \(J^{-1}\), este, după cum știm din capitolele precedente, greoaie.

Așadar, în practică, se va căută un vector \(\bm{y}\in\mathbb{R}^n\), ales astfel încât:

\[ \boxed{J\bm{y}=-F} \]

Utilizând acest vector, putem elimina necesitatea de a mai calcula \(J^{-1}\) astfel:

\[ \boxed{J\bm{y}=-F}\Leftrightarrow \bm{y}=-J^{-1}F \]

Cu această valoare ne putem întoarce în formula noastră de recurență:

\[ \boxed{\bm{x_k}=\begin{cases} \text{o aproximație bună inițială},&k=0\\ \bm{x_{k-1}}+\bm{y},&k\geq1 \end{cases}} \]

Rezolvarea sistemului \(J\bm{y}=-F\) este echivalentă cu soluționarea unui sistem de ecuații liniare, iar acesta nu ne pune probleme.

Licență#

The book "Metode Numerice", written by Valentin-Ioan Vintilă, is licensed under CC BY-NC-SA 4.0