În analiză numerică, metoda tangentei (de asemenea, cunoscut sub numele de metoda Newton sau metoda Newton-Raphson[1]), este o metodă de determinare a rădăcinii unei funcții reale
Descrierea metodei
Având o funcție reală ƒ, iar derivata ei, ƒ ', se începe cu stabilirea unei valori inițiale pentru x0 pentru o rădăcină a funcției f. O aproximare mai bună pentru rădăcina funcției este
Geometric, (x1, 0) se află la intersecția cu axa x a tangentei funcției f în punctul (x0).
Procesul se repetă
până se atinge o valoare suficient de precisă.
Se începe procesul cu o valoare inițială arbitrară x0.
Istorie
Numele "Metoda Newton" este derivat din faptul că Isaac Newton a descris un caz particular al metodei în De analysi per aequationes numero terminorum infinitas (scris în 1669, publicat în 1711 de către William Jones) și în De metodis fluxionum et serierum infinitarum (scrisă în 1671, tradus și publicat caMetoda fluctuațiilor în 1736 de către John Colson). Totuși, metoda lui diferă substanțial de metoda modernă de mai sus: Newton aplică metoda numai pentru polinoame. El nu calcula aproximări succesive , dar calculează o secvență de polinoame și numai la sfârșit el ajunge la o aproximare a rădăcinii x. În cele din urmă, Newton consideră metoda ca pur algebrică și nu face nici o mențiune cu privire la calculul numeric. Metoda lui Isaac Newton poate fi derivată de la o metodă similară, dar mai puțin precisă, metoda lui Vieta. Esența metodei Vieta lui poate fi găsită în lucrările matematicianului persan Sharaf al-Din al-Tusi, în timp ce succesorul său Jamshīd al-Kāshī a folosit o formă a metodei Newton pentru a rezolva t pentru a găsi rădăcinile lui N. Un caz particular al metodei Newton pentru calcularea rădăcini pătrate a fost cunoscut mult mai devreme și este adesea numit „metoda babiloniană”.
Metoda Newton a fost folosită de către matematicianul japonez din secolul 17 Seki Kōwa pentru a rezolva ecuații cu o singură variabilă, deși legătura cu calculul lipsea.
Metoda Newton a fost publicată prima dată în 1685, în Tratat istoric și practic de algebră de John Wallis. În 1690, Joseph Raphson a publicat o descriere simplificată în Analysis aequationum universalis. Raphson prezenta metoda Newton ca o metodă pur algebrică și limita utilizarea sa la funcții polinomiale, dar el descrie metoda în termeni de aproximări succesivexn în loc de mai complicata secvență de polinoame utilizate de Newton.
În cele din urmă, în 1740, Thomas Simpson a descris metoda Newton ca o metodă iterativă pentru rezolvarea ecuațiilor generale neliniare utilizând calculul, oferind, în esență, descrierea de mai sus. În aceeași publicație, Simpson oferă, de asemenea, generalizarea la sistemele de două ecuații și constată că metoda Newton poate fi folosit pentru rezolvarea problemelor de optimizare prin setarea gradientului din zero.
Arthur Cayley în 1879, în Problema imaginar Newton-Fourier a fost primul care a observat dificultăți în generalizarea metodei Newton la rădăcinile complexe de polinoame cu un grad mai mare de 2 și valorile inițiale complexe. Acest lucru a deschis calea pentru studiul teoriei iterațiilor funcțiilor raționale.
Demonstrația convergenței pătratice
Să presupunem că ƒ : [a, b] → R este o funcție derivabilă definită pe intervalul [a, b] cu valori în mulțimea numerelor reale R.
Formula de convergență a rădăcinii poate fi ușor dedusă. Să presupunem că avem o aproximare curentă xn. Atunci putem obține formula pentru o mai bună aproximare, xn+1 . Știm din definiția derivatei unui punct dat că este panta unei tangente în acel punct.
Fie
Să notăm rădăcina cu .
Conform formulei lui Taylor, dacă funcția f(x) are a doua derivată continuă, atunci poate fi reprezentată în punctul cu formula:
unde ξn este cuprins între xn și
Rezultă că
Împărțind cu , obținem:
Ținând cont de formula
rezultă că:
deci
Dacă funcția f este de clasă pe intervalul [a,b] care include soluția x*, atunci f, f' și f, fiind continue pe un interval închis, sunt mărginite pe acel interval. Notând cu M - maximul în valoare absolută al funcției f/(2*f'), atunci
Deci raza de convergență R>=1/M. Alegând prima iterație : astfel încât : obținem un șir convergent la soluția :.
Se demonstrează că daca funcția f este strict monotonă (f' de semn constant si nu se anulează) și convexă sau concavă (f de semn constant) pe intervalul cuprins între rădăcină și valoarea de estimare inițială, atunci algoritmul converge, iar convergența sa este pătratică.
Intr-adevăr, din
=
unde ξn este cuprins între xn și xn+1, si din
rezultă că
de unde
De aici și din
rezultă că
Termenii șirului au același semn cu . Deci șirul este monoton începând cu iterația a doua. Pentru că este și mărginit, rezultă că este convergent.
Pentru a calcula limita, trecem la limită în ecuația
rezultă că
unde l este limita funcției. Deci f(l)=0, de unde rezultă că limita șirului este chiar rădăcina unică a funcției f(x)=0 pe intervalul de definiție.
Exemple
Rădăcina pătrată a unui număr
Dacă se dorește calculul rădăcinii pătrate din 612, acest lucru este echivalent cu găsirea soluției ecuației
având derivata
Cu o estimare inițială de 10, secvența dată de metoda Newton este
Cifrele corecte sunt cele subliniate. Cu doar câteva iterații se poate obține o soluție corectă la mai multe zecimale.
Soluția ecuației cos(x) = x3
Considerăm problema găsirii numărul pozitiv x astfel încât cos(x) = x3, sau echivalent f(x) = cos(x) − x3. Avem f'(x) = −sin(x) − 3x2. Deoarece cos(x) ≤ 1 pentru toate x șix3 > 1 pentru x > 1, știm că rădăcina noastră se află între 0 și 1. Încercăm o valoare de pornire de x0 = 0.5
Cifrele corecte sunt cele subliniate. În special, x6 este corect pentru numărul de zecimale dat. Vom vedea că numărul de zecimale exacte corecte crește de la 2 (pentru x 3 ), la 5 și apoi la 10, ceea ce ilustrează convergența pătratică.
Pseudocod
N ← 1
x=a;
y=f(x);
y1=f1(x); //f1 este derivata lui f
While N ≤ NMAX
{
x=x-y/y1
y=f(x)
y1=f1(x)
If (f(x) = 0 then
{
Output(x)
Stop
}
N ← N + 1
}
Output("Algoritmul nu determină soluția în numărul maxim de iterații.")
In limbajul C++
#include<iostream>#include<cmath>#define eps 0.00000000001#define iter 200doublef(doublex){returnx*x*x-2*x*x*cos(x)+x-3;}//f1 este derivata functiei fdoublef1(doublex){return3*x*x+2*x*x*sin(x)-4*x*cos(x)+1;}doubleitang(doublea){inti;doublex,y1,y;i=0;x=a;y=f(x);y1=f1(x);while((i<=iter)&&((y<-eps)||(y>eps))){x=x-y/y1;y=f(x);y1=f1(x);cout<<"\n\nf("<<x<<")="<<y<<" la iteratia "<<i;i++;}if(i>iter){cout<<"Problema nu se poate rezolva in nr. maxim de iteratii";return0;}//Din cauza metodei TI-207, nu se va afisa rezultatul in caz ca radacina va fi egala cu 0.elsereturnx;}intmain(){doublex,a;cout<<"a= ";cin>>a;x=itang(a);if(x!=0)cout<<'\n'<<x;return0;}
Constantin Ilioi, Probleme de optimizare și algoritmi de aproximare a soluțiilor, Editura Academiei Republicii Socialiste România, București, 1980.
Colcer, Laurian, Algoritm cu ordin ridicat de convergență pentru rezolvarea unei clase de ecuații în spații normate, în Studii și Cercetări Matematice, Editura Academiei Republicii Socialiste România, București, nr. 3/1985