Metoda tangentei

Isaac Newton

În analiză numerică, metoda tangentei (de asemenea, cunoscut sub numele de metoda Newton sau metoda Newton-Raphson[1]), este o metodă de determinare a rădăcinii unei funcții reale

Descrierea metodei

Funcția ƒ este marcată cu culoarea albastră, iar tangenta cu culoarea roșie. Se observă că xn+1 este o aproximare mai bună decât xn pentru rădăcina x a funcției f.

Având o funcție reală ƒ, iar derivata ei, ƒ ', se începe cu stabilirea unei valori inițiale pentru x0 pentru o rădăcină a funcției f. O aproximare mai bună pentru rădăcina funcției este

Geometric, (x1, 0) se află la intersecția cu axa x a tangentei funcției f în punctul (x0). Procesul se repetă

până se atinge o valoare suficient de precisă.

Se începe procesul cu o valoare inițială arbitrară x0.

Istorie

Numele "Metoda Newton" este derivat din faptul că Isaac Newton a descris un caz particular al metodei în De analysi per aequationes numero terminorum infinitas (scris în 1669, publicat în 1711 de către William Jones) și în De metodis fluxionum et serierum infinitarum (scrisă în 1671, tradus și publicat ca Metoda fluctuațiilor în 1736 de către John Colson). Totuși, metoda lui diferă substanțial de metoda modernă de mai sus: Newton aplică metoda numai pentru polinoame. El nu calcula aproximări succesive , dar calculează o secvență de polinoame și numai la sfârșit el ajunge la o aproximare a rădăcinii x. În cele din urmă, Newton consideră metoda ca pur algebrică și nu face nici o mențiune cu privire la calculul numeric. Metoda lui Isaac Newton poate fi derivată de la o metodă similară, dar mai puțin precisă, metoda lui Vieta. Esența metodei Vieta lui poate fi găsită în lucrările matematicianului persan Sharaf al-Din al-Tusi, în timp ce succesorul său Jamshīd al-Kāshī a folosit o formă a metodei Newton pentru a rezolva t pentru a găsi rădăcinile lui N. Un caz particular al metodei Newton pentru calcularea rădăcini pătrate a fost cunoscut mult mai devreme și este adesea numit „metoda babiloniană”.

Metoda Newton a fost folosită de către matematicianul japonez din secolul 17 Seki Kōwa pentru a rezolva ecuații cu o singură variabilă, deși legătura cu calculul lipsea.

Metoda Newton a fost publicată prima dată în 1685, în Tratat istoric și practic de algebră de John Wallis. În 1690, Joseph Raphson a publicat o descriere simplificată în Analysis aequationum universalis. Raphson prezenta metoda Newton ca o metodă pur algebrică și limita utilizarea sa la funcții polinomiale, dar el descrie metoda în termeni de aproximări succesivexn în loc de mai complicata secvență de polinoame utilizate de Newton.

În cele din urmă, în 1740, Thomas Simpson a descris metoda Newton ca o metodă iterativă pentru rezolvarea ecuațiilor generale neliniare utilizând calculul, oferind, în esență, descrierea de mai sus. În aceeași publicație, Simpson oferă, de asemenea, generalizarea la sistemele de două ecuații și constată că metoda Newton poate fi folosit pentru rezolvarea problemelor de optimizare prin setarea gradientului din zero.

Arthur Cayley în 1879, în Problema imaginar Newton-Fourier a fost primul care a observat dificultăți în generalizarea metodei Newton la rădăcinile complexe de polinoame cu un grad mai mare de 2 și valorile inițiale complexe. Acest lucru a deschis calea pentru studiul teoriei iterațiilor funcțiilor raționale.

Demonstrația convergenței pătratice

Să presupunem că ƒ : [ab] → R este o funcție derivabilă definită pe intervalul [ab] cu valori în mulțimea numerelor reale  R.

Formula de convergență a rădăcinii poate fi ușor dedusă. Să presupunem că avem o aproximare curentă xn. Atunci putem obține formula pentru o mai bună aproximare, xn+1 . Știm din definiția derivatei unui punct dat că este panta unei tangente în acel punct.

Fie

Să notăm rădăcina cu .

Conform formulei lui Taylor, dacă funcția f(x) are a doua derivată continuă, atunci poate fi reprezentată în punctul cu formula:

unde ξn este cuprins între xn și

Rezultă că

Împărțind cu , obținem:

Ținând cont de formula

rezultă că:

deci

Dacă funcția f este de clasă pe intervalul [a,b] care include soluția x*, atunci f, f' și f, fiind continue pe un interval închis, sunt mărginite pe acel interval. Notând cu M - maximul în valoare absolută al funcției f/(2*f'), atunci

Deci raza de convergență R>=1/M. Alegând prima iterație : astfel încât : obținem un șir convergent la soluția :.

Se demonstrează că daca funcția f este strict monotonă (f' de semn constant si nu se anulează) și convexă sau concavă (f de semn constant) pe intervalul cuprins între rădăcină și valoarea de estimare inițială, atunci algoritmul converge, iar convergența sa este pătratică. Intr-adevăr, din

=

unde ξn este cuprins între xn și xn+1, si din

rezultă că

de unde

De aici și din

rezultă că

Termenii șirului au același semn cu . Deci șirul este monoton începând cu iterația a doua. Pentru că este și mărginit, rezultă că este convergent.

Pentru a calcula limita, trecem la limită în ecuația

rezultă că

unde l este limita funcției. Deci f(l)=0, de unde rezultă că limita șirului este chiar rădăcina unică a funcției f(x)=0 pe intervalul de definiție.

Exemple

Rădăcina pătrată a unui număr

Dacă se dorește calculul rădăcinii pătrate din 612, acest lucru este echivalent cu găsirea soluției ecuației

având derivata

Cu o estimare inițială de 10, secvența dată de metoda Newton este

Cifrele corecte sunt cele subliniate. Cu doar câteva iterații se poate obține o soluție corectă la mai multe zecimale.

Soluția ecuației cos(x) = x3

Considerăm problema găsirii numărul pozitiv x astfel încât cos(x) = x3, sau echivalent f(x) = cos(x) − x3. Avem f'(x) = −sin(x) − 3x2. Deoarece cos(x) ≤ 1 pentru toate x șix3 > 1 pentru x > 1, știm că rădăcina noastră se află între 0 și 1. Încercăm o valoare de pornire de x0 = 0.5

Cifrele corecte sunt cele subliniate. În special, x6 este corect pentru numărul de zecimale dat. Vom vedea că numărul de zecimale exacte corecte crește de la 2 (pentru x 3 ), la 5 și apoi la 10, ceea ce ilustrează convergența pătratică.

Pseudocod

 N ← 1
x=a;
y=f(x);
y1=f1(x);      //f1 este derivata lui f

 While N ≤ NMAX
{ 
	x=x-y/y1
	y=f(x)
	y1=f1(x)
   If (f(x) = 0 then 
{ 
     Output(x)
     Stop
}
  N ← N + 1 
 }
 Output("Algoritmul nu determină soluția în numărul maxim de iterații.") 

In limbajul C++

#include <iostream>
#include <cmath>
#define eps 0.00000000001
#define iter 200

double f(double x) {
    return x*x*x-2*x*x*cos(x)+x-3;
}

//f1 este derivata functiei f
double f1(double x) {
    return 3*x*x+2*x*x*sin(x)-4*x*cos(x)+1;
}

double itang(double a) {
    int i;
    double x,y1,y;
    i=0;
    x=a;
    y=f(x);
    y1=f1(x);
    
    while ( (i<=iter) && ((y<-eps) || (y>eps)) ) {
    	x=x-y/y1;
    	y=f(x);
    	y1=f1(x);
    	cout << "\n\nf(" << x << ")=" << y << " la iteratia " << i;
    	i++;
    }
    if (i>iter) {
    	cout<<"Problema nu se poate rezolva in nr. maxim de iteratii";
    	return 0;
    } 
    //Din cauza metodei TI-207, nu se va afisa rezultatul in caz ca radacina va fi egala cu 0.
    else 
        return x;
}

int main() {
    double x, a;
    cout << "a= ";
    cin >> a;
    x=itang(a);
    if (x!=0) 
        cout << '\n' << x;
    return 0;
}

Note

Bibliografie

  • Constantin Ilioi, Probleme de optimizare și algoritmi de aproximare a soluțiilor, Editura Academiei Republicii Socialiste România, București, 1980.
  • Colcer, Laurian, Algoritm cu ordin ridicat de convergență pentru rezolvarea unei clase de ecuații în spații normate, în Studii și Cercetări Matematice, Editura Academiei Republicii Socialiste România, București, nr. 3/1985

Legături externe