Em matemática, em particular no campo específico da análise numérica, o fenômeno de Runge é um problema de oscilação nas bordas de um intervalo, que ocorre quando se usa interpolação polinomial com polinómios de ordem elevada. Foi descoberto por Carl Runge quando investigava erros na interpolação polinomial para aproximar certas funções.[1]
O fenômeno é similiar ao fenômeno de Gibbs para aproximações em séries de Fourier.
A interpolação em pontos equidistantes é uma abordagem natural para construir polinomiais de aproximação.
Porém, o fenômeno de Runge demonstra que interpolações podem facilmente resultar em uma sequência de aproximações divergente.
Runge descobriu que se fizermos a interpolação desta função em pontos equidistantes entre -1 e 1 tais que:
com o polinómio que tem grau , a resultante interpolação iria oscilar junto às extremidades do intervalo, ou seja, perto de -1 e 1. Pode mesmo ser provado que o erro de interpolação tende para infinito quando o grau do polinómio aumenta:
Soluções para o problema do fenômeno de Runge
A oscilação pode ser minimizada usando-se os nódulos de Chebyshev em vez de nódulos equidistantes. Neste caso, o erro máximo diminui quando a ordem do polinômio aumenta.
O fenômeno demonstra que polinômios de grau elevado são normalmente pouco recomendáveis para a interpolação. O problema pode ser evitado usando curvas spline, compostas de polinômios.
Quando se tenta diminuir o erro de interpolação podemos aumentar o número de segmentos usados para construir a spline, em vez de aumentar o grau do polinômio.