El método de aproximaciones sucesivas de Picard (por Charles Émile Picard , matemático francés que lo desarrolló) es un método iterativo para obtener una solución a una ecuación diferencial .
Para un problema de Cauchy con la ecuación diferencial y ′ = f ( x , y ) {\displaystyle y'=f(x,y)} y condición de contorno y | x = x 0 = y 0 {\displaystyle y|_{x=x_{0}}=y_{0}} donde se puede asegurar la existencia y unicidad de solución para un dominio D : | x − x 0 | < a , | y − y o | < b {\displaystyle D:{|x-x_{0}|<a,|y-y_{o}|<b}} es posible construir una solución de forma iterativa según la expresión
y n ( x ) = y 0 + ∫ x 0 x f ( t , y n − 1 ( t ) ) d t {\displaystyle y_{n}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{n-1}(t))dt}
Donde y 0 {\displaystyle y_{0}} se puede elegir arbitrariamente. Lo habitual es elegir y 0 = x 0 {\displaystyle y_{0}=x_{0}} .
La convergencia de esta serie de funciones es demostrable en el intervalo x 0 − h < x < x 0 + h {\displaystyle x_{0}-h<x<x_{0}+h} donde h = min ( a , b M ) {\displaystyle h=\min \left(a,{\frac {b}{M}}\right)} con M = max ( x , y ) ∈ D | f ( x , y ) | {\displaystyle M=\max _{(x,y)\in D}|f(x,y)|} .
El error del paso enésimo es acotable mediante la desigualdad
| y ( x ) − y n ( x ) | ≤ M N n − 1 n ! h n {\displaystyle |y(x)-y_{n}(x)|\leq {\frac {MN^{n-1}}{n!}}h^{n}} donde N = max ( x , y ) ∈ D | ∂ f ∂ y | {\displaystyle N=\max _{(x,y)\in {}D}\left|{\frac {\partial f}{\partial y}}\right|} . Con ello es posible programar el algoritmo para que itere hasta una resolución dada.
Consideramos el problema de Cauchy
{ y ′ = 2 x ( 1 − y ) , y ( 0 ) = 2. {\displaystyle {\begin{cases}y'=2x(1-y),\\y(0)=2.\end{cases}}}
En este caso f ( x , y ) = 2 x ( 1 − y ) {\displaystyle f(x,y)=2x(1-y)} . Ahora se construirá una solución de forma iterativa según la expresión dada anteriormente.
Definimos y 0 ( t ) ≡ 2 {\displaystyle y_{0}(t)\equiv 2} y las iteraciones sucesivas son:
y 1 ( x ) = y 0 + ∫ x 0 x f ( t , y 0 ( t ) ) d t = 2 + ∫ 0 x 2 t ( 1 − 2 ) d t = 2 + ∫ 0 x − 2 t = 2 − x 2 {\displaystyle y_{1}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{0}(t))\ dt=2+\int _{0}^{x}2t(1-2)\ dt=2+\int _{0}^{x}-2t=2-x^{2}} ,
y 2 ( x ) = y 0 + ∫ x 0 x f ( t , y 1 ( t ) ) d t = 2 + ∫ 0 x 2 t ( 1 − ( 2 − t 2 ) ) d t = 2 − x 2 + 1 2 x 4 {\displaystyle y_{2}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{1}(t))\ dt=2+\int _{0}^{x}2t(1-(2-t^{2}))\ dt=2-x^{2}+{\frac {1}{2}}x^{4}} ,
y 3 ( x ) = y 0 + ∫ x 0 x f ( t , y 2 ( t ) ) d t = . . . = 2 − x 2 + 1 2 x 4 − 1 6 x 6 {\displaystyle y_{3}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{2}(t))\ dt=...=2-x^{2}+{\frac {1}{2}}x^{4}-{\frac {1}{6}}x^{6}} ,
y, de forma general, podemos expresar y n ( x ) {\displaystyle y_{n}(x)} de la siguiente forma:
y n ( x ) = 1 + ( 1 + ( − x 2 ) 1 ! + ( − x 2 ) 2 2 ! + ( − x 2 ) 3 3 ! + ( − x 2 ) 4 4 ! + ( − x 2 ) 5 5 ! + . . . + ( − x 2 ) n n ! ) {\displaystyle y_{n}(x)=1+{\bigg (}1+{\frac {(-x^{2})}{1!}}+{\frac {(-x^{2})^{2}}{2!}}+{\frac {(-x^{2})^{3}}{3!}}+{\frac {(-x^{2})^{4}}{4!}}+{\frac {(-x^{2})^{5}}{5!}}+...+{\frac {(-x^{2})^{n}}{n!}}{\bigg )}} .
Se puede observar que las aproximaciones son las sumas parciales del desarrollo en serie de potencias de 1 + e − x 2 {\displaystyle 1+e^{-x^{2}}} , que es la solución al problema de Cauchy anterior.
Ecuaciones Diferenciales Ordinarias . M.L.Krasnov, A.I.Kiseliov, G.I.Makárenko. Editorial URSS. ISBN 5-354-01099-3