Ecuaciones-Diferenciales

49
República Bolivariana de Venezuela. Ministerio de Educación y Deportes. Universidad Gran Mariscal de Ayacucho. Facultad de Ingeniería. Escuela de Informática. Cátedra: Métodos Numéricos. Profesor: Alumna: Lillo, Andrés Calderón, Dubraxka C. I.- 20.790.086 1

description

CONTROL NUMÉRICO

Transcript of Ecuaciones-Diferenciales

República Bolivariana de Venezuela.Ministerio de Educación y Deportes.

Universidad Gran Mariscal de Ayacucho.Facultad de Ingeniería.Escuela de Informática.

Cátedra: Métodos Numéricos.

Profesor: Alumna:

Lillo, Andrés Calderón, Dubraxka C. I.- 20.790.086

Ciudad Guayana, 29 / 09 / 2015.Índice

1

Introducción…………………………………………………………………………………..……. 3

Ecuaciones Diferenciales……………………………………..…………………………………… 4Concepto…………………………………………………………………………………………….. 4Ejemplos…………………………………………………………………………..……………….... 5Teoremas……………………………………………………………………..……………………... 6

Breve Historia: Inicios…………………………………………………………………………..…. 9Siglo XIX…………………………………………………………………………………………... 10

Métodos:Introducción al análisis numérico. Ideas básicas…………………………………………………... 14

Métodos de Euler…………………………………………………...……………..…………….... 15Convergencia de un método numérico (I)………………………………………….……………... 16Convergencia del método de Euler………………………………………………….……………... 16Consistencia del método de Euler…………………………………………………………….…… 18Estabilidad del método de Euler………………………………………………………………….... 19Convergencia de un método numérico (II)…………………………………………………........… 20Apéndice: Demostración de la convergencia del método de Euler………………...…………….... 21

Métodos de Taylor………………………………………………………………………………... 23Aproximación integrales…………………………………………………………………………... 24

Métodos de Runge-KutaIntroducción a los métodos no lineales………………………………………………………….… 25Consistencia de un método de Runge-Kutta………………………………………...…………..... 25Algunos ejemplos………………………………………………………………………………….. 26Método de Runge-Kutta de orden 4……………………………………………………………….. 27

Métodos de Adams-Bashford……………………………………………………………………. 27Construcción de los métodos de Adams………………………………………………………….... 28Método de Adams-Bashforth de un paso………………………………………………………….. 29Método de Adams-Bashforth de dos pasos……………………………………………………….. 29Método de Adams-Bashforth de tres pasos……………………………………………………….. 30

Aplicación en la ingeniería en Informática de las Ecuaciones DiferencialesEjemplos de programación del método de Euler……………………………………………….. 31

Conclusión……………………………………………………………………………………….... 37

Bibliografía……………………………………………………………………………………...… 38

Introducción

2

Una ecuación diferencial es una ecuación que involucra derivadas (o diferenciales) de una función desconocida de una o más variables. Si la función desconocida depende sólo de una variable, la ecuación se llama una ecuación diferencial ordinaria. Sin embargo, si la función desconocida depende de más de una variable la ecuación se llama una ecuación diferencial parcial.

Un ejemplo de ecuación diferencial ordinaria es:

La variable independiente (v. i) es xLa variable dependiente (v. d) es y

Un ejemplo de ecuación diferencial parcial es:

La variable independiente (v. i) es "x" y "y"La variable dependiente (v. d) es V

Las Ecuaciones Diferenciales cuenta con una serie de métodos para su resolución, tales como: el método de Euler, Taylor, Runge-Kutta y los métodos de Adams, los cuales estudiaremos a profundidad a lo largo del trabajo; también se mostrará un pequeño ejemplo de una aplicación de estas ecuaciones en la informática.

Ecuaciones Diferenciales

3

Concepto

Una ecuación diferencial es una relación entre una función y sus derivadas, que en general

tiene la forma f ( t , x , x ', x '', . . . )=0 . El objetivo al plantear una ecuación diferencial es obtener la variable dependiente x en

términos de la variable independiente t , es decir obtener x=x ( t ) .

Una ecuación diferencial se dice de primer orden si la derivada más alta que aparece es de orden uno. Vamos a trabajar fundamentalmente con ecuaciones diferenciales de primer orden con la derivada despejada, es decir con ecuaciones de la forma

x '=f ( t , x ) .

También trabajaremos ocasionalmente con ecuaciones diferenciales de segundo orden o superior.

¿Dónde aparecen las ecuaciones diferenciales? El rango de aplicación de las ecuaciones diferenciales es muy amplio, están en los fundamentos de la física y se usan en biología, economía y geometría entre otros campos.

En la mayoría de los casos la variable independiente t representa al tiempo, la derivada

primera de la variable independiente x ' suele interpretarse como una velocidad o una tasa de

variación y x '' representa a veces a la aceleración. Para que la solución de una ecuación diferencial venga dada de forma unívoca es necesario

que se complete con una serie de condiciones adicionales. Estas condiciones pueden ser de varios tipos y usualmente se denominan condiciones iniciales o condiciones de contorno.

El primer objetivo del análisis numérico va a ser problemas de valor inicial (PVI) de la forma

Como se pone de manifiesto en el estudio teórico de las ecuaciones diferenciales existen muchas técnicas de resolución de los PVI. Una de ellas, muy básica y que se supone conocida, es la separación de variables.

Algunos ejemplos

4

batxax

xtfx,

,'

0

Vamos a comenzar nuestro estudio resolviendo problemas de valor inicial que serán representativos de las dificultades que nos vamos a encontrar en los próximos capítulos:

a) {x '=3

23√ x ¿ ¿¿¿

Solución:x (t )=√t3 . También x (t )=0.

b) { x '=x ¿¿¿¿

Solución: x (t )=et .

c) {x '=x2 ¿ ¿¿¿

Solución: x (t )= 1

1−t.

Estos tres PVI son de aspecto muy parecido, sin embargo observamos que sus soluciones tienen características completamente diferentes.

En el primer caso la solución no es única.

En el caso b) la solución es única y está bien definida en cualquier intervalo de la variable independiente t .

Por último en el caso c) la solución es única pero presenta un comportamiento asintótico en t=1 , que nos impide extender la solución más allá de este valor. Usualmente se dice que la

solución de c) explota en t=1 .

La falta de unicidad de la solución de a) es previsible y podemos pensar que se debe a la falta

de regularidad de la función 3√ x en el punto x=0 . Lo que resulta más sorprendente es que la

solución de c) presente un comportamiento asintótico (o explosivo) ya que en ningún caso dicho

comportamiento puede achacarse a una falta de regularidad en la función x2 .

Este comportamiento explosivo de la soluciones de ciertos PVI es un fenómeno poco conocido entre muchos usuarios de las ecuaciones diferenciales y a lo largo de la historia ha dado lugar a comportamientos anómalos de los sistemas que han venido descritos por algunas ecuaciones diferenciales, es decir, a dado lugar a explosiones, derrumbamientos, …

5

Algunos teoremas.

¿Qué nos dice la teoría clásica de ecuaciones diferenciales en lo que respecta a estos ejemplos?

Hay que comenzar con el teorema de Peano:

Teorema de Peano1: El PVI

{x '=f ( t , x ) ¿ ¿¿¿con f ( t , x ) continua en un abierto que contenga al punto (a , x0 ) tiene al menos una solución x (t ) definida al menos en un entorno de t=a .

Este teorema nos permite disponer de una herramienta sencilla que garantiza la existencia de solución local de los PVI pero que sin embargo no garantiza la unicidad de dicha solución y por tanto se convierte en una herramienta insuficiente para los propósitos del análisis numérico.

El ejemplo a) considerado anteriormente nos muestra que la unicidad de soluciones para un

PVI no está garantizada con la mera continuidad de f .

Para garantizar la unicidad de soluciones de un PVI tenemos que imponer que la función f (t , x ) cumpla al menos una condición de Lipschitz con respecto a su segunda variable x .

Tenemos el siguiente teorema de existencia local:

Teorema de Picard (Local): Sea f ( t , x ) continua en un abierto que contenga al punto (a , x0 ) y tal que verifica una condición de Lipschitz para su segunda variable en dicho intervalo. Entonces el PVI

{x '=f (t , x ) ¿ ¿¿¿tiene una solución única x (t ) definida al menos en un entorno de t=a .

1 El teorema de Peano introduce la necesidad de la continuidad de la función f ( t , x ) como función de dos variables. Es por ello que en el estudio de ecuaciones diferenciales se mezclan conceptos de análisis unidimensional con conceptos de análisis de mayor dimensión.

6

Este teorema garantiza la existencia de una solución local, es decir en un intervalo que eventualmente puede ser muy pequeño en torno al punto de partida.

El análisis numérico nos obliga a mejorar estas estimaciones ya que hemos de garantizar la

existencia y unicidad de soluciones en un intervalo fijado desde el principio [a , b ] . El ejemplo c)

considerado anteriormente nos muestra que incluso para funciones f (t , x ) regulares la solución de existencia global no está garantizada.

Una posible forma de resolver este problema es utilizar el siguiente teorema de existencia global:

Teorema de Picard (Global): Sea f ( t , x ) una función continua en E=[a , b ] x ℜ y tal que verifica

una condición de Lipschitz para su segunda variable en E . Entonces el PVI

{x '=f ( t , x ) ¿ ¿¿¿ tiene una solución única x (t ) definida en t∈ [a , b ] .

Aunque este teorema responde a las necesidades de existencia global que necesitamos en

análisis numérico tiene el inconveniente de ser demasiado restrictivo y funciones como f ( t , x )=x2

o f ( t , x )=cos (x2) no verifican este teorema. En el primer caso esta restricción está justificada dado el comportamiento asintótico de las soluciones, pero en el segundo caso no, es decir el PVI

tiene solución única para cualquier intervalo acotado de la variable independiente.

En la práctica la forma de proceder será la siguiente: Utilizaremos el teorema de Picard (global) si se verifican las condiciones para ello. En caso contrario utilizaremos un teorema de existencia local (Picard local) para garantizar existencia y unicidad de solución local y además utilizaremos cotas a priori sobre la solución de los PVI con objeto de detectar posibles comportamientos asintóticos.

Para obtener las cotas a priori de la solución de los PVI’s citadas utilizaremos el siguiente resultado, únicamente cierto si previamente puede probarse existencia y unicidad local para todos los PVI considerados:

Teorema de las sub y supersoluciones: Consideremos los PVI’s, definidos para todot∈ [a , b ] ,

7

,

cos'

0

2

xax

xx

{x '=f (t , x ) ¿ ¿¿¿

{x1 '=f 1 (t , x1) ¿ ¿¿¿

{x2 '=f 2 (t , x2) ¿ ¿¿¿

donde las funciones f , f 1 y f 2 continuas y tales que f 1≤f≤f 2 . Entonces se verifica que x1 ( t )≤x ( t )≤x2 ( t ) para todo t∈ [a , b ] .

Veamos a continuación un ejemplo de utilización de este resultado.

Ejemplo: Probar que la solución del siguiente PVI está bien definida:

Establecer además cotas para la solución, su primera y su segunda derivadas.

Solución:

Utilizando el teorema de existencia local tenemos que la solución está bien definida

localmente para todo valor de ( t , x )∈ℜ2. Por otro lado la cota

nos permite obtener una sub y una supersoluciónx1 y x2 respectivamente. A saber,

{x1 '=0 ¿ ¿¿¿ x1 ( t )=3

{x2 '=4 ¿¿¿¿ x2 ( t )=4 t+3

De donde

y así,

8

1,030

sin' 2

tx

xtx

4sin0 2 xt

,7343 21 ttxtxtx

Las cotas sobre la derivada y segunda derivada se obtienen como sigue:

|x ' (t )|=|t+sin ( x )|2≤22=4 .

Es decir,

Breve Historia

Inicios

Las ecuaciones diferenciales ordinarias comienzan con el nacimiento del cálculo de Isaac Newton (1643-1727) y Gottfried Wilhelm Leibniz (1646-1716), los cuales guiaron el estudio del problema inverso de la diferenciación: dada una relación entre dos cantidades y sus diferenciales (o fluxiones), cómo encontrar una relación entre las cantidades (o fluentes). Sin embargo, este problema analítico de la integración de ecuaciones diferenciales de primer orden corresponde a un problema geométrico formulado con anterioridad: el método inverso de tangentes; esto es, cómo encontrar una curva caracterizada por una propiedad dada de sus tangentes.

Utilizando expansiones de expresiones en series de potencias, Newton mostró que el problema inverso de las tangentes era totalmente soluble. Leibniz, sin embargo, expresando su deseo de lograr soluciones dando la naturaleza de las curvas, no estaba satisfecho con el sistemático uso de series y pensaba que, hablando de forma general, no había suficiente conocimiento todavía acerca el método inverso de las tangentes. Su procedimiento fue esencialmente cambiar variables para intentar transformar la ecuación diferencial dada en una ecuación con variables

separables   pues su solución se obtenía inmediatamente por cuadraturas. 1 Incluso, antes de comenzar el siglo XVIII, los trabajos de, especialmente, Gottfried Wilhlm Leibniz, Jacob Bernoulli (1654-1705) y Johann Bernoulli (1667-1748) guiaron hacia la integración (reducción a cuadraturas) de ecuaciones diferenciales homogéneas y de ecuaciones diferenciales lineales de primer orden.

Sin embargo, incluso habiendo logrado tal separación de variables, el cual no es siempre el caso, continúa el problema de reducir las cuadraturas a otras más simples. Además, Johann Bernoulli destaca en su Lectiones mathematicae en 1691, que la separación de variables puede ocultar la naturaleza del problema. Por ejemplo,   escrita como variables separables involucra, en apariencia curvas logarítmicas cuando, en realidad, la solución es

algebraica:  .

9

.sincossin2sin2

'''

2xtxxtxt

fx

f

t

f

dt

dx

x

f

t

ftx

dt

dtx

.20164'' x

|x ( t )|≤7 .

Varios problemas geométricos y mecánicos, provocaron que los matemáticos comenzaran a pensar acerca de las ecuaciones diferenciales de orden mayor que uno. Este es el caso de Jacopo Riccati (1676-1754) quien presentó en 1723 la ecuación que lleva su

nombre:   resueltas por Daniel Bernoulli (1700-1782) y Leonhard Euler. Las bases de la teoría general de la ecuación diferencial lineal de orden n con coeficientes variables fueron desarrolladas en 1765 por Joseph Louis Lagrange (1736-1813) y Jean le Rond D'Alembert (1717-1783). Usando dos métodos diferentes, mostraron que n integrales particulares de la ecuación homogénea determina la integral completa de la ecuación no homogénea a través de n cuadraturas. En 1776, Lagrange nota que este resultado puede también ser demostrado usando el método de variación de la constante, que se convirtió en el método general más utilizado.

En 1715, Brook Taylor (1685-1731) ya se había encontrado con una solución en el caso de las ecuaciones de segundo grado, y notado su carácter singular. En 1758, Euler enfatizó la paradoja dual de tales soluciones singulares en el cálculo integral. Ellas son obtenidas no por integración, sino por diferenciación de ecuaciones diferenciales. A medida que se comienzan a estudiar sistemas físicos más complejos, por ejemplo en la astronomía, se requiere resolver sistemas de ecuaciones diferenciales ordinarias.

El problema del movimiento de dos cuerpos bajo atracción de la fuerza de gravedad fue resuelto geométricamente por Newton en 1687, pero no es hasta 1734 que Daniel Bernoulli resuelve el problema de los dos cuerpos de forma analítica. 2 El llamado problema de los n cuerpos es una generalización de este que no puede ser resuelta de la misma manera y es ampliamente estudiado hasta la fecha. Aparecen, para casos muy particulares, resultados de Newton, Euler y en especial de Lagrange (1772). Este mismo problema, condujo al desarrollo de la teoría del cálculo de perturbaciones para encontrar soluciones aproximadas donde destacan Clairaut en 1747, Euler en 1748, Lagrange en 1774, 1775 y Pierre-Simon Laplace (1749-1827) de 1772 a 1780 aproximadamente.

El estudio y resolución de sistemas de ecuaciones diferenciales tuvo un gran impulso con las ideas de Lagrange a quien se le debe la aplicación del método de variación de parámetro a un sistema de tres ecuaciones de segundo orden en 1808.

Siglo XIX

Ni siquiera en los primeros años del siglo XIX, los matemáticos se preocupaban por la existencia de soluciones asociadas a ecuaciones diferenciales. Fue Augustin Louis Cauchy (1789-1857), quien primero se vio motivado por este tema. En sus cursos impartidos en la Escuela

Politécnica, demostró por primera vez la solubilidad del problema   con la condición

inicial  ; actualmente conocidas también como condiciones de Cauchy. Cauchy presentó diferentes demostraciones para la demostración de la existencia en el plano real y complejo, pero no es hasta 1868 que Rudolf Lipschitz (1832-1903) demuestra la existencia y unicidad bajo condiciones más generales, precisamente para   continua y que satisface la condición de Lipschitz; este resultado se conoce bajo el nombre de Teorema de Cauchy-Lipschtz. 3

10

En su libro Traité d´analyse de 1833, Picard da una exposición consistente sobre los resultados de existencia desarrollados anteriormente con distinción de casos y aplicaciones. Las hipótesis utilizadas aseguran no solo la existencia, sino también la unicidad, al menos localmente, de la solución de los problemas de Cauchy.

En el estudio de ciertos sistemas físicos, resulta interesante, y casi siempre necesario, conocer propiedades (de las soluciones de la ecuación o sistema que modela el fenómeno) tales como acotamiento, estabilidad, periodicidad, etc., sin tener que recurrir a la ardua y laboriosa tarea, que en muchos casos es impracticable, de encontrar expresiones analíticas para las soluciones. De este modo, surgió el problema de investigar las propiedades de las soluciones de una ecuación diferencial a partir de "su propia expresión", dando lugar a la Teoría Cualitativa de las Ecuaciones Diferenciales.

En 1836, Sturm publica un artículo donde estudia desde un nuevo punto de vista las ecuaciones diferenciales ordinarias lineales de segundo orden. Partiendo de que no pueden ser resueltas analíticamente en su mayoría, intenta estudiar sus propiedades directamente desde la ecuación. Primeramente, analiza cómo se comportan las raíces de la solución al variar las condiciones iniciales o los coeficientes de la ecuación. Jules Henri Poincaré (1854-1912), en su estudio sobre Mecánica Celeste señala la importancia de las propiedades cualitativas de las soluciones reales de las ecuaciones diferenciales que rigen el movimiento y la debilidad de los métodos analíticos, creando así su teoría “geométrica” de las ecuaciones diferenciales.

Poincaré estudió las ecuaciones lineales de segundo orden con coeficientes racionales, y comprobó que ciertas funciones que se pueden obtener a partir de cocientes de dos soluciones independientes admiten grupos de transformaciones análogos a los de las funciones elípticas. Estudió condiciones para que las ecuaciones diferenciales tengan integrales algebraicas. Muchas de estas técnicas fueron usadas en el estudio de los problemas de la mecánica clásica y, en particular, en el problema de los tres cuerpos. En su Les Méthodes Nouvelles de la Méchanique Celeste estudió la compleja estructura que se deriva de la mecánica clásica. Por otra parte, los trabajos de Aleksandr Liapunov(1857-1918) sentaron bases sólidas para la naciente Teoría Cualitativa. Desarrolló sus investigaciones alrededor del problema general de la estabilidad de los movimientos. Así en sus publicaciones Probléme géneral de la stabilité du mouvementem 1907 (originalmente publicado en ruso en 1892) y Sur les figures d'equilibre peu différentes des ellipsoids d'unemasse liquide homogéne dovée d' un mouvement de rotation en 1906, desarrolla la mayoría de las técnicas que aún se utilizan en la actualidad. Se deben a él el primer y segundo método que llevan su nombre.

Durante su estudio trabaja, entre otros, la estabilidad, estabilidad asintótica, estabilidad de ecuaciones diferenciales funcionales y análisis no lineal. Las contribuciones de Liapunov a la estabilidad han influido en el desarrollo del tema por un largo período de tiempo.

Liapunov y Poincaré, convirtieron la no linealidad de las ecuaciones lineales en su objeto de estudio y aportaron métodos y conceptos fundamentales en el estudio de las ecuaciones diferenciales lineales y no lineales.

11

Otros matemáticos que hicieron aportes a la Teoría de las Ecuaciones Diferenciales

Friedrich Bessel: Friedrich Wilhelm Bessel (1784-1846), alemán, hace aportes en astronomía, calculó la órbita del cometa Halley; introdujo las funciones de Bessel y en 1817 estudió el trabajo de Kepler.

Pafnuti Chebyshev: El ruso Pafnuti Liwovich Chebyshev (1821-1894) trabaja en teoría de números (números primos), probabilidad, funciones ortogonales, polinomios de Chebyshev.

Alexis Clairaut: El francés Alexis Claude Clairaut (1713-1765) hace aportes a la geometría, establece la ecuación de Clairaut y soluciones singulares (1734), astronomía, el problema de los 3 cuerpos, calculó con precisión (1759) el perihelio del cometa Halley.

Peter Dirichlet: Peter Gustav Lejeune Dirichlet (1805-1859), alemán, hace aportes en teoría de números, mecánica de fluidos, análisis matemático; estableció condiciones para la convergencia de las series de Fourier.

Joseph Fourier: El francés Jean Baptiste Joseph Fourier (1768-1830) descubre las series de Fourier en las investigaciones sobre el flujo de calor en 1822; acompañó a Napoleón en la campaña de Egipto (1798).

Ferdinand Frobenius: El alemán Ferdinand George Frobenius (1849-1917) estudia los métodos de series para resolver ecuaciones diferenciales; aportes en álgebra y teoría de grupos.

Karl Gauss: El alemán Karl Friedrich Gauss (1777-1855) fue uno de los grandes matemáticos del siglo XIX. Hace aportes a la teoría de números, astronomía, electricidad y magnetismo, óptica, geometría, ecuación hipergeométrica.

George Green: El inglés George Green (1793-1841) hace aportes a la física matemática, óptica, electricidad y magnetismo, originó el término “potencial”, función de Green.

Oliver Heaviside: El inglés Oliver Heaviside (1850-1925) hace aportes al electromagnetismo, sugirió la presencia de la capa atmosférica ahora llamada ionosfera; métodos operacionales no rigurosos para resolver ecuaciones diferenciales.

Charles Hermite: El francés Charles Hermite (1822-1901) estudia la teoría de números, prueba (1873) la trascendencia de e, funciones elípticas, álgebra, polinomios de Hermite.

David Hilbert: Matemático alemán, David Hilbert (1862-1943) hace aportes al álgebra, ecuaciones integrales, cálculo de variaciones, lógica, espacio de Hilbert, propuso muchos problemas, algunos todavía sin solución.

Christian Huygens: Matemático, astrónomo y físico holandés, Christian Huygens (1629-1695) estudia vibraciones, óptica, teoría matemática de ondas. Construye un reloj de péndulo basado en la cicloide (1673), astronomía.

12

Johannes Kepler: El alemán Johannes Kepler (1571-1630) hace aportes a la geometría, especialmente encontrando áreas que ayudaron a la formulación de sus 3 leyes del movimiento planetario.

Edmond Laguerre: El francés Edmond Laguerre (1834-1886) hace aportes al análisis matemático, variable compleja, funciones analíticas, polinomios de Laguerre.

Pierre de Laplace: El francés Pierre Simón de Laplace (1749-1827) hace aportes a la mecánica, astronomía, ecuaciones diferenciales parciales, ecuación de Laplace descubierta alrededor de 1787, probabilidad.

Adrien Legendre: El francés Adrien Marie Legendre (1752-1833) hace aportes en teoría de números, funciones elípticas, astronomía, geometría, funciones de Legendre.

Joseph Liouville: El francés Joseph Liouville (1809-1882) estudia la teoría de números (números trascendentes), variable compleja, problemas de Sturm-Liouville. Ecuaciones integrales.

Marc Parseval: El francés Marc Antoine Parseval (1755-1836) hace aportes al análisis matemático, identidad de Parseval en conexión con la teoría de las series de Fourier.

Charles Picard: El francés Charles Émile Picard (1856-1941) hace aportes a la geometría algebraica, topología, variable compleja, método de Picard y teoremas de existencia-unicidad para ecuaciones diferenciales.

Simeón Poisson: El francés Simeón Denis Poisson (1781-1840) fue un físico matemático que hace aportes a la electricidad y el magnetismo, ecuación de Poisson, fórmula de Poisson, probabilidad, cálculo de variaciones, astronomía.

Jacopo Riccati: El italiano Jacopo Francesco Riccati (1676-1754) hace aportes al análisis matemático, ecuación de Riccati resuelta en 1723 por Daniel Bernoulli y otros miembros más jóvenes de su familia.

Bernhard Riemann: El alemán Georg Friedrich Bernhard Riemann (1826-1866) fue uno de los más grandes matemáticos del siglo XIX (alumno de Gauss, Jacobi y Dirichlet). Variable compleja, geometría no euclidiana, funciones elípticas, ecuaciones diferenciales parciales.

Olinde Rodríguez: Matemático francés, Olinde Rodríguez (1794-1851) hace aportes al análisis matemático, fórmula de Rodríguez.

Hermann Schwarz: El alemán Hermann Amandus Schwarz (1843-1921) estudia cálculo de variaciones, teoremas de existencia para ecuaciones diferenciales parciales, desigualdad de Schwarz.

Jacques Sturm: El suizo Jacques Charles François Sturm hace aportes al álgebra (número de raíces reales de ecuaciones algebraicas), geometría, mecánica de fluidos, acústica, problemas de Sturm-Liouville.

13

Hoene Wronski: Matemático polaco, Josef Hoene-Wronski (1778-1853) estudia determinantes, introduce el wronskiano, filosofía.

Métodos

Introducción al análisis numérico. Ideas básicas.

Consideremos el PVI

que no sabemos resolver explícitamente, pero del que tenemos la seguridad de que tiene solución

única en el intervalo t∈ [a , b ] considerado.

El objetivo del análisis numérico será obtener una aproximación de la solución x (t ) .

La forma de aproximar la solución de un PVI no es única y de hecho muchas técnicas de aproximación de soluciones se han desarrollado a lo largo de la historia del análisis funcional. Podemos destacar la aproximación de soluciones de PVI’s utilizando series de potencias, métodos perturbativos, …

El análisis numérico nos provee de una forma muy particular de aproximar la solución de un PVI. Es en esta forma de aproximar soluciones en la que vamos a estar interesados.

En primer lugar haremos una partición del intervalo [a , b ] en N trozos, en principio equiespaciados. Vamos a pasar de considerar que la variable independiente toma valores en un

intervalo t∈ [a , b ] a considerar que toma valores únicamente en el conjunto t∈ {t0 , t1 ,t2 , .. . ,t N } , con t0=a , y tN=b .

Al conjunto {t0 , t1 , t2 , . .. , tN } lo llamaremos partición del intervalo [a , b ] y a los valores t i

les llamaremos nodos de la partición. Cada nodo t i verifica que t i+1=t i+h , y por tanto

t i=t0+ih , donde h es el paso de la partición y El objetivo del análisis numérico es desarrollar un método recursivo, es decir, que vamos a utilizar herramientas algebraicas y no

14

,,,'

0

batxax

xtfx

.h

abN

diferenciales, para la obtención de x i , que serán valores aproximados de la solución exacta del PVI x ( ti ) en los nodos de la partición considerada2.

Planteamos el PVI en los nodos de la partición de la siguiente forma3:

El Método de Euler

El primer método de aproximación numérica de PVI, ya desarrollado en los albores del

cálculo diferencial, para la obtención de los valores aproximados x i la proporciona el llamado método de Euler.

Este método constituirá un modelo sencillo de obtención de soluciones aproximadas de PVI’s, pero además vamos a utilizarlo como modelo y como punto de partida para desarrollar métodos más complejos.

Es por tanto fundamental aprender detenidamente las ideas involucradas en el análisis de este método y reflexionar sobre los conceptos que van a aparecer. En particular adquiere especial relevancia el concepto de error de truncatura.

El método de Euler surge de la idea de eliminar el límite del PVI considerado, es decir este método propone pasar de la igualdad

para la solución exacta x (t ) a la igualdad

2 En análisis numérico es muy importante fijar adecuadamente la notación utilizada. Vamos a denotar como x ( ti ) a la

solución exacta del PVI y comox i a la solución aproximada en el nodo

t i.

3 Este paso ya es en sí muy importante porque supone despreciar toda la información sobre la solución x (t ) del problema que no se

refiera a estos nodos t i.

15

.,...,,

,lim'10

00

0N

iiii

hi tttt

xtx

txtfh

txhtxtx

iiii

htxtf

h

txhtx,lim

0

{xi+1−xi

h=f (t i , x i ) ¿ ¿¿¿

o equivalentemente

para la solución aproximada x i .

Hay que hacer notar que el valor ξ0 de arranque del método aproximado y el valor inicial del

PVI x0 no van necesariamente a coincidir, aunque hay que suponer que si no son valores iguales al menos sí van a ser valores muy próximos4.

Convergencia de un método numérico (I).

¿Qué hemos de pedirle a un método numérico de aproximación de soluciones de PVI’s para que sea satisfactorio? Que aproxime adecuadamente a las soluciones del PVI. En este sentido damos las siguientes definiciones:

Llamamos error local de discretización ε i a la diferencia

mientras que denominamos error (global) de discretización ε a la expresión

Obviamente vamos a estar interesados en que el error de discretización sea lo más bajo

posible y que de hecho tienda a cero a medida que h tienda a cero, o equivalentemente a medida que en número de nodos de la partición aumente.

Diremos que un método es CONVERGENTE si

4 Vamos a notar como x0 a la condición inicial exacta del PVI.

x0 es el valor aproximado de la solución del PVI en el primer nodo

t0 y ξ0 es el valor de

x0 . Por tanto la igualdad x0=ξ0 es siempre cierta mientras que la igualdad

x0=x0 no lo es de forma general.

16

,

,

00

1

x

xthfxx iiii

iii xtx

.maxmax iii xtx

Convergencia del método de Euler.

Vamos a calcular detalladamente ε en el caso del método de Euler con el objetivo adicional de tratar de entender cuales son las fuentes que contribuyen a hacer que el error aumente. Este estudio nos llevará a nuevos conceptos y nuevas definiciones.

Con objeto de ser lo más claros posible y de simplificar y sistematizar a un tiempo nuestras técnicas de cálculo y de estimación de errores, vamos a introducir la definición de error de truncatura.

Este concepto en este momento puede parecer un tanto artificioso. Más adelante veremos que es un concepto que va a jugar un papel fundamental en el estudio de los métodos de aproximación numérica de la solución de los PVI’s.

Veamos a continuación como se introduce el error de truncatura en el método de Euler.

Podemos ver el método de Euler como el paso de la expresión exacta

a la expresión aproximada

que esperamos sea tanto más exacta cuanto más pequeño sea el paso h considerado.5

El error local de truncatura τ i podemos interpretarlo como el error que cometemos al hacer la anterior aproximación, es decir, que de manera exacta tenemos que

Análogamente a lo que establecimos con el error de discretización se define el error (global) de truncatura

5 Nótese que las dos ecuaciones anteriores están referidas a la solución exacta x ( ti ).

17

.0lim0

h

iiii

htxtf

h

txhtx,lim

0

,, iiii txtf

h

txhtx

., iiiii txtf

h

txhtx

τ=max|τ i|.

Diremos que un método es CONSISTENTE si

El orden de consistencia de un método consistente se define como el mayor natural p tal que

Antes de pasar a calcular errores hay que llamar la atención sobre la similitud de las

siguientes expresiones, aparentemente muy parecidas:

y

La primera se refiere a la solución exacta del PVI y la segunda a la solución aproximada de dicho PVI que proporciona el método de Euler6.

Tenemos el siguiente resultado:

TEOREMA 1 (sobre la convergencia del método de Euler):

Se verifica la siguiente desigualdad:

max|x (t i )−xi|≤e(b−a ) L|x0−ξ0|+e(b−a ) L−1

Lτ .

La demostración, que se deja como ejercicio y puede verse en el apéndice al final del capítulo. De hecho también puede considerarse el ejercicio de introducir un término de redondeo en el

cálculo de x i .

A la vista del Teorema 1 vemos que el error de discretización y por tanto la convergencia del método de Euler depende de dos términos. De hecho en forma concisa podemos escribir que

6 A la vista de la expresión x ( ti+1)=x ( ti )+hf (t i , x (t i ))+hτ i cobra sentido interpretar el error de truncatura de la

siguiente forma: hτ i es lo que “le falta” a la solución de exacta para verificar el método de Euler.

18

.0lim0

h

.pCh

iiiii htxthftxtx ,1

.,1 iiii xthfxx

.2001 CxC

Diremos que el primer término está relacionado con la estabilidad y el segundo con la consistencia.

Consistencia del método de Euler.

Ya hemos introducido el concepto de consistencia al introducir el error de truncatura. Nos queda probar formalmente la consistencia del método de Euler y calcular su orden de consistencia.

Dicha propiedad se obtiene de la igualdad

Desarrollando la función x ( ti+h ) por Taylor y utilizando la fórmula del resto en forma de Lagrange, tenemos que

Al sustituir en la ecuación anterior y teniendo en cuenta que x ' ( ti )=f (t i , x i ) nos queda

Cancelando términos obtenemos que

de donde obtenemos la acotación

Concluimos que el método de Euler es consistente y de hecho es consistente de orden 1.

Estabilidad del método de Euler.

Para el estudio de la estabilidad de un algoritmo7 introducimos la siguiente definición:

7 En el estudio de las ecuaciones diferenciales aparece el concepto de estabilidad de la solución de una ecuación diferencial. En este caso hablamos de estabilidad de un algoritmo numérico.

19

., iiiii htxthftxhtx

.,,''2

' 1

2

iiiiiii ttxh

thxtxhtx

iiiiii hthxtxxh

thxtx '''2

'2

ii xh ''2

.''max2

txh

Consideremos la sucesión { yi }i=0,1 .. . . , N de forma que el primer término y0 esté dado y el resto vengan dados por el algoritmo siguiente:

Para dos datos iniciales y0 e z0 obtendremos mediante este algoritmo dos sucesiones

y .

Diremos que el algoritmo considerado es estable8 si existe una constante positiva C , que solo depende del algoritmo, tal que

max|y i−zi|≤C|y0−z0|.

Surge de manera natural la pregunta: ¿Es el método de Euler un algoritmo estable9? Sí, veámoslo:

Construimos dos sucesiones de la forma:

{ y i+1= y i+hf (t i , y i ) ¿ ¿¿¿y

con h , f y los nodos de la partición t i fijos.

Restando obtenemos que

y por tanto se verifican las siguientes acotaciones:

8 El concepto de estabilidad de un algoritmo no tiene nada que ver con el PVI cuya solución pretendemos aproximar.9 Hablaremos indistintamente de método de Euler o de algoritmo de Euler.

20

.1 ii yy

Niiy ....1,0 Niiz ....1,0

dadoz

zthfzz iiii

0

1 ,

,,,11 iiiiiiii ztfytfhzyzy

De donde se concluye la estabilidad del método de Euler.La consistencia y la estabilidad del método de Euler garantizan su convergencia.

Convergencia de un método numérico (II).

La desigualdad

nos ha permitido estudiar la relación entre los conceptos de convergencia (ε→0 ), consistencia (τ →0 ) y estabilidad para el método de Euler. ¿Qué relación tienen estos conceptos entre sí en el resto de los métodos de aproximación ?

Puede probarse que en general se verifica que

Es por esto que una vez que diseñemos un método de aproximación numérico el estudio de su convergencia se va a llevar a cabo en dos pasos, en primer lugar vamos a estudiar su consistencia, y de hecho vamos a determinar siempre el orden de dicha consistencia, y posteriormente vamos a estudiar su estabilidad.

.

Dedicamos este apartado a la demostración del siguiente resultado:

TEOREMA 1 (sobre la convergencia del método de Euler):

Se verifica la siguiente desigualdad:

max|x (t i )−xi|≤e(b−a ) L|x0−ξ0|+e(b−a ) L−1

21

00

00

00

11

11

,

,1

,1

,,,

zyezy

zyezy

zyhLzy

zyhLzy

ztfytfhxyzy

abLii

hLNii

Nii

iiii

iiiiiiii

2001 CxC

DESTABILIDA

IACONVERGENC

IACONSISTENC

Demostración:

Notaremos x ( ti ) a la solución exacta del PVI y x i a la solución aproximada en los nodos t i de la partición. Por construcción,

Por otro lado la solución aproximada x i verifica que

Restando obtenemos el siguiente resultado:

Teniendo en cuenta la Lipschitzianidad de f ( t , x ) obtenemos que

que escrito con la notación introducida en el capítulo 1.3 queda como

En este momento hemos de aplicar un resultado algebraico al que a partir de ahora nos vamos a referir como Primer Lema de Acotación. Estos lemas son muy utilizados en las demostraciones de convergencia de diferentes métodos numéricos.

Lema (Primer Lema de Acotación):

Sea { y n}n=0,1. . . .∞ una sucesión de números reales no negativos, que verifican la condición

22

.

,

00

1

xtx

htxthftxtx iiiii

.

,

00

1

x

xthfxx iiii

iiiiiiiii

iiii

iiiii

hxtftxtfhxtxxtx

xthfxx

htxthftxtx

,,

,

,

11

1

1

,1

,,,

11

11

iiiii

iiiiiiiii

hxtxhLxtx

hxtftxtfhxtxxtx

000

1 ,1

x

hhL ii

yn+1≤(1+A ) yn+B , n=0,1,2 ,. . .

con A y B constantes no negativas, entonces

yn≤(1+A )n y0+(1+A )n−1

AB , n=0,1,2 ,. . .

y además

Aplicando el primer lema de acotación a la desigualdad anterior obtenemos que

De donde

Métodos de Taylor

Volviendo al método de Euler podemos constatar la similitud que hay entre el desarrollo de Taylor de la solución

y la forma en la que se calcula el error de truncatura. Por ejemplo podemos considerar que para el método de Euler,

La diferencia entre estos dos desarrollos se encentra en los términos de orden h2 . Es por esto

que a la vista de un desarrollo más detallado del x ( ti+h ) ,

podemos pensar en desarrollar métodos que nos permitan imitar este desarrollo. Esta es la base de los métodos de Taylor y aquí se encuentra también una forma de motivar los métodos de Runge-Kutta, que serán tratados posteriormente.

23

,...2,1,0,1

0

nBA

eyey

nAnA

n

,1

0 hhL

ee

inhLihL

i

.1

0 L

ee

LabLab

.,,''2

' 1

2

iiiiiii ttxh

thxtxhtx

., iiiii htxthftxhtx

...'''!3

''!2

'32

iiiii txh

txh

thxtxhtx

En efecto, un ejemplo es el método de Taylor de orden 2, que se construye como sigue:

Se deja como ejercicio probar que este método tiene orden de consistencia 2.

Parece claro que utilizando esta forma de razonar seremos capaces de desarrollar métodos numéricos consistentes y estables de órdenes arbitrariamente altos.

El inconveniente que presentan los métodos de Taylor es que nos obligan a evaluar no solo la

función f ( t , x ) sino además a sus derivadas. En los ejemplos académicos que suelen considerarse esta no suele ser una gran dificultad, sin embargo en las aplicaciones prácticas debemos evitar

evaluar derivadas de f (t , x ) .

Aproximaciones integrales.

Una forma alternativa de intentar resolver un PVI dado por

es integrar a izquierda y derecha la variable independiente entre [ t i ,t i+1] . Obtenemos la siguiente expresión

Obviamente la resolución por medios teóricos de este problema implícito es incluso más difícil que la resolución del PVI inicial. Sin embargo en términos de la interpretación geométrica de la integral definida es fácil justificar la siguiente aproximación:

Basta sustituir en la ecuación anterior para obtener el método de Euler explícito.

Nuevas aproximaciones de la integral generan nuevos métodos de aproximación. Cabe destacar que la aproximación

24

.,,,2

,2

1

iiiiiiiiii xtfxtx

fxt

t

fhxthfxx

.,...,,,'

1000

N

iiitttt

xtx

txtftx

.,

ht

tii

i

i

dssxsftxhtx

.,, ii

ht

txthfdssxsf

i

i

.,1 iiii xthfxx

11 ,,

ii

ht

ttxthfdssxsf

i

i

nos conduce al método de Euler implícito, mientras que la generalización de las anteriores aproximaciones

nos conduce al llamado ϑ−método, que en el caso ϑ=1

2 adquiere especial relevancia por conducirnos al método del trapecio

que es un método consistente de segundo orden. De hecho es el primer método de consistencia mayor a la del método de Euler que aparece en el curso.

Se deja como ejercicio probar la consistencia y estabilidad de todos estos métodos, en especial las del método del trapecio.

Métodos de Runge-Kutta

Introducción a los métodos no lineales.

Los métodos de Runge-Kutta son métodos no lineales monopaso que se introducen para obtener grados de consistencia altos.

En estos métodos la no linealidad del método viene dada por la evaluación de la función f ( t , x ) en puntos diferentes a los nodos de la partición.10

En general estos métodos pueden escribirse como

donde la función Φ (h ) va a tener la forma Φ (h )=∑

k=1

m

Ak f (δk , γk ) , donde en general los valores δ k

y γ k van a ser diferentes de t i y x i respectivamente.

Consistencia de un método de Runge-Kutta.

10 Es importante no confundir la linealidad de la ecuación que vamos a resolver con la linealidad del método de resolución.

25

,1,0,,,1, 11

iiii

ht

ttxtftxtfhdssxsf

i

i

,,,2 111 iiiiii xtfxtfh

xx

,1 hhxx ii

El cálculo del error de truncatura de un método de Runge-Kutta se hace en la forma usual,

sustituyendo la solución aproximada por la exacta y agregando el término de error hτ i . Así,

La dificultad que tenemos en este caso es no saber a priori el orden en h de la función Φ (h ) . Para

determinar la consistencia del método procedemos a desarrollar x ( ti+h ) y Φ (h ) en potencias de h .

Simplicando y agrupando términos queda

A la vista de esta ecuación la condición imprescindible para que un método de Runge-Kutta sea consistente es que

En la medida en que el método cumpla las condiciones

su orden de consistencia será mayor.

Algunos ejemplos.

Vamos a considerar algunos ejemplos de métodos de Runge-Kutta. El estudio de estos ejemplos servirá como ejemplo al estudio general de los métodos monopaso no lineales.

26

.iii hhhtxhtx

....0''!2

0'0...''!3

''!2

'232

iiiiii hh

hhtxtxh

txh

thxtx

...

!2

0''

!3

'''0'

2

''0' 32

iiii

txh

txhtxhh

iii xtftxh ,'0

...

,!3

'''

!2

0''

,2

''0'

i

i

tx

tx

.,21

iiii x

hthfxx

En este caso Tenemos que

Concluimos que este método es consistente de orden 1.

En este caso Φ (h )=1

2 (f (t i , x i )+f ( ti+h , x i+hf (t i , x i ))) . Así

Concluimos que este método es consistente de orden 2.

El método de Runge-Kutta más famoso y utilizado es el conocido como método de Runge-Kutta de orden 4:

donde

Se deja como ejercicio probar que efectivamente este método tiene un error de truncatura de orden 4.

27

.,2

ii x

htfh

.

2

'',

2

10'

,0

iii

ii

txxt

t

f

xtf

.,,,21 iiiiiiii xthfxhtfxtfh

xx

.'''0''

,,,,2

10'

,0

i

iiiiii

ii

tx

xtfxtx

fxt

t

f

xtf

43211 226

1FFFFxx ii

.,

2,

2

2,

2

,

34

23

12

1

FxhthfF

Fx

hthfF

Fx

hthfF

xthfF

ii

ii

ii

ii

Métodos de Adams-Bashford

Introducción.

Los métodos de Adams pretenden aprovechar aproximaciones integrales para el diseño de métodos estables de orden de consistencia altos.

Todos los métodos de Adams explícitos son de la forma

x i+1=x i+h (af (t i , x i )+bf ( ti−1 , x i−1 )+.. .) ,

mientras que en los implícitos también se evalúa f ( ti+1 , xi+1) . El diseño de estos métodos se basa en

determinar los coeficientes a , b , .. .

mediante aproximaciones integrales.

Construcción de los métodos de Adams.

Como veíamos en el capítulo 2 al considerar el PVI dado por

podemos integrar a izquierda y derecha la variable independiente entre [ t i ,t i+1] . obteniendo:

Solo tenemos que aproximar la integral obtenida en el segundo miembro. El problema es que

la función x (t ) es desconocida y por tanto también lo es f ( t , x (t ) ).

La idea que da origen a los métodos de Adams consiste en establecer que una vez resuelto el

PVI en realidad f ( t , x ( t ) )= f (t ) y en aproximar la integral t i

t i+ hf ( s) ds

mediante evaluaciones de la función en los nodos de la partición, es decir

si se pretende diseñar un método explícito, mientras que si se pretende diseñar un método implícito,

28

.,...,,,'

1000

N

iiitttt

xtx

txtftx

.,

ht

tii

i

i

dssxsftxhtx

,...1

ht

t ii

i

i

tbftafhdssf

Escogeremos los coeficientes a ,b , . .. de forma que esta aproximación sea exacta para polinomios del orden más alto posible.

Estos coeficientes se trasladarán a posteriori al método.

Es importante resaltar que las aproximaciones integrales que vamos a hacer a continuación

tienen que ver con la naturaleza de la función f (t ) pero no con el hecho de que el paso h sea

pequeño o con el valor concreto de t i. Es por esto que en el diseño de los métodos y por razones de

simplicidad tomaremos t i=0 y h=1.

A modo de ejemplo vamos a diseñar varios métodos de Adams explícitos.

Nota: Los métodos de Adams explícitos se denominan métodos de Adams-Bashforth mientras que los métodos de Adams implícitos se denominan métodos de Adams-Moulton.

Método de Adams-Bashforth de un paso.

En este caso vamos a imponer que la aproximación

sea exacta al menos para polinomios de orden 0, es decir para funciones constantes. Para ello

tomamos una base del espacio de polinomios de orden 0, a saber {1 } y evaluamos esta condición sobre los elementos de esta base para determinar el valor de a .

Obtenemos el método de Euler explícito.

Método de Adams-Bashforth de dos pasos.

Imponemos ahora que la condición

29

....1

ht

t ii

i

i

tbftafhdssf

01

0afdssf

.111

0ads

101

0 bfafdssf

sea exacta al menos para polinomios de orden 1. Tomamos ahora una base del espacio de

polinomios de orden 1, a saber {1 , t } y evaluamos esta condición sobre los elementos de esta base:

para f (t )=1 tenemos que 0

11ds=1=a+b .

para f ( t )=t tenemos que 0

1sds=1

2=a (0 )+b (−1 ) .

Los parámetros a y b cumplen las siguientes ecuaciones:

a+b=1

−b=12

.

Por tanto a=3

2, b=−1

2 y el método que deducimos es el siguiente:

Método de Adams-Bashforth de tres pasos.

Imponemos ahora que la condición

0

1f ( s )ds=af (0 )+bf (−1 )+cf (−2 )

sea cierta al menos para polinomios de orden 2. Tomamos ahora una base del espacio de polinomios

de orden 2. En principio podemos utilizar la base {1 , t , t2} y obtenemos un sistema de ecuaciones

que nos permite determinar los parámetros a , b

y c . Sin embargo es mucho más interesante

considerar la base {1 , t , t (t+1 ) } ya que obtendremos un sistema triangular. Si evaluamos la condición sobre los elementos de esta base:

para f ( t )=1 tenemos que 0

11ds=1=a+b+c ,

para f (t )=t tenemos que 0

1sds=1

2=a (0 )+b (−1 )+c (−2 ) .

30

.,2

1,

2

3111

iiiiii xtfxtfhxx

para f ( t )=t ( t+1 ) tenemos que 0

1s (s+1 ) ds=5

6=a (0 )+b (0 )+c (2 ) .

Obtenemos el sistema triangular

cuya solución es y a=23

12.

El método obtenido es:

x i+1=x i+h

12 (23 f ( ti , x i )−16 f (t i−1 , x i−1)+5 f ( ti−2 , x i−2 )) .

Aplicación en la ingeniería en Informática de las Ecuaciones Diferenciales

Ejemplos de programación del método de Euler

A modo de aplicación de la teoría desarrollada vamos a llevar a cabo un programa utilizando MATLAB para aproximar las solución del PVI

con

El algoritmos resultante de aplicar el método de euler

en este caso queda como

31

.6

52

2

12

1

c

cb

cba

,12

16,

12

5 bc

sin( )

(0) 1

x t

x

1

0

,i i i i

o

x x hf t x

x

El programa en MATLAB:

%El método de Euler aplicado a la resolución de x’=sin(t), x(0)=1clear all%Datos de entradaf=@(t)[sin(t)];a=0;b=2*pi;h=0.5;N=(b-a)/h;t(1)=a;x(1)=1; %Programa Principalfor k=1:N t(k+1)=t(k)+h; x(k+1)=x(k)+f(t(k))*h; end%Salidahold onplot(t,x,'*') % solución aproximada z=dsolve('Dz=sin(t)','z(0)=1'); %solución exacta en color azulezplot(z,[a,b])hold off

donde hemos tomado

32

1

0

sin

1i i ix x h t

x

Si tomamos obtenemos

33

A modo de ejemplo de aplicación del método de Euler a PVI de segundo orden vamos a considerar el caso del oscilador armónico, que viene dado por

con

Este PVI modeliza la vibración de un muelle.

Para resolver este PVI hemos de pasar de una ecuación de segundo orden a dos ecuaciones de primer orden. Llamando

Por tanto el sistema de ecuaciones diferenciales equivalente a .

Las condiciones iniciales se transforman de la siguiente forma:

34

0

(0) 0

(0) 1

x x

x

x

( )x y x x y

La idea es aplicar la aproximación de Euler a las dos ecuaciones obtenidas por separado:

que generan los dos algoritmos siguientes:

que han de resolverse a la vez.

Podemos considerar el siguiente programa:

%Aplicamos el método de Euler a la resolución aproximada del problema:% x''+x=0; x(0)=0; x'(0)=1. Oscilador armonico.clear all%datosa=0;b=2*pi;h=0.05;N=(b-a)/h;t(1)=a;x(1)=0;y(1)=1;%programafor k=1:N t(k+1)=t(k)+h; x(k+1)=x(k)+h*y(k); y(k+1)=y(k)-h*x(k);end%salidahold onplot(t,x,'r')z=dsolve('D2x+x=0','x(0)=0','Dx(0)=1')ezplot(z,[0,2*pi])

35

(0) 0 (0) 0

(0) 1 (0) 1

x x

x y

1)0(

0)0(

'

'

y

x

xy

yx

1

0,

01

01

yhxyy

xhyxx

iii

iii

hold off

Ejecutamos y tenemos las siguientes gráficas:

Podemos incluso dibujar el diagrama de las fases:

%Diagrama de las fases del oscilador armónico.clear all%datosa=0;b=2*pi;h=0.001;N=(b-a)/h;t(1)=a;x(1)=0;y(1)=1;%programafor k=1:N t(k+1)=t(k)+h; x(k+1)=x(k)+h*y(k); y(k+1)=y(k)-h*x(k);end

36

%salidahold onplot(x,y,'r')hold off

Obtenemos la gráfica:

37

Conclusión

Las Ecuaciones Diferenciales representan un importante recurso en la física, la ingeniería, la economía, la meteorología y en aplicaciones como las de modelado en ciencias, se las estudia en diversas áreas (como geometría, mecánica y astronomía) y perspectivas. Matemáticamente es de crucial interés el conjunto de funciones que verifican la ecuación y establecen sus soluciones. Sólo las ecuaciones diferenciales más sencillas admiten soluciones dadas por fórmulas explícitas (como las lineales asociadas a una teoría desarrollada prácticamente por completo). No obstante, pueden determinarse algunas propiedades de las soluciones de una ecuación diferencial sin requerirse su formulación exacta. Clave para resolver la mayoría de las ecuaciones diferenciales no lineales de sumo interés en numeroso casos. Casos carentes de una fórmula auto-contenida para su solución que se suple con la aproximada numéricamente con el auxilio crucial de las computadoras.

La mayoría de las ecuaciones diferenciales no se pueden resolver de forma analítica explícita, por lo cual, es esencial diseñar algoritmos numéricos que permitan hallar una aproximación numérica precisa. Los esfuerzos de investigación en este sentido han proporcionado un amplio abanico de esquemas numéricos que permiten hallar soluciones aproximadas para una gran variedad de ecuaciones diferenciales.

Los métodos numéricos básicos para resolver los problemas de valores iniciales (PVI), son: los Métodos de Euler, de Taylor, de Runge-kutta y los métodos de Adams.

Lo cierto es que los métodos esenciales considerados anteriormente, raramente se utilizan en la práctica, incluso para ecuaciones diferenciales relativamente sencillas, puesto que existen métodos más sofisticados, especializados y versátiles.

38

Bibliografía

http://es.wikipedia.org/wiki/Historia_de_las_ecuaciones_diferenciales

http://www.monografias.com/trabajos91/metodo-series-taylor-resolver-ecuaciones/metodo-series-taylor-resolver-ecuaciones.shtml#ixzz3QBW3jYHm

https://www.google.co.ve/url?sa=t&rct=j&q=&esrc=s&source=web&cd=12&ved=0CCAQFjABOAo&url=http%3A%2F%2Fcursocfimatematicas.files.wordpress.com%2F2011%2F12%2Ftodo_pvi.doc&ei=Q1XKVIvFMMi8ggT8voTQCQ&usg=AFQjCNFG2z77tdnD6bKeYLG_k0dz0Dl03g&sig2=qGdniDKVi54eSUcuNdhHAg&bvm=bv.84607526,d.cWc&cad=rja

http://es.slideshare.net/balzasbravas/metodos-numericosecuacionesdiferenciales

39