SISTEMAS DINAMICOS
-
Upload
adrienne-merely -
Category
Documents
-
view
4.733 -
download
4
Transcript of SISTEMAS DINAMICOS
Sistemas Dinámicos
Héctor E. Lomelí
Departamento Académico de Matemáticas
Instituto Tecnológico Autónomo de México
Río Hondo #1
México, DF 01000
1 de diciembre de 2005
Índice General
1 Introducción a los Sistemas Dinámicos. 1
1.1 Definición de un sistema dinámico . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Ejemplos de sistemas dinámicos . . . . . . . . . . . . . . . . . . . . . . . 4
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Sistemas Lineales 8
2.1 La norma de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 La exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Derivadas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Cálculo de la exponencial de una matriz . . . . . . . . . . . . . . . . . . . 19
2.5 Ecuaciones de orden n y método de Fulmer . . . . . . . . . . . . . . . . . 25
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3 Estabilidad de Sistemas Lineales. 34
3.1 Matrices no degeneradas . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Matrices atractoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
ÍNDICE GENERAL i
3.3 Matrices tipo silla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4 Teoría no Lineal. 49
4.1 Teoría de Ecuaciones Diferenciales. . . . . . . . . . . . . . . . . . . . . . 49
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5 Estabilidad no lineal 66
5.1 Conjugación topológica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2 Linealización de puntos fijos . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3 Análisis de puntos silla . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.4 Estabilidad asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
ÍNDICE GENERAL ii
CAPÍTULO 1
Introducción a los Sistemas Dinámicos.
1.1 Definición de un sistema dinámico
Los Sistemas Dinámicos son el estudio de modelos que evolucionan en el tiempo. En general
se estudian dos situaciones: {tiempo continuo t ∈ R
tiempo discreto t ∈ Z
En cada caso, existen muchas aplicaciones que se pueden poner dentro del esquema de un
sistema dinámico:
Tiempo continuo
Ecuaciones diferenciales ordinarias
Ecuaciones de difusión
Procesos estocásticos
Tiempo discreto
{Métodos iterativos
Iteración de mapeos
§1.1 DEFINICIÓN DE UN SISTEMA DINÁMICO 2
Definición 1.1.1 Sea E un conjunto. Sea � un subconjunto de R × E tal que {0} × E ⊂� ⊂ R × E .Un sistema dinámico de tiempo real en E es una funciónφ : � → E
(t, x) → φt (x)
tal que:
a) φ (0, x) = x
b) φ (t, φ (s, x)) = φ (t + s, x) (en donde tenga sentido).
Se dirá, además, que φ es el flujo del sistema dinámico.
Dado un flujo, generalmente se utilizará la siguiente notación: φt (x) = φ (t, x) . De esta
manera, las condiciones de la definición anterior se pueden escribir como
φ0 = idE ,
φt ◦ φs = φt+s .
Recordemos que, como parte de la definición, para cada punto x ∈ E, se tiene que
(0, x) ∈ �. Queremos que para cada x0, el conjunto de tiempos t para los que flujo φ (t, x)
está definido sea un intervalo. El máximo intervalo I ⊂ R tal que 0 ∈ I es llamado el
intervalo maximal de x y se denota D(x).
Definición 1.1.2 Si para cada punto x el intervalo maximal D(x) = R, se dice que el
sistema dinámico es completo.
En particular, si el flujo es completo, se tiene que para cada t, la función φt : E → E es
una biyección con inversa dada por(φt)−1 = φ−t .
Definición 1.1.3 Sea E un conjunto. Sea � un subconjunto de Z × E tal que {0} × E ⊂ �.
Un sistema dinámico en tiempo discreto es una función φ : � → E tal que
a) φ(0, x) = x,
b) φ (s, φ (t, x)) = φ (s + t, x) (cuando esto tiene sentido).
§1.1 DEFINICIÓN DE UN SISTEMA DINÁMICO 3
En un sistema dinámicos en tiempo discreto, generalmente se utiliza � = (N ∪ {0})× E
con el flujo definido como
φ(t, x) = ( f ◦ f ◦ · · · ◦ f︸ ︷︷ ︸t veces
)(x)
Esta composición se puede escribir como f t = f ◦ f ◦ · · · ◦ f︸ ︷︷ ︸t veces
.
En ambos casos, en tiempo discreto y tiempo continuo, nos interesa estudiar el compor-
tamiento de los flujos, por ejemplo, nos preguntamos acerca del siguiente límite.
limt→∞ φ(t, x) =?
En los siguientes capítulos estableceremos una relación entre flujos y ecuaciones diferencia-
les. En particular tenemos el siguiente resultado.
Proposición 1.1.4 Sea E un abierto de Rn. Sea φ un flujo definido en un abierto � ⊂ R×E .
Suponer que φ(t, x) es de clase C1. Demostrar que, para cada x ∈ E, la función y(t) =φ(t, x) satisface el siguiente problema de valores iniciales.
y = f (y),
y(0) = x,
donde f (u) = ∂∂t
∣∣t=0 φ(t, u).
Ejemplo 1.1.5 Sea φ : � ⊂ R × R → R el flujo dado por
φt (x) = x
1 − xt
Notemos que para t = 0, siempre está definida φ está definida. Podemos usar � ={(t, x) : xt �= 1} .Vamos a verificar que φ es un sistema dinámico sobre R.
a) φ0(x) = x,
§1.2 EJEMPLOS DE SISTEMAS DINÁMICOS 4
b) φt (φs(x)) = φt(
x1−xs
)=
x1−xs
1− x1−xs t = x
1−sx−t x = x1−(s+t)x = φs+t (x). El intervalo
maximal es
D(x) =
R si x = 0(−∞, 1x
)si x > 0( 1
x , ∞) si x < 0
Para encontrar una ecuación diferencial que sea satisfecha por φ(t, x0) usamos la propo-
sición 1.1.4. Usando el flujo de este ejemplo, se tiene
f (u) = ∂
∂ t
∣∣∣∣t=0
φ(t, u) = u2.
Notemos que y(t) = φ(t, x0) cumple
y(t) = ∂
∂ tφ(t, x0) = x2
0
(1 − t x0)2= φ(t, x0)
2.
De este modo concluimos que, para cada x0, la función y(t) = φ(t, x0) es una solución del
problema
y = y2,
y(0) = x0.
1.2 Ejemplos de sistemas dinámicos
Ejemplo 1.2.1 Sea E = S1 = {x ∈ R
2 : |x | = 1}
el conjunto de estados. Sea � = R × E
y φ : � → E dada por
φ(t, x) =(
cos t − sin t
sin t cos t
)x
Entonces φ es un sistema dinámico completo.
Ejemplo 1.2.2 En este ejemplo, mostramos que el conjunto de estados puede ser algo más
que subconjuntos de Rn. Sea E = C2(R) el conjunto de funciones de clase C2 definidas
EJERCICIOS 5
R. Notemos que E es un espacio vectorial de dimensión infinita. Para cada f ∈ E y cada
t > 0, se define una función φt ( f ) dada por
φt ( f )(x) = 1√2π t
∫ ∞
−∞exp
[−(x − y)2
2t
]f (y)dy.
Se puede demostrar que se tiene el siguiente límite
limt→0
φt ( f )(x) = f (x).
Además φt (φs( f )) = φt+s( f ), por lo que resulta que φ es un flujo definido en [0, ∞) × E .
Ejemplo 1.2.3 Demos otro ejemplo de un sistema dinámico en tiempo real. Sea E = [0, 1)
y
φ (t, x) = (x + t) mod 1.
Entonces φ es un sistema dinámico completo.
EJERCICIOS
✎ 1.1 Demostrar que las siguientes funciones son flujos.
a) φ : � ⊂ R×(−π2 , π
2 ) → (−π2 , π
2 ), φ(t, x) = arctan(et tan x
).
b) φ : � ⊂ R×(0, ∞) → (0, ∞), φ(t, x) = (e−t(1/x2 − 1
)+ 1)−1/2
.
c) φ : � ⊂ R × R2 → R
2, φ(t, (x, y)) = (e−t x, et y + 13
(et − e−2t
)x2).
✎ 1.2 Demostrar la proposición 1.1.4. (Sugerencia: usar las propiedades del flujo.)
✎ 1.3 Para cada una de las funciones del problema 1.1, encontrar las ecuación diferencial
que es satisfecha y el máximo dominio �.
✎ 1.4 Sea φ : � ⊂ R × R → R, la función dada por
φ(t, x) = et x
(et − 1)x + 1.
EJERCICIOS 6
a) Demostrar que φ es flujo.
b) Para cada x ∈ R encontrar el intervalo maximal D(x).
c) Encontrar una ecuación diferencial satisfecha por y(t) = φ(t, x).
d) Calcular limt→∞ φ(t, x) y limt→−∞ φ(t, x).
✎ 1.5 (Cambio de variable) Sean E, F dos abiertos de Rn . Sea φ : R × E → E un flujo
completo de clase C1. Suponer que y(t) = φ(t, z) satisface la siguiente ecuación diferencial
dy
dt= G(y), y(0) = z.
a) Un difeomorfismo es una función biyectiva de clase C1 tal que su inversa también es
de clase C1. Sea h : E → F un difeomorfismo entre los abiertos E y F . Demostrar
que φ(t, x) = h(φ(t, h−1(x)) es un flujo completo en el conjunto de estados F .
b) Dado que, y(t) = φ(t, x) satisface la ecuación
d y
dt= G(y), y(0) = x,
encontrar G en términos de G, h, h−1 y h′.
c) Usualmente se utiliza la siguiente notación para el nuevo campo vectorial G = h∗G.
Interpretar y demostrar la siguiente igualdad
( f ◦ h)∗G = f∗(h∗G).
d) Sea � = R × (0, π). Sea φ : � → (0, π) la función de clase C1
φ(t, θ) = arccos
((et + 1
)cos θ + (et − 1
)(et − 1) cos θ + (et + 1)
).
Demostrar que φ es un flujo completo y encontrar el problema de valores iniciales
que satisface. (Sugerencia: usar el ejercicio 1.5 con E = (−1, 1), F = (0, π) y
h(u) = arccos(u). Encontrar un flujo φ en E .)
EJERCICIOS 7
✎ 1.6 Sea A una matriz tal que A2 = A. Demostrar que el siguiente es un flujo completo
en Rn.
φ(t, x) = (et A + (I − A))
x .
Encontrar la ecuación diferencial que es satisfecha.
CAPÍTULO 2
Sistemas Lineales
Un sistema lineal es una ecuación de la forma
y = Ay,
y(0) = x0
donde A es una matriz de n × n. En este capítulo estableceremos una relación entre los
sistemas lineales y la llamada exponencial de una matriz.
2.1 La norma de una matriz
Definición 2.1.1 Llamaremos Mp al espacio vectorial de matrices p × p con entradas
reales.
El siguiente resultado se da sin demostración.
§2.1 LA NORMA DE UNA MATRIZ 9
Proposición 2.1.2 Sea A ∈ Mp y
‖A‖ = max‖x‖2=1‖Ax‖2 .
donde ‖x‖2 es la norma euclideana usual. Entonces ‖·‖ es una norma Mp. Además, ‖A‖es la raíz cuadrada del máximo eigenvalor de AT A.
Ejemplo 2.1.3 Sea
A =(
1 2
3 −1
).
Calcular ‖A‖ .
Solución
Usaremos la proposición 2.1.2: primero calculamos
AT A =(
1 2
3 −1
)(1 2
3 −1
)=(
10 −1
−1 5
).
Los eigenvalores satisfacen
λ2 − 15λ + 49 = 0
y por tanto
λ1,2 = 15 ± √225 − 196
2= 15 ± √
29
2.
El máximo es los eigenvalores es 15+√29
2 . De este modo concluimos que ‖A‖ =√
15+√29
2 .
�
Lema 2.1.4 Si S, T ∈ Mp, entonces
a) ∀x ∈ Rp, ‖T x‖ ≤ ‖T ‖ ‖x‖ ,
b) ‖ST ‖ ≤ ‖S‖ ‖T ‖ ,
c)∥∥T k
∥∥ ≤ ‖T ‖k .
A continuación daremos un repaso de algunos conceptos del Análisis Matemático.
§2.1 LA NORMA DE UNA MATRIZ 10
Definición 2.1.5 Se dice que una sucesión Ak ∈ Mp converge a A si
‖Ak − A‖ → 0.
El siguiente lema, nos permite calcular “termina a término” el límite de una sucesión de
matrices. Dada una matriz A, usaremos la notación (A)i j para indicar la entrada (i, j ) de A.
Lema 2.1.6 Sea Ak ∈ Mp una sucesión que converge a A ∈ Mp. Sean u y v dos vectores
de Rp. Entonces
a) La sucesión de números reales u · Akv converge a u · Av. Esto es
limn→∞ u · Akv = u · Av.
b) La sucesión de números reales (Ak)i j converge a (A)i j . Esto es
limn→∞(Ak)i j = (A)i j .
Demostración
La demostración de este hecho se basa en la desigualdad de Cauchy-Schwartz. Notemos
que esta desigualdad y el lema 2.1.4 implican
|u · Akv − u · Av| = |u · (Ak − A) v|≤ ‖u‖2 ‖(Ak − A) v‖2
≤ ‖u‖2 ‖Ak − A‖2 ‖v‖2
La segunda parte de la demostración está basada en al primera, tomando en cuenta el hecho
de que la entrada (i, j ) de una matriz A se puede escribir como (A)i j = ei · Ae j donde ei y
e j son el i−ésimo y j−ésimo vectores canónicos de Rp.
Definición 2.1.7 Se dice que una sucesión Ak ∈ Mp es de Cauchy, si para cada ε > 0
existe N ∈ N tal que si m, n ≥ N entonces
‖Am − An‖ < ε.
§2.2 LA EXPONENCIAL DE UNA MATRIZ 11
Proposición 2.1.8 Sea Ak ∈ Mp una sucesión de Cauchy. Entonces existe A ∈ Mp tal
que la sucesión converge a A.
La demostración del Lema que da como ejercicio para el lector.
2.2 La exponencial de una matriz
Deseamos ahora darle sentido a la siguiente expresión
∞∑k=0
Ak
k!.
Dicho objeto tendrá el papel, dentro de las matrices, de una exponencial. Esta es de funda-
mental importancia en el análisis de los sistemas lineales. Comencemos con una definición.
Definición 2.2.1 Dada una matriz A ∈ Mp se define la n−ésima suma parcial de la matriz
exponencial como
Sn(A) =n∑
k=0
Ak
k!.
Lema 2.2.2 Si m > n entonces
‖Sm(A) − Sn(A)‖ ≤ ‖A‖n+1
(n + 1)!e‖A‖.
Demostración
Claramente se tiene, usando la desigualdad del triángulo y el lema 2.1.4 la siguiente
desigualdad
‖Sm(A) − Sn(A)‖ ≤m∑
k=n+1
‖A‖k
k!=
m−n−1∑k=0
‖A‖k+n+1
(k + n + 1)!.
§2.2 LA EXPONENCIAL DE UNA MATRIZ 12
Es bien sabido que (k + n + 1)! ≥ k!(n + 1)! y esto implica
‖Sm(A) − Sn(A)‖ ≤m−n−1∑
k=0
‖A‖k ‖A‖n+1
k!(n + 1)!
= ‖A‖n+1
(n + 1)!
m−n−1∑k=0
‖A‖k
k!
≤ ‖A‖n+1
(n + 1)!
∞∑k=0
‖A‖k
k!= ‖A‖n+1
(n + 1)!e‖A‖.
Esto termina la demostración.
Proposición 2.2.3 Dada una matriz A ∈ Mp, la sucesión Sn(A) es de Cauchy y por lo
tanto existe una matriz E(A) tal que
limn→∞ ‖Sn(A) − E(A)‖ = 0.
Demostración
El resultado es consecuencia del lema 2.2.2 y del siguiente límite
limn→∞
‖A‖n
n!= 0.
Definición 2.2.4 Dada una matriz A cuadrada de p × p, su exponencial eA es el límite
de la sucesión Sn(A), esto es eA es la matriz E(A) encontrada en la proposición 2.2.3.
Usualmente se escribirá:
eA =∞∑
k=0
Ak
k!.
Proposición 2.2.5 La matriz eA tiene las siguientes propiedades:
a) e0 = I,
b) Si AB = B A, entonces eAeB = eBeA = eA+B,
§2.2 LA EXPONENCIAL DE UNA MATRIZ 13
c)(eA)−1 = e−A,
d) Si P es invertible, entonces exp[P AP−1
] = P exp [A] P−1.
Demostración
a) Trivial pues Sn(0) = I para toda n ≥ 1.
b) Ver ejercicio 2.2.
c) Si hacemos B = −A en el inciso anterior, es claro que B A = AB, y por ende
tenemos que eA+B = eAeB = eBeA; es decir e0 = eAe−A = e−AeA = I . Por lo tanto
(eA)−1 = e−A.
d) Vamos a mostrar que ‖PeA P−1 − eP A P1‖ = 0. Notemos que
Sn(P AP−1) =n∑
k=0
1
k!(P AP−1)k .
Además (P AP−1)k = P Ak P . Entonces
Sn(P AP−1) =n∑
k=0
1
k!P Ak p−1
= Pn∑
k=0
1
k!Ak P−1 = P Sn(A)P−1
Por lo tanto
‖PeA P−1 − eP A P−1‖ ≤ ‖PeA P−1 − P Sn(A)P−1‖+ ‖P Sn(A)P−1 − Sn(P AP−1)‖ + ‖Sn(P AP−1) − eP A P−1‖≤ ‖P‖‖eA − Sn(A)P−1‖‖P−1‖ + ‖Sn(P AP−1) − eP A P−1‖ −→ 0
Como el lado derecho de la desigualdad converge a 0, entonces
‖PeA P−1 − eP A P−1‖ = 0
y esto termina la demostración.
§2.2 LA EXPONENCIAL DE UNA MATRIZ 14
Ejemplo 2.2.6 Sea A la matriz
A =(
a b
0 a
).
Calcular eA.
Solución
Notemos que
A2 =(
a b
0 a
)(a b
0 a
)=(
a2 2ab
0 a2
)
A3 =(
a2 2ab
0 a2
)(a b
0 a
)=(
a3 3a2b
0 a3
)
Este proceso se puede continuar inductivamente y obtener
Ak =(
ak kak−1b
0 ak
).
Por lo tanto, para cada n, se tiene
Sn(A) =n∑
k=0
Ak
k!
=n∑
k=0
1
k!
(ak kak−1b
0 ak
)=( ∑n
k=01k!a
k b∑n
k=1kk!a
k−1
0∑n
k=01k!a
k
)
Usando el lema 2.1.6, podemos calcular el límite término a término y así obtener
eA =(
ea bea
0 ea
).
�
§2.3 DERIVADAS MATRICIALES 15
Ejemplo 2.2.7 Sea B la matriz
B =(
0 −β
β 0
).
Calcular eB .
Solución
Sea
J =(
0 −1
1 0
).
Notemos que J 2 = −I, por lo que B2 = −β2 I, B3 = −β3 B, B4 = β4 I, etc. Este proceso
se puede continuar inductivamente y obtener
Sn(B) =n∑
k=0
Bk
k!=
∑0≤k≤n,
k par
Bk
k!+∑
0≤k≤n,k impar
Bk
k!
=∑
0≤2k≤n,
(−1)kβk
k!I +
∑0≤2k+1≤n,
(−1)kβk
k!J.
En el límite se obtienen las series de seno y coseno y por lo tanto
eB = (cos β) I + (sin β) J =(
cos β − sin β
sin β cos β
).
Este resultado lo usaremos posteriormente. �
2.3 Derivadas matriciales
Definición 2.3.1 Supongamos que tenemos una función : (a, b) → Mn, t → (t). Se
dice que es diferenciable en t ∈ (a, b) si existe una matriz L en Mn tal que el siguiente
límite existe:
limh→0
∥∥∥∥(t + h) − (t)
h− L
∥∥∥∥ = 0.
Si es diferenciable para toda t ∈ (a, b), entonces diremos que es diferenciable y escri-
biremos L = ′(t).
§2.3 DERIVADAS MATRICIALES 16
Tenemos el siguiente lema que nos será útil para obtener la derivada de la matriz et A.
Lema 2.3.2 Para cualquier matriz cuadrada A se cumple que∥∥eA − I − A∥∥ ≤ ‖A‖2
2e‖A‖.
Solución
Usar n = 1 en el lema 2.2.2 y así obtener∥∥eA − I − A∥∥ = ∥∥eA − S1(A)
∥∥≤ ∥∥eA − Sm(A)
∥∥+ ‖Sm(A) − S1(A)‖
≤ ∥∥eA − Sm(A)∥∥+ ‖A‖2
2e‖A‖.
Al tomar el límite cuando m → ∞, se obtiene el resultado. �
Teorema 2.3.3 Sea : R → Mp dada por (t) = et A. Entonces es diferenciable en R
y además ′(t) = Aet A = et A A.
Demostración
No es difícil ver que Aet A = et A A. Sea t ∈ R fija. Queremos demostrar que
limh→0
∥∥∥∥e(t+h)A − et A
h− et A A
∥∥∥∥ = 0.
Por el lema 2.3.2 tenemos que:∥∥∥∥e(t+h)A − et A
h− et A A
∥∥∥∥ =∥∥∥∥et Aeh A − et A − et A Ah
h
∥∥∥∥=∥∥∥∥et A(eh A − I − h A)
h
∥∥∥∥≤ ‖et A‖
|h|∥∥eh A − I − ha
∥∥≤ ‖et A‖
|h|‖h A2‖
2e‖h A‖
= ‖A2‖‖et A‖2
|h|e|h|‖A‖ −→ 0
cuando h → 0. Esto termina la demostración.
§2.3 DERIVADAS MATRICIALES 17
Proposición 2.3.4 Si (t) es diferenciable en t la derivada es única.
La demostración del siguiente resultado se hace de forma análoga a la del lema 2.1.6.
Proposición 2.3.5 Sea (t) diferenciable en t y sea i j (t) la entrada (i, j ). Entonces la
entrada (i, j ) de la derivada es (′)i j (t) = (i j )′(t).
Ejemplo 2.3.6 Sea A =(
0 −1
1 0
). Notemos que
t A =(
0 −t
t 0
).
Se vió en el ejemplo 2.2.7 que
et A =(
cos t − sin t
sin t cos t
).
La derivada de et A esd
dtet A =
(− sin t − cos t
cos t − sin t
).
Por otra parte,
et A A =(
cos t − sin t
sin t cos t
)(0 −1
1 0
)=(
− sin t − cos t
cos t − sin t
).
De este modo verificamos la fórmula de derivada.
Ejemplo 2.3.7 Notemos que ddt
∣∣t=0 et A = Aet A. Si
et A = e−t
(1 t
0 1
)=(
e−t te−t
0 e−t
),
encontrar A.
§2.3 DERIVADAS MATRICIALES 18
Solución
En este casod
dt
∣∣∣∣t=0
et A =(
−e−t e−t − te−t
0 −e−t
);
luego A =(
−1 1
0 −1
). Notemos que
Aet A =(
−1 1
0 −1
)(e−t te−t
0 e−t
)
=(
−e−t e−t − te−t
0 −e−t
).
�
A continuación vamos a relacionar a las matrices exponenciales con flujos en Rn y con
ecuaciones diferenciales.
Proposición 2.3.8 Sea A ∈ Mn. Sea φ : R × Rn → R
n, con φ(t, x) = et Ax. Entonces φ
es un flujo completo en Rn.
Solución
Se deja como ejercicio al lector. �
Proposición 2.3.9 Para cada x, φ(t, x) = et Ax es solución de la siguiente ecuación dife-
rencial: y = Ay con y(0) = x.
Demostración
Sea x ∈ Rn y y(t) = et Ax . Como φ es un flujo, sabemos que y satisface y =
f (y), y(0) = x , donde f (u) = ddt
∣∣t=0 φ(t, u). En este caso,
d
dt
∣∣∣∣t=0
φ(t, u) = d
dtet Au = Aet Au.
Por lo tanto, f (y) = Aet A y∣∣t=0 = Ay.
§2.4 CÁLCULO DE LA EXPONENCIAL DE UNA MATRIZ 19
2.4 Cálculo de la exponencial de una matriz
Definición 2.4.1 Sea A ∈ Mp. Una función matricial : R → Mp es una matriz funda-
mental de soluciones de la matriz A si
a) (t) es invertible,
b) ′(t) = A(t).
Ejemplo 2.4.2 (t) = et A es una matriz fundamental de soluciones.
Lema 2.4.3 Sean w1(t), w2(t), . . . , wn(t) soluciones de y = Ay, que son soluciones li-
nealmente independientes. Entonces
(t) = (w1(t) · · ·wn(t))
es una matriz fundamental de soluciones.
Demostración
La matriz (t) es invertible porque las columnas son linealmente independientes. Note-
mos que
′(t) = (w1(t) · · · wn(t)) = (Aw1(t) · · · Awn(t))
= A (w1(t) · · ·wn(t)) = A(t).
Concluimos que (t) es una matriz fundamental de soluciones.
Proposición 2.4.4 Sean 1(t) y 2(t) dos funciones matriciales definidas en el mismo in-
tervalo. Entonces
d
dt(1(t)2(t)) = 1(t)
′2(t) + ′
1(t)2(t).
Demostración
Sea (t) = 1(t)2(t), queremos estimar∥∥∥∥(t + h) − (t)
h− [1(t)
′2(t) + ′
1(t)2(t)]
∥∥∥∥ .
§2.4 CÁLCULO DE LA EXPONENCIAL DE UNA MATRIZ 20
Fijamos t y definimos Z1(h) = 1(t +h)−1(t)−h′1(t) y Z2(h) = 2(t +h)−2(t)−
h′2(t). Se puede ver que
limh→0
∥∥∥∥ Z1(h)
h
∥∥∥∥ = 0 y
y
limh→0
∥∥∥∥ Z2(h)
h
∥∥∥∥ = 0
Entonces también
limh→0
‖Z1(h)‖ = 0 y limh→0
‖Z2(h)‖ = 0.
Se puede ver que:∥∥∥∥(t + h) − (t)
h− [1(t)
′2(t) + ′
1(t)2(t)]
∥∥∥∥≤∥∥∥∥ Z1(h)
h2(t + h)
∥∥∥∥+∥∥∥∥(1(t) + h′
1(t)) Z2(h)
h
∥∥∥∥+ |h| ∥∥′1(t)
′2(t)∥∥ .
El límite cuando h → 0 del lado derecho es 0 y por lo tanto
limh→0
∥∥∥∥(t + h) − (t)
h− [1(t)
′2(t) + ′
1(t)2(t)]
∥∥∥∥ = 0.
Esto termina la demostración.
Proposición 2.4.5 Sea (t) ∈ Mn una matriz fundamental de A. Entonces
et A = (t)(0)−1.
Esto es, (t) = et A(0).
Demostración
Sea (t) = e−t A(t). Vamos a demostrar que ′(t) = 0. Por la proposición anterior,
′(t) = e−t A(−A)(t) + e−t A′(t)
= e−t A(−A)(t) + e−t A A(t) = 0
Por lo tanto, (t) es una matriz constante, (t) ≡ c. En particular, c = (0) = I(0) =(0). Concluimos que et A(t) = (0) y como (0) es invertible, et A = (t)(0)−1.
§2.4 CÁLCULO DE LA EXPONENCIAL DE UNA MATRIZ 21
Corolario 2.4.6 Si (t) es una matriz fundamental de soluciones entonces
A = ′(0)(0)−1.
Demostración
Sabemos que et A = (t)(0)−1. Esto implica al sacar derivadas que
Aet A = ′(t)(0)−1.
Finalmente, se sustituye t = 0 y se obtiene A = ′(0)(0)−1 y esto termina la demostra-
ción.
Ejemplo 2.4.7 Calcular et A si A =(
3 1
4 3
).
Solución
Queremos encontrar dos soluciones linealmente independientes del problema x = Ax .
Usaremos el método de vectores propios. Primero calculamos el polinomio característico.
PA(λ) = λ2 − 6λ + 5 = (λ − 1)(λ − 5).
Si λ1 = 1 entonces v1 = (1, −2)T es vector propio. Si λ2 = 5 entonces v2 = (1, 2)T es
vector propio. Entonces
x1(t) = eλ1tv1 =(
et
−2et
)
y
x2(t) = eλ2tv2 =(
e5t
2e5t
)
son dos soluciones linealmente independientes. Por lo tanto,
(t) =(
et e5t
−2et 2e5t
)
§2.4 CÁLCULO DE LA EXPONENCIAL DE UNA MATRIZ 22
es una matriz fundamental de soluciones y tenemos:
et A = (t)(0)−1 =(
et e5t
−2et 2e5t
)(1 1
−2 2
)−1
=(
et e5t
−2et 2e5t
)(1/2 −1/4
1/2 1/4
)
=(
1/2(et + e5t ) 1/4(−et + e5t )
−et + e5t 1/2(et + e5t )
).
�
Ejemplo 2.4.8 Sea
A =
−3 0 0
0 3 −2
0 1 1
Calcular la matriz et A.
Solución
Debemos encontrar w1(t), w2(t), w3(t), tres soluciones linealmente independientes del
problema x = Ax . Usamos el método de vectores propios. El polinomio característico es
PA(λ) = det(A − λI ) = (−3 − λ)(λ2 − 4λ + 5)
Los valores propios son
λ1 = −3, λ2 = 2 + i, λ3 = 2 − i
Los vectores propios v1para λ1 = −3 se calculan usando la ecuación (A − λI )v1 = 0. Esto
es
0 0 0
0 6 −2
0 1 4
v1 =
0
0
0
.
§2.4 CÁLCULO DE LA EXPONENCIAL DE UNA MATRIZ 23
Concluimos que
v1 =
1
0
0
es vector propio. Con λ2 = 2 + i hacemos algo similar
−5 − i 0 0
0 1 − i −2
0 1 −1 − i
v2 =
0
0
0
.
Concluimos
v2 =
0
1 + i
1
es vector propio. Por lo tanto obtenemos para λ1 la siguiente solución
w1(t) = eλtv1 =
e−3t
0
0
Para λ2 y v2 separamos en parte real e imaginaria. Recordemos que si v2 es vector propio
con valor propio λ2 y además estos se pueden escribir como
λ2 = α + iβ y
v2 = r + i s,
entonces las siguientes son dos soluciones del sistema lineal
w2(t) = eαt [(cos βt) r − (sin βt) s] ,
w3(t) = eαt [(sin βt) r + (cos βt) s] .
En este caso α = 2, β = 1,
r =
0
1
1
y s =
0
1
0
.
§2.4 CÁLCULO DE LA EXPONENCIAL DE UNA MATRIZ 24
Obtenemos
w2(t) = e2t
cos t
0
1
1
− sin t
0
1
0
w3(t) = e2t
sin t
0
1
1
+ cos t
0
1
0
De lo anterior construimos una matriz fundamental de soluciones.
(t) =
e−3t 0 0
0 e2t (cos t − sin t) e2t (sin t + cos t)
0 e2t cos t e2t sin t
Por la propiedad anterior,
et A = (t)(0)−1
= (t)
1 0 0
0 1 1
0 1 0
−1
= (t)
1 0 0
0 0 1
0 1 −1
=
e−3t 0 0
0 e2t (sin t + cos t) −2e2t sin t
0 e2t sin t e2t (cos t − sin t)
.
�
§2.5 ECUACIONES DE ORDEN n Y MÉTODO DE FULMER 25
2.5 Ecuaciones de orden n y método de Fulmer
Definición 2.5.1 Una ecuación lineal de orden n con coeficientes constantes es una ecua-
ción de la forma:
αn y(n) + αn−1y(n−1) + · · · + α1y′ + α0y = 0.
donde αn �= 0.
Vamos a establecer una relación entre la exponencial de una matriz y una ecuación de
orden n. Usaremos el siguiente resultado.
Teorema 2.5.2 (Cayley-Hamilton) Sea A ∈ Mn y PA(λ) su polinomio característico:
PA(λ) = (−1)nλn + · · · + α1λ + α0 = 0. Entonces
PA(A) = (−1)n An + · · · + α1 A + α0 I = 0.
Ejemplo 2.5.3 Si A =(
3 1
4 3
); su polinomio característico es λ2 − 6λ + 5. Entonces
A2 =(
13 6
24 13
). Por lo tanto
PA(A) = A2 − 6A + 5I
=(
13 6
24 13
)−(
18 6
24 18
)+(
5 0
0 5
)= 0.
Proposición 2.5.4 Sea A ∈ Mn y PA(λ) = (−1)nλn +αn−1λn−1+· · ·+α1λ+α0. Entonces
cada una de las entradas de et A satisface la ecuación
(−1)n y(n) + αn−1y(n−1) + · · · + α1y′ + α0y = 0.
Demostración
§2.5 ECUACIONES DE ORDEN n Y MÉTODO DE FULMER 26
Sabemos que ddt et A = Aet A Entonces:
d2
dt2et A = A2et A
d3
dt3et A = A3et A
...
dn
dtnet A = Anet A
Esto implica que
(−1)n dn
dtnet A + · · · + α1
d
dtet A + α0et A
= (−1)n Anet A + · · · + α1 Aet A + α0et A
= ((−1)n An + · · · + α1 A + α0 I )et A = 0.
Sea y(t) la entrada (i, j ) de et A: y(t) = (et A)i j . Sabemos que dk
dtk y(t) =(
dk
dtk et A)
i j. Por
lo tanto
(−1)n y(n) + αn−1y(n−1) + · · · + α1y′ + α0y =(−1)n
(dn
dtnet A)
i j+ · · · + α1
(d
dtet A)
i j+ α0
(et A)
i j =((−1)n dn
dtnet A + · · · + α1
d
dtet A + α0et A
)i j
= 0.
Esto termina la demostración.
Ejemplo 2.5.5 Sea A =(
3 1
4 3
). Por la proposición anterior, cada entrada de et A satis-
face y′′ − 6y′ + 5y = 0. La solución general de esta ecuación es y(t) = c1et + c2e5t . Esto
concuerda con el resultado del ejemplo 2.5.3, pues se obtuvo que
et A = 1
4
(2et + 2e5t −et + e5t
−4et + 4e5t 2et + 2e5t
).
Esto es, cada entrada es de la forma de la solución general.
§2.5 ECUACIONES DE ORDEN n Y MÉTODO DE FULMER 27
Supongamos que podemos encontrar la solución general de la ecuación
(−1)n y(n) + αn−1y(n−1) + · · · + α1y′ + α0y = 0,
en la forma de
y(t) = c1η1(t) + c2η2(t) + · · · + cnηn(t).
Supongamos que yi j (t) es la entrada (i, j ) de et A. Entonces existirán constantes
c1i j , c2
i j , . . . , cni j
tales que yi j (t) = c1i jη1(t) + · · · + cn
i jηn. Llamaremos Ek a la matriz de coeficientes que
acompañan a ηk . Concluimos que et A = η1(t)E1 + · · · + ηn(t)En . De este modo, cono-
ciendo el polinomio característico de una matriz se puede escribir la forma de la exponen-
cial. El problema de encontrar la exponencial se reduce, por tanto, a calcular las matrices
E1, . . . , En.
Ejemplo 2.5.6 Calcular la matriz exponencial de A =(
1 α
0 1
).
Solución
El polinomio característico de A es
PA(λ) = λ2 − 2λ + 1 = (λ − 1)2.
Cada entrada de A satisface y′′ − 2y′ + y = 0. Como λ1 = 1 es raíz repetida la solución
general de la ecuación es y(t) = c1et +c2tet . Se utiliza en este caso η1(t) = et y η2(t) = tet .
Por lo tanto, la exponencial es de la forma
et A = et E1 + tet E2,
donde E1 y E2 son matrices por determinar. Notemos que al sustituir t = 0 se tiene que
I = e0 = E1. Además,
d
dtet A = Aet A = et E1 + et E2 + tet E2.
§2.5 ECUACIONES DE ORDEN n Y MÉTODO DE FULMER 28
Si volvemos a sustituir t = 0 entonces A = E1+E2 = I +E2 y esto implica que E2 = A− I .
Por lo tanto
et A = et I + tet (A − I )
= et
(1 0
0 1
)+ tet
(0 α
0 0
)
=(
et αtet
0 et
)
Esto concuerda con lo encontrado en el ejemplo 2.2.6. �
Ejemplo 2.5.7 Sea A =(
0 −1
1 0
). Calcular et A por el método descrito en esta sección.
Solución
En este caso PA(λ) = λ2 + 1, entonces las entradas de et A satisfacen y′′ + y = 0; cuya
solución general es y(t) = c1 cos t +c2 sin t . La exponencial es et A = (cos t)E1 + (sin t)E2,
entonces Aet A = (− sin t)E1 + (cos t)E2. Si t = 0, entonces tenemos que I = E1 y que
A = E2. Por lo tanto,
et A = (cos t)I + (sin t)A =(
cos t − sin t
sin t cos t
).
Este resultado concuerda con el del ejemplo 2.2.7. �
Dada una ecuación αn y(n)+· · ·+α1y′+α0y = 0 y el polinomio característico asociado:
αnλn + · · · + α1λ + α0 = 0; se puede obtener la solución general con base en las raíces del
polinomio:
P(λ) = αn(λ − λ1)m1(λ − λ2)
m2 . . . (λ − λr )mr .
Si λi es real con multiplicidad mi , podemos asociarle mi soluciones:
{eλi t , teλi t , t2eλi t , . . . , tmi−1eλi t }.Si λi es complejo, entonces λi también lo es. A la pareja λi , λi le asociamos 2mi soluciones.
Supongamos que λi = α + iβ. Se tienen las soluciones
{eαt cos βt, eαt sin βt, teαt cos βt, teαt sin βt, . . . , tmi−1eαt cos βt, tmi−1eαt sin βt}.
EJERCICIOS 29
Ejemplo 2.5.8 Calcular la exponencial de A =
0 9 3
0 2 −1
0 1 2
.
Solución
det
−λ 9 3
0 2 − λ −1
0 1 2 − λ
= (−λ)(2 − λ)2 − λ = 0
Entonces λ1 = 0, λ2 = 2 + i y λ3 = 2 − i . De aquí que η1(t) = eλ1t = 1, η2(t) = e2t cos t
y η3(t) = e2t sin t . Entonces
et A = E1 + e2t cos t E2 + e2t sin t E3,
Aet A = 2e2t cos t E2 + e2t (− sin t)E2 + 2e2t sin t E3 + e2t cos t E3,
A2et A = (4e2t cos t − 2e2t sin t)E2 − (2e2t sin t + e2t cos t)E2
+ (4e2t sin t + 2e2t cos t + 2e2t cos t − e2t sin t)E3.
Si evaluamos en t = 0 tenemos el siguiente sistema de ecuaciones
I = E1 + E2,
A = 2E2 + E3,
A2 = 3E2 + 4E3.
Por lo tanto, E1 = I − E2, E2 = 1/5(4A − A2) y E3 = 1/5(2A2 − 3A). �
EJERCICIOS
✎ 2.1 Usar el lema 2.2.2 para demostrar la siguiente desigualdad
∥∥eA − Sn(A)∥∥ ≤ ‖A‖n+1
(n + 1)!e‖A‖.
EJERCICIOS 30
✎ 2.2 Sean A y B dos matrices de n × n. Sean α = ‖A‖ y β = ‖B‖. Suponer que las
matrices conmutan, es decir, que AB = B A.
a) Demostrar que la siguiente serie converge.
∞∑k=0
∑r+s=k
αr
r !
βs
s!.
b) Demostrar
Sn(A + B) =n∑
k=0
∑r+s=k
Ar
r !
Bs
s!
y
Sn(A)Sn(B) =∑
0≤r,s≤n
Ar
r !
Bs
s!.
c) Demostrar la siguiente desigualdad.
‖Sn(A)Sn(B) − Sn(A + B)‖ ≤∞∑
k=n+1
∑r+s=k
αr
r !
βs
s!.
d) Concluir que eAeB = eA+B = eBeA.
e) Encontrar dos matrices cuyas exponenciales no satisfagan la ecuación del inciso ante-
rior.
✎ 2.3 Las siguientes son tres soluciones linealmente independientes de un problema lineal
de la forma x = Ax.
x1(t) =
4 − 2 et
0
−4 + 3 et
, x2(t) =
−7 et
et
7 et
y x3(t) =
2 − 2 et
0
−2 + 3 et
.
Encontrar la matriz A y calcular la matriz exponencial et A.
✎ 2.4 Encontrar la exponencial de las siguientes matrices.
EJERCICIOS 31
a)
0 1 1
1 0 1
1 1 0
b)
1 1 1
1 1 1
1 1 1
c)
−2 −1 7
−10 0 16
−4 0 6
d)
(1 3
0 −1
)
(Sugerencia: notar que λ = 2 es un valor propio para el inciso c.)
✎ 2.5 ¿Cómo se podría resolver el siguiente problema de valores iniciales?
dydt
= Ay + b(t),
y(0) = x0,
en donde b : R → Rn es una función continua y A es una matriz de n × n. (Sugerencia:
usar la exponencial e−t A como factor integrante.)
✎ 2.6 Sea A ∈ Mn. Sea φ : R × Rn → R
n, con φ(t, x) = et Ax . Demostrar que φ es un
flujo completo en Rn .
✎ 2.7 Sea A ∈ Mn y α ∈ R. Sea φ : R × Rn → R
n, dada por φ(t, x) = e−αt et Ax .
Demostrar que φ es un flujo completo en Rn y encontrar la ecuación diferencial que satisface.
✎ 2.8 Sea A una matriz de 2 × 2. Demostrar lo siguiente.
a) Si A tiene dos valores propios reales y distintos entonces λ1 y λ2 entonces
et A = 1
λ1 − λ2
(eλ1t (A − λ2 I ) − eλ2t (A − λ1 I )
).
b) Si A tiene un dos valores propios complejos λ1 = α + iβ y λ2 = α − iβ con β �= 0,
entonces
et A = eαt(
(cos βt) I + 1
β(sin βt) (A − α I )
).
EJERCICIOS 32
c) Si A tiene un valor propio repetido λ1 entonces
et A = eλ1t (I + t (A − λ1 I )) .
✎ 2.9 Sea A ∈ Mn . Se dice que W ⊂ Rn es un subespacio invariante de A si Av ∈ W
para todo v ∈ W. Demostrar que si W es un subespacio invariante para A, entonces también
lo es para et A.
✎ 2.10 Sea A una matriz de 2 × 2 con dos valores propios reales y distintos λ1 y λ2. Sean
W1 = ker (A − λ1 I ) y W2 = ker (A − λ2 I ) . Demostrar
a) R2 = W1 ⊕ W2.
b) W1 y W2 son subespacios invariantes de A.
c) Dado x ∈ R2 existen dos funciones y1(t) y y2(t) tales que x = y1(0) + y2(0), et Ax =
y1(t) + y2(t) y yi (t) ∈ Wi . Encontrar y1(t) y y2(t) explícitamente.
(Sugerencia: Notar que (A − λ1 I ) (A − λ2 I ) = (A − λ2 I ) (A − λ1 I ) = 0 .)
✎ 2.11 Una matriz D de n × n es diagonalizable si existe una matriz invertible P tal que
D = P diag(λ1, . . . , λn)P−1. Demostrar que, si D es diagonalizable entonces
et D = P diag(eλ1t , . . . , eλnt)P−1.
✎ 2.12 Una matriz N de n × n es nilpotente si N n ≡ 0. Un teorema de álgebra lineal nos
permite afirmar que, para cualquier matriz A de n × n, existen matrices D y N tales que
a) D es diagonalizable,
b) N es nilpotente,
c) A = D + N y
d) N D = DN .
Demostrar que et A = et D(
I + t N + 12! t
2N 2 + . . . tn−1
(n−1)! N n−1)
.
EJERCICIOS 33
✎ 2.13 Sea A una matriz de n × n tal que PA (λ) = (λ − γ )n . Calcular et A. (Sugerencia:
demostrar primero que A − γ I es nilpotente.)
✎ 2.14 Sea matriz A de n × n. Suponer que v = r + i s un vector propio con valor propio
λ = α + iβ, donde β �= 0. Demostrar que el espacio W = span {r, s} es un subespacio
invariante para et A. ¿Es cierto que si x ∈ W entonces
et Ax = eαt(
(cos βt) x + 1
β(sin βt) (Ax − αx)
)?
CAPÍTULO 3
Estabilidad de Sistemas Lineales.
3.1 Matrices no degeneradas
En este capítulo iniciaremos el estudio del comportamiento de las soluciones de un sistema
lineal.
Sabemos que la soluciones de este sistema están íntimamente relacionadas con la matriz
exponencial de A; esto es, cualquier función de la forma et Ax es solución del problema
y = Ay, (PL)
y(0) = x .
Nos preguntamos si todas las soluciones son de esta forma. Tenemos el siguiente resultado.
Proposición 3.1.1 La función y(t) = et Ax es la única solución del problema (PL).
Definición 3.1.2 Una matriz A es no degenerada si
§3.1 MATRICES NO DEGENERADAS 35
a) det(A) �= 0,
b) A no tenga raíces repetidas,
c) Los valores propios de A tengan parte real distinta de cero.
Una matriz que viola alguna de las condiciones anteriores se dirá que es degenerada.
Definición 3.1.3 Sea A una matriz no degenerada.
a) Diremos que A es de tipo atractor si todos los valores propios de A tienen parte real
negativa.
b) Diremos que A es de tipo repulsor si todos los valores propios de A tienen parte real
positiva.
c) Diremos que A es de tipo silla si A tiene valores propios tanto con parte real positiva
como con parte real negativa.
Ejemplo 3.1.4 Demostrar que la siguiente matriz es no degenerada y clasificarla.
A =
−1 2 3
0 0 1
0 −6 5
.
Solución
El polinomio característico de A es (−1)(λ + 1)(λ − 3)(λ − 2). Los valores propios de
A son λ1 = −1, λ2 = 2 y λ3 = 2. Notemos que det(A) = λ1λ2λ3 = −6 �= 0. No hay raíces
repetidas ni valores propios con parte real cero, por lo tanto A es no degenerada. También,
como hay valores propios con parte real positiva y negativa A es silla. �
Ejemplo 3.1.5 Encontrar los casos degenerados de las matrices de 2 × 2 en términos de la
traza y el determinante de A.
§3.1 MATRICES NO DEGENERADAS 36
Solución
Sea A una matriz de 2 × 2. El polinomio característico de A es
PA(λ) = λ2 − tr(A)λ + det(A).
Sea
�(A) = tr(A)2 − 4 det(A).
La matriz A tiene raíces repetidas sí y sólo si el discriminate �(A) = 0. Los valores propios
son
λ1,2 = tr(A) ± √�(A)
2Si �(A) < 0 entonces la parte real de λ1,2 es 1
2 tr(A). Es decir, si �(A) < 0, entonces el
caso degenerado ocurre cuando tr(A) = 0. Tal caso sucede si det(A) > 0 y tr(A) = 0. Si
�(A) > 0 entonces no hay caso degenerado si det(A) �= 0. En resumen A es degenerada si
alguna de las siguientes ocurre.
a) det(A) = 0,
b) �(A) = 0,
c) det(A) > 0 y tr(A) = 0.
Posteriormente haremos un examen más detallado de los sistemas 2 × 2. �
En un diagrama tenemos los siguientes puntos degenerados encontrados en el ejemplo
anterior. En el caso 2 × 2 los casos no degenerados se encuentran en cinco regiones. Las
propiedades de los valores propios correspondientes a las matrices en estas cinco regiones
se resumen en la siguiente tabla.
valores propios
Región det(A) tr(A) �(A) tipo parte real nombre
I + + + reales + nodo atractor
II + + − complejos + espiral atractora
III + − − complejos − espiral repulsora
IV + − + reales − nodo repulsor
V − ∗ + complejos +, − silla
§3.2 MATRICES ATRACTORAS 37
0tr(A)
I
IIIII
IV
V
det(A)
D(A) = 0
3.2 Matrices atractoras
Teorema 3.2.1 Sea A una matriz cuadrada no degenerada. Las siguientes afirmaciones son
equivalentes:
a) A es de tipo atractor.
b) Existen constantes positivas C, α tales que ‖et A‖ ≤ Ce−αt para toda t ≥ 0.
c) Para toda x0 ∈ Rn, lim
t→∞ et Ax0 = 0.
d) Existe una matriz simétrica positiva definida, M, tal que M A + AT M = −I .
Demostración
§3.2 MATRICES ATRACTORAS 38
a)⇒b) Sabemos que existen funciones η1(t), . . . , ηn(t) y matrices E1, . . . , En tales que
et A = η1(t)E1(t) + · · · + ηn(t)En; en donde cada función es de la forma ηk(t) = eλk t ó
ηk(t) = eαk t cos βkt ó ηk(t) = eαk t sin βkt , ya que A es no degenerada. Como A es de tipo
atractor, entonces λk < 0 ó αk < 0, según el caso. Sea α > 0 tal que
max{Re(λ) : λ es valor propio de A} < −α < 0.
Notemos que eαtηk(t) es de la forma
eαtηk(t) = e(α+λk)t ó
eαtηk(t) = e(α+αk)t cos βkt ó
eαtηk(t) = e(α+λk)t sin βkt .
Por construcción α + Re(λ) < 0 y por lo tanto |eαtηk(t)| ≤ 1 para toda t ≥ 0. Notemos que
‖eαt et A‖ = ‖eαtη1(t)E1 + · · · + eαtηn(t)En‖≤ |eαtη1|‖E1‖ + · · · + |eαtηn(t)|‖En‖≤ ‖E1‖ + . . . ‖En‖
para toda t ≥ 0.Sea C = ‖E1‖ + . . . ‖En‖, entonces si t ≥ 0 tenemos que eαt‖et A‖ ≤ C y,
por lo tanto, ‖et A‖ ≤ Ce−αt .
b)⇒c) Sea x0 ∈ Rn . Entonces
limt→∞ et Ax0 = x0
si y sólo si
limt→0
∥∥et Ax0∥∥
2 = 0.
Notemos que 0 ≤ ‖et Ax0‖ ≤ ‖et A‖‖x0‖ ≤ Ce−αt‖x0‖ −→ 0 para algunas constantes
C, α > 0 y toda t ≥ 0. Por lo tanto,
limt→0
∥∥et Ax0∥∥ = 0.
Luego
limt→0
et Ax0 = 0.
§3.2 MATRICES ATRACTORAS 39
c)⇒d) Consideremos la siguiente función lineal: : Mn → Mn , (B) = B A +AT B. Recordemos que dim(ker()) + dim(Im()) = dim(Mn). Si demostramos que
ker() = (0), habremos demostrado que es inyectiva y suprayectiva. Sea N ∈ Mn tal
que (N ) = 0. Sea x0 ∈ Rn . Definimos : R → R como (t) = 〈Net Ax0, et A N x0〉.
Entonces
d
dt(t) = 〈Net Ax0,
d
dtet A N x0〉 + 〈 d
dtet A N x0, et A N x0〉
= 〈Net Ax0, Aet A N x0〉 + 〈N Aet A N x0, et A N x0〉= 〈AT Net Ax0, et A N x0〉 + 〈N Aet Ax0, et A N x0〉= 〈(AT N + N A)et Ax0, et A N x0〉= 0.
Por otro lado tenemos que, por hipótesis,
limt→∞ (t) ≡ 0.
De este modo concluimos que (t) ≡ 0 y en particular (0) = 0 = 〈N x0, N x0〉. Es decir
‖N x0‖ = 0 y esto implica N x0 = 0. Como x0 es arbitrario, entonces N ≡ 0. Por lo tanto
es inyectiva y suprayectiva.
Sea M ∈ Mn tal que (M) = M A + AT M = −I . Notemos que (MT ) = (M)T =(M). Como es inyectiva entonces M = MT . Para ver que M también es positiva defi-
nida, tomemos x0 �= 0 y demostremos que 〈x0, Mx0〉 > 0. Sea K (t) = 〈et Ax0, Met Ax0〉.d
dtK (t) = 〈Aet Ax0, Met Ax0〉 + 〈et Ax0, M Aet Ax0〉
= 〈et Ax0, AT Met Ax0〉 + 〈et Ax0, M Aet Ax0〉= 〈et Ax0, (AT M + M A)et Ax0〉= −〈et Ax0, et Ax0〉= −‖et Ax0‖2 < 0
También, por hipótesis,
limt→∞ K (t) = 0.
§3.3 MATRICES TIPO SILLA 40
Entonces K (0) > 0. Es decir que 〈x0, Mx0〉 > 0. Por lo tanto M es positiva definida.
d)⇒a) Sea v un vector propio de A con valor propio λ. Entonces Av = λv y Av = λv.
El número vT Mv es un número real puesto que
vT Mv = vT Mv = vT MT v = vT Mv.
Entonces
vT (M A + AT M)v = vT M Av + vT AT Mv
= λ(vT Mv) + λ(vT Mv)
= (λ + λ)T (vT Mv)
Pero vT (M A + AT M)v = −vT v < 0. Concluimos que
2Re(λ) = λ + λ = −vT v
vT Mv< 0.
Por lo tanto, todos los valores propios tienen parte real negativa y entonces A es de tipo
atractor.
3.3 Matrices tipo silla
Sea A una matriz no degenerada. Nos preguntamos acerca de las condiciones iniciales x
tales que
limt→∞ et Ax = 0.
Por el teorema 3.2.1 anterior, si A es atractor, este límite se cumple para toda x ∈ Rn .
Además se cumple el siguiente resultado.
Proposición 3.3.1 Sea A de tipo atractor, entonces para toda x �= 0 se tiene que
limt→−∞
∥∥et Ax∥∥
2 = +∞.
Notemos que, si A es de tipo repulsor, entonces −A es atractor. Esto implica el siguiente.
§3.3 MATRICES TIPO SILLA 41
Corolario 3.3.2 Si A es de tipo repulsor, entonces
limt→−∞ et Ax = 0
para todo x y
limt→∞
∥∥et Ax∥∥
2 = +∞,
para x �= 0.
En una matriz de tipo silla algunas condiciones iniciales cumplen limt→∞ et Ax = 0, otras
limt→−∞ et Ax = 0 y otras ninguna de las dos. Para estudiar las distintas condiciones iniciales
tenemos el siguiente.
Teorema 3.3.3 (Subespacios invariantes) Sea A una matriz de tipo silla. Sean
Es = {x ∈ R
n : limt→∞ et Ax = 0}
y
Eu = {x ∈ R
n : limt→−∞ et Ax = 0}.
Entonces
a) Es, E
u son subespacios vectoriales de Rn.
b) R = Es ⊕ E
u.
c) Cualquier solución x(t) del sistema lineal x = Ax se puede escribir como x(t) =qs(t) + qu(t), donde qs(t) ∈ E
s , qu(t) ∈ Eu, lim
t→∞ qs(t) = 0 y limt→−∞ qu(t) = 0.
d) Cada subespacio Eu, E
s es invariante.
e) dim Es = #{valores propios con parte real negativa} y dim E
u = #{valores propios
con parte real positiva}.
A Es se le llama espacio estable y a E
s el espacio inestable de la matriz A.
§3.3 MATRICES TIPO SILLA 42
Demostración
Sean
σ+(A) = {valores propios con parte real positiva}y
σ−(A) = {valores propios con parte real negativa}.Tenemos que
σ+(A) = {λ+1 , . . . , λ+
m1, µ+
1 , . . . , µ+m2
, µ+1 , . . . , µ+
m2},donde λ+
i son reales y µ+j son complejos. Notar que #(σ+(A)) = m1 + 2m2. Además
σ−(A) = {λ−1 , . . . , λ−
m3, µ−
1 , . . . , µ−m4
, µ−1 , . . . , µ−
m4},
y #(σ−(A)) = m3 + 2m4.
Para cada real λ+i existe un vector propio v+
i y para cada complejo µ+j = α+
j + iβ+j existe
un valor propio r+j + is+
j . Para λ+i tenemos la solución
eλ+i t v+
i = f +i (t)
y para cada µ+j tenemos dos soluciones,
g+j (g) = eα+
i t(cos(β+j t)r+
j − sin(β+j t)s+
j )
y
h+j (g) = eα+
i t(sin(β+j t)r+
j + cos(β+j t)s+
j ).
Cualquier solución x(t) es una combinación lineal.
x(t) =m1∑i=1
C+i f +
i +m2∑j=1
(D+j g+
j + F+j h+
j )
+m3∑i=1
C−i f −
i +m4∑j=1
(D−j g−
j + F−j h−
j )
§3.3 MATRICES TIPO SILLA 43
Si x(t) = et Ax, entonces
x = x(0) =m1∑i=1
C+i v+
i +m2∑j=1
(D+j r+
j + F+j s+
j )
+m3∑i=1
C−i v−
i +m4∑j=1
(D−j r−
j + F−j s−
j )
Sean
qs(t) =m3∑i=1
C−i f −
i +m4∑j=1
(D−j g−
j + F−j h−
j ),
qu(t) =m1∑i=1
C+i f +
i +m2∑j=1
(D+j g+
j + F+j h+
j ).
Entonces x(t) = qs(t) + qu(y).
limt→∞ qs(t) = 0 y lim
t→−∞ qu(t) = 0.
Además una condición necesaria y suficiente para que
limt→∞ x(t) = 0
es que qu(t) ≡ 0; del mismo modo
limt→−∞ x(t) = 0
si y sólo si qs(t) ≡ 0. Como las soluciones f +i , g+
j , h+j , f −
i , g−j , h−
j son linealmente inde-
pendientes, entonces
limt→∞ x(t) = 0
si y sólo si x ∈ span{v−i , r−
j , s−j }. Concluimos que
Es = span{v−
i , r−j , s−
j },
Eu = span{v+
i , r+j , s+
j }.Como v+
i , r+j , s+
j , v−i , r−
j , s−j son linealmente independientes, entonces dim(Es) = m1 +
2m2 y dim(Eu) = m3 + 2m4, y por lo tanto, Rn = E
s ⊕ Es .
§3.3 MATRICES TIPO SILLA 44
Ejemplo 3.3.4 Sea A =
3 −3 1
0 0 1
0 −2 −2
. Encontrar E
s y Eu .
Solución
La matriz A tiene 3valores propios λ+1 = 3, µ−
1 = −1 + i y µ−1 = −1 − i . Tenemos los
siguientes vectores propios:
v+1 =
1
0
0
y
r−1 + i s−
1 =
1
1
−1 + i
=
1
1
−1
+ i
0
0
1
.
Por lo visto en el teorema 3.3.3, Eu = span
1
0
0
y E
s = span
1
1
−1
,
0
0
1
.
Podemos resolver este problema directamente de la definición. Tenemos tres soluciones
linealmente independientes:
f +1 (t) = eλ+
1 v+1 =
e3t
0
0
,
g−1 (t) = e−t
cos t
cos t
− cos t − sin t
y
h−1 (t) = e−t
sin t
sin t
cos t − sin t
.
§3.3 MATRICES TIPO SILLA 45
Sea
(t) =
e3t e−t cos t e−t sin t
0 e−t cos t e−t sin t
0 −e−t (cos t + sin t) e−t (cos t − sin t)
.
Sabemos que (t) es una matriz fundamental de soluciones y por lo tanto
et A = (t)(0)−1.
Esto es
et A =
e3t e−t cos t e−t sin t
0 e−t cos t e−t sin t
0 −e−t (cos t + sin t) e−t (cos t − sin t)
1 1 0
0 1 0
0 −1 1
−1
=
e3t e−t cos t e−t sin t
0 e−t cos t e−t sin t
0 −e−t (cos t + sin t) e−t (cos t − sin t)
1 −1 0
0 1 0
0 1 1
=
e3t −e3t + e−t (cos t + sin t) e−t sin t
0 e−t (cos t + sin t) e−t sin t
0 −2e−t sin t e−t (cos t − sin t)
.
Supongamos que x = (u, v, w) ∈ Es . Queremos que
limt→∞ et Ax = 0.
Notemos que
et Ax =
ue3t − ve3t + ve−t (cos t + sin t) + we−t sin t
ve−t (cos t + sin t) + we−t sin t
−2ve−t sin t + we−t (cos t − sin t)
.
Entonces x = (u, v, w) ∈ Es si sólo si u − v = 0. Concluimos que
Es =
{(u, v, w) ∈ R
3 : u = v}
.
EJERCICIOS 46
Ya habíamos visto que
Es = span
1
1
−1
,
0
0
1
.
Ambos resultados coinciden. �
EJERCICIOS
✎ 3.1 La función y(t) = et Ax es la única solución del problema y = Ay, y(0) = x .
✎ 3.2 Sea A una matriz no degenerada. Demostrar
a) A es de tipo atractor si y sólo si limt→−∞
∥∥et Ax∥∥
2 = +∞, para todo x �= 0.
b) A es de tipo repulsor si y sólo si limt→∞
∥∥et Ax∥∥
2 = +∞, para todo x �= 0.
✎ 3.3 Clasificar las siguientes matrices.
a)
(1 3
−2 −6
).
b)
(1 3
−2 11
).
c)
(0 3
2 100
).
d)
(1 1
1 −1
).
e)
(3 3
−1 2
).
f)
(−1 0
1 0
).
g)
(−1 2
−2 −1
).
h)
−1 0 0
2 7 1
2 1 7
.
i)
1 1 1
1 1 1
1 1 1
.
(Sugerencia: Para clasificar, no es necesario resolver el sistema lineal.)
EJERCICIOS 47
✎ 3.4 Consideremos el siguiente problema con valores iniciales:
X =(
0 1
2 −1
)X ,
X (0) =(
u
v
),
donde u y v son constantes reales.
a) Resolver el problema.
b) ¿Cuánto debe valer u y v si deseamos que limt→∞ X (t) = 0?
✎ 3.5 Calcular los espacios estable e inestable de la siguiente matriz.
A =
−1 0 0
1 1 −1
1 1 1
✎ 3.6 Suponer que la siguiente matriz está en la región I I o I I I ; es decir, es de tipo
espiral.
A =(
a b
c d
)
a) Demostrar que bc < 0.
b) Suponer que x(t) = (x1(t), x2(t)) es solución del sistema x = Ax. Escribir el sistema
en coordenadas polares
x1 = r cos θ,
x2 = r sin θ.
Esto es, encontrar ecuaciones para θ y r , en términos de θ y r.
EJERCICIOS 48
c) Mostrar que la espiral se mueve en la dirección contraria a las manecillas del reloj si
c > 0 y en la dirección opuesta si c < 0. (Sugerencia: mostrar que θ > 0 si c > 0 y
θ < 0 si b > 0.)
d) Demostrar que r > 0 si A está en la región I I y r < 0 si A está en la región I I I. ¿Por
qué se denomina a estas matrices “espirales”?
CAPÍTULO 4
Teoría no Lineal.
4.1 Teoría de Ecuaciones Diferenciales.
Existen dos tipos de ecuaciones {autónomas
no autónomas
En las autónomas, el campo vectorial f no depende explícitamente de t ; esto es son de la
forma
x = f (x).
En las no autónomas, f depende explícitamente del tiempo t y son de la forma
x = f (x, t).
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 50
Una ecuación no autónoma puede ser transformada en una autónoma pues, si hacemos y =(x
t
), entonces
y =(
x
1
)=(
f (x, t)
1
)
Si
y =(
x
t
)y F(y) =
(f (y)
1
)
entonces y = F(y) es autónoma.Un punto de equilibrio, o solución de punto fijo, de una
ecuación diferencialdy
dt= F(y)
es un punto p� tal que F(p�) = 0.
Para un sistema lineal 0 es siempre punto de equilibrio. Sin embargo, pueden existir
otros puntos de equilibrio. Si el det(A) �= 0, entonces 0 es el único punto de equilibrio. Si
det(A) = 0, existe una infinidad de puntos de equilibrio.
En este capítulo estudiaremos ecuaciones de la forma x = f (x), donde
f : E ⊂ Rn → R
n
es una función de continuamente diferenciable o de clase C1 definida en un abierto E de Rn.
Recordemos la definición de la clase C1.
Definición 4.1.1 Sea E un abierto de Rn. Se dice que f : E → R
n es diferenciable en x0 si
existe una matriz de n × n, A (x0) , tal que
limh→0
‖ f (x0 + h) − f (x0) − A (x0) h‖2
‖h‖2= 0.
A la matriz A (x0) es llamada matriz jacobiana y se escribe
A (x0) = f ′(x0).
Si la función es diferenciable en todos los puntos de su dominio se dirá simplemente que es
diferenciable.
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 51
Notemos que si f : E ⊂ Rn → R
n es diferenciable en E , entonces tenemos una función
f ′ : E → Mn ≈ Rn×n
entre espacios métricos y por lo tanto podemos hablar de continuidad. Diremos que f es de
clase C1 en E si f ′ es continua en E .
Teorema 4.1.2 Sea f : E ⊂ Rn → R
m con
f =
f1...
fm
.
Entonces f ∈ C1(E) sí y sólo si todas las derivadas parciales son continuas en E, es decir,
si∂ fi
∂x jes continua para todo i = 1, . . . , m y j = 1, . . . , n. Además
f ′(x0) =
∂ f1∂x1
∂ f1∂x2
· · · ∂ f1∂xn
......
. . ....
∂ fm∂x1
∂ fm∂x2
· · · ∂ fm∂xn
x=x0
Ejemplo 4.1.3 ¿Por qué necesitamos funciones de clase C1? Consideremos la ecuación
x = 3x2/3.
Si queremos resolver con x(0) = 0, existen dos soluciones
x1(t) = 0,
x2(t) ={
t3 si t > 0,
0 si t ≤ 0.
Queremos tener condiciones bajo las cuales esto no ocurra.
A continuación enunciaremos y probaremos el famoso teorema de existencia y unicidad.
De este teorema existen, en realidad, un sinnúmero de versiones dependiendo de las hipótesis
que se impongan sobre el campo vectorial en cuestión. Daremos una versión débil de este
teorema. Para demostrarlo necesitamos primero demostrar un lema.
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 52
Lema 4.1.4 Sea γ : [a, b] → Rn una función continua. Entonces∥∥∥∥
∫ b
aγ (s)ds
∥∥∥∥2
≤∫ b
a‖γ (s)‖2 ds.
Demostración
Notemos que
∥∥∥∥∫ b
aγ (s)ds
∥∥∥∥2
2=(∫ b
aγ (s)ds
)·(∫ b
aγ (t)dt
)
=∫ b
a
∫ b
a(γ (s) · γ (t)) dsdt
≤∫ b
a
∫ b
a‖γ (s)‖2 ‖γ (t)‖2 dsdt
=(∫ b
a‖γ (s)‖2 ds
)(∫ b
a‖γ (t)‖2 dt
)=(∫ b
a‖γ (s)‖2 ds
)2
.
Esto termina la demostración.
La técnica que se usará para demostrar el teorema de existencia y unicidad es el de
iteraciones de Picard. Estas consisten en una sucesión de funciones que convergen en el
espacio de norma uniforme a la única solución del problema que queremos resolver.
Definición 4.1.5 (Iteraciones de Picard) Sea f : E → Rn un campo vectorial. La suce-
sión de Picard, o iteraciones de Picard, del problema de valores iniciales
x = f (x), (4.1)
x(0) = x0
es la sucesión dada recursivamente por
U0(t) ≡ x0,
Uk+1(t) = x0 +∫ t
0f (Uk(s)) ds.
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 53
Notemos el siguiente hecho, si las iteraciones de Picard convergen a una sola función x,
esta debería satisfacer la siguiente igualdad
x(t) = x0 +∫ t
0f (x(s))ds. (4.2)
Resulta que encontrar una función que satisfaga (4.2) es equivalente al problema original
(4.1) de valores iniciales. La demostración del teorema de existencia y unicidad es, en
esencia, la demostración de que las iteraciones de Picard convergen en C ([−a, a] , Rn) ,
donde a es un número positivo por definir. Recordemos que la norma del supremo o norma
del máximo en C ([−a, a] , Rn) es la siguiente
‖v‖∞ = max {‖v(t)‖2 : t ∈ [−a, a]} .
Es bien conocido que C ([−a, a] , Rn) con la norma ‖·‖∞ es un espacio de Banach. Con la
herramientas anteriores, podemos demostrar lo siguiente.
Teorema 4.1.6 (Existencia y Unicidad. Versión débil) Sean E un abierto de Rn, x0 ∈ E
y f de clase C1. Entonces existe un intervalo (−a, a) tal que el problema
x = f (x)
x(0) = x0
tiene una solución única en (−a, a) .
Demostración
Primero demostremos la existencia. Sea δ > 0 tal que Bδ(x0) ⊂ E . Claramente el
conjunto Bδ/2(x0) es un compacto contenido en E . Sea
K = max{∥∥ f ′(x)
∥∥ : x ∈ Bδ/2(x0)}
,
donde ‖·‖ es la norma de matrices. Por ser∥∥ f ′∥∥ una función continua y Bδ/2(x0) un conjunto
compacto, se cumple que 0 ≤ K < ∞.
Sean x, y ∈ Bδ/2(x0). En base a x y y, definimos la función G : [0, 1] → Rn dada por
G(s) = f (x + s(y − x)). Notemos que
G ′(s) = f ′(x + s(y − x))(y − x)
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 54
y, por otro lado,
G(1) − G(0) =∫ 1
0G ′(s)ds.
Esto implica
f (y) − f (x) =∫ 1
0f ′(x + s(y − x))(y − x)ds
Sacando la norma euclideana en Rn obtenemos
‖ f (y) − f (x)‖2 =∥∥∥∥∫ 1
0f ′(x + s(y − x))(y − x)ds
∥∥∥∥2
≤∫ 1
0
∥∥ f ′(x + s(y − x))(y − x)∥∥
2 ds
Notemos que. si x, y ∈ Bδ/2(x0) y si s ∈ [0, 1] entonces x + s(y − x) ∈ Bδ/2(x0). Sabemos
que ∥∥ f ′(x + s(y − x))(y − x)∥∥
2 ≤ ∥∥ f ′(x + s(y − x))∥∥ ‖y − x‖2
≤ K ‖y − x‖2
Concluimos
‖ f (y) − f (x)‖2 ≤∫ 1
0K ‖y − x‖2 ds = K ‖y − x‖2 (4.3)
Sean b = δ/4 y M = max{‖ f (x)‖2 : x ∈ Bb(x0)
}. Claramente M < ∞. Supongamos, sin
pérdida de generalidad, que M > 0. Sea a un número que satisfaga
0 < a < min
{1
K,
b
M
}.
Estos números (a, b, K , M) nos servirán para hacer estimaciones acerca de las iteraciones
de Picard. Sean
U0(t) ≡ x0
Uk+1(t) = x0 +∫ t
0f (Uk(s)) ds
Veremos que Uk es una sucesión de Cauchy en el espacio C [−a, a] . Definamos
A(b) = {v ∈ C([−a, a] , R
n) : ‖v − U0‖∞ < b}.
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 55
Demostraremos que si Uk ∈ A(b) entonces Uk+1 ∈ A(b). Esto lo hacemos por inducción.
Supongamos, como hipótesis de inducción, que ‖Uk − U0‖ < b. Sea t ∈ [−a, a], entonces
‖Uk+1(t) − x0‖2 =∥∥∥∥∫ t
0f (Uk(s)) ds
∥∥∥∥2
‖Uk − U0‖ < b implica que para todo t ∈ [−a, a] se cumple
‖Uk(t) − x0‖2 < b.
Es decir, para todo t ∈ [−a, a] se tiene que Uk(t) ∈ Bb(x0). Por lo tanto
‖ f (Uk(t))‖2 ≤ M
para todo t ∈ [−a, a] . Entonces si t ∈ [−a, a] entonces
‖Uk+1(t) − x0‖2 ≤∫ |t |
0‖ f (Uk(s))‖2 ds ≤
∫ |t |
0Mds ≤ Ma < b.
El máximo satisface
‖Uk+1 − U0‖∞ = maxt∈[−a,a]
‖Uk+1(t) − x0‖2 ≤ Ma < b.
Demostraremos ahora que la sucesión es de Cauchy. Estimaremos primero ‖U2 − U1‖∞.
Si t ∈ [−a, a] , entonces
‖U2(t) − U1(t)‖2 =∥∥∥∥x0 +
∫ t
0f (U1(s)) ds − x0 −
∫ t
0f (U0(s)) ds
∥∥∥∥2
≤∫ t
0‖ f (U1(s)) − f (U0(s))‖2 ds.
Sabemos que para todo t ∈ [−a, a] se tiene que
‖U1(t) − U0(t)‖2 < b <δ
2.
Por lo tanto, si |s| ≤ |t | < a entonces
‖ f (U1(s)) − f (U0(s))‖2 ≤ K ‖U1(t) − U0(t)‖2 < K b.
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 56
Concluimos
‖U2(t) − U1(t)‖2 <
∫ |t |
0(K b) ds < K ab.
Por inducción se puede ver que
∥∥U j+1 − U j∥∥∞ ≤ (K a) j b.
Si m > n ≥ N , entonces
‖Um − Un‖∞ ≤ (K a)N b
1 − K a,
pues 0 < K a < 1. Dado que
limN→∞ (K a)N = 0
concluimos que {Um} es de Cauchy en la norma ‖·‖∞ y por lo tanto converge a un elemento
x ∈ C ([−a, a] , Rn) que además cumple
x(t) = x0 +∫ t
0f (x(s))ds,
para todo t ∈ [−a, a]. Esto termina la demostración.
Ejemplo 4.1.7 Usar el método de Picard para resolver el siguiente problema lineal.
x = Ax,
x(0) = x0,
Demostración
Definimos
U0(t) = x0,
Uk+1(t) = x0 +∫ t
0AUk(s)ds.
Obtenemos
U1(t) = x0 +∫ t
0(Ax0) ds = x0 + t Ax0,
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 57
U2(t) = x0 + α
∫ t
0x0 + t Ax0ds =
(I + t A + t2
2A2)
x0,
U3(t) = x0 + α
∫ t
0
(I + t A + t2
2A2)
x0ds
=(
I + t A + t2
2A2 + t3
3!A3)
x0.
Por inducción podemos ver que
Un(t) =(
n∑k=0
t k
k!Ak
)x0.
Claramente esta sucesión converge, en la norma del supremo a x(t) = et Ax0 que, como ya
hemos estudiado, es solución de la ecuación.
En resumen, si consideremos el problema (4.1) donde f es una función de clase C1 en
un abierto E de Rn, entonces sabemos que existe un intervalo [−a, a] en donde existe una
única solución de este problema.
Ejemplo 4.1.8 Si f no es C1 en todo el plano no podemos garantizar la unicidad. Conside-
remos el siguiente problema
x = 3x23 ,
x(0) = x0.
Se puede ver que f (x) = 3x23 es de clase C1 en � = R\ {0} y, por tanto, dicha solución es
única si x0 �= 0. Si x0 = 0, puede verificarse directamente que x(t) = 0 y x(t) = t3 son
dos soluciones posibles. esto no viola el resultado del teorema 4.1.6 pues la función f no es
diferenciable en 0, por lo que no puede garantizarse unicidad.
Ejemplo 4.1.9 El problema de valores iniciales
y = tan(ey − arctan y
)y(t0) = y0
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 58
tiene una solución única para todo t0 y todo y0 pues la función f que define a la ecuación
es de clase C1 en un abierto de Rn . Esto se sabe a pesar de que, en general, la solución no
puede calcularse explícitamente.
Nos preguntamos ahora acerca de hasta dónde podemos extender la solución. Tenemos
el siguiente teorema que damos sin demostración.
Teorema 4.1.10 Sean E un abierto de Rn, f una función de clase C1. Entonces, para cada
punto x0 ∈ E, existe un intervalo D(x0) (llamado intervalo maximal) tal que
a) D(x0) = (α, β) , y contiene a t = 0,
b) El problema
y = f (y)
y(0) = x0
tiene una solución y(t) definida en D(x0),
c) La solución y(t) es única en el siguiente sentido. Si el problema tuviera otra solución
z(t), definida en un intervalo I, entonces I ⊂ D(x0), y z(t) = y(t) en I.
Ejemplo 4.1.11 Considerar
x = −1
2x.
en E = (0, ∞). Calcular D(1).
Solución
Resolveremos
x = −1
2x
x(0) = 1
y veremos hasta dónde podemos extender la solución. Resulta que la solución es
x(t) = √1 − t
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 59
En este caso, x(t) está definido para todo t ∈ (−∞, 1] . Sin embargo, en t = 1, x(t) sale del
conjunto E . Por lo tanto, D(1) = (−∞, 1) . �
Ejemplo 4.1.12 Consideremos
x = 1
x
definida en E = (0, ∞) . Encontrar D(x0).
Solución
Para cada x0 la solución x(t) que satisface x(0) = x0 es
x(t) =√
2t + x20
El dominio de x(t) es{t ∈ R | 2t + x2
0 ≥ 0} = [− x0
2 , ∞) . El intervalo maximal es por
tanto D(x0) = (−x0/2, ∞) . �
En base al teorema anterior, podemos demostrar que las soluciones de una ecuación
autónoma x = f (x) son en realidad un flujo sobre el dominio del campo vectorial.
Teorema 4.1.13 Sean E un abierto de Rn, f una función de clase C1. Sea ψ(t, x0) la
solución del problema
y = f (y)
y(0) = x0
definida en el intervalo D(x0). Si t ∈ D(x0), s ∈ D (ψ (t, x0)) , entonces
a) s + t ∈ D(x0),
b) ψ (s + t, x0) = ψ (s, ψ (t, x0)) .
Demostración
Suponer t > 0 y D(x0) = (α, β) . Definimos la función x : (α, s + t] → E dada por
x(r) ={
ψ (r, x) α ≤ r ≤ t
ψ (r − t, ψ (t, x0)) t ≤ r ≤ s + t
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 60
Claramente x(r) es diferenciable en todos los puntos del dominio con la posible excepción
de r = t . Además x(r) es continua en r = t . Queremos demostrar que el siguiente limite
existe
limh→0
x(t + h) − x(t)
hSabemos
limh→0+
x(t + h) − x(t)
h= lim
h→0+ψ(r, ψ(t, x0)) − ψ(t, x0)
h
= ∂
∂r
∣∣∣∣r=0
ψ(r, ψ(t, x0)) = f (ψ(t, x0)).
Por otro lado
limh→0−
x(t + h) − x(t)
h= lim
h→0−ψ (t + h, x0) − ψ(t, x0)
h
= ∂
∂r
∣∣∣∣r=t
ψ(r, x0) = f (ψ(t, x0)).
Concluimos qued
dr
∣∣∣∣r=t
x(r) = f (ψ(t, x0)) = f (x(t))
Se puede ver que para cualquier otro valor de r, se tiene que
d
drx(r) = f (x(r)).
Además x(0) = x0. Por el Teorema 4.1.10, (α, s + t] ⊂ D(x0), y además
x(r) = ψ(r, x0)
para todo r ∈ (α, s + t] . En particular, s + t ∈ D(x0), y
x(s + t) = ψ (s + t, x0) = ψ (s, ψ (t, x0)) .
Esto termina la demostración.
Definimos de este modo un flujo asociado a una ecuación diferencial. Sea E un abierto
de Rn y f ∈ C1 (E) . Sea D(x) el intervalo maximal correspondiente a x . Definimos
� = {(t, x) ∈ R × E : t ∈ D(x)}
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 61
Por ser D(x) un intervalo, se puede ver que � es un abierto de R × Rn . En � definimos el
flujo asociado a f como la función φ : � → E tal que
φ (0, x) = x,
∂
∂ tφ (t, x) = f (φ (t, x)) .
Además, esta función es única.
Ejemplo 4.1.14 Encontrar el flujo asociado a la ecuación
x = sec x
donde E = (−π2 , π
2
).
Solución
Resolveremos el siguiente problema de valores iniciales.
x = sec x,
x(0) = x0,
donde x0 ∈ E . Usando el método de separación obtenemos∫
cos xdx = ∫ dt y por lo tanto
sin x = t + C. Para determinar el valor de la constante C echamos mano de la condición
inicial. Esto es,
sin x0 = C.
Sustituyendo y simplificando obtenemos
sin x(t) = t + sin(x0),
x(t) = arcsin(t + sin(x0)).
Por lo tanto, la forma de el flujo para este sistema dinámico es
φt (x0) = arcsin(t + sin(x0)).
§4.1 TEORÍA DE ECUACIONES DIFERENCIALES. 62
Para x0 queremos −1 ≤ t + sin(x0) ≤ 1 y además
arcsin(t + sin(x0)) ∈ E =(−π
2,π
2
)Necesitamos, por lo tanto la siguiente condición
−1 < t + sin(x0) < 1;
es decir,
−1 − sin x0 < t < 1 − sin x0
Este es un abierto que contiene a 0. Concluimos entonces
D(x0) = (−1 − sin x0, 1 − sin x0) .
El dominio del flujo se define como
� ={(t, x) ∈ R ×
(−π
2,π
2
): t ∈ (−1 − sin x, 1 − sin x)
}Aquí concluimos el ejemplo. �
La unicidad de las soluciones es, a veces, más importante de lo que a simple vista podría
parecer. En el plano, tenemos la propiedad de que las curvas “separan” a éste en regiones.
Una manera geométrica de entender la unicidad es pensar que una curva que es solución no
puede ser cruzada por otra solución. Si tal fuera el caso, se tendrían dos soluciones distintas
que iniciarían en el mismo punto: el punto de intersección. Esto se demostraría del siguiente
modo. Sean z1(t) y z2(t) dos soluciones de la ecuación x = f (x) donde f es una función
de clase C1 definida en un abierto de Rn . Supongamos que existen un par de tiempos t1 y t2
tales que z1(t1) = z2(t2). Definamos x0 = z1(t1) = z2(t2) y
y1(t) = z1(t + t1),
y2(t) = z2(t + t2).
dos funciones que están definidas en intervalos I1 e I2. Claramente, ambas funciones también
son soluciones de la ecuación x = f (x) y además y1(0) = y2(0) = x0. Por el teorema de
EJERCICIOS 63
a) b)
Figura 4.1: El teorema de existencia y unicidad no permite que las soluciones se crucen. En
la figura a) se representa la situación típica en la que se ven las soluciones de una ecuación
diferencial en el plano. En la figura b) se da una situación imposible si se tiene unicidad:
una solución no puede cruzar otras.
existencia y unicidad, y1(t) = y2(t) para todo t ∈ I1 ∩ I2. Por lo tanto z1(t) y z2(t) no se
pueden “cruzar”, a menos que sus imágenes coincidan.
Estas consideraciones se ilustran en la figura 4.1. En el plano R2, la unicidad trae conse-
cuencias importantes pues en ocasiones una curva solución divide al plano en dos regiones
y así las demás soluciones no pueden cruzar de una de estas regiones a otra.
EJERCICIOS
✎ 4.1 Escribir las soluciones de las siguientes ecuaciones diferenciales en el abierto E
usando la notación de flujos. En cada caso, encontrar el intervalo maximal correspondiente
a cada punto de E .
a) x = x(1 − x), definida en E = (0, 1).
b) x = tan x, definida en E = (0, π/2).
c) x = x2, y = 1/x, definida en E = (0, ∞) × R.
EJERCICIOS 64
✎ 4.2 Encontrar las tres primeras iteraciones de Picard del siguiente problema de valores
iniciales: x = x2, x(0) = 1.
✎ 4.3 Sea
y = f (y)
una ecuación diferencial donde f : E → Rn es de clase C1. Utilizar el método de las
iteraciones de Picard para demostrar lo siguiente.
a) Sea η �= 0 y H = {x ∈ Rn : η · x = c} un hiperplano. Suponer que para todo
h ∈ E ∩ H se tiene que η · f (h) = 0. Si y0 ∈ E ∩ H entonces ϕt (y0) ∈ E ∩ H para
todo t ∈ D(y0).
b) Sea V un subespacio vectorial de Rn tal que para todo h ∈ E ∩ V se tiene que f (h) ∈
V . Si y0 ∈ E ∩ V entonces ϕt (y0) ∈ E ∩ V para todo t ∈ D(y0).
c) ¿Cómo se generalizarían los anteriores resultados para un espacio afín en general? Un
espacio afín en un espacio vectorial trasladado, que abarca los dos ejemplos anteriores.
✎ 4.4 Sea R2++ = {(u, v) : u > 0, v > 0}. Consideremos el siguiente problema
d
dt
(u
v
)=(
u2 + v sin u
−1 + uv + cos v
),
u(0) = u0, v(0) = v0.
Demostrar que cualquier curva solución que inicie en el primer cuadrante permanecerá ahí
para todo tiempo en el intervalo maximal. Es decir, demostrar que si (u0, v0) ∈ R2++ en-
tonces ϕ(t, (u0, v0)) ∈ R2++, para todo t ∈ D(u0, v0). (Sugerencia: utilizar el teorema de
existencia y unicidad, y el ejercicio 4.3.)
✎ 4.5 Sea ϕt(x, y) el flujo generado por el sistema
x = −2ex xy,
y = ex(−3x2 − 1 + y2
).
Encontrar el intervalo maximal del origen y una expresión explícita para la función ϕt (0, 0).
EJERCICIOS 65
✎ 4.6 Sea A una matriz de 3 × 3 cualquiera. Sean {e1, e2, e3} los vectores de la base
canónica. Considerar el siguiente sistema en R3
xi = xi(eT
i Ax − xT Ax),
donde i = 1, 2, 3 y x = (x1, x2, x3). Se define el simplejo de R3 como el conjunto
S3 ={(x1, x2, x3) ∈ R
3 : x1, x2, x3 ≥ 0, x1 + x2 + x3 = 1}
.
Demostrar que S3 es invariante bajo el flujo generado por las ecuaciones diferenciales. Es
decir, si φ es el flujo y x ∈S3 entonces φt (x)∈S3 para todo t ∈ D(x).
✎ 4.7 Sea f : Rn → R
n un campo vectorial de clase C1. Sea φ(t) una solución de la
ecuación diferencial dada por
X = f (X).
Suponer que φ(t) está definida para todo t ∈ R, y que existe un número T > 0 tal que
φ(0) = φ(T ). Demostrar que para todo t se cumple
φ(t) = φ(t + T ).
CAPÍTULO 5
Estabilidad no lineal
5.1 Conjugación topológica
Queremos dar una definición que haga a equivalentes dos sistemas dinámicos. Informal-
mente, podemos decir que dos sistemas dinámicos son equivalentes si existe un cambio de
variable que transforma uno en otro. En general, el cambio de variable puede ser de distintos
tipos y se considera el más sencillo uno que sólo sea continuo. En el ejercicio 1.5 se con-
sideró el caso de la transformación de un campo vectorial en otro, en base a un cambio de
variable diferenciable. La siguiente definición es un caso más general, pues sólo considera
continuidad.
Definición 5.1.1 Sean U , V dos abiertos de Rn. Una función h : U → V es llamada
homeomorfismo si
a) h es una biyección,
b) h es continua,
§5.1 CONJUGACIÓN TOPOLÓGICA 67
c) h−1 es continua.
Definición 5.1.2 Dos sistemas dinámicos (X, φ1) y (Y, φ2) son topológicamente conjugados
si existe un homeomorfismo h : X → Y tal que
φ1 (t, h(x)) = h (φ2 (t, x)) , (5.1)
para todo x ∈ X. En tal caso escribiremos φ1 ∼ φ2 y también diremos que los flujos son
equivalentes.
Ejemplo 5.1.3 Consideremos dos matrices:
A =(
−1 −3
−3 −1
)y B =
(2 0
0 −4
).
Sean φ1(t, x) = et Ax, y φ2(t, y) = et B y los flujos generados por las matrices A y B.
Observemos que
B = R−1 AR
donde
R = 1√2
(1 1
−1 1
)
y
R−1 = 1√2
(1 −1
1 1
).
Se puede demostrar que
et B = R−1et A R,
y por lo tanto et A R = Ret B . Esto sugiere que los dos flujos son equivalentes a través del
cambio de variable dado por la matriz R. Esto es, si hacemos h(x) = Rx entonces
φ1 (t, h(x)) = et A Rx
= Ret B x = h (φ2 (t, x)) .
§5.1 CONJUGACIÓN TOPOLÓGICA 68
En ambos casos, el origen es un punto silla. En el primer caso tenemos dos vectores propios:(1
1
),
(1
−1
).
En el segundo caso tenemos dos vectores propios:(1
0
),
(0
1
).
Nótese que el cambio de variable h mapea los vectores propios de una matriz en los vectores
propios de la otra. El cambio de variable y = h(x) es, de hecho, una rotación de 45o.
Ejemplo 5.1.4 La función que hace a dos flujos equivalentes puede ser bastante complicada.
Consideremos los siguientes flujos en R2.
ϕt1(x) = et x
y
ϕt2(x) = et
(cos(t) − sin(t)
sin(t) cos(t)
)x
dos flujos en Rn . Resulta que ϕ1 ∼ ϕ2, pero la función que los hace equivalentes es bastante
complicada. Consideremos a h : R2 → R
2 una conjugación topológica. Los campos
vectoriales correspondientes a ϕ1 y ϕ2 son lineales.
f1(x) =(
1 0
0 1
)x,
f2(x) =(
1 −1
1 1
)x .
Si la función h fuese lineal, las matrices
(1 0
0 1
)y
(1 −1
1 1
)serían equivalentes (ver
ejercicio 5.1). Pero esto no sucede, por lo que h no puede ser simplemente una función
§5.1 CONJUGACIÓN TOPOLÓGICA 69
lineal. Proponemos
h(x) =
(
cos(log ‖x‖) − sin(log ‖x‖)
sin(log ‖x‖) cos(log ‖x‖)
)x, x �= 0,
0, x = 0.
para x �= 0 y h(0) = 0. Queremos demostrar que h ◦ϕt1 = ϕt
2 ◦h. Si x ∈ R2, x �= 0 tenemos
que
h ◦ ϕt1(x) = h(et x)
=(
cos(log ‖x‖ + t) − sin(log ‖x‖ + t)
sin(log ‖x‖ + t) cos(log ‖x‖ + t)
)(et x)
= et
(cos t − sin t
sin t cos t
)(cos(log ‖x‖) − sin(log ‖x‖)
sin(log ‖x‖) cos(log ‖x‖)
)x
= ϕt2(h(x)) = ϕt
2 ◦ h(x).
Notemos que ‖h(x)‖ = ‖x‖. De este hecho, es fácil ver que la inversa de h es
h−1(x) =
(
cos(log ‖x‖) sin(log ‖x‖)
− sin(log ‖x‖) cos(log ‖x‖)
)x, x �= 0,
0, x = 0.
Claramente tanto h como h−1 son funciones continuas para todo punto x �= 0. Notemos
además que
limx→0
h(x) = 0,
limx→0
h−1(x) = 0.
Dado que definimos h(0) = 0, y h−1(0) = 0, ambas funciones también resultan ser conti-
nuas en x = 0.
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 70
EJERCICIOS
✎ 5.1 Dos matrices A y B de n × n son equivalentes si existe una matriz invertible R tal
que B = R−1 AR. Demostrar que si A y B son equivalentes entonces los flujos φ1(t, x) =et Ax, y φ2(t, y) = et B y definidos en R
n son topológicamente conjugados.
✎ 5.2 Sean A y B dos matrices de n × n. Suponer que los flujos φ1(t, x) = et Ax, y
φ2(t, y) = et B y, definidos en Rn, son topológicamente conjugados a través de una función
h : Rn → R
n . Demostrar que si h(0) = 0, h es diferenciable en 0 y h′(0) es invertible
entonces A y B son equivalentes. (Sugerencia: usar la ecuación (5.1) y derivar en x = 0. )
✎ 5.3 Demostrar que la conjugación topológica entre sistemas dinámicos es una relación
de equivalencia.
✎ 5.4 Sea f : R → R el campo vectorial dado por f (x) = ax2 + bx + c donde a �= 0.
a) Demostrar que el flujo generado por f es topológicamente equivalente a un flujo ge-
nerado por alguno de los siguientes campos: y = γ (y2+1), y = γ (y2−1) o y = γ y2
para alguna γ > 0. Es decir, el campo vectorial dado por f (x) = ax2 + bx + c puede
ser reducido, bajo un cambio de variable, a uno de los tres casos anteriores.
b) Resolver y = γ (y2 + 1), y = γ (y2 − 1) y y = γ y2.
c) Clasificar la dinámica de f de acuerdo al signo del discriminante b2 − 4ac.
5.2 Linealización de puntos fijos
Supongamos f es un campo vectorial definido en un abierto E ⊂ Rn y f (p∗) = 0. Un
punto p∗ que satisface f (p∗) = 0 es llamado punto de equilibrio o punto fijo. Recordemos
que cerca de p∗ se tiene
f (p∗ + h) = f (p∗) + f ′(p∗)h + o(h),
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 71
donde o(h) es una función tal que
limh→0
o(h)
‖h‖ = 0.
En particular, si h es pequeño o(h) ≈ 0. Podemos aproximar, por lo tanto
f (p∗ + h) ≈ f ′(p∗)h.
Esperaríamos que la dinámica de ambos sistemas fuese parecida. Si x(t) es una solución de
x = f (x), definimos
η(t) = x(t) − p∗
y entonces
x(t) = η(t) + p∗.
Además, tendríamos
η(t) = x(t) = f (x(t)) = f (p∗ + η(t)).
Si ‖η(t)‖ es pequeño, entonces
η(t) = f (p∗ + η(t)) ≈ f ′(p∗)η(t)
Esperaríamos que la dinámica de η sea similar a la dinámica del sistema lineal
η = f ′(p∗)η.
Esto motiva la siguiente definición.
Definición 5.2.1 Sean f y p∗ como antes. Al sistema lineal
η = f ′(p∗)η
se le denomina el sistema lineal asociado al punto fijo p∗. Se dirá, además, que la estabili-
dad del punto p∗ es la misma que la del sistema lineal asociado.
El análisis hecho anteriormente puede generalizarse a sistemas de varias variables.
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 72
Ejemplo 5.2.2 Considerar el sistema
x = y,
y = −1 + x2
Encontrar los puntos fijos y calcular el sistema lineal asociado en cada caso.
Solución
Los puntos de equilibrio son (1, 0) y (−1, 0). El campo vectorial del sistema es
f
(x
y
)=(
y
x2 − 1
)
y el jacobiano correspondiente es
f ′(
x
y
)=(
0 1
2x 0
).
El sistema lineal asociado a (1, 0) es
η = f ′(
1
0
)η =
(0 1
2 0
)η
y por lo tanto la dinámica cerca de (1, 0) es de tipo silla. Por otro lado, el sistema lineal
asociado a (−1, 0) es
η = f ′(
−1
0
)η =
(0 1
2 0
)η.
El punto (−1, 0) es degenerado. �
El siguiente teorema nos permite hacer formal la idea de que el sistema lineal asociado
a cada punto fijo es, de hecho, una buena aproximación del sistema no lineal. La condición
que se debe cumplir es que la matriz jacobiana correspondiente sea no degenerada. En otras
palabras, cerca de un punto fijo si el sistema lineal asociado es no degenerado existe, al
menos teóricamente, un cambio de variable que hace al flujo del sistema lineal equivalente
con el flujo del sistema lineal asociado.
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 73
Teorema 5.2.3 (Hartman-Grobman) Sea E un abierto de Rn. Sea f es un campo vectorial
definido en un abierto E ⊂ Rn y p∗ ∈ E un punto tal que f (p∗) = 0. Sea φt el flujo
generado por la ecuación x = f (x). Asumir que la matriz A = f ′(p∗) es no degenerada.
Entonces existen abiertos U y V de Rn y un homeomorfismo h : U → V tal que
a) p∗ ∈ U,
b) 0 ∈ V,
c) si φ (t, x0) ∈ U entonces
h (φ (t, x0)) = et Ah(x0).
Es decir, φ (t, x0) = h−1(et Ah(x0)
).
Posteriormente daremos ejemplos en los que una matriz jacobiana degenerada implica
que la dinámica podría ser de distintos tipos y el teorema de Hartman-Grobman anterior no
se puede aplicar.
Ejemplo 5.2.4 Consideremos el flujo φt generado por el campo vectorial f : R2 → R
2
dado por
f
(x
y
)=(
x
−y + x2
).
Sea h : R2 → R
2 la función dada por
h
(x
y
)=(
x
y − 13 x2
).
Podemos demostrar que h es la conjugación topológica del Teorema de Hartman-Grobman
de φt con el flujo lineal cerca de (0, 0). Es decir,
h(φt (x, y)
) = et Ah(x, y).
donde A = f ′ (0, 0) . Para encontrar φt (x0, y0) se resuelve
x = x,
y = −y + x2,
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 74
con condiciones iniciales x(0) = x0 y y(0) = y0. Claramente se tiene que x(t) = x0et y por
tanto concluimos
y = −y + x20e2t
Usando el método del factor de integración encontramos que
y(t) = 1
3x2
0e2t +(
y0 − 1
3x2
0
)e−t
El flujo es, por tanto
φt
(x0
y0
)=(
x(t)
y(t)
)=(
x0et
13 x2
0e2t + (y0 − 13 x2
0
)e−t
).
Por otra parte,
A =(
1 0
0 −1
).
Es fácil ver que
et A =(
et 0
0 e−t
).
Luego entonces
h
(φt
(x0
y0
))= h
(x0et
13 x2
0e2t + (y0 − 13 x2
0
)et
)
=(
x0et
13 x2
0e2t + (y0 − 13 x2
0
)et − 1
3
(x0et
)2)
=(
et 0
0 e−t
)(x0
y0 − 13 x2
0
)= et Ah
(x0
y0
).
Ejemplo 5.2.5 Se desea linealizar el sistema
x = x + y2 − 1,
y = xy + x2
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 75
y clasificar su puntos de equilibrio. Sea (x∗, y∗) algún punto de equilibrio. La matriz jaco-
biana asociada al sistema linealizado alrededor de (x∗, y∗) es
J (x∗, y∗) =(
1 2y∗
y∗ + 2x∗ x∗
).
Los puntos de equilibrio se obtienen resolviendo el sistema
x + y2 − 1 = 0,
xy + x2 = 0.
Obtenemos así los cuatro puntos (0, 1), (0, −1), (−1.62, 1.62) y (0.62, −0.62). De esta
forma, para los primeros dos puntos de equilibrio tenemos
J (0, 1) =(
1 2
1 0
),
J (0, −1) =(
1 −2
−1 0
),
ambas matrices con valores propios λ1 = −1 y λ2 = 2. La matriz
J (−1.62, 1.62) =(
1 3.24
−1.62 −1.62
)
tiene valores propios λ1 = −0.31 + 1.88i y λ2 = −0.31 − 1.88i, y finalmente
J (0.62, −0.62) =(
1 −1.24
0.62 0.62
)
posee valores propios λ1 = 0.81 + 0.856i y λ2 = 0.81 − .856i.
Vemos entonces que (0, 1) y (0, −1) son puntos silla (−1.62, 1.62) es un punto espiral
atractora y (0.62, −0.62) un punto espiral repulsora. La figura 5.1 ilustra estos resultados.
Ejemplo 5.2.6 Ahora vamos a encontrar y clasificar los puntos fijos del siguiente sistema:
y1 = y21 + y2
2 − 2,
y2 = y21 − y2
2 .
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 76
0-1-2-3 1 2
3
2
1
0
-1
-2
Figura 5.1: Diagrama de fase correspondiente al ejemplo 5.2.5.
Los puntos fijos satisfacen
y21 + y2
2 − 2 = 0,
y21 − y2
2 = 0.
Por lo tanto éstos son (1, 1), (1, −1), (−1, 1) y (−1, −1).
La matriz jacobiana asociada al sistema lineal, alrededor de (y1, y2), está dada por
J (y1, y2) =(
2y1 2y2
2y1 −2y2
).
Entonces,
J (1, 1) =(
2 2
2 −2
).
Como el determinante de la matriz es negativo, se tiene que (1, 1) es punto silla. Por otra
parte,
J (1, −1) =(
2 −2
2 2
).
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 77
En este caso tr(J (1, −1) = 4, det(J (1, −1)) = 8 y �(J (1, −1)) = −16, por lo que se
trata de una espiral repulsora. Para el punto (−1, 1), la matriz jacobiana es
J (−1, 1) =(
−2 2
−2 −2
),
ahora se tiene que tr(J (−1, 1)) = −4, det(J (−1, 1)) = 8 y �(J (−1, 1)) = −16 por lo
que se trata de una espiral atractora. Finalmente, para (−1, −1)
J (−1, −1) =(
−2 −2
−2 2
).
Basta notar que el determinante es negativo, por lo tanto se trata de un punto silla. En la
figura 5.2 se puede apreciar el comportamiento global de las soluciones y claramente se ve
la existencia de dos puntos silla, una espiral atractora y una espiral repulsora.
-2
-1
0
1
2
-2 -1 0 1 2
x
Figura 5.2: Diagrama de fase para el ejemplo 5.2.6.
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 78
Ejemplo 5.2.7 Consideremos el sistema
x = −y + ax(x2 + y2),
y = x + ay(x2 + y2).
Encontrar una expresión explícita para el flujo generado y analizar la dinámica cerca del
punto fijo (0, 0).
Solución
El jacobiano del campo vectorial es
f ′(
x
y
)=(
a(3x2 + y
) −1 + 2axy
1 + 2axy a(x2 + 3y2
))
.
En el punto fijo (0, 0) tenemos
f ′(
0
0
)=(
0 −1
1 0
).
Notemos que la traza de f ′(0, 0) es 0 y el determinante es 1, por lo que (0, 0) es un punto
degenerado. En este caso el teorema de Hartman-Grobman no se puede aplicar. Vamos a
demostrar que la dinámica cerca de (0, 0) depende del signo del parámetro a. Dado que
la matriz jacobiana f ′(0, 0) es independiente de a, este ejemplo muestra que si la matriz
jacobiana en el punto fijo es degenerada, entonces no se puede decir nada de la dinámica
cerca del punto fijo.
Usaremos coordenadas polares
x(t) = r(t) cos θ(t), (5.2)
y(t) = r(t) sin θ(t).
para encontrar una expresión explícita del flujo. Sean (r0, θ0) números tales que
x0 = r0 cos θ0,
y0 = r0 sin θ0.
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 79
donde r0 ≥ 0. Tenemos las ecuaciones:
θ = yx − x y
r2=[x + ay(x2 + y2)
]x − [−y + ax(x2 + y2)
]y
r2= 1
y
r = x x + y y
r= x
[−y + ax(x2 + y2)]+ y
[x + ay(x2 + y2)
]r
= ar3.
Al resolver el sistema anterior con condiciones r(0) = r0 y θ(0) = θ0 obtenemos
θ(t) = θ0 + t,
y
r(t) = r0√1 − 2r2
0 at.
Si usamos las ecuaciones (5.2), obtenemos las ecuaciones del flujo generado. Esto es,
φt
(x0
y0
)=(
x(t)
y(t)
)=(
r(t) cos θ(t)
r(t) sin θ(t)
)
= r0√1 − 2r2
0 at
(cos(θ0 + t)
sin(θ0 + t)
)
= 1√1 − 2r2
0 at
(cos t − sin t
sin t cos t
)(r0 cos(θ0)
r0 sin(θ0)
)
= 1√1 − 2(x2
0 + y20)at
(cos t − sin t
sin t cos t
)(x0
y0
).
Tenemos tres casos: a = 0, a < 0 y a > 0.
Si a = 0 entonces r(t) ≡ r0 y el intervalo maximal es D(x0, y0) = R. Además, el flujo
satisface
φt
(x0
y0
)=(
cos t − sin t
sin t cos t
)(x0
y0
),
que corresponde geométricamente a círculos en el plano. El radio de las trayectorias no
crece ni decrece.
§5.2 LINEALIZACIÓN DE PUNTOS FIJOS 80
Si a < 0, el radio es una función decreciente. Además, el dominio maximal está dado
por D(x0, y0) =(
12r2
0 a, ∞)
y las trayectorias geométricamente son espirales. Es tal caso el
flujo cumple que
limt→∞ φt
(x0
y0
)=(
0
0
).
Finalmente, si a > 0, el radio es una función creciente. Además el dominio maximal es
D(x0, y0) =(
−∞, 12r2
0 a
)y las trayectorias geométricamente son espirales. Es tal caso el
flujo cumple que
limt→−∞ φt
(x0
y0
)=(
0
0
).
En conclusión, si la matriz jacobiana en un punto de equilibrio es degenerada, el sistema
lineal asociado no contiene suficiente información para predecir el comportamiento cerca de
tal punto fijo. �
EJERCICIOS
✎ 5.5 Sea φt el flujo generado por el campo vectorial f : R2 → R
2 dado por
f
(x
y
)=(
−x
y − 4x3 + 1
).
Sea h : R2 → R
2 la función dada por
h
(x
y
)=(
x
y − x3 + 1
).
a) Demostrar que (0, 1) es un punto fijo y encontrar el sistema lineal asociado.
b) Demostrar la matriz A = f ′(0, 1) es no degenerada
c) Calcular explícitamente el flujo φt .
d) Demostrar que la función h es una conjugación que hace equivalentes a φt y al flujo
generado por la matriz A.
§5.3 ANÁLISIS DE PUNTOS SILLA 81
✎ 5.6 Linealizar cada uno de los siguientes sistemas alrededor de sus puntos de equilibrio
y obtener los diagramas de fase correspondientes. ¿En qué casos se puede aplicar el teorema
de Hartman-Grobman?
a) x = xy, y = (y − 1)(x2 − 1).
b) x = 4x − 3xy, y = 3y − xy.
c) x = 3y2 + x, y = −(3x2 + y).
d) x = y, y = sin x .
5.3 Análisis de puntos silla
Sea f ∈ C1 definido en un abierto E ⊂ Rn . Sea p∗ un punto de equilibrio de tipo silla de f.
Nos interesa estudiar la dinámica cerca de p∗. Por el teorema 5.2.3 de Hartman-Grobman,
la dinámica se parecerá a la de
η = f ′(p∗)η.
Nos interesa en particular si p∗ es punto silla. p∗ es punto silla si f ′(p∗) tiene valores
propios con parte real negativa y otros con parte real positiva.
Definición 5.3.1 Sean f un campo vectorial como antes y p� un punto silla. Sea A =f ′(p∗). Se definen los espacios estable e inestable asociados al punto silla p∗ como los
subespacios de Rn siguientes
Es(p∗) =
{x ∈ R
n : limt→∞ et Ax = 0
}y
Eu(p∗) =
{x ∈ R
n : limt→−∞ et Ax = 0
}.
Tal como lo hicimos para el caso lineal (véase teorema 3.3.3) podemos demostrar que
los espacios lineales asociados a un punto silla p∗ satisfacen lo siguiente:
a) Es(p∗) es un subespacio de dimensión igual al número de valores propios con parte
real negativa de f ′(p∗).
§5.3 ANÁLISIS DE PUNTOS SILLA 82
b) Eu(p∗) es un subespacio de dimensión igual al número de valores propios con parte
real positiva de f ′(p∗).
c) Rn = E
s(p∗) ⊕ Eu(p∗).
Ejemplo 5.3.2 Sea A de 2 × 2 de tipo punto silla y b ∈ R2. Sea f : R
2 → R2 el campo
vectorial dado por f (x) = Ax + b. Demostrar que f tiene un punto silla p∗ e identificar los
espacios Es(p∗) y E
u(p∗).
Solución
La matriz A tiene dos valores propios λ1 < 0 < λ2. Esto implica que A es invertible
y por lo tanto se puede resolver el problema de encontrar un punto fijo p∗ que satisfaga
f (p∗) = 0. Es decir, se tiene que
p∗ = −A−1b.
Claramente se cumple que f ′(p∗) = A y por ende p∗ es silla. Por otra parte, en el ejercicio
2.8 concluimos que
et A = 1
λ1 − λ2
(eλ1t (A − λ2 I ) − eλ2t (A − λ1 I )
).
Por lo tanto
Es(p∗) = ker (A − λ1 I ) ,
Eu(p∗) = ker (A − λ2 I ) .
�
Tal como lo teníamos es los sistemas dinámicos lineales, vamos a definir dos conjuntos
asociados a cada punto silla. Estos constituyen el conjunto de condiciones iniciales que
hacen que un flujo φt converja al punto silla cuando t → ∞ y t → −∞.
Definición 5.3.3 Sea (E, φ) un sistema dinámico. Definimos
W s(p∗, φ) ={
y ∈ Rn : lim
t→∞ φ (t, y) = p∗} y
W u(p∗, φ) ={
y ∈ Rn : lim
t→−∞ φ (t, y) = p∗}
.
§5.3 ANÁLISIS DE PUNTOS SILLA 83
Estas se llaman las variedades estable e inestable de p∗. Si no hay posibilidad de confusión,
escribiremos simplemente W s(p∗) y W u(p∗).
La definición anterior tiene sentido en una situación general, aunque p∗ no fuese de
tipo silla o φ no fuese diferenciable. En el caso particular de dos dimensiones tenemos lo
siguiente.
Teorema 5.3.4 (Variedad estable) Sea f de clase C1 en E, un abierto de R2. Sea p∗ un
punto silla. Entonces
a) W s(p∗) es una curva diferenciable que pasa por p∗.
b) W u(p∗) es una curva diferenciable que pasa por p∗.
c) El conjunto p∗ + Es(p∗) es una recta tangente a W s(p∗) en p∗.
d) El conjunto p∗ + Eu(p∗) es una recta tangente a W u(p∗) en p∗.
Ejemplo 5.3.5 Sea f
(x
y
)=(
x
−y + x2
). Demostrar que p∗ = (0, 0) es punto silla
y obtener expresiones explícitas para W s(p∗) y W u(p∗). En cada caso, verificar que p∗ +E
s(p∗) y p∗ + Eu(p∗) son rectas tangentes a W s(p∗) y W u(p∗) en p∗.
Solución
Claramente se cumple que f (0, 0) = (0, 0). Para demostrar que (0, 0) es punto silla
calculamos la matriz jacobiana y obtenemos
f ′(
x
y
)=(
1 0
2x −1
).
De ahí que se tenga
f ′(p∗) = f ′(
0
0
)=(
1 0
0 −1
).
§5.3 ANÁLISIS DE PUNTOS SILLA 84
Como el determinante de f ′(p∗) es negativo, entonces p∗ = (0, 0) es punto silla. En el
ejemplo 5.2.4 obtuvimos que el flujo generado está dado por
φt
(x0
y0
)=(
x0et
13 x2
0e2t + (y0 − 13 x2
0
)e−t
).
Por tanto concluimos que
W s (p∗) ={(
x0
y0
)∈ R
2 : limt→∞
(x0et
13 x2
0e2t + (y0 − 13 x2
0
)e−t
)=(
0
0
)}
y por ende (x0, y0) ∈ W s (p∗) si y sólo si x0 = 0. Esto es,
W s (p∗) ={(
x0
y0
)∈ R
2 : x0 = 0
}.
Del mismo modo, se puede argumentar que.
W u (p∗) ={(
x0
y0
)∈ R
2 : y0 = 1
3x2
0
},
que es una parábola.
Notemos que
f ′(
0
0
)=(
1 0
0 −1
),
lo cual implica que
p∗ + Es(p∗) =
{(x, y) ∈ R
2 : x = 0}
,
y
p∗ + Eu(p∗) =
{(x, y) ∈ R
2 : y = 0}
.
Claramente p∗+Es(p∗) es una recta tangente a W s(p∗) en p∗ y lo mismo para p∗+E
u(p∗).�
Ejemplo 5.3.6 El sistema
y1 = y1 + y22 − 1
y2 = y1y2 + y21
§5.3 ANÁLISIS DE PUNTOS SILLA 85
tiene un punto silla en (0, 1) . Usar el teorema 5.3.4 para dar una aproximación de las varie-
dades estable e inestable W s (0, 1) y W u (0, 1) .
Solución
El jacobiano es
f ′(
y1
y2
)=(
1 2y2
y2 + 2y1 y1
).
En los puntos de equilibrio
f ′(
0
1
)=(
1 2
1 0
)
f ′(
0
−1
)=(
1 −2
−1 0
)
Para (0, 1) , encontramos dos direcciones, estable e inestable. Obtenemos que
v1 =(
1
−1
)
es un vector propio del valor propio λ1 = −1, y
v2 =(
2
1
)
es un vector propio del valor propio λ2 = 2. Por lo tanto, los espacios estable e inestable
para (0, 1) son
Es(0, 1) = 〈(1, −1)〉 ,
Eu(0, 1) = 〈(2, 1)〉 .
Además, la curva estable W s (0, 1) es tangente a (0, 1) + Es(0, 1) = (0, 1) + 〈(1, −1)〉.
Localmente, cerca de (0, 1) la curva W s (0, 1) se parece a la recta (0, 1) + Eu(0, 1). Dado
que
(0, 1) + Es(0, 1) =
{(x, y) ∈ R
2 : y = −x + 1}
,
§5.3 ANÁLISIS DE PUNTOS SILLA 86
podemos usar esa recta como una buena aproximación de la variedad estable cerca del punto
silla (0, 1). esto es decir y = −x + 1. Del mismo modo, (0, 1) + Eu(0, 1) es tangente a
W u (0, 1) y se hace un análisis parecido. �
Ejemplo 5.3.7 Analicemos el punto silla del siguiente sistema:
x = y + 1 − ex ,
y = yex .
Observemos que p∗ = (0, 0) es el único punto de equilibrio. La matriz jacobiana que
aproxima linealmente al sistema está dada por
D f (x, y) =(
−ex 1
yex ex
),
que evaluada en p∗ = (0, 0) queda como
D f (0, 0) =(
−1 1
0 1
).
El polinomio característico es λ2 −1, con raíces λ1 = −1 y λ2 = 1. Para λ1 = −1, el vector
propio es v1 =(
1
0
), que corresponde a la dirección estable. Para λ2 = 1, el vector propio
es v2 =(
1
2
), correspondiente a la dirección inestable. Los espacios estable e inestable
son espacios de una dimensión generados por los vectores anteriores, es decir,
Es(0, 0) = {t (1, 0) ∈ R
2 | t ∈ R},E
u(0, 0) = {t (1, 2) ∈ R2 | t ∈ R}.
En este caso, es posible describir explícitamente las variedades estable e inestable. Vamos a
comprobar que
W s(0, 0) = {(x, y) ∈ R2 | y = 0},
W u(0, 0) = {(x, y) ∈ R2 | y = 2(ex − 1)}.
§5.3 ANÁLISIS DE PUNTOS SILLA 87
Para este efecto, consideremos un punto inicial (x0, 0) en W s(0, 0). Puede comprobarse que
la curva solución con esta condición inicial es de la forma Véase el ejercicio 5.11 para los
detalles.
x(t) = x0 − ln(ex0 + (1 − ex0)e−t ),
y(t) = 0.
Esta curva está definida, por lo menos, para tiempos t ≥ 0, y además cumple
limt→∞
(x(t)
y(t)
)=(
0
0
).
Del mismo modo, si (x0, y0) es un punto inicial en W u(0, 0), éste satisface y0 = 2(ex0 − 1)
y la curva solución está dada por
x(t) = x0 − ln(ex0 + (1 − ex0)et ),
y(t) = 2(ex(t) − 1).
Esta curva está definida al menos para tiempos t ≤ 0 y cumple
limt→−∞
(x(t)
y(t)
)=(
0
0
).
El teorema 5.3.4 nos dice que los espacios Es(0, 0) y E
u(0, 0) son tangentes a W s(0, 0) y a
W u(0, 0), respectivamente, en el punto p∗ = (0, 0). La figura 5.3 muestra las consideracio-
nes anteriores.
Ejemplo 5.3.8 Encontrar los puntos silla del sistema
x = 2xy, (5.3)
y = 1 − 3x2 − y2
y describir las curvas estable e inestable en cada caso.
§5.3 ANÁLISIS DE PUNTOS SILLA 88
E
s= E 1v
2v
u
uW
sW
y
= (1,0)
= (1,2)
x
Figura 5.3: Variedades estable e inestable W sy W u , y espacios estable e inestable Es y Eu
para el ejemplo 5.3.7.
Solución
Tenemos los siguientes puntos de equilibrio(0
1
),
(0
−1
),
(1√3
0
),
( − 1√3
0
)
El jacobiano del sistema es
f ′(
x
y
)=(
2y 2x
−6x −2y
),
§5.3 ANÁLISIS DE PUNTOS SILLA 89
y en los puntos de equilibrio se tiene
f ′(
0
1
)=(
2 0
0 −2
),
f ′(
0
−1
)=(
−2 0
0 2
),
f ′(
1√3
0
)= 0 2√
3
− 6√3
0
,
f ′(
1√3
0
)= 0 − 2√
36√3
0
.
Concluimos que (0, 1) y (0, −1) son puntos silla y los demás son degenerados. Cerca de los
puntos podemos aproximar las variedades estable e inestable usando la aproximación lineal.
Para (0, 1)
Es(0, 1) =
⟨(0
1
)⟩,
Eu(0, 1) =
⟨(1
0
)⟩.
Por lo tanto, cerca de W s(0, 1), la curva se puede aproximar por la tangente
(0, 1) + Es(0, 1).
Del mismo modo, se calculan las demás aproximaciones lineales.
Vamos ahora a encontrar una expresión explícita para las variedades. Para ello escribi-
mos la ecuación, usando la regla de la cadena, del siguiente modo:
dy
dx= y
x= 1 − 3x2 − y2
2xy.
Es decirdy
dx=(
1 − 3x2
2x
)y−1 − 1
2xy.
§5.3 ANÁLISIS DE PUNTOS SILLA 90
La idea es resolver la anterior considerando a x como variable independiente. Como la
anterior es una ecuación de Bernoulli, se usa la sustitución w = y2 y se obtiene
dw
dx= 2y
dy
dx=(
1 − 3x2
x
)− 1
xy2 =
(1 − 3x2
x
)− 1
xw
Reescribiendodw
dx+ 1
xw =
(1 − 3x2
x
)Se multiplica por el factor integrante ρ = exp
[∫ 1x dx
] = x para encontrar que
d
dx[xw] = 1 − 3x2,
y por tanto
xw = x − x3 + c
donde c es una constate. Finalmente, sustituimos de nuevo w = y2 y obtenemos
xy2 = x − x3 + c,
es decir,
x(
x2 + y2 − 1)
= c.
La anterior ecuación tiene la siguiente interpretación. Si (x(t), y(t)) es una solución de
la ecuación diferencial, entonces para todo tiempo en el dominio de ésta se tiene que
x(t)[x(t)2 + y(t)2 − 1
]= c. (5.4)
Esto es, las curvas de nivel de x(x2 + y2 − 1
)son las curvas solución de la ecuación. Esto
se podría verificar directamente derivando con respecto a t, pues si (x(t), y(t)) satisface
(5.3), entonces
d
dt
(x(t)
[x(t)2 + y(t)2 − 1
])= x(t)
[x(t)2 + y(t)2 − 1
]+ x(t)
[2x(t)x(t) + 2y(t)y(t)
]= 2x(t)y(t)
[x(t)2 + y(t)2 − 1
]+ x(t)
[4x(t)2y(t) + 2y(t)(1 − 3x(t)2 − y(t)2)
]= 0.
§5.3 ANÁLISIS DE PUNTOS SILLA 91
Supongamos que (x0, y0) ∈ W s(0, 1). Sea(x(t)
y(t)
)= φt
(x0
y0
)
una curva solución que inicia en (x0, y0). Por definición
limt→∞
(x(t)
y(t)
)=(
0
1
).
Por otra parte, la ecuación (5.4) implica que
x(t)[x(t)2 + y(t)2 − 1
]= x0
(x2
0 + y20 − 1
)y al calcular el límite t → ∞ se encuentra que
x0
(x2
0 + y20 − 1
)= lim
t→∞ x(t)[x(t)2 + y(t)2 − 1
]= 0.
Concluimos de este modo que W s(0, 1) es un subconjunto de la curva de nivel dada por{(x0, y0) ∈ R
2 : x0
(x2
0 + y20 − 1
)= 0}
. (5.5)
Es fácil ver que dicho conjunto está constituido de la unión de un círculo y el eje de las y.
En la figura 5.4 se ilustra cómo se ven algunas de las curvas solución. Nótese que las
variedades estable e inestable están contenidas en la curva de nivel dada por (5.5). Las
aproximaciones estable e inestable cerca de los puntos silla nos pueden ayudar a identificar
cuáles son las curvas estable e inestable en cada caso. �
EJERCICIOS
✎ 5.7 Considerar el sistema
x =(
0 1
2 −1
)x +
(4
2
).
Demostrar que este sistema tiene un único punto silla p∗, encontrarlo y demostrar que
W s (p∗) ={(x, y) ∈ R
2 | y = −2x − 10}
W u (p∗) ={(x, y) ∈ R
2 | y = x − 1}
.
§5.3 ANÁLISIS DE PUNTOS SILLA 92
-1.5 -1 -0.5 0 0.5 1 1.5
-1.5
-1
-0.5
0
0.5
1
1.5
x
y
Figura 5.4: Algunas curvas solución del sistema dinámico del ejemplo 5.3.8. Se ilustran los
puntos silla (0, 1) y (0, −1) con sus correspondientes variedades estable e inestable.
§5.3 ANÁLISIS DE PUNTOS SILLA 93
✎ 5.8 Sea A una matriz de n × n de tipo silla y b ∈ Rn. Considerar el sistema de R
n dado
por
x = Ax + b.
a) Demostrar que p∗ = −A−1b es el único punto silla del sistema.
b) W s (p∗) = p∗ + Es(p∗).
c) W u (p∗) = p∗ + Eu(p∗).
✎ 5.9 Considerar el siguiente sistema
x = 2xy,
y = 5x4 − 6x2 + 1 − y2.
a) Encontrar los puntos fijos del sistema y clasificarlos.
b) Para cada punto silla p, encontrar los espacios Es(p) y E
u(p) de la aproximación
lineal.
c) Encontrar una primera integral para las curvas solución del sistema. Esto es, encontrar
una función H(x, y) tal que
H(ϕt (x0, y0)) = H(x0, y0),
para todo t ∈ D(x0, y0).
d) Para cada punto silla p, encontrar explícitamente las curvas estable W s(p) e inestable
W u(p) y verificar que p + Es(p) y p + E
u(p) son rectas tangentes a ellas.
e) Usando algún graficador de espacios fase, dar una descripción geométrica del sistema.
✎ 5.10 El siguiente sistema es un modelo de dos especies, en donde N es un depredador
y P es una presa,
P = P(1 − P) − γ P N ,
N = −N + γ P N ,
donde γ es un parámetro positivo.
§5.3 ANÁLISIS DE PUNTOS SILLA 94
a) Encontrar las direcciones estable e inestable del punto silla
(P∗, N∗) = (1, 0).
b) Interpretar el parámetro γ .
✎ 5.11 Este ejercicio se refiere al ejemplo dado en 5.3.7.
a) Comprobar que
x(t) = x0 − ln(ex0 + (1 − ex0)e−t ),
y(t) = 0,
es una solución del sistema para toda x0, y está definida para todo t ≥ 0.
b) Comprobar que
x(t) = x0 − ln(ex0 + (1 − ex0)et ),
y(t) = 2(ex(t) − 1),
es una solución del sistema para todo (x0, y0) tal que y0 = 2(ex0 − 1), y está definida
para todo t ≤ 0.
✎ 5.12 Considérese el siguiente sistema no lineal: x = x − 1, y = xex − y.
a) Encontrar los puntos fijos del sistema y clasificarlos.
b) Para cada punto silla p, encontrar los espacios Es(p) y Eu(p) de la aproximación
lineal.
c) Usando la regla de la cadena, sabemos que, si (x(t), y(t)) es una solución del sistema,
entonces la pendiente de la curva debe satisfacer
dy
dx= y
x= xex − y
x − 1.
Resolver la ecuación anterior, considerando x como la variable independiente.
§5.4 ESTABILIDAD ASINTÓTICA 95
d) Encontrar, para cada punto silla p, expresiones analíticas para las curvas estable W s(p)
e inestable W u(p).
e) En cada caso, graficar W s(p) y W u(p).
✎ 5.13 Considerar un sistema dinámico con un punto silla cada punto silla p. Considerar
las variedades estable W s(p) e inestable W u(p). Demostrar que tanto W s(p) como W u(p)
son invariantes bajo el flujo. Es decir, si φ es el flujo y x ∈W s(p) entonces φt (x)∈W s(p)
para todo t ∈ D(x) y lo mismo para W u(p).
✎ 5.14 Sean dos sistemas dinámicos completos (E, φ1) y (E, φ2). Suponer que φ1 ∼ φ2
a través de un homeomorfismo h : E → F. Demostrar que si p∗ es un punto fijo de φ1
entonces h(p∗) es punto fijo de φ2 y además se cumple
W s(h(p∗), φ2) = h(W s(p∗, φ1)
),
W u(h(p∗), φ2) = h(Wu(p∗, φ1)
).
5.4 Estabilidad asintótica
Definición 5.4.1 Sea p∗ un punto de equilibrio de un sistema dinámico. Diremos que p∗ es
asintóticamente estable si existe una vecindad U de p∗ tal que:
a) p∗ ∈ U .
b) Para todo x0 ∈ U, el intervalo maximal satisface D(x0) ⊃ [0, ∞). Esto es, el flujo
está definido para todo tiempo futuro.
c) limt→∞ ϕt (x0) = p∗ para todo x0 ∈ U .
Definición 5.4.2 Al conjunto abierto más grande que satisface estas condiciones se le llama
cuenca de atracción.
Teorema 5.4.3 Sea p∗ un punto de equilibrio de un campo vectorial f ∈ C1 definido en un
abierto de Rn. Si p∗ es de tipo atractor entonces es asintóticamente estable.
§5.4 ESTABILIDAD ASINTÓTICA 96
Definición 5.4.4 Sea p∗ un punto fijo de un sistema dinámico. Una función de Liapunov
de p∗ es una función continua V : U → [0, ∞) definida en una vecindad U de p∗ tal que
satisface:
a) V (p∗) = 0.
b) Si p �= p∗ entonces V (p) > 0.
c) La función t �→ V (ϕt (p)) es estrictamente decreciente si p �= p∗.
Teorema 5.4.5 Si un punto p∗ tiene una función de Liapunov entonces es asintóticamente
estable.
Si V es diferenciable entonces podemos calcular
d
dt
(V (ϕt (p))
) = ∇V (ϕt (p))d
dtϕt (p)
= ∇V (ϕt (p)) · f (ϕt (p))
En vez de la condición de que V (ϕt (p)) sea estrictamente decreciente, podemos usar ∇V (z)·f (z) < 0 para todo z ∈ U . Geométricamente, las curvas de nivel de V son tales que el campo
vectorial apunta “hacia adentro”.
Ejemplo 5.4.6 Sea ϕt (x) = et Ax donde A es de tipo atractor. Sabemos que existe una
matriz M positiva definida tal que M A + AT M = −I . Entonces V (x) = xT Mx es una
función de Liapunov para p∗ = 0.
Solución
Vamos a verificar las condiciones de la definición de función de Liapunov.
a) V (p∗) = V (0) = 0.
b) Si p �= p∗ entonces p �= 0 y pT Mp > 0 pues la matriz M es positiva definida.
§5.4 ESTABILIDAD ASINTÓTICA 97
c) Si p �= p∗ entonces
V (ϕt (p)) = pT (et A)T Met Ap = pT et ATMet Ap.
y además
d
dtV (ϕt(p)) = pT et AT
AT Met Ap + pT et ATM Aet Ap
= −(pT et ATet Ap) = −‖et Ap‖2
2 < 0.
Esto implica que la función t �→ V (ϕt (p)) es estrictamente decreciente si p �= p∗. �
Finalizamos la sección con una generalización del resultado anterior. La demostración
se deja como ejercicio al lector.
Teorema 5.4.7 Consideremos
x = f (x)
donde f es de clase C1 en un abierto E ⊂ Rn. Sea p∗ un punto atractor de f, es decir
a) f (p∗) = 0,
b) La matriz A = f ′(p∗) es de tipo atractor.
Sea M existe una matriz positiva definida tal que M A + AT M = −I . Entonces V (x) =(x − p∗)T M(x − p∗) es una función de Liapunov para p∗. En particular, p∗ es un punto
asintóticamente estable.
EJERCICIOS
✎ 5.15 Sea E un subconjunto abierto de Rn. Sea W : E → R una función de clase C2.
Considerar el sistema
x = −∇W (x).
A un sistema de este tipo se le llama sistema gradiente. Sea p∗ un mínimo local de W tal que
existe una vecindad U de p∗ tal que si p �= p∗ y p ∈ U entonces ∇W (p) �= 0. Demostrar
que V : U → R dada por V (p) = W (p) − W (p∗) es una función de Liapunov para p∗ y
por lo tanto es asintóticamente estable.
§5.4 ESTABILIDAD ASINTÓTICA 98
✎ 5.16 Sea A una matriz invertible de n × n y b ∈ Rn. Demostrar que si E = R
n y
W : E → R es la función dada por
W (x) = 1
2‖Ax − b‖2 ,
entonces W satisface las hipótesis del ejercicio anterior con U = Rn y p∗ = −A−1b. Con-
cluir que para cualquier condición inicial el flujo generado por el sistema dinámico
x = AT (b − Ax)
converge a p∗.
✎ 5.17 Usar la función de Liapunov V (x, y) = x2 + y2 para demostrar que el origen es
un punto asintóticamente estable para el siguiente sistema.(x
y
)=(
−y − x3 − xy2
x − y3 − yx2
).
¿Qué dice la teoría lineal?
✎ 5.18 Sean f y g dos funciones diferenciables. Suponer que g(0) = 0. Considerar el
siguiente sistema de segundo orden.
x + f (x)x + g(x) = 0.
a) Demostrar que el sistema puede ser escrito como(x
y
)=(
y − ∫ x0 f (s)ds
−g(x)
).
b) Suponer que existe un número η tal que si 0 < |x | < η entonces∫ x
0g(s)ds > 0
y g(x)
∫ x
0f (s)ds > 0. Encontrar una función de Liapunov para demostrar que el
origen es un punto asintóticamente estable.
c) Aplicar el resultado anterior a la ecuación de van der Pol
x + ε(1 − x2)x + x = 0
donde ε > 0. ¿Qué se puede decir acerca de la cuenca de atracción?