Algebra II
-
Upload
pipo-sanfilippo -
Category
Documents
-
view
22 -
download
1
description
Transcript of Algebra II
-
UNIVERSIDAD DE BUENOS AIRESFACULTAD DE INGENIERIA
Ano 2015 - 1er Cuatrimestre
ALGEBRA II A (61.08)
Resumen de Algebra II
INTEGRANTE:Maria Ines Parnisari - [email protected]
Menendez, Martn Nicolas - [email protected]
-
INDICE
Indice1. Matrices 3
1.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2. Propiedades de la inversa, la traza y la traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.4. Subespacios fila, columna y null . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2. Espacios vectoriales 62.1. Propiedades de los subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.2. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.3. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.4. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.5. Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.6. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.7. Teorema de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3. Producto interno 83.1. Axiomas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.2. Producto interno canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.3. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.4. Matriz asociada al producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4. Proyecciones y matrices de proyeccion 114.1. Propiedades de la proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114.2. Proyeccion y reflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.2.1. Proyeccion y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2.2. Reflexion y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.3. Matriz de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.4. Rotaciones en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.5. Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.6. Matrices de proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.7. Inversas y pseudoinversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.8. Cuadrados mnimos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.8.1. Norma mnima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154.9. Regresion lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5. Transformaciones lineales 165.1. Condiciones para las Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 165.2. Nucleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165.3. Clasificacion de las Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.3.1. Monomorfismo(Inyectividad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.3.2. Epimorfismo(Sobreyectividad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.3.3. Isomorfismo(Biyectividad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.4. Matriz asociada a una Transformacion lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185.5. Teorema fundamental de las Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 195.6. Composicion de Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195.7. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6. Autovalores y Autovectores 206.1. Definiciones basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206.2. Autovalores complejos de matriz real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206.3. Multiplicidad geometrica y algebraica de un Autovalor . . . . . . . . . . . . . . . . . . . . . . . 206.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216.5. Autovalores y Autovectores de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . 21
Algebra II (61.08) Pagina 1 de 35
-
INDICE
6.6. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.6.1. Matrices trivialmente diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.6.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236.6.3. Diagonalizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 23
7. Matrices hermticas y simetricas 237.1. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237.2. Descomposicion espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257.3. Subespacios invariantes por una transformacion lineal . . . . . . . . . . . . . . . . . . . . . . . . 25
8. Formas cuadraticas 258.1. Clasificacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268.2. Optimizacion restringida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
9. Descomposicion en Valores Singulares (DVS) 279.1. Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279.2. Subespacios de las DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289.3. Propiedades de las DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299.4. DVS reducida y Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
10. Ecuaciones diferenciales 3010.1. Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3010.2. Identidad de Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3110.3. Existencia y unicidad de Problemas de Valores Iniciales (PVI) . . . . . . . . . . . . . . . . . . . 3110.4. Variables separables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3110.5. Lineales de 1er orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3110.6. Diferencial exacta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3210.7. Lineales homogeneas de orden superior con coeficientes constantes . . . . . . . . . . . . . . . . 3210.8. Lineales no homogeneas de orden superior con coeficientes constantes . . . . . . . . . . . . . . . 33
11. Sistemas de Ecuaciones diferenciales lineales 3311.1. Sistemas homogeneos con A diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3311.2. Sistemas no homogeneos con A diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . 3411.3. Sistemas homogeneos con A no diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Algebra II (61.08) Pagina 2 de 35
-
1 Matrices
1. Matrices
1.1. Propiedades generales
Dadas las matrices A,B,C se tiene que:
A+B = B +A
A+ (B + C) = (A+B) + C
(A+B) = A+ B
(+ )A = A+ A
(A) = ()A
A+ 0n = A
A+ (A) = 0nA(B + C) = AB +AC
(A+B)C = AC +BC
A(BC) = (AB)C
(AB) = (A)B = A(B)
A0n = 0n
Propiedades de matrices
1.2. Propiedades de la inversa, la traza y la traspuesta
Dadas las matrices A,B,C se tiene que:
Propiedades de la inversa:(A1
)1(AB)
1= B1A1
(A)1
=A1
, 6= 0
(An)1
=(A1
)nA1 =
adj(A)|A|
Propiedades de la traza:
tr(A+B) = tr(A)+tr(B)
tr(AB) = tr(BA)
tr(A) = tr(A)
tr(AT ) = tr(A)
Propiedades de la traspuesta:
(A+B)T
= AT +BT
(AB)T
= BTAT(AT)T
= A
(A)T
= AT(AT)1
=(A1
)T
Propiedades de matrices
Algebra II (61.08) Pagina 3 de 35
-
1.3 Propiedades de los determinantes
1.3. Propiedades de los determinantes
Sean A,B Rnm AT = |A| (1.1)|AB| = |A| |B| (1.2)
Si B la obtengo de sumar k veces una fila de A sobre otra:
|B| = |A| (1.3)
Si B la obtengo de intercambiar k veces las fila de A:
|B| = (1)k |A| (1.4)
Si B la obtengo de multiplicar por k, n veces las filas de A:
|B| = kn |A| (1.5)
Si A es una matriz triangular:
|A| =ni=1
aii (1.6)
Propiedades de determinantes
1.4. Subespacios fila, columna y null
Sean A Rnm , B Rrn, se define:Espacio Fila: Fif(A) = {x Rm|x es combinacion lineal de las filas de A}Espacio Columna: Col(A) = {b Rn|Ax = b para alguna x}Espacio nulo: Nul(A) = {x Rm|Ax = 0}
Espacio fila,columna y nulo de matrices
Algebra II (61.08) Pagina 4 de 35
-
1.4 Subespacios fila, columna y null
Propiedades:
Nul(A) = Nul(ATA) = Fil(A) (1.7)
Nul(AT ) = Nul(AAT ) = Col(A) (1.8)
rango (A) = rango(ATA
) ATA (1.9)Dim(Col(A)) = Dim(Fil(A)) (1.10)
Col(A)
Col(A) = Rn (1.11)
Fil(A)
Fil(A) = Rm (1.12)
rango (A) + dim Nul(A) = m (1.13)Col(BA) Col(B), Iguales si rango (A) = n (1.14)Nul(A) Nul(BA), Iguales si rango (B) = n (1.15)Si rango (A) = n rango (BA) = rango (B) (1.16)Si rango (B) = n rango (BA) = rango (A) (1.17)
Col(A)Col(B) ATB = 0 (1.18)
De (1.15) se ve que ATA invertible A invertible
Propiedades de los espacios definidos
Dos matrices A y B son equivalentes si existen otras dos matrices E y F regulares tal que:
A = EBF (1.19)
Dos matrices equivalentes pueden pensarse como dos descripciones de una misma Transformacion Lineal,pero con respecto a bases distintas.
Matrices equivalentes
Dos matrices cuadradas A y B son semejantes (notamos A B) si y solo si existe una matriz P inversibletal que:
B = P1AP ,o (1.20)
A = PBP1 (1.21)
Matrices semejantes
Dos matrices semejantes pueden pensarse como dos descripciones de un mismo operador lineal, pero conrespecto a bases distintas. Estas dos matrices cumplen que:
|A| = |B| (1.22)tr(A) = tr(B) (1.23)
rango (A) = rango (B) (1.24)pA() = pB() (A) = (B) (1.25)
Propiedades de matrices semejantes
Algebra II (61.08) Pagina 5 de 35
-
2 Espacios vectoriales
2. Espacios vectoriales
2.1. Propiedades de los subespacios
S es un subespacio vectorial del espacio VK si y solo si:
0V S (2.1)(X + Y ) S, X,Y V y K (2.2)
Propiedades de los subespacios
2.2. Independencia lineal
El vector x es una combinacion lineal de v1, v2, . . . , vn si:
x =ni=1
ivi (2.3)
Y si a1, . . . , an no son todos nulos.
Combinacion lineal
x es linealmente independiente si:
ni=1
ivi = 0 , y (2.4)
ai = 0i (2.5)
Dos vectores son linealmente dependientes si son proporcionales. Un subconjunto de un conjunto lineal-mente dependiente sigue siendo linealmente dependiente
Independencia lineal
2.3. Operaciones con subespacios
Interseccion: S =ni=1
Si = {x V |x Si , i = 1, . . . , n}
Suma: S =ni=1
Si = gen
{mi=1
Bi
}, donde Bi es una base de Si
Union: S = S1 S2 es un subespacio cuando S1 S2 o S2 S1Suma directa: S1, . . . , Sk estan en suma directa la union de sus bases es base de V
Dos subespacios son suplementarios cuando estan en suma directa y su suma es todo el espacio.
Operaciones con subespacios
Algebra II (61.08) Pagina 6 de 35
-
2.4 Bases
2.4. Bases
Si Dim(V ) = n, {v1, . . . , vn} es base de V si y solo si:
{v1, . . . , vn} genera V (2.6){v1, . . . , vn} son linealmente independientes (2.7)
Bases
2.5. Coordenadas de un vector en una base
Si {v1, . . . , vn} es base de un espacio vectorial B y x =ni=1
ivi, entonces CB(x) = (1, . . . , n)
Dado un vector y una base, las coordenadas de ese vector en esa base son unicas.
v,w V y k K:
CB(v + w) = CB(v) + CB(w) (2.8)CB(k v) = k CB(v) (2.9)
Finalmente {v1, . . . , vn} son linealmente independientes {CB(v1), . . . , CB(vn)} lo son para cualquierbase de B.
Coordenadas de un vector en una base
2.6. Matriz de cambio de base
Sean B = {v1, . . . , vn} y C = {w1, . . . ,wn} bases del espacio V . Las matrices de cambio de base son:
CBC =
| | |CC(v1) CC(v2) . . . CC(vn)| | |
(2.10)CCB =
| | |CB(w1) CB(w2) . . . CB(wn)| | |
= C1BC (2.11)Si B y C son bases ortonormales, entonces CBC es una matriz ortogonal.
Matriz de cambio de base
2.7. Teorema de la dimension
Dados los subespacios S,H y T :
Dim(S +H) = Dim(S) + Dim(H) Dim(S H) (2.12)Dim(S +H + T ) = Dim(S) + Dim(H) + Dim(T ) Dim(S (H + T )) Dim(H T ) (2.13)
Teorema de la dimension
Algebra II (61.08) Pagina 7 de 35
-
3 Producto interno
3. Producto interno
3.1. Axiomas
Sea : VK VK R un producto interno:1. (x, y) K y x, y V2. (x, y) = (y, x) , x, y V3. (x, y) = (x, y) , x, y V y K4. (x, y) = (x, y) , x, y V y K5. (x, y + z) = (x, y) + (x, z) , x, y, z V6. (x, x) 0, (x, y) = 0 x = 0
Axiomas del producto interno
3.2. Producto interno canonico
Se definen los siguientes productos internos para los siguientes espacios vectoriales:
Vectores reales: Rn : (x, y) = xT y
Vectores complejos: Cn : (x, y) = xHy
Matrices reales: Rnm : (A,B) = tr(ATB)
Matrices complejas: Cnm : (A,B) = tr(AHB)
Funciones reales: PR[a, b] : (p, q) = ba
p(t)q(t)dt
Funciones complejas: PC [a, b] : (p, q) = ba
p(t)q(t)dt
Producto interno canonico
3.3. Definiciones
Dados x, y:
(x, y) = 0 xy (3.1)
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
Ortogonalidad
Algebra II (61.08) Pagina 8 de 35
-
3.3 Definiciones
Se define la norma de un vector como:
|x|2 = (x, x) (3.2)
La norma de un vector depende del producto interno, pero cumple las siguientes propiedades:
|x| Rx V|x| 0 (|x| = 0 x = 0)|k x| = |k| |x|Desigualdad de Cauchy-Schwarz:
|(x, y)| |x| |y| , x, y VK (3.3)
La igualdad se cumple si x yDesigualdad triangular:
|x + y| |x|+ |y| (3.4)
Teorema de pitagoras: Si xy entonces:
|x + y|2 = |x|2 + |y|2 (3.5)
La recproca solo vale para R
Identidad del paralelogramo:
|x + y|2 + |x y|2 = 2(|x|2 + |y|2
),x, y V (3.6)
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
norma de un vector
Dado x, y:
cos() =(x, y)|x| |y| (3.7)
Con [0, pi],x, y 6= 0 para espacios vectoriales reales con producto interno.
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
Angulo entre dos vectores
Sea A VK A = {x VK |(x, y) = 0,y A}
Para el calculo del complemento ortogonal a un subespacio de dimension finita, alcanza con exigir laortogonalidad a un sistema de generadores
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
Complemento ortogonal
Algebra II (61.08) Pagina 9 de 35
-
3.4 Matriz asociada al producto interno
Dados x,y, se define la funcion distancia como:
d : VR VR R+ : d(x, y) = |x y| = |y x| (3.8)
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
Distancia entre vectores
3.4. Matriz asociada al producto interno
Sea B = {v1, . . . , vk} base de VK . Entonces G Kkk, gij = (vi, vj) es la matriz de producto interno:
G =
|v1|2
. . . (v1, vk)...
. . ....
(vk, v1) . . . |vk|2
(3.9)Si B es base de VK y G es la matriz del producto interno en esa base, entonces x, y V :
(x, y) = CHB (x) G CB(y) (3.10)
Matriz de producto interno
Dada la matriz G de producto interno se tiene que:
gii 0,i = 1, . . . , k (3.11)GH = H (3.12)
G es definida positiva (3.13)
G1 (3.14)G de una Base Ortogonal (BOG) es una matriz diagonal (3.15)G de una Base Ortonornal (BON) es una matriz identidad (3.16)
Propiedades de la matriz de producto interno
Algebra II (61.08) Pagina 10 de 35
-
4 Proyecciones y matrices de proyeccion
4. Proyecciones y matrices de proyeccion
4.1. Propiedades de la proyeccion
Sea S V yS su complemento ortogonal, entonces x V :
x = uS
+ vS
= PS(x) + PS (x) (4.1)
Se definen las siguientes propiedades:
PS(x) es el vector de S mas proximo a x
PS(v) = v v S y ademas PS(w) = 0 w S
Por pitagoras: |x|2 = |PS(x)|2 +PS (x)2 ,x V
|PS(x)| |x|. Si |PS(x)| = |x| entonces x Sd(x, S) =
PS (x)d(x, S) = |PS(x)|
Propiedades de la proyeccion
4.2. Proyeccion y reflexion
Sea S un subespacio de V , y B = {v1, . . . , vk} una base ortogonal (BOG) de S. Entonces x V :
PS(x) =ki=1
(vi, x)(vi, vi)
vi (4.2)
RS(x) = 2PS(x) x = 2PS(x)(PS(x) + PS (x)
)= PS(x) PS (x) = x 2PS (x) (4.3)
Proyeccion y reflexion
Algebra II (61.08) Pagina 11 de 35
-
4.2 Proyeccion y reflexion
4.2.1. Proyeccion y transformaciones lineales
Sea T : VK VK una transformacion lineal tal que:
Im(PS) = S (4.4)
Nul(PS) = S (4.5)
Y sea B = {v1, . . . , vq S
, vq+1, . . . , vn S
} una base de V, entonces la matriz de la transformacion lineal es:
[PS ]B =
1 . . . 0. . .
...1
0...
. . .0 . . . 0
(4.6)
Tantos 1 como la dimension del espacio sobre el cual proyecto, y tantos 0 como la dimension del comple-mento ortogonal.
Nota: La matriz de un operador proyeccion en una Base Ortonormal (BON) es una matriz de proyeccion. Encualquiera otra base, no lo es.
Proyecciones y Transformaciones lineales
4.2.2. Reflexion y transformaciones lineales
Sea T : VK VK una transformacion lineal tal que:
T (v) = v,v S (4.7)T (v) = v,v S (4.8)
Y sea B = {v1, . . . , vq S
, vq+1, . . . , vn S
} una base de V, entonces la matriz
de la transformacion lineal es:
[T ]B =
1 . . . 0. . .
...11
.... . .
0 . . . 1
(4.9)
Tantos 1 como la dimension del espacio sobre el cual proyecto, y tantos-1 como la dimension del complemento ortogonal.
Nota: La matriz de un operador proyeccion en una Base Ortonormal(BON) es una matriz de proyeccion. En cualquiera otra base, no lo es.
Proyecciones y Transformaciones lineales
Figura 4.1: Proyeccion y reflexion
Algebra II (61.08) Pagina 12 de 35
-
4.3 Matriz de Householder
4.3. Matriz de Householder
La matriz de reflexion sobre un subespacio de dimension n 1 que es ortogonal a un vector w en un espaciode dimension n se puede obtener mediante la expresion:
H = Id 2w wT
wT w (4.10)
Dicha matriz tiene las siguientes propiedades:
Es involutiva: H H = IdEs simetrica: HT = H
Es inversible: H1 y H1 = HEs ortogonal: HTH = HHT = Id
Propiedades de la proyeccion
4.4. Rotaciones en R3
Sea B = {v1, v2, v3} una Base Ortonormal (BON) de R3 y sea T la rotacion grados alrededor del eje vi:
Rotacion sobre v1 : [T ]B =
1 0 00 cos() sin()0 sin() cos()
(4.11)Rotacion sobre v2 : [T ]B =
cos() 0 sin()0 1 0sin() 0 cos()
(4.12)Rotacion sobre v3 : [T ]B =
cos() sin() 0sin() cos() 00 0 1
(4.13)(4.14)
Rotaciones en R3
4.5. Proceso de Gram-Schmidt
Dada una base {x1, x2, . . . , xp} para un subespacio W Rn defina:1. v1 = x1
2. v2 = x2 x2 v1v1 v1 v1
3. vp = xp p1i=1
xp vivi vi vi
Entonces {v1, v2, . . . , vp} es una Base Ortogonal (BOG) de W .
Si luego se divde a cada componente por la norma de la base se obtiene una Base Ortogonal (BON) de W .
Proceso de Gram-Schmidt
Algebra II (61.08) Pagina 13 de 35
-
4.6 Matrices de proyeccion
4.6. Matrices de proyeccion
Utilizando el producto interno canonico de sobre Kn, con K = R o K = C.
P Knn es una matriz de proyeccion si y solo si:
P 2 = P (4.15)
PH = P (4.16)
Dicha matriz tiene las siguientes propiedades:
Col(P ) = Nul(P )
P y = y y Col(P )Si PS es matriz de proyeccion sobre S y PS es matriz de proyeccion sobre S
entonces PS+PS = Id
Las columnas de P son una base del espacio sobre el cual proyectan
rango (P ) = tr(P )
detP 6= 0 si P 6= IdSi P1 y P2 son matrices de proyeccion y P1 P2 = P2 P1 = 0, entonces P1 + P2 es matriz deproyeccion y rango (P1 + P2) = rango (P1) + rango (P2)
Obtencion de la matriz de proyeccion:
1. SeaQ una matriz cuyas columnas son una Base Ortonormal (BON) de S V . Entonces la unica matrizde proyeccion sobre S es [PS ] = Q QT . La matriz de proyeccion sobre S es [PS ] = Id [PS ]
2. Sea B = {v1, . . . , vq} una base de S, y A la matriz que tiene por columnas a v1, . . . , vq . Entonces launica matriz de proyeccion sobre S se obtiene mediante [PS ] = A
(AHA
)1AH = AA#
Matriz de proyeccion
4.7. Inversas y pseudoinversas
Sea A Knq|rango (A) = q. La matriz pseudoinversa de A es A# = (AHA)1AH :Si A es cuadrada invertible, A1 = A#
A# Rqn
A#A = Id(q)
AA# = [P ]Col(A)
Nul(AA#) = [Col(A)]
Propiedades de la pseudoinversa
Algebra II (61.08) Pagina 14 de 35
-
4.8 Cuadrados mnimos
4.8. Cuadrados mnimos
Sea A Knq, x Kq,b Rn. Si Ax = b tiene una solucion extra, entonces b Col(A). Sib / Col(A), intentamos hallar una solucion x Kq (la solucion por cuadrados mnimos) tal que:Ax b < Au b, u Kq
d(Ax,b) d(Au,b), u KqAx b (Son iguales si b Col(A))Ecuaciones normales de cuadrados mnimos: ATAx = ATb =b
Ax = b = PCol(A)(b) si y solo si:
Ax Col(A) (4.17)bAx Col(A) (4.18)
Figura 4.2: Cuadrados mnimos
Cuadrados mnimos
1. Si x = 0 entonces b [Col(A)]. La recproca solo es cierta si A es invertible.2. Si las columnas de A son linealmente independientes, la solucion por cuadrados mnimos es unica y
se obtiene mediante:
x = (ATA)1ATb = A#b (4.19)
Si las columnas deA son linealmente dependientes, el sistemaATAx = AT b tiene infinitas soluciones,y estas son de la forma x = xp + xn
Nul(A)
3. Si b Col(A), entonces toda solucion de Ax = b es una solucion exacta y por cuadrados mnimos
4. El error de aproximacion es igual ab b
Propiedades de Cuadrados mnimos
4.8.1. Norma mnima
La solucion por cuadrados mnimos de norma mnima pertenece al espacio Fil(A)y se obtiene como:
x = A+b (4.20)
Siendo A+ la pseudoinversa de Moore-Penrose de A.
Pseudoinversa de Moore-Pensore
Algebra II (61.08) Pagina 15 de 35
-
4.9 Regresion lineal
4.9. Regresion lineal
Sean los puntos Pi = (xi, yi) con i = 1, 2, . . . , n. La recta que mejor aproxima a los puntos es:
y = 01 + 1x (4.21)
Y los coeficientes i se obtienen resolviendo el sistema:1 x11 x2...
...1 xn
[01
]=
y1y2...yn
(4.22)Si se aproxima por una parabola se agrega otro nivel de complejidad, con y = 2x2 + 1x + 0, lo queimplica una columna adicional a la matriz para los terminos cuadraticos, una fila adicional para la constante2 en la variable.
Se siguen agregando columnas a la matriz y filas al vector tantas veces como grados de complejidad senecesiten.
Regresion lineal
5. Transformaciones linealesSea T `(VK ,WK) y A = [T ]BC con B base de V y C base de W la matriz de T .
5.1. Condiciones para las Transformaciones lineales
Para que una transformacion se considere lineal debe cumplir:
1. T (u + v) = T (u) + T (v), con u, v V2. T (u + v) = T (u) + T (v), con u, v VK y , K3. T (0VK ) = 0VK
Condiciones para ser Transformacion lineal
5.2. Nucleo e Imagen
Nucleo: Nul(T ) = {v VK | T (v) = 0W } = C1B (Nul(A)).Imagen: Im(T ) = {w WK | T (v) = w con v VK} = C1C (Col(A)).
Ambos son subespacios vectoriales.
La imagen de una Transformacion Lineal puede obtenerse como lo que generan los transformados de unabase del espacio de partida.
Nucleo e Imagen
Algebra II (61.08) Pagina 16 de 35
-
5.3 Clasificacion de las Transformaciones lineales
Sea T `(V,W ) y sea Dim(V ) = n (finita). Entonces:
Dim(V ) = Dim(Nul(T )) + Dim(Im(T )) (5.1)
Teorema de la dimension
5.3. Clasificacion de las Transformaciones lineales5.3.1. Monomorfismo(Inyectividad)
Una Transformacion lineal es inyectiva si verifica:
v1 6= v2 T (v1) 6= T (v2) , v1, v2 V (5.2)Nul(T ) = {0V } Dim(Im(T )) = Dim(V ) (5.3)
Una Transformacion Lineal Inyectiva transforma conjuntos Linealmente Independientes a conjuntosLinealmente Independientes.
La recproca tambien es cierta: si A es un conjunto Linealmente Independiente y es transformado en otroconjunto Linealmente Independiente, la Transformacion Lineal es inyectiva. Es decir: Si T es inyectiva y Aes Linealmente Independiente, T (A) es Linealmente Independiente.
Las matrices asociadas a Transformaciones Lineales inyectivas tienen sus columnas Linealmente Indepen-dientes.
Si Dim(V ) > Dim(W ), T no puede ser inyectiva.
Monomorfismo
5.3.2. Epimorfismo(Sobreyectividad)
Una Transformacion lineal es sobreyectiva si y solo si:
Im(T ) = W (5.4)
Las matrices asociadas a Transformaciones lineales sobreyectivas tienen sus filas Linealmente Independien-tes.
Si Dim(W ) > Dim(V ), T no puede ser sobreyectiva.
Epimorfismo
Algebra II (61.08) Pagina 17 de 35
-
5.4 Matriz asociada a una Transformacion lineal
5.3.3. Isomorfismo(Biyectividad)
Una Transformacion lineal es biyectiva si y solo si:
Dim(W ) = Dim(V ) (5.5)Nul(T ) = {0V } (5.6)
Es decir, si es Inyectiva y Sobreyectiva a la vez.
T es biyectiva si {v1, . . . , vn} es base de V {T (v1), . . . , T (vn)} es base de WLa matriz asociada a una Transformacion lineal biyectiva tiene sus filas y columnas Linealmente Inde-pendientes, o sea que es una matriz inversible, es decir, existe una transformacion lineal inversa T1 = [T ]1
Si Dim(V ) = Dim(W ), entonces o bien T es inyectiva y sobreyectiva, o no es ninguna de las dos.
Biyectividad
5.4. Matriz asociada a una Transformacion lineal
Sea T `(VK ,WK), sea B = {v1, . . . , vq} base de V y C = {w1, . . . ,wm} base de W . Entonces T sepuede escribir como T (x) = Ax, con A Kmq tal que:
A = [T ]BC =
| | |CC(T (v1)) CC(T (v2)) . . . CC(T (vq))| | |
(5.7)Dicha matriz posee las siguientes propiedades:
[T ]BC CB(v) = CC(T (v)) ,v Vv Nul(T ) CB(v) Nul(A)w Im(T ) CC(w) Col(A)Dim(Im(T )) = rango (A)
Matriz de la Transformacion lineal
Sean V y W K-espacios vectoriales (K = R o C). Sea T : V W .
Si B1 y B2 son bases ordenadas de V , y C1 y C2 son bases ordenadas de W , entonces:
rango ([T ]B1C1) = rango ([T ]B2C2) (5.8)
Teorema para matrices de Transformacion lineal
Algebra II (61.08) Pagina 18 de 35
-
5.5 Teorema fundamental de las Transformaciones lineales
5.5. Teorema fundamental de las Transformaciones lineales
Sea B = {v1, . . . , vn} base de V y w1, . . . ,wn vectores deW . Entonces existe y es unica la Transformacionlineal que verifica:
T (vi) = wi , i = 1, . . . , n (5.9)
Ademas, dada una Transformacion lineal y un par de bases, existe una unica matriz asociada.
La recproca tamben es verdadera: dada una matriz y un par de bases, existe una unica Transformacion linealasociada.
Teorema fundamental de las Transformaciones lineales
5.6. Composicion de Transformaciones lineales
Sea f `(V,W ) y g `(W,H) g f (V,H). Podemos encontrarla siguientes propiedades:
Nul(f) Nul(g f) (5.10)Im(g f) Im(g) (5.11)
Composicion de Transformaciones lineales
Figura 5.1: Composicion
5.7. Operadores lineales
Un operador lineal es una Transformacion lineal que va de un espacio en si mismo, se escrbe como T `(V )y cuenta con las siguientes propiedades:
Si T1 `(V ) y T2 `(V ), entonces T1 T2 `(V )Si T `(V ), Tn = T T . . . T
n veces
Operadores lineales
Algebra II (61.08) Pagina 19 de 35
-
6 Autovalores y Autovectores
6. Autovalores y Autovectores
6.1. Definiciones basicas
Autovector: Un vector v 6= 0 es autovector de A Knn K | Av = v
Autoespacio: El autoespacio de A asociado a un autovalor es S(A) = Nul(A I)
Polinomio caracterstico: El polinomio caracterstico de una matriz A Knn es pA() = |A I|, ytiene grado n. Si K = R el polinomio tiene a lo sumo n races. Si K = C tiene exactamente n races.
Autovalor: Los autovalores de una matriz son las races de su polinomio caracterstico.
Espectro de una matriz: (A) = { K | es autovalor de A}.
Definiciones basicas
6.2. Autovalores complejos de matriz real
Supongamos que v es un autovector de A Rnn asociado a = a+ b con a, b R, b 6= 0.Entonces v es tambien un autovector de A Rnn asociado a = a b.
En particular si {v1, . . . , vn} es una base de S, entonces {v1, . . . , vn} es una base de S
Autovalores complejos
6.3. Multiplicidad geometrica y algebraica de un Autovalor
Se define:
mg() = Dim(S(A))
ma().= numero de veces que aparece como raz del polinomio caracterstico.
Siempre se verifica que:
1 mg() ma() (6.1)
Multiplicidad de Autovalores
Algebra II (61.08) Pagina 20 de 35
-
6.4 Propiedades
6.4. Propiedades
Sea A Knn:A es singular 0 es un autovalor de A mg(0) = n k rango (A) = k < nDos autovectores asociados a autovalores distintos son Linealmente Independientes
Si A K2x2, entonces pA() = 2 tr(A)+ |A|Si todas las filas o columnas de A sumas s, entonces s es autovalor de A.
Sea p(t) un polinomio de grado k. Si es autovalor de A, entonces se cumple que p() es autovalorde p(A), y para cada autovalor de p(A) existe un autovalor de A tal que p() = .
Si es autovalor de A:
es autovalor de AT 1 es autovalor de A1 y S1
(A1
)= S(A)
r es autovalor de r A k es autovalor de Ak, con k N + r es autovalor de A+ r I
Propiedades de Autovalores y Autovectores
6.5. Autovalores y Autovectores de operadores lineales
T : VK VK . Un vector v 6= 0 es autovector de T T (v) = v, con autovalor de T .S(T ) = {x V | T (x) = x y autovalor de T} = Nul(T I). Si B es base de V y A es la matriz deT en esa base, entonces:
(A) = (T )B base de V (6.2)x es autovector de T CB(x) es autovector de [T ]B = A (6.3)
Se deducen las siguientes propiedades:
T (x) = x Tn(x) = nx, n NSi es autovalor de T , 1 es autovalor de T1
Si h es un polinomio en K y T (x) = Ax, entonces:
[h(A)] = h[(A)] (6.4)Sh()h(A) = S(A) (6.5)
T : VK VK es regular 0 / (T )
Autovalores y Autovectores de Operadores lineales
Algebra II (61.08) Pagina 21 de 35
-
6.6 Diagonalizacion
6.6. Diagonalizacion
Los siguientes enunciados son equivalentes para definir si A Knn es diagonalizable:A D una base de Kn compuesta por autovectores de AA tiene n autovalores Linealmente Independientes
mg() = ma() (A)P invertible y D diagonal tal que:
A = PDP1 (6.6)
Siendo P la matriz de autovectores y D la matriz diagonal de autovalores.
Diagonalizacion
6.6.1. Matrices trivialmente diagonalizables
Matriz nula:
Autovalores: 0 Autovectores: Cualquier vector no nulo
Matriz identidad:
Autovalores: 1 Autovectores: Cualquier vector no nulo
Matriz diagonal:
Autovalores: aii, los elementos de la diagonal Autovectores: Los que tienen sus componentes nulas, excepto la n-esima.
Matriz escalar:
Autovalores: k R Autovectores: Cualquier vector no nulo
Matriz de proyeccion:
Autovalores: 1 con ma(1) = mg(1) = Dim(S) y 0 con ma(0) = mg(0) = Dim(S) Autovectores: Los vectores de S asociados a 1 y los asociados a S a 0
Matriz de reflexion:
Autovalores: 1 con ma(1) = mg(1) = Dim(S) y -1 con ma(0) = mg(0) = Dim(S) Autovectores: Los vectores de S asociados a 1 y los asociados a S a -1
Diagonalizaciones triviales
Algebra II (61.08) Pagina 22 de 35
-
7 Matrices hermticas y simetricas
6.6.2. Propiedades
Si A es diagonalizable entonces An es diagonalizable (DnA = DAn y (An) = n(A)). La recproca
es falsa
Si A Cnn tiene n autovalores distintos entonces A es diagonalizable. La recproca es falsa
|A| =ni=1
i = pA(0)
tr(A) =ni=1
i
Propiedades de la diagonalizacion
6.6.3. Diagonalizacion de transformaciones lineales
Los siguientes enunciados son equivalentes para decir que T `(VK) con Dim(VK) = n, es diagonalizable:B base de VK tal que [T ]B es diagonalB base de VK formada por autovectores de TT tiene n autovectores Linealmente Independientes
Esa base B y [T ]B = diag((T )).
Si A = [T ]H , H cualquiera base, entonces T es diagonalizable si y solo si A es diagonalizable.
Diagonalizacion de Transformaciones Lineales
7. Matrices hermticas y simetricas
7.1. Diagonalizacion
Matriz antisimetrica: Si A Rnn es antisimetrica (AT = A) entonces:Los autovalores de A son imaginarios puros o nulos
Los autovectores asociados a autovalores distintos son ortogonales
A es diagonalizable unitariamente.
Matriz antisimetrica
Algebra II (61.08) Pagina 23 de 35
-
7.1 Diagonalizacion
Matriz simetrica(hermtica): Si A Rnn es simetrica (B Cnn es hermtica) si y solo si:A es diagonalizable ortogonalmente:
A = PDPT (7.1)
B es diagonalizable unitariamente:
B = PDPH (7.2)
Con D real.
Se deducen las siguientes propiedades:
A y B tienen n autovalores reales
Los elementos de la diagonal de A y B son reales
|A| RDim(S(A)) = ma() (A)Dim(S(B)) = ma() (B)Los autovectores asociados a autovalores distintos son ortogonales
Matriz simetrica(hermtica)
Matriz ortogonal(unitaria): Si A Rnn es ortogonal (B Cnn es unitaria) si y solo si:
AAT = ATA = Id (7.3)
AT = A1 (7.4)o BB
H = BHB = Id (7.5)
BH = B1 (7.6)
Las columnas de A y B son Base Ortonormal de Rn y Cn respectivamente.
Se deducen las siguientes propiedades:
|A| = 1. Si |A| = 1, A es la matriz de rotacionLos autovalores tienen modulo 1 y pueden ser reales o complejos
Son matrices unitariamente diagonalizables
Los autovectores asociados a autovalores distintos son ortogonales
Preservan los productos internos: (Ax, Ay) = (x, y)
Preservan las normas asociadas al producto interno: |Ax| = |x|Si C es unitaria, BC y CB son unitarias tambien.
Matriz ortogonal(unitaria)
Algebra II (61.08) Pagina 24 de 35
-
7.2 Descomposicion espectral
7.2. Descomposicion espectral
Si A = PDP1 = PDPT , las columnas de P son autovectores ortonormales u1, . . . ,un de A y losautovalores correspondientes 1, . . . , n estan en la matriz diagonal D. Entonces:
A =
ni=1
iuiuTi (7.7)
Descomposicion espectral de matrices simetricas
7.3. Subespacios invariantes por una transformacion lineal
S Kn es invariante por A Knn x S | Ax SS V es invariante por T `(V ) x S | T (x) S
Se deducen las siguientes propiedades:
Si es autovalor de T , entonces S(T ) es un subespacio invariante por T , puesto que:
x S(T ) T (x) = x S(T ) (7.8)
No todo subespacio invariante es un autoespacio de T , pero s los de dimension 1
Subespacios invariantes por una transformacion lineal
8. Formas cuadraticas
Una forma cuadratica en Rn es una funcion Q : Rn R tal que:
Q(x) = xTAx (8.1)
Donde A es una matriz simetrica Rnn.
Formas cuadraticas
Sea A una matriz simetrica Rnn. Entonces existe un cambio ortogonal de variable, x = Py, donde P esuna matriz ortogonal tal que |P | = +1 e y es el nuevo vector, que transforma la forma cuadratica xTAx auna forma cuadratica yTDy sin terminos cruzados:
xTAx = (Py)T A (Py) = yT PTAP D
y = yTDy = g(y) (8.2)
Teorema de los ejes principales
Algebra II (61.08) Pagina 25 de 35
-
8.1 Clasificacion
Sea la forma cuadratica Q(x) = xTAx, con A = PDPT .
El conjunto de todas las x Rn | xTAx = c es una elipse, una hiperbola, dos rectas, un punto o ninguno.
Si A es diagonal, la grafica esta en posicion estandar. Si A no es diagonal, la grafica esta girada hasta salirsede la posicion estandar. Los ejes principales son los autovectores deA y son el nuevo sistema de coordenadaspara los cuales la grafica esta en posicion estandar.
Perspectiva geometrica de los ejes principales
8.1. Clasificacion
Una forma cuadratica Q(x) = xTAx es:
Definicion Criterio I Criterio II
Definida positiva Q(x) > 0,x 6= 0a11 > 0,|A| > 0 Autovalores de A positivos
Semidefinida positiva Q(x) 0,x|Ak| 0,
k = 1, . . . , nAutovalores de A positivos o nulos
Definida negativa Q(x) < 0,x 6= 0a11 < 0,|A| > 0 Autovalores de A negativos
Semidefinida negativa Q(x) 0,x|Ak| 0,
k = 1, . . . , nAutovalores de A negativos o nulos
Indefinida Q(x) 0 Autovalores de A negativos y/o positivos
Clasificacion de las formas cuadraticas
Algebra II (61.08) Pagina 26 de 35
-
8.2 Optimizacion restringida
8.2. Optimizacion restringida
Sea la forma cuadratica Q(x) = xTAx, con A simetrica. Se verifica:
min(A) Q(x) x 2 max(A) (8.3)
Sea extremar una forma cuadratica f : Rn R, f(x) = xTAx, (A simetrica), sujeto a la restriccion |x| = .
El maximo de f es max(A)2 y se alcanza en M = {x Smax(A) | |x| = }
El mnimo de f es min(A)2 y se alcanza en m = {x Smin(A) | |x| = }
Sea extremar una forma cuadratica f : Rn R, f(x) = xTAx,(A simetrica), sujeto a la restriccionxTBx = 2, y sea B definida positiva tal que B = PBDBPTB . Mediante el cambio de variable y =DBP
TB x x =
D1B PBy, esto es equivalente a extremar g(y) = y
T
(D1B
T
PTBAPB
D1B
)y
sujeto a la restriccion |y| = . Entonces:
Max g(y) = Max f(x) (8.4)mn g(y) = mn f(x) (8.5)
Los x en donde se alcanza ese extremo se hallan realizando x = PBy
Teorema de Rayleigh
9. Descomposicion en Valores Singulares (DVS)
9.1. Definicion
Valores singulares: Se define como:
V S(A) =i , i (ATA) (9.1)
Sea A una matriz de m n con rango r. Entonces existe una matriz , y existen una matriz U ortogonal demm y una matriz V ortogonal de n n tales que A = UV T donde:
Rmn es tal que =[D 00 0
], y la matriz diagonal D tiene como elementos a los primeros r
valores singulares de ATA, ordenados en forma descendente i . . . r > 0.V Rnn es una matriz cuyas columnas son unas Base Ortonormal (BON) de autovectores{v1, . . . , vn} asociados a los autovalores de ATA.
U Rmm es una matriz cuyas primeras r columnas son los vectores Av11
, . . . ,Avrr
. Las otras
columnas se obtienen completando la Base Ortonormal (BON) de Rm. Las columnas de U son auto-vectores de AAT
Descomposicion en Valores Singulares (DVS)
Algebra II (61.08) Pagina 27 de 35
-
9.2 Subespacios de las DVS
9.2. Subespacios de las DVS
Sea A Kmn:
A =
| |u1 . . . um| |
mm
D . . . 0... . . . 00 0 0
mn
| |v1 . . . vn| |
T
nn
(9.2)
Si rango (A) = r entonces:
{ u1, . . . ,ur BON de Col(A)
,
BON de Col(A) ur+1, . . . ,um} (9.3)
{ v1, . . . , vr BON de Fil(A)
,
BON de Fil(A) vr+1, . . . , vm} (9.4)
Subespacios de la DVS
Algebra II (61.08) Pagina 28 de 35
-
9.3 Propiedades de las DVS
9.3. Propiedades de las DVS
rango (A) = rango () = rango(T)
= #V S(A)>0
A Rnn es inversible A tiene n V S positivosV S(A)>0 = V S(A
T )>0
Si A Rnn |A| =ni=1
V Si(A)
Si A es cuadrada y definida positiva (A) = V S(A)Si A B V S(A) = V S(B)Si B es ortogonal A,AB y BA tienen los mismos valores singularesSi A es cuadrada y simetrica V Si(a) = |i(A)|Si las filas de A son una Base Ortonormal (BON), los valores singulares no nulos de A son 1
Si las columnas de A son una Base Ortonormal (BON), los valores singulares de A son 1
La matriz ATA (Matriz de Gram de A) es siempre simetrica y semidefinida positiva, con lo cual nun-ca tendra valores singulares negativos. Sera definida positiva cuando A tenga columnas LinealmenteIndependientes.
Sea T : Rm Rn una transformacion lineal tal que T (x) = Ax. Sea la forma cuadratica f(x) =|T (x)|2 = xT (ATA)x. Entonces: El maximo de f(x) sujeto a |x| = 1 es max
(ATA
). Entonces el maximo de |T (x)| es
V Smax(A) y se alcanza en M = {x Rm | x Smax(ATA
), |x| = 1}
El mnimo de f(x) sujeto a |x| = 1 es min(ATA
). Entonces el mnimo de |T (x)| es V Smin(A)
y se alcanza en m = {x Rm | x Smin(ATA
), |x| = 1}
Propiedades de la DVS
9.4. DVS reducida y Pseudoinversa
Sea A Rnm. Si A = UV T y rango (A) = r. Entonces una Descomposicion en Valores Singularesreducida (DVSr) de A es:
A = UrrVTr (9.5)
Siendo Ur Rnr,r Rrr,V Tr Rrm
DVS reducida
Algebra II (61.08) Pagina 29 de 35
-
10 Ecuaciones diferenciales
Se define la pseudoinversa de Moore-Pensore como:
A+ = Vr1r U
Tr (9.6)
Sea A Rnm, se deducen las siguientes propiedades:A+ = A# cuando rango (A) = m
A+A = VrVTr = PFil(A)
AA+ = UrUTr = PCol(A)
Pseudoinversa de Moore-Penrose
10. Ecuaciones diferenciales
10.1. Wronskiano
SeaA = {f1, . . . , fq} funciones definidas en un invervalo I R, a valores en C, con derivada hasta el ordenq 1 continua en I . La matriz de Wronski de A es,para cada x I
MwA(x) =
f1(x) . . . fq(x)f 1(x) . . . f
q(x)
f 1 (x) . . . fq (x)
......
f(q1)1 (x) . . . f
(q1)q (x)
(10.1)
Se define al Wronskiano como:
wA(x) = |MwA | =
f1(x) . . . fq(x)f 1(x) . . . f
q(x)
f 1 (x) . . . fq (x)
......
f(q1)1 (x) . . . f
(q1)q (x)
(10.2)
Se deducen las siguientes propiedades:
Si existe un x0 I tal que wA(x0) 6= 0, entonces las funciones f1, . . . , fq son Linealmente Indepen-dientes
Si un conjunto es Linealmente Dependiente en I , su wronskiano es la funcion nula. La recproca esfalsa; es verdadera solo si las funciones que componen el wronskiano son soluciones de una EcuacionDiferencial lineal de orden superior
La derivada del wronskiano es el determinante obtenido derivando la ultima fila.
La derivada del wronskiano es la suma de q determinantes.
Matriz de Wronski
Algebra II (61.08) Pagina 30 de 35
-
10.2 Identidad de Abel
10.2. Identidad de Abel
Sea la ecuacion diferencial y(x)(n)+an1 y(x)(n1)+ . . .+a1 y(x)+a0 y(x) = 0 en un intervalo I R,sea S = {y1, . . . , yn} el conjunto de las soluciones de la ecuacion diferencial, y sea Ws el Wronskiano deeste conjunto. Entonces se verifica que:
W s(x) = an1 Ws(x) (10.3)
Identidad de Abel
10.3. Existencia y unicidad de Problemas de Valores Iniciales (PVI)
Sea el problema any(x)(n) + an1 y(x)(n1) + . . . + a1 y(x) + a0 y(x) = f(x) sujeto a la condicioninigial y(x0) = y0. La condicion de existencia y unicidad de la solucion del problema de valores iniciales es:
Ecuacion diferencial normal en I : an 6= 0,x I (10.4)x0 I (10.5)
Problemas de Valores Iniciales
10.4. Variables separables
y(x) =f(x)g(y)
dy
dx=f(x)g(y)
g(y)dy = f(x)dxG(y) = F (x) + c
Ecuacion diferencial
Derivada con diferenciales
Separo las variablesIntegro
Variables separables
10.5. Lineales de 1er orden
Obtenemos primero la solucion general de la homogenea yH y luego una particular de la no homogenea yP .La solucion buscada sera yG = yH + yP
La solucion de la ecuacion homogenea asociada a y = p(x)y = 0 es de variables separables, unasolucion es yH(x) = e
p(x)dx
La solucion no homogenea se obtiene multiplicando toda la ecuacion por el factor integrante de La-grange:
u(v) = ep(x)dx (10.6)
Y la ecuacion a resolver sera [u(v) y(x)] = u(v) q(x)
Lineales de 1er orden
Algebra II (61.08) Pagina 31 de 35
-
10.6 Diferencial exacta
10.6. Diferencial exacta
Son del tipo P (x, y)dx+Q(x, y)dy = 0.
Es diferencial exacta si existe f(x, y) tal que df = P (x, y)dx+Q(x, y)dy, es decir si:
df
dx= P (x, y) (10.7)
df
dy= Q(x, y) (10.8)
En ese caso, la solucion general es f(x, y) = C. Se cumple que la ecuacion anterior es diferencial exacta si
y solo sidP
dy=dQ
dx
Se dice ademas que (x, y) es un factor integrante de la ecuacion P (x, y)dx+Q(x, y)dy = 0 si al multiplicarla ecuacion por (x, y) la ecuacion resulta diferencial exacta.
Diferencial exacta
10.7. Lineales homogeneas de orden superior con coeficientes constantes
Son del tiponi=0
ai y(i)(t) = 0, t I .
Polinomio caracterstico: p() =ni=0
aini
Espectro de la ecuacion diferencial: (p) = { C | p() = 0}
yH(t) = tket es una solucion de la Ecuacion diferencial si (p), con multiplicidad m,
k = 0, 1, . . . ,m 1
Si la ecuacion diferencial es de coeficientes reales, las races del polinomio caracterstico apareceran conju-gadas. Es decir: 1,2 = .Luego:
y1(t) = et (cos(t) + sin(t))
y2(t) = et (cos(t) sin(t))
Entonces, gen{y1, y2} = gen{et cos(t), et sin(t)}
Lineales homogeneas de orden superior con coeficientes constantes
Algebra II (61.08) Pagina 32 de 35
-
10.8 Lineales no homogeneas de orden superior con coeficientes constantes
10.8. Lineales no homogeneas de orden superior con coeficientes constantes
Son del tiponi=0
ai y(i)(t) = f(x).
La solucion es de la forma yG(x) = yH(x) + yP (x), donde yH(x) se obtiene del caso anterior, e yP (x) seobtiene mediante algunos de estos metodos:
Metodo de variacion de parametros: Aplicable en cualquier caso.
yP (t) =
ni=1
ui(x) yi(x), siendo yi(x) las soluciones de yH(x), y ui(x) las funciones que satisfacen:
y1 y2 . . . yny1 y
2 . . . y
n
......
. . ....
y(n)1 y
(n)2 . . . y
(n)n
u1u2...un
=
00...
f(x)
an
(10.9)
Metodo de coeficientes indeterminados: Aplicable cuando f(x) es exponencial, polinomica otrigonometrica.
Siendo a2y(t) + a1y(t) + a0y(t) = f(x), con f(x) =ki=1
pi(x) emix, yP (t) =ki=1
qi(x) emix
Si emkx no es solucion de la Ecuacion diferencial ordinaria homogenea asociada (i.e. mk no essolucion de a22 + a1+ a0 =), qk es un polinomio de grado pk con coeficientes a determinar
Si emkx si es solucion de la Ecuacion diferencial ordinaria homogenea asociada (i.e. mk no essolucion de a22 + a1+ a0 =), qk es un polinomio de un grado mayor que pk con coeficientesa determinar
Una vez armada la yP (t) se reemplaza en la ecuacion diferencial original, e igualando los termi-nos semejantes se hallan los coeficientes indeterminados.
Lineales no homogeneas de orden superior con coeficientes constantes
11. Sistemas de Ecuaciones diferenciales lineales{x(t) = a11x+ a12y + b1y(t) = a21x+ a22y + b2
[x
y
]=
[a11 a12a21 a22
] [xy
]+
[b1b2
] X = AX +B
11.1. Sistemas homogeneos con A diagonalizable
La solucion de X = AX +B, (A Knn, con i autovalor de A y vi autovector de A asociado a i,es:
X =
ni=1
civieit =
| |v1e1t . . . vnent| |
(t)Knn
c1...cn
C
(11.1)
Sistemas homogeneos con A diagonalizable
Algebra II (61.08) Pagina 33 de 35
-
11.2 Sistemas no homogeneos con A diagonalizable
11.2. Sistemas no homogeneos con A diagonalizable
Sea el sistema X = AX +B. La solucion es XG = XH +XP con:
XH =
ni=1
civieit = (t)C
XP = (t) u(t), siendo u(t) tal que (t) u(t) = B
Sistemas no homogeneos con A no diagonalizable
11.3. Sistemas homogeneos con A no diagonalizable
Sea el sistemaX = AX . ConA no diagonalizable, proponemos una factorizacion de la formaA = PJP1,donde J Cnn es la matriz de Jordan de A que tiene la siguiente estructura en bloques:
J =
J1 0 0 00 J2 0 0...
.... . . 0
0 0 . . . Jl
(11.2)Donde cada bloque Ji es una matriz de ki ki de la forma:
Ji =
i 1 0 00 i 1 0...
.... . . 1
0 0 . . . i
(11.3)Para algun autovalor i de A.
Dado un autovalor i, su multiplicidad geometrica es el numero de bloques de Jordan correspondientes a i,y su multiplicidad algebraica es la suma de los tamanos de los bloques correspondientes a ese autovalor.
Luego: X = AX X=PY PY = PJP1PY Y = JY . Resolvemos este sistema y la solucion general
del problema se expresara como X(t) = PY (t)
Sistemas no homogeneos con A diagonalizable
A necesariamente posee un autovalor doble R de multiplicidad geometrica 1, con lo cual la matriz Jposee un solo bloque correspondiente a :
J =
[ 10
](11.4)
Respecto de la matriz P = [v1, v2] debe ser inversible y AP = PJ . La matriz P se obtiene hallandoun par de vectores v1 y v2 Linealmente Independientes que satisfagan las condiciones (A I) v1 = 0 y(A I) v2 = v1. Observamos que v1 es autovector de A asociado a
Sistemas no homogeneos con A R22 no diagonalizable
Algebra II (61.08) Pagina 34 de 35
-
11.3 Sistemas homogeneos con A no diagonalizable
1. A tiene un autovalor triple R de multiplicidad geometrica 1. En este caso:
J =
1 00 10 0
(11.5)Respecto de P = [v1, v2, v3], estos autovectores deben ser Linealmente independientes y satisfacer lascondiciones:
(A I) v1 = 0 (11.6)(A I) v2 = v1 (11.7)(A I) v3 = v2 (11.8)
Observemos que v1 es autovector de A asociado a
2. A tiene un autovalor triple R de multiplicidad geometrica 2. En este caso:
J =
1 00 00 0
(11.9)Respecto de P = [v1, v2, v3], estos autovectores deben ser Linealmente independientes y satisfacer lascondiciones:
(A I) v1 = 0 (11.10)(A I) v2 = v1 (11.11)(A I) v3 = 0 (11.12)
Observemos que v1 y v3 son autovectores de A asociados a
3. A tiene un autovalor doble R de multiplicidad geometrica 1 y un autovalor R simple. En estecaso J debe tener dos bloques de Jordan
J =
1 00 00 0
(11.13)Respecto de P = [v1, v2, v3], estos autovectores deben ser Linealmente independientes y satisfacer lascondiciones:
(A I) v1 = 0 (11.14)(A I) v2 = v1 (11.15)(A I) v3 = 0 (11.16)
Observemos que v1 y v3 son autovectores de A asociados a y respectivamente.
Sistemas no homogeneos con A R33 no diagonalizable
Algebra II (61.08) Pagina 35 de 35