AplicLineales4.pdf
Transcript of AplicLineales4.pdf
BLOQUE 2. ÁLGEBRA LINEAL. APLICACIONES LINEALES Y
DIAGONALIZACIÓN(*)
• Aplicaciones lineales.
• Expresión matricial de una aplicación lineal.
• Diagonalización.
En contextos como Sistemas Dinámicos o procesos de cadenas de Markov es preciso
conocer la forma general de una potencia o la exponencial de una matriz cuadrada A, lo
que no resulta fácil de obtener a no ser que la matriz sea diagonal o diagonal por
bloques. Pero si A se puede expresar como producto de tres matrices en la forma
A=PDP-1
con D diagonal
1
00
00
00
−
= P
c
b
a
PA
L
MMM
L
L
entonces:
1
1
00
00
00
00
00
00
−
−
=
=
=
P
c
b
a
P
P
c
b
a
PA
k
k
k
k
k
L
MMM
L
L
L
MMM
L
L
En este tema se abordará la diagonalización de una matriz cuadrada A, es decir será
posible encontrar bajo determinadas circunstancias, si A=PDP-1
con D diagonal.
Para ello es necesario manejar los conceptos de aplicación lineal, matriz asociada a una
aplicación lineal y vector y valor propio.
1. Aplicaciones lineales
Sea mn IRIRf →: una aplicación de IRn en IRm
que a todo vector nIRx ∈ asocia un
vector mIRy ∈ . Se escribe entonces )(xfy = .
Se dice que f es una aplicación lineal si se cumplen las dos condiciones siguientes:
IRIRxxfxf
IRxxxfxfxxfn
n
∈∀∈∀=
∈∀+=+
λλλ ,)()(
',)'()()'(
relaciones llamadas axiomas de linealidad.
De esta definición se deduce inmediatamente la siguiente caracterización de las
aplicaciones lineales:
Es condición necesaria y suficiente para que una aplicación mn IRIRf →: sea una
aplicación lineal que se cumpla:
( ) ( ) ( )'',,,', xfxfxxfIRIRxx n βαβαβα +=+∈∀∈∀ .
La propiedad anterior se puede extender a una combinación lineal de cualquier número
de sumandos, y se puede enunciar diciendo que una aplicación entre espacios
vectoriales es una aplicación lineal si y sólo si transforma combinaciones lineales de
vectores de IRn en las combinaciones lineales de las imágenes en IRm
de esos vectores,
con los mismos coeficientes.
Imagen de una aplicación lineal
Sea mn IRIRf →: una aplicación de IRn en IRm
y sean nIR0 y mIR0 los elementos nulos
de IRn y IRm
respectivamente. Se cumplen las siguientes propiedades:
i) ( ) mn IRIRf 00 = .
ii) ( ) ( )xfxf −=− .
iii) La imagen por f de un subespacio vectorial de IRn es un subespacio vectorial
de IRm. Esto es, si U ⊂ IRn
es un subespacio vectorial de IRn , entonces f(U)
es un subespacio vectorial de IRm.
En particular, la imagen de f, Im(f) = f(IRn ) es un subespacio vectorial de
IRm.
{ }nm IRxIRxfyfIm ∈∈== /)()( .
iv) Si S = { }ree ,,1 K es un sistema de generadores de un subespacio vectorial U
de IRn , f(S) = ( ) ( ){ }refef ,,1 K es un sistema de generadores del subespacio
vectorial f(U) de IRm.
Núcleo de una aplicación lineal
Sea mn IRIRf →: una aplicación de IRn en IRm
. Se llama núcleo de f al conjunto,
Ker(f), de los vectores de IRn cuya imagen por f es el vector mIR0 :
{ }mIRxfIRxfKer n
0)(/)( =∈= .
El núcleo Ker(f) de una aplicación lineal nunca es vacío, ya que al menos contiene al
vector 0 de IRn. (Denotaremos con 0 tanto el vector nulo de IRn
como el de IRm, distin-
guiéndose uno del otro por el contexto).
Se cumplen las siguientes propiedades:
i) El núcleo Ker(f) de toda aplicación lineal mn IRIRf →: es un subespacio
vectorial de IRn.
ii) Si mn IRIRf →: es una aplicación lineal del espacio vectorial IRn en el
espacio vectorial IRm,
dim Ker(f) = dim IRn − dim Im(f)=n- dim Im(f)
o bien,
dim Ker(f) + dim Im(f)= n
A la dimensión de Im(f) se le suele llamar el rango de la aplicación lineal f.
2. Expresión matricial de una aplicación lineal
Sea mn IRIRf →: una aplicación lineal de IRn en IRm
. Sean { }nuuB ,,11 K= una base
de IRn y { }mwwB ,,12 K= una base de IRm
. Por último consideremos las imágenes por f
de los vectores de la base B1:
nn aufauf == )(,,)( 11 K
Estas imágenes son vectores de IRm y, por tanto, son combinaciones lineales de los
elementos de la base B2.
mnmnnn
mm
mm
wawawauf
wawawauf
wawawauf
+++=
+++=
+++=
L
M
L
L
2211
22221212
12121111
)(
)(
)(
Cualquier vector nIRx ∈ es combinación lineal de los vectores de la base B1:
nn uxuxuxx +++= L2211
Por tanto:
mnmnmm
nn
mnmnnn
mm
mm
nn
waxaxax
waxaxax
wawawax
wawawax
wawawax
ufxufxufxxfy
)(
)(
)(
)(
)(
)()()()(
2211
11212111
2211
22221212
12121111
2211
++++
++++=
=++++
++
+++++
++++=
=+++==
LL
L
L
LLL
L
L
Lr
En consecuencia, las coordenadas de mIRxfy ∈= )(r
respecto de B2 son:
),,,( 21 myyyy Lr
= con
nmnmmm
nn
axaxaxy
axaxaxy
+++=
+++=
L
L
L
2211
12121111
Matricialmente:
=
nnmmm
n
m x
x
aaa
aaa
y
y
M
L
LLLL
L
M
1
21
121111
o abreviadamente: Y=AX.
A la matriz A se le llama matriz asociada a la aplicación lineal f respecto de las bases B1 y B2 de IRn y IRm
. Esta matriz queda determinada por f de forma sencilla, ya que sus
columnas son precisamente las coordenadas respecto de B2 de las imágenes por f de los
vectores de la base B1.
Cambio de bases en una aplicación lineal
Sea mn IRIRf →: una aplicación lineal de IRn en IRm
que tiene como matriz asociada
respecto a las bases B1 y B2 de IRn y IRm, respectivamente, la matriz A, expresándose la
aplicación lineal f en la forma matricial Y = AX.
Sea B’1 otra base de IRn y P la matriz cambio de base B’1 a B1, es decir, que entre la
matriz columna de coordenadas X de un vector nIRx ∈ en B1 y la de las coordenadas X’
del mismo vector en B’1 se tiene la relación X = P X’.
Sea B’2 otra base de IRm y Q la matriz cambio de base B’2 a B2, de modo que la relación
entre las coordenadas de un vector en B2 y sus correspondientes en B’2 es Y = QY’.
Respecto de las bases B’1 y B’2 de IRn y IRm
, la aplicación lineal f tendrá asociada otra
matriz A’, es decir, respecto de estas bases, la aplicación lineal f se expresará así: Y’ =
A’ X’.
Buscamos la relación que pueda existir entre A y A’. Para ello, sustituyendo en la rela-
ción Y = AX las matrices de coordenadas X = P X’ e Y = QY’, se tiene:
QY’=APX’
y puesto que Q es regular, multiplicando a la izquierda por Q-1
, se tiene:
Y’=Q-1
APX’
por lo que la nueva matriz asociada a f en las bases B’1 y B’2 es:
A’= Q-1
AP
En el caso de que f sea una aplicación lineal de IRn en sí mismo, si se efectúa un cambio
de la base B1 a la base B’1 en este espacio, entonces será Q = P y la matriz asociada a
la aplicación lineal f en la nueva base será:
A’= P-1
AP
3. Diagonalización
Puesto que una matriz A está asociada a una aplicación lineal f, se plantea la pregunta
de si es posible representar f mediante una matriz más sencilla, diagonal. Habrá que de-
terminar, por tanto, si existen bases adecuadas en los espacios de partida y de llegada
respecto de las cuales la matriz asociada sea diagonal.
En este apartado se abordará el problema de la diagonalización de una matriz partiendo
de los conceptos de valor propio y subespacio de vectores propios correspondiente y
teniendo en cuenta la interpretación de las columnas de una matriz asociada a una
aplicación lineal.
Valores y vectores propios
Sea nn IRIRf →: una aplicación lineal. Se dice que un vector nIRx ∈≠ 0 es un vector propio o autovector de f si existe IR∈λ tal que:
xxf λ=)(
Al escalar λ , que si existe es único, se le conoce como valor propio o autovalor
asociado al vector propio x .
Cada vector propio está asociado a un único valor propio, sin embargo, en general
existirán distintos vectores propios asociados a un mismo valor propio.
Sea A la matriz que determina f en una cierta base B de IRn, sea I la matriz identidad de
orden n, y sea X la matriz columna de las coordenadas del vector x en la base B.
Entonces la condición de vector propio se escribe:
AX= λ I X
o equivalentemente:
(A- λ I)X=0
Esta ecuación matricial equivale a un sistema lineal homogéneo de n ecuaciones en las n
incógnitas que corresponden a las n coordenadas de x . Los vectores propios asociados
a λ serán las soluciones no triviales de este sistema, que admite alguna de estas
soluciones si y sólo si:
| A- λ In |=0
o en forma desarrollada:
0
21
11211
=
−
−
λ
λ
nnnn
n
aaa
aaa
L
LLLL
L
El determinante anterior genera al desarrollarlo un polinomio en λ de grado n, que se
denomina polinomio característico de la matriz A, y la ecuación obtenida al igualarlo a
0, se llama la ecuación característica de la aplicación lineal f o de la matriz A.
Los vectores propios cumplen las siguientes propiedades:
i) Si x es un vector propio de la aplicación lineal f, asociado al valor propio λ ,
también lo es el vector xµ , asociado al mismo valor propio, donde µ es un
escalar cualquiera no nulo.
ii) Si x y 'x son dos vectores propios asociados al mismo valor propio λ , toda
combinación lineal de dichos vectores también es un vector propio asociado al
mismo autovalor puesto que:
( ) ( ) ( ) ( )'''''''' xxxxxfxfxxf µµλλµµλµµµµ +=+=+=+
Como consecuencia de i) y ii), el conjunto de los vectores propios asociados a un valor
propio, constituye un subespacio vectorial de IRn, llamado subespacio propio asociado a
dicho valor propio.
iii) El polinomio característico de una matriz A asociada a una aplicación lineal f de
IRn en IRn
, resulta invariante ante un cambio de base en IRn.
iv) Si hxxx ,,, 21 K son h vectores propios asociados a h valores propios distintos
hλλλ ,,, 21 K , entonces { }hxxx ,,, 21 K es un sistema libre.
Diagonalización de una matriz cuadrada
• Sea A la matriz asociada a nn IRIRf →: respecto a una base B de IRn.
Supongamos que se obtienen n autovalores, todos reales y distintos y sean
nxxx ,,, 21 K autovectores asociados a dichos valores propios. Estos vectores
forman una base B’ de IRn, respecto de la cual f tiene una matriz asociada A’
cuyas columnas son las coordenadas de ( ) ( ) nnn xxfxxf λλ == ,,111 K referidas
a la base B’, por lo que A’ será una matriz diagonal
A’=
nλ
λ
λ
L
LLLL
L
L
00
00
00
2
1
.
Se dice entonces que la matriz A es diagonalizable, ya que existe una matriz
diagonal A’ que representa la misma aplicación lineal f en cierta base. Si
denotamos con P la matriz de cambio de base de B’ a B, se tiene A’ = P−1
AP.
Si B es la base canónica de IRn, las columnas de P son los n vectores propios
nxxx ,,, 21 K .
• Una matriz A cuadrada de orden n es diagonalizable si y sólo si todos los valores
propios iλ (i = 1…, h) de A son reales, y para todo iλ con orden de
multiplicidad iα , el rango de la matriz A − iλ I es igual a n − iα .
Bibliografía
• Barbolla, R. y Sanz, P. (1998). Álgebra lineal y teoría de matrices. Ed. Prentice
Hall. • Caballero, R. E., Calderón, S. y Galache, T. P. (2000). Matemáticas aplicadas a la
economía y a la empresa. 434 ejercicios resueltos y comentados. Ed. Pirámide.
• Grossman, S. I. (1997). Álgebra lineal. Ed. McGraw-Hill.
• Hernández, E. (1999). Álgebra y geometría. Ed. Addison-Wesley/U.A.M.
• Kolman, B. (1999). Álgebra lineal con aplicaciones y Matlab. Ed. Prentice Hill.
• Martínez Salas. (1992). Elementos de matemáticas. Ed. Lex Nova.
• Sanz, P., Vázquez, F. J. y Ortega, P. (1998). Álgebra lineal. Cuestiones, ejercicios y tratamiento en Derive. Ed. Prentice Hall.
(*) En este tema se ha utilizado como fuente, tanto para la estructuración de los
contenidos como en la inclusión de algunos párrafos, el siguiente libro: Álgebra lineal y teoría de matrices. R. Barbolla y P. Sanz. Ed. Prentice Hall. (1998).