Indice 1. Cap tulo I: Matrices
5
1.1. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . .
7
1.2. Polinomios y Matrices . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3. Matrices Inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.4. Matriz Traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.5. Matrices Simetricas . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.6. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.7. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.8. Polinomio Caracter stico . . . . . . . . . . . . . . . . . . . . . . . 43 1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2. Cap tulo 2: Ecuaciones lineales
58
2.1. Sistemas de Ecuaciones lineales . . . . . . . . . . . . . . . . . . . 58 2.2. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3. Cap tulo 3: Espacios Vectoriales y Transformaciones Lineales
74
3.1. Espacios vectoriales, Subespacios . . . . . . . . . . . . . . . . . . 74 3.2. Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 78 3.3. Operaciones con Subespacios . . . . . . . . . . . . . . . . . . . . 86 3.4. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . 88 3.5. Bases y Sistemas de Ecuaciones Asociadas a un Subespacio . 91 3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4. Cap tulo 4: Rango
117
4.1. Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . 117 4.2. El Espacio Dual
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 1
4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 5. Cap tulo 5: Valores y Vectores Propios
133
5.1. Matriz asociada a una transformacion lineal . . . . . . . . . . . 133 5.2. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . 138 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6. Cap tulo 6: Espacios Euclideanos
148
6.1. Espacios Euclideanos . . . . . . . . . . . . . . . . . . . . . . . . . 148 6.2. Matriz Gramiana y Gramiano . . . . . . . . . . . . . . . . . . . . 149 6.3. Sistemas Ortogonales y Sistemas Ortonormales . . . . . . . . . 151 6.3.1. Desigualdad de Schwartz . . . . . . . . . . . . . . . . . . . 154 6.3.2. Angulo entre vectores . . . . . . . . . . . . . . . . . . . . . 154 6.3.3. Volumen del Paralelep pedo . . . . . . . . . . . . . . . . . 155 6.4. Matrices Positivas De nidas . . . . . . . . . . . . . . . . . . . . . 155 6.5. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . 156 6.6. Proyeccion Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 160 6.6.1. Distancia entre V ariedades Lineales . . . . . . . . . . . . 160 6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 7. Cap tulo 7: Isometr as y Transformaciones ortogonales
171
7.1. Transformaciones ortogonales en R2 y R3 . . . . . . . . . . . . . 181 7.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 8. Cap tulo 8: Formas Bilineales
191
8.1. Formas Bilineales y Formas Cuadraticas . . . . . . . . . . . . . 191 8.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 9. Cap tulo 9: Funciones Cuadraticas
2
212
9.1. Funciones Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . 212 9.2. Clasi cacion de Funciones Cuadraticas . . . . . . . . . . . . . . 213 9.3. Clasi cacion Af n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 9.4. Clasi cacion Eucl dea . . . . . . . . . . . . . . . . . . . . . . . . . 216 9.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 10.Cap tulo 10: Polinomio Caracter stico
234
10.1. Subespacios Invariantes . . . . . . . . . . . . . . . . . . . . . . . . 234 10.2. Propiedades del Polinomio caracter stico . . . . . . . . . . . . . 236 10.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 11.Cap tulo 11: Descomposicion Primaria
247
11.1. Subespacios C clicos e Irreducibles . . . . . . . . . . . . . . . . . 247 11.2. Polinomio Minimal
. . . . . . . . . . . . . . . . . . . . . . . . . . 258
11.3. Descomposicion Primaria . . . . . . . . . . . . . . . . . . . . . . 262 11.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 12.Cap tulo 12: Forma Canonica de Smith
276
12.1. Teorema de la Descomposicion C clica . . . . . . . . . . . . . . 276 12.2. Espacios Indescomponibles . . . . . . . . . . . . . . . . . . . . . . 292 12.3. Calculo de los Factores Invariantes . . . . . . . . . . . . . . . . . 296 12.4. Forma Canonica de Smith . . . . . . . . . . . . . . . . . . . . . . 302 12.5. Aplicacion al estudio de los grupos abelianos
nitamente
generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 12.6. El Anillo Mn (K) [x]
. . . . . . . . . . . . . . . . . . . . . . . . . . 311
12.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316 13.Cap tulo 13: Forma Normal de Jordan
318
13.1. Descomposicion como suma de Subespacios Indescomponibles318 3
13.2. Forma Canonica de un Enfomor smo Nilpoltente . . . . . . . 322 13.3. Forma Normal de Jordan . . . . . . . . . . . . . . . . . . . . . . . 331 13.4. La Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 13.5. Aplicacion a Sistemas de Ecuaciones Diferenciales Ordinarias 340 13.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
4
1.
Cap tulo I: Matrices En la de nicion de matrices, polinomios, etc., interviene un conjunto K de
numeros o elementos conocidos con el nombre de coe cientes o tambien escalares. Este conjunto se entiende previamente establecido, dependiendo su naturaleza del problema a tratar. Por ejemplo, desde el punto de vista algebraico los resultados se obtienen en forma mas completa si K es el cuerpo de numeros complejos, mientras que en la geometr a y en la mecanica es preciso considerar generalmente los numeros reales. Antes de introducir el concepto de matrices de niremos algunas estructuras sobre las que se construyen usualmente las matrices. De nicion 1.1 Un anillo asociativo es un conjunto K dotado con dos operaciones binarias, una suma (+) y un producto ( ) que satisfacen las siguientes propiedades. La suma: i) a + (b + c) = (a + b) + c; 8a, b, c 2 K. (Asociativa). ii) a + b = b + a; 8a,b 2 K. (Conmutativa). iii) Existe un elemento 0 2 K, tal que a + 0 = a; 8a 2 K. (Elemento neutro para la suma). iv) 8a 2 K, existe b 2 K, notado con
a, tal que a + b = 0. (Inverso aditivo).
El producto: v)a (b c) = (a b) c; 8a; b; c 2 K. (Asociativa). vi) Existe un elemento 1 2 K, tal que a 1 = 1 a = a; 8a 2 K. (Elemento neutro para el producto). Compatibilidad de suma y producto: vii) a (b + c) = a b + a c y (b + c) a = b a + c a; 8a; b; c 2 K.
5
Nota 1.2 Es frecuente referirse al elemento neutro de la suma como el cero del anillo y al elemento neutro del producto como el uno del anillo. La propiedad v) puede ser omitida, dando lugar a anillos no asociativos, caso que no consideraremos en este libro. De nicion 1.3 Un anillo K se dice anillo conmutativo si a b = b a; 8a; b 2 K y K se dice un anillo de division si 8a 6= 0 en K existe b 2 K tal que a b = b a = 1. Entenderemos por cuerpo a un anillo de division conmutativo. i) Los numeros enteros Z con la suma y el producto usual forman un anillo conmutativo. ii) Las funciones f : R ! R de la forma f (x) = a x + b, donde a y b son numeros reales jos, con la suma usual y la composicion de funciones dan lugar a un anillo no conmutativo. iii) Los numeros racionales Q, los numeros reales R y los numeros complejos C son cuerpos, considerados cada uno de ellos con las sumas y productos habituales. iv) El conjunto f0; 1g con la suma y el producto como sigue: 0 1
+ 0 1 0 0 1
y
0 0 0 1 0 1
1 1 0
da lugar a un cuerpo frecuentemente notado con Z2 . Supuesto establecido un conjunto de numeros K, damos a continuacion el concepto de matriz: De nicion 1.4 Un sistema arbitrario de elementos de K, dispuestos en forma de una tabla rectangular de m las y n columnas se llama matriz de m
6
n sobre K.
Observacion 1.5 El conjunto de todas las matrices de m n sobre K suele notarse con K m
n
. Una matriz generica de 2 a 6 11 6 6 a21 6 6 .. 6 . 4 am1
m
n suele representarse como sigue: 3 a12 a1n 7 7 a22 a2n 7 7 .. .. .. 7 . . . 7 5 am2 amn
donde aij representa un elemento de K ubicado en la i-esima la de la matriz y en la j-esima columna de la matriz. Los corchetes pueden ser reemplazados por barras dobles, dando lugar a otras notaciones que tambien suelen usarse en los libros de texto. Es comun usar una notacion abreviada [aij ]m;n o simplemente [aij ]. De nicion 1.6 Si en una matriz coinciden el numero de las y el numero de columnas, esta se dice una matriz cuadrada, y el numero de
las (igual al numero de
columnas) se llama orden de la matriz. Las matrices de m
1y1
n suelen lla-
marse matriz columna y matriz la respectivamente. Nota 1.7 Si bien podr a parecer obvio el concepto de igualdad de matrices, es conveniente precisarlo, de modo que dos matrices se diran iguales si son iguales los numeros de sus las y los numeros de sus columnas respectivamente y si coinciden los elementos que ocupan posiciones correspondientes en dichas matrices.
1.1.
Operaciones con matrices
Cuando K es un anillo, es decir, tiene sentido la suma y el producto de dos elementos de K, pueden establecerse las siguientes operaciones: a) Producto entre un numero y una matriz Dada [aij ]m;n , y a en K, los productos: a [aij ]m;n y [aij ]m;n a 7
quedan de nidos por las matrices [bij ]m;n y [cij ]m;n respectivamente, donde: bij = a aij y cij = aij a (8i; j) b) Suma de matrices Dadas las matrices [aij ]m;n y [bij ]m;n , la suma: [aij ]m;n + [bij ]m;n esta dada por la matriz [cij ]m;n , donde: cij = aij + bij
(8i; j)
c) Producto de matrices. Dadas las matrices [aij ]m;n y [bjk ]n;p , el producto: [aij ]m;n [bjk ]n;p esta dada por la matriz [cik ]m;p , donde: cik =
n X
aij bjk
j=1
Observemos que en el caso de ser K conmutativo, coinciden los dos productos dados en a). Nota 1.8 En todo lo que sigue, los s mbolos
correspondientes a productos, seran
omitidos siempre que no haya lugar a confusion. Si K es igual a Z tenemos: 2 3 2 1 0 2 5=4 54 2 3 7
1
0 2
2
3 7
8
3
2
55 = 4
5
0 10
10
15 35
3 5
2
3
1 3
2
6 7 6 6 7 6 6 3 7 7+6 4 5 4 1 2 2
3
2
1 3 6 7 6 7 6 2 2 74 4 5 3 1
1
1
3
2
0
3
2
6 5=6 6 4 1
1
1 1
3
7 6 7 7 6 7 1 7=6 0 8 7 5 4 5 2 1 4
3
1 1
0 2
2 4
2
3
7 7 0 7 5 2
0 4 2 4
Si K es el anillo de polinomios Z [x] con coe cientes enteros, tenemos: 2 3 2 3 2 1 0 2x 1 x 0 2x 2x 5=4 5 (x 1) 4 x 2 3 7x x2 3x + 2 3 3x 7x2 7x 2
1 x 6 6 3 6 x 4 1 2
6 6 6 1 4
2
3
0
2
7 6 7 6 0 7+6 5 4 1
1 x+1 x
3
3
2
x
x2
7 x2 1 x 7 x 74 5 x 1 0 2 x
2
x x + 2x 4 7 6 7 6 3 3 x+1 x+1 7=6 x 5 4 x2 + 1 3 2
1 2x 3
2
3
1
3
2
1 6 5=6 6 x3 x 1 4 2 x3 x2 1
1
x
x
x2
0
3 7 7 7 5 3
3
7 7 1 7 5 2 2x
De nicion 1.9 Si K es un anillo, la matriz en la cual todos los elementos son iguales a cero se llama matriz nula y se designa con 0m;n , o simplemente con 0 si no hay lugar a confusion. Observacion 1.10 Fijemos un anillo asociativo K y
;
2 K. Eligiendo conve-
nientemente las matrices A, B y C, de manera tal que todas las operaciones indicadas mas abajo puedan ser realizadas, no es dif cil obtener las siguientes propiedades como consecuencia directa de las de niciones previas: 9
i) 1A = A1 = A ii) A0 = 0A = 0 iii)
( A) = (
) A; (A )
= A(
)
iv) A + (B + C) = (A + B) + C (Asociativa) v) A + B = B + A (Conmutativa) vi) ( + ) A = A + A; A ( + ) = A + A vii)
(A + B) = A + B; (A + B)
=A +B
viii) A + 0 = 0 + A = A (Elemento neutro para la suma) ix)
(AB) = ( A) B; (A ) B = A ( B); (AB)
= A (B )
x) (A + B) C = AC + BC, C (A + B) = CA + CB (Compatibilidad de suma y producto) xi) A (BC) = (A B) C (Asociativa) Nota 1.11 De las propiedades precedentes se sigue que el conjunto de todas las matrices cuadradas de orden n sobre un anillo asociativo K, forman un anillo asociativo que notaremos en adelante K n [
ij ]n;n ,
donde
ij
n
o tambien Mn (K). Notese que la matriz
es la funcion de Kronecker dada por: 8 < 0 si i 6= j ij = : 1 si i = j
es el elemento neutro para el producto en K n
n
, que notaremos con In o simplemente
I si no hay lugar a confusion. La matriz In se llama la matriz identidad de K n Observacion 1.12 Dadas las matrices A y B en K m
n
n
.
, para que tengan sentido
ambos productos A B y B A es necesario que m = n, por este motivo es que solo en K n
n
podemos usar el producto de matrices para darle una estructura de anillo.
Salvo indicaciones expl citas, de aqu en adelante supondremos K un anillo asociativo. 10
Observacion 1.13 El producto de una matriz la por una matriz columna esta dado por la expresion:
h
2
a11 a12 : : : a1n
6 i6 6 6 6 6 4
b11
3
7 7 b21 7 7 .. 7 = [a11 b11 + a12 b21 + . 7 5 bn1
+ a1n bn1 ]
El caso general, se trata de realizar varios productos del tipo la por columna. Por ejemplo, al multiplicar las matrices 2 4
2 0
3
2
3
2 7 7 1 7=4 5 1
1 1 1 6 6 56 2 1 1 4 1
2
5 4 1 2
3 5
hemos realizado cuatro productos del tipo la por columna, estos productos son: 2 3 2 3 2 1 7 h i6 h i6 7 6 7 6 7 = [5] ; 6 6 7 2 1 1 1 7 = [4] 2 1 1 2 4 5 4 5 1 1 2 3 2 3 1 2 7 h i6 7 h i6 6 7 6 7 = [ 1] ; 0 1 1 6 2 7 0 1 1 6 1 7 = [2] 4 5 4 5 1 1
La matriz en el factor de la izquierda podr a pensarse como una matriz columna donde cada elemento es una matriz la, es decir: i 3 2 2 h 3 2 1 1 F1 4 h 5 i 5=4 F2 0 1 1
mientras que la matriz en el factor de la derecha, se pensar a como una matriz la donde sus elementos son columnas: 2 2 3 2 1 6 6 7 6 6 6 7 6 6 6 2 7 6 4 4 5 4 1
2
3 3
7 7 1 7 5 1
11
7 h i 7 7 = C1 C2 5
De este modo el producto podr a expresarse como: 3 3 2 2 h i F C F1 C2 F 5 4 1 5 C1 C2 = 4 1 1 F2 C1 F2 C2 F2
En general, en el producto AB, salvando identi caciones, podemos expresalo en terminos de las las de A y las columnas de B, es decir, si: 3 2 F 6 1 7 7 6 h i 6 F2 7 7 y B= C C A=6 C 1 2 k 6 .. 7 6 . 7 5 4 Fm entonces:
2
FC F1 C2 F1 Ck 6 1 1 6 6 F2 C1 F2 C2 F2 Ck AB = 6 6 .. .. .. .. . 6 . . . 4 Fm C1 Fm C2 Fm Ck
Con el mismo principio, podemos expresar: AB =
h
AC1 AC2
ACk
3 7 7 7 7 7 7 5
i
de donde, las columnas del producto AB resultan ser las columnas de B multiplicadas por A, mientras que la identidad: 2
FB 6 1 6 6 F2 B AB = 6 6 .. 6 . 4 Fm B
3 7 7 7 7 7 7 5
indica que las las del producto AB son las las de A multiplicadas por B. Insistimos que las expresiones previas se admiten salvo identi caciones, seran utilizadas mas adelante para facilitar la interpretacion de algunos resultados. 12
1.2.
Polinomios y Matrices
Para una matriz A en Mn (K) se de nen las potencias: A0 = I; A1 = A; A2 = AA; An = A
A (n factores)
Con esta de nicion, para p, q 2 N0 , es claro que se veri can: i) Ap Aq = Ap+q ii) (Ap )q = Ap
q
Si A y B 2 Mn (K), se dice que A y B conmutan si A B = B A. En tal situacion se tiene: i) (A B)p = Ap B p ii) Ap B q = B q Ap La demostracion de las propiedades precedentes quedan a cargo del lector. Consideremos un polinomio: P (x) = an xn +
+ a1 x + a0
en la indeterminada x y coe cientes en K. Para el caso en que K sea un anillo conmutativo y A una matriz cuadrada sobre K damos la siguiente; De nicion 1.14 De nimos la evaluacion de P en A a la matriz dada por: P (A) = an An +
+ a1 A + a0 I
Sin mayores di cultades el lector podra veri car las siguientes identidades: Proposicion 1.15 Para P (x) y Q(x) polinomios en K [x] se tiene: i) (P + Q) (A) = P (A) + Q (A) = Q (A) + P (A) ii) (P Q) (A) = P (A) Q (A) = Q (A) P (A).
13
2
i) Si K= Z, A = 4 2
P (A) = 3 4
0
1
1
0
0
1
1
0
2
0 1
= 34 2
=4 2
=4 ii) Sea P (x) = x2
1 0
0 3 3 0
3
5 y P (x) = 3 x3 + 2 x2
33
2
5 + 24 3
2
5 + 24
3
2
5+4
3
4
4
3
0
1
1
0
1
0
0
1
2
0
0
2
3 5
x
1, entonces:
32
2 4
0
1
1
0
3
2
0
1
1
0
5
5 2 4
4 0
1
1
0
3
3
2
1 0
3
2
1
0
0
1
5
4
0 1
5+4 2
5+4
1
0
0
1
3 5 3 5
3 5
3 5
1 = (x
2
1) (x + 1) y A = 4
2 1 1 2
calcularse de las dos maneras siguientes: 2 32 2 3 2 3 2 1 1 0 5 4 5 4 5=4 5 P (A) = A2 1 = 4 1 2 0 1 4 5 P (A) = (A + 1) (A 1) 02 3 2 31 02 3 2 1 1 0 2 1 5+4 5A @4 5 = @4 1 2 0 1 1 2 2 32 3 2 3 3 1 1 1 4 4 54 5=4 5 =4 1 3 1 1 4 4 14
3
5, entonces P (A) puede 2 4
1 0 0 1
2 4
3
2
5=4
1 0 0 1
31 5A
4 4 4 4
3 5
Otra manera de conectar los polinomios y las matrices se da cuando consideramos matrices cuyos coe cientes son polinomios o polinomios cuyos coe cientes son matrices. Por ejemplo la matriz; 3 2 2 2 x 2x + 3 2x 1 x x 5 4 2 3x 4 x +x+1 1
es una matriz con coe cientes polinomiales, es decir, tiene polinomios por coe cientes. Esta misma matriz puede ser expresada como un polinomio en la indeterminada x donde los coe cientes son matrices, concretamente: 2 3 2 3 2 3 3 1 0 2 2 1 1 0 1 4 5+4 5x + 4 5 x2 4 1 1 3 1 0 0 1 0
Esta manera de ver una matriz polinomial como un polinomio matricial sera util
mas adelante, a la hora de demostrar el Teorema de Hamilton Kayley y el criterio para semejanza de matirces en el Teorema 12.49.
1.3.
Matrices Inversibles
De nicion 1.16 Una matriz A 2 Mn (K) se dira inversible, si existe B 2 Mn (K), tal que: AB=B A=I En tal caso, B es notada con A
1
y se dice la matriz inversa de A.
Proposicion 1.17 i) Si A 2 Mn (K) es inversible, entonces su inversa es unica. ii) Para A y B inversibles en Mn (K) se tiene: a) (A 1 )
1
=A
b) (A B)
1
=B
1
A
1
15
c) (An )
1
n
= (A 1 ) (8n 2 N)
Demostracion: i) Supongamos que B y C son inversas de A, resulta entonces que B A = I. Multiplicando a derecha por C, la igualdad precedente queda: (BA) C = IC = C por la asociatividad del producto de matrices se tiene: (BA) C = B (AC) = BI = B dado que AC = I. Se concluye que: C = (BA) C = B es decir, B y C coinciden. ii) Es claro, por de nicion de inversa, que A es la inversa de A 1 , luego por unicidad de inversa: A
1
1
=A
Por otra parte, haciendo uso de la asociatividad del producto, pueden justi carse las igualdades: (AB) B 1 A de modo que B 1 A
1
1
= B 1A
1
(AB) = I
es la inversa de A B, es decir: (AB)
1
= B 1A
1
Finalmente, haciendo reiterado uso de la asociatividad del producto, resulta: An A
1 n
= A
1 n
An = I
como antes, se sigue que: (An )
1
= A
16
1 n
Ejemplos 1.18 Sean: 2 3 2 3 1 a 1 a 5, veri car que A 1 = 4 5 i) Si A = 4 0 1 0 1 3 2 0 1 5, mostrar que B 1 = B. ii) Si B = 4 1 0 iii) Si A y B son como i) y ii) respectivamente, A B y B A son inversibles. >Puede calcular las respectivas inversas?
1.4.
Matriz Traspuesta
De nicion 1.19 Dada la matriz: 2
a a12 6 11 6 6 a21 a22 A=6 6 .. .. 6 . . 4 am1 am2
a1n .. .
a2n .. . amn
3 7 7 7 7 7 7 5
se llama matriz traspuesta de A, notada con t A, a la siguiente matriz: 2 3 a11 a21 am1 6 7 6 7 6 a12 a22 am2 7 t 6 7 A=6 . .. . . .. 7 . . 6 . . . 7 4 5 a1n a2n amn
En notacion abreviada, si A = [aij ]m;n , t A = [aji ]m;n . Se observa que la matriz t A se obtiene al cambiar las las por las columnas de la matriz A. Notar ademas que los productos At A y t AA tienen sentido cualquiera sea la matriz A.
i) Si A =
h
1 2
2
6 6 t , entonces A = 6 1 4 i
17
1
3
7 7 2 7 5 1
2
1
2 1
3
6 7 6 7 ii) Si A = 6 2 1 0 7, t A = A. 4 5 1 0 1 2 3 2 3 a b 6 7 a b c 6 7 5 iii) Si A = 6 b a 7, t A = 4 4 5 b a c c c
Proposicion 1.20 Para matrices A y B, y ,
en K, se veri can:
i) t (t A) = A ii) t ( A + B) =
t
A+
t
B
iii) t (AB) = t B t A Demostracion: i) Notar que para cada par i, j el elemento ubicado en la i-esima la y j-esima columna de t (t A) es por de nicion el elemento ubicado en la j-esima columna de t
A; luego, resulta ser el elemento ubicado en la i-esima la y j-esima columna de A.
ii) Pongamos A = [aij ]m;n , B = [bij ]m;n , se tiene A + B = [cij ]m;n , donde: cij = aij + bij luego: t
( A + B) = [cji ]n;m
pero: cji = aji + bji se sigue que: t
[cji ]n;m =
A+
t
B
o sea: t
( A + B) = 18
t
A+
t
B
iii) Pongamos ahora A = [aij ]m;n , B = [bij ]n;k . Se tiene A B = [cij ]m;k , donde: cij =
n X
aih bhj
h=1
por otro lado: t
B t A = [dij ]k;m donde dij =
pero: t
Pn
h=1 bhi ajh
(AB) = [cji ]k;m
luego: cji =
n X
ajh bhi = dij
h=1
y as
t
(A B) = t B t A.
Los tipos de matrices que describiremos a continuacion tiene un rol destacado en la matematica. Las matrices simetricas apareceran mas adelante ligadas al estudio de las formas cuadraticas, y las matrices elementales, a la resolucion de sistemas lineales, al calculo de inversa de matrices y al calculo de determinantes.
1.5.
Matrices Simetricas
De nicion 1.21 Sea A 2 Mn (K). A se dice simetrica si t A = A y A se dice antisimetrica si t A =
A.
Si ponemos A = [aij ]m;n , la condicion de simetr a puede expresarse poniendo aij = aji , y la de antisimetr a con aij = se tiene aii =
aji . En particular en el caso antisimetrico
aii , lo que "en general " signi ca aii = 0 para el caso antisimetrico.
Decimos en general, porque esto ocurre en los cuerpos de los numeros racionales, reales o complejos, pero >que ocurre en el cuerpo Z2 ?
19
De nicion 1.22 Una matriz A = [aij ]m;n se dice diagonal si aij = 0 para i 6= j, es decir
2
6 6 6 A=6 6 6 4
a11 0
0
0 .. .
a22 .. .
0 .. .
0
0
ann
3 7 7 7 7 7 7 5
Notar que una matriz diagonal, es una matriz simetrica. Nota 1.23 Es muy simple operar con matrices diagonales, por ejemplo, al evaluar un polinomio P 2 K[x] en la matriz diagonal A se tiene: 2 P (a11 ) 0 0 6 6 6 0 P (a22 ) 0 P (A) = 6 6 .. .. .. 6 . . . 4 0 0 P (ann )
3 7 7 7 7 7 7 5
Por otra parte, la matriz diagonal A es inversible si y solo si, son inversibles sus elementos aii en K, y en tal caso es inmediato que: 2 a 1 0 0 6 11 6 6 0 a221 0 A 1=6 6 .. .. .. 6 . . . 4 0 0 ann1
3 7 7 7 7 7 7 5
Nota 1.24 En lo sucesivo usaremos Eij para notar la matriz de m
n con coe -
cientes 1 en la i-esima la y j-esima columna, y sus demas coe cientes iguales a cero. Ejemplos 1.25 En K 2
3
20
2
E11 = 4
2
E21 = 4
1 0 0 0 0 0
0 0 0 1 0 0
3
2
3
2
5 E12 = 4
5 E22 = 4
0 1 0 0 0 0
0 0 0 0 1 0
3
2
3
2
5 E13 = 4
5 E23 = 4
0 0 1 0 0 0
0 0 0 0 0 1
3 5
3 5
El lector puede mostrar sin mayor di cultad que si A = [aij ]m;n , entonces: A=
m X n X
aij Eij
i=1 j=1
1.6.
Matrices Elementales
De nicion 1.26 En K n
n
llamamos matriz elemental a una matriz inversible de
la forma I + Eij , donde I es la matriz identidad y
2 K.
Observacion 1.27 Como el producto: Eij Ekl se obtiene evaluando todos los produtos entre una la de Eij y una columna de Ekl , resulta que el unico producto que puede ser distinto de cero es el de la i-esima la de Eij con la l-esima columna de Ekl , y sera igual a cero salvo que j y k coincidan. Se sigue que:
8 < 0 Eij Ekl = : E
il
si j 6= k si j = k
Proposicion 1.28 i) Si i 6= j, la matriz I +
Eij es elemental, siendo I
Eij
su inversa. ii) La matriz I + I
1+
Eii es elemental si 1 +
es inversible en K, siendo su inversa
Eii . En particular si K es un cuerpo bastara que
6=
1.
iii) La traspuesta de una matriz elemental es una matriz elemental. 21
Demostracion: i) Evaluando el producto: (I +
Eij ) (I
Eij ) = I
I Eij + I Eij
Eij Eij
dado que los elementos que intervienen en Eij son ceros y unos, resulta: Eij = Eij y teniendo en cuenta que Eij Eij = 0 pues i 6= j, se tiene: (I +
Eij ) (I
Eij ) = I
ii) En este caso es: (I +
Eii ) I
1+
Eii
=I+
1+
1+
Eii
=I iii) Por las propiedades de la traspuesta en la Proposicion 1.20 se tiene: t
(I + Eij ) = I +
t
Eij = I + Eji
Si i 6= j, I + Eji por i), y si i = j, la matriz elemental considerada es simetrica. Como consecuencia inmediata de la proposicion precedente se tiene: Corolario 1.29 La matriz inversa de una matriz elemental es tambien una matriz elemental. Consideremos E = I + Eij una matriz elemental de orden m y A en K m
n
una
matriz cualquiera. Si i 6= j, la matriz E A tiene por i-esima la a la i-esima la de A mas la j-esima la de A multiplicada por , siendo las las restantes identicas a las correspondientes las en A. Dicho de otro modo, si: F1 ; : : : ; Fi ; : : : ; Fj ; : : : ; Fn 22
son las las de A, entonces: F1 ; : : : ; Fi +
Fj ; : : : ; Fj ; : : : ; Fn
son las las de E A. i)
2 4
1 0 1
32 54
1 1
1
2 0
1
3
2
5=4
1+2 2
1
1+
0
1
3 5
Ahora, si i = j, la i-esima la de E A es la i-esima la de A multiplicada por 1 + , siendo las las restantes identicas a las de A, es decir, si : F1 ; : : : ; Fi ; : : : ; Fn son las las de A, entonces: F1 ; : : : ; (1 + ) Fi ; : : : ; Fn son las las de EA. ii)
2 4
1+
0
0
1
32 54
1 1
1
2 0
1
3
2
5=4
+1
+1
2
0
Pregunta: >Que se puede decir en el caso del producto A E ?
1.7.
1 1
3 5
Determinantes
En todo lo que sigue jamos K un anillo conmutativo. La nocion de determinante se introduce al tratar sistemas de ecuaciones lineales. Como es sabido, del sistema lineal:
8 < a x+a y =b 11 12 1 : a x+a y =b 21 22 2 23
se desprende que una solucion (x; y) debe cumplir las condiciones: a11 a12
x=
a21 a22
a11 a12
b1 a12 b2 a22
y=
a21 a22
a11 b1 a21 b2
donde: a b
= ad
cb
c d Analogamente, para el sistema: 8 > > a x + a12 y + a13 z = b1 > < 11 a21 x + a22 y + a23 z = b2 > > > : a x+a y+a z =b 31 32 33 3
se tienen las relaciones para una solucion (x; y; z): a11 a12 a13
b1 a12 a13
a21 a22 a23 x =
b2 a22 a23
a31 a32 a33
b3 a32 a33
a11 a12 a13
a11 b1 a13
a21 a22 a23 y =
a21 b2 a23
a31 a32 a33
a31 b3 a33
a11 a12 a13
a11 a12 b1
a21 a22 a23 z =
a21 a22 b2
a31 a32 a33
a31 a32 b3
donde, en general: c11 c12 c13 c21 c22 c23 c31 c32 c33 24
la expresion dada por: c11 c22 c33 + c13 c21 c32 + c31 c12 c23
c13 c22 c31
c11 c23 c32
c12 c21 c33
para una matriz B = [cij ]3;3 . En cada caso, las expresiones se conocen como el determinante de la matriz en cuestion, y las identidades establecidas, como la Regla de Cramer. Cuando se intenta algo analogo a esta regla para un numero mayor de variables, surge la necesidad de de nir el determinante de cualquier orden. Esto requiere algunas nociones basicas sobre permutaciones, las que se dan a continuacion: Si In es el conjunto de los numeros enteros 1; 2; : : : ; n presentados en orden creciente. Se llama permutacion de orden n a un reordenamiento j1 j2 : : : jn de los elementos de In . Notar que hay n! permutaciones de orden n, las que agrupamos en un conjunto notado con Sn . i) Los elementos de S3 son: 123; 213; 132; 321; 231; 312 ii) Los elementos de S4 son: 1234; 1243; 1324; 1342; 1423; 1432; 2134; 2143 2314; 2341; 2413; 2431; 3124; 3142; 3214; 3241 3412; 3421; 4123; 4132; 4213; 4231; 4312; 4321 De nicion 1.30 Sean k; m numeros naturales tales que 1
k
n. Decimos
que la permutacion j1 j2 : : : jn tiene una inversion en el par k; m si jk > jm . Una permutacion en Sn se dira par si posee un numero par de inversiones y se dira impar en caso contrario.
25
i) La permutacion 12 : : : n se conoce como la identidad y no posee inversiones. ii) Tomemos en S6 la permutacion 254163, los pares (1; 4), (2; 3), (2; 4), (2; 6), (3; 4), (3; 6), (5; 6), son todos los pares donde la permutacion tiene inversiones, es decir, hay siete inversiones en esta permutacion. De nicion 1.31 Para cada permutacion j1 j2 : : : jn de nimos la permutacion inversa k1 k2 : : : kn , donde ks es el lugar que ocupa s en j1 j2 : : : jn , es decir ks = t si y solo si, s = jt . Ejemplos 1.32 Para la permutacion 234651 vemos que k1 = 6; k2 = 1; k3 = 2; k4 = 3; k5 = 5; y k6 = 4, luego la inversa correspondiente sera 612354. Observacion 1.33 Cada permutacion puede identi carse con una biyeccion del conjunto In , en forma precisa, hacemos corresponder al reordenamiento j1 j2 : : : jn la biyeccion In que tiene por gra co a los pares: (1; j1 ) ; (2; j2 ) ; : : : ; (n; jn ) es decir, pensamos ji como j (i). V a esta identi cacion, la permutacion inversa es justamente la funcion inversa respecto de la composicion de funciones. Es claro entonces que, tanto k1 k2 : : : kn es la inversa de j1 j2 : : : jn , como j1 j2 : : : jn es la inversa de k1 k2 : : : kn . Usando j (i) = ji podemos ilustrar el ejemplo anterior haciendo uso de tablas: i
1 2 3 4 5 6
j (i) 2 3 4 6 5 1 la inversa de j se obtiene leyendo la tabla precedente en sentido contrario, es decir: k
1 2 3 4 5 6
k (i) 6 1 2 3 5 4
26
Proposicion 1.34 Una permutacion y su inversa tienen la misma paridad. Mas aun, estas tienen el mismo numero de inversiones. Demostracion: Notemos con j la permutacion j1 j2 : : : jn y con k su inversa k1 k2 : : : kn . Si un par i; m, con i < m, da lugar a una inversion en j, se tiene ji > jm . Poniendo ji = t y jm = s, resulta: s < t y kt = i < m = ks Es decir, cada inversion de j da lugar a una inversion de k, y resulta claro que el numero de inversiones de j debe ser menor o igual que el numero de inversiones de k. En forma analoga podemos establecer la desigualdad en el sentido contrario, o simplemente pensando j como la inversa de j. Se concluye que j y k tienen el mismo numero de inversiones. Ejemplos 1.35 Si tomamos j como 234561, k resulta 612345 y se tiene: inversiones en j ! inversiones en k (1; 6) ! (1; 2) (2; 6) ! (13) (3; 6) ! (1; 4) (4; 6) ! (1; 5) (5; 6) ! (1; 6)
Proposicion 1.36 Si en la permutacion j1 j2 : : : jn notada con j, se intercambian dos numeros, entonces el numero de inversiones aumenta o disminuye en un numero impar. En otras palabras, la permutacion inicial y la resultante de tal intercambio tienen distinta paridad. 27
Demostracion: Supongamos que se intercambian los numeros ji ; jm (i < m) en la permutacion j. Se tiene h = m
i
1 numeros entre ji y jm y supongamos
que exactamente s de estos son menores que ji y t de estos son mayores que jm . Notar que al ocupar el lugar ji que ocupaba jm se desarman s inversiones y se crean h
s inversiones; analogamente, al ocupar jm el lugar que ocupaba ji se
desarman t inversiones y se crean h t inversiones; mientras que se crea una inversion mas si ji < jm o se desarma una inversion si ji > jm . En conclusion, si N es el numero de inversiones de p, el numero de inversiones de la permutacion resultante al intercambiar ji y jm en p sera: N
s+h
s
t+h
t
1 = N + 2 (h
s
t)
1
. Ejemplos 1.37 Consideremos por ejemplo la permutacion 3216475 en S7 , cuyo numero de inversiones es 6. Si intercambiamos 2 y 7 se tiene: 3716425, con la notacion precedente sera: h = 3; s = 1; t = 0 y el numero de inversiones de 3716425 sera: 6 + 2(3
1) + 1 = 11
Se esta ahora en condiciones de dar la siguiente: De nicion 1.38 Sea A = [aij ] una matriz de orden n. Se llama determinante de A, notado con jAj o det(A) a la expresion: X
a1j1 a2j2
anjn
donde la suma recorre todas las permutaciones j1 j2 : : : jn de Sn , tomandose el signo +o
segun sea la permutacion par o impar respectivamente. 28
i) Si A = [a11 ] de orden 1, jAj = a11 . a11 a12
, jAj = a11 a22 a12 a21 . a21 a22 correspondiendo el primer sumando a la identidad, y el segundo a la inversion
ii) Si A =
21. iii) Si A = [aij ] de orden 3, se consideran las permutaciones pares 123; 231; 312 y las impares 132; 213; 321 para calcular: jAj = a11 a22 a33 + a13 a21 a32 + a31 a12 a23
a31 a22 a13
a11 a23 a32
a12 a21 a33
Naturalmente en ii) y iii) recuperamos la expresiones dadas anteriormente. Observar que el determinante de una matriz de orden n tiene n! sumandos, lo que para valores relativamente chicos de n puede ser bastante grande. En lo que sigue se daran propiedades del determinante que ayudaran a su calculo. Proposicion 1.39 Si A = [aij ] es de orden n, entonces jAj = jt Aj. Demostracion: t A = [bij ] con bij = aji , luego: t
A =
X
Pero cada producto aj1 1 aj2 2
b1j1
bnjn =
X
aj1 1 aj2 2
ajn n
ajn n puede ponerse de la forma a1k1 a2k2
ankn , sien-
do k1 : : : kn la permutacion inversa de j1 j2 : : : jn , y desde que estas tienen la misma paridad, los terminos de jAj y jt Aj son los mismos, de donde resulta jAj = jt Aj. Como ejemplo del razonamiento empleado, consideremos n = 6 y el producto asociado con la permutacion j1 j2 : : : j6 = 312564. Se tiene: a31 a12 a23 a54 a65 a46 = a12 a23 a31 a46 a54 a65 = a1k1 a2k2 donde k1 : : : k6 = 231654 es la permutacion inversa de j1 j2 : : : j6 . 29
a6k6
Proposicion 1.40 Si una matriz B = [bij ], se obtiene a partir de la matriz A = [aij ] por intercambio de dos las (columnas) de A, entonces jBj =
jAj.
Demostracion: Supongamos que B se obtiene de A por intercambio en esta de las las k y m con k < m. Se tiene bkj = amj , bmj = akj 8j, y bij = aij 8i; j, i 6= k; m. Luego: jBj = = =
X
X
X
b1j1
bkjk
bmjn
bnjn
a1j1
amjk
akjn
anjn
a1j1
akjm
amjk
anjn
Pero la permutacion j1 : : : jm : : : jk : : : jn se obtiene de la permutacion: j 1 : : : j k : : : j m : : : jn por intercambio de dos numeros luego, por la Proposicion 1.36, estas tienen distinta paridad. Se sigue que cada termino en la expresion de jBj se corresponde un vocamente con un termino identico en jAj pero con signo contrario, y as jBj =
jAj.
Si B se obtiene por intercambio de dos columnas en A, t B se obtendra por intercambio de dos las en t A, luego: jBj = t B =
t
A =
jAj
. Observacion 1.41 En lo sucesivo, las propiedades del determinante que se enuncien en terminos de las y en terminos de columnas, se demostraran solo para el caso de las, quedando como ejercicio su demostracion en terminos de columnas. Proposicion 1.42 Si la matriz B = [bij ], se obtiene de la matriz A = [aij ] al multiplicar la m-esima la (columna) de A por un numero , entonces jBj = 30
jAj.
Demostracion: Se tiene bij = aij si i 6= m, y bmj = jBj = = =
X
X
b1j1
bmjn
a1j1
X
amj , luego: bnjn
amjm
a1j1
anjn =
anjn jAj
. Corolario 1.43 Si la matriz A tiene una la (columna) nula, entonces el determinante de A es igual a 0. Demostracion: Queda a cargo del lector. Proposicion 1.44 Si la matriz A tiene dos las (columnas) iguales, entonces jAj = 0. Demostracion: Supongamos que A tiene la k-esima y la m-esima la iguales (k < m). Si asociamos cada permutacion: j1 : : : jk : : : jm : : : jn con j1 : : : jm : : : jk : : : jn los correspondientes terminos en la expresion de jAj aparecen con signos opuestos, es decir: jAj =
X
(a1j1
akjk
amjm
anjn
a1j1
akjm
amjk
anjn )
Teniendo en cuenta la igualdad amj = akj 8j, de la identidad precedente se sigue que jAj = 0.
Si la matriz B = [bij ], se obtiene a partir de la matriz A = [aij ] al sumarle
a la k-esima la (columna) de A, la m-esima la (columna) de A multiplicada por un numero , si m 6= k, jBj = jAj. 31
Demostracion: Sera bij = aij si i 6= j, y bkj = akj + a amj , luego: jBj = = =
X
X
X
= jAj +
b1j1
bkjk
bmjn
a1j1
(akjk +
a1j1
akjk
bnjn
amjk ) amjk
amjm anjn +
jCj
anjn X a1j1
amjk
amjm
anjn
donde C = [cij ] satisface cij = aij si i 6= m, y cmj = akj , es decir C tiene dos las iguales y por la Proposicion 1.44, jCj = 0, y de este modo jBj = jAj. De nicion 1.45 Una matriz A = [aij ] de orden n se dice triangular inferior por bloques si existen ndices i1 ; i2 ; : : : ; im , con 1 aij = 0 si i con ik
1
i1
i2
:::
im
n, tales que
ik y j > ik para algun ndice ik . En tal situacion las matrices Ak = [aij ]
< i; j
ik , se dicen bloques diagonales de A.
Una matriz A de orden n se dice triangular superior por bloques si t A es triangular inferior por bloques. En general A se dice triangular por bloques si A es triangular superior por bloques o triangular inferior por bloques. Ejemplos 1.46 La matriz:
2
1 2 0 6 6 6 2 1 0 6 6 6 3 4 1 6 6 6 1 2 1 4 1 0 1
0 0
3
7 7 0 0 7 7 7 0 0 7 7 7 2 1 7 5 0 1
es triangular inferior por bloques. En este caso i1 = 2 , i2 = 3 y los bloques diagonales son:
2 4
1 2 2 1
3
5;
h
1
32
i
2
;4
2 1 0 1
3 5
Proposicion 1.47 Si A es una matriz triangular por bloques con bloques diagonales A1 ; A2 ; : : : ; Am , entonces jAj = jA1 j jA2 j
jAm j.
Demostracion: Conservando las notaciones precedentes hacemos induccion en n. Ponemos k = i1 y se tiene: aij = 0 si i
k j>k
El termino del determinante de A: a1j1
akjk
anjn
es nulo si uno de los ndices j1 : : : jk es mayor que k, lo que permite limitarnos al caso j 1 : : : jk
k; es decir que solo debemos considerar las permutaciones j1 : : : jk : : : jn
en f1; 2; : : : ; ng tales que j1 : : : jk sea una permutacion p en f1; 2; : : : ; kg y naturalmente jk+1 : : : jn sera una permutacion q en fk + 1; : : : ; ng. Es claro que para tales permutaciones de orden n, el numero de inversiones es igual a la suma del numero de inversiones de p y el numero de inversiones de q, en consecuencia el signo j1 : : : jk : : : jn puede obtenerse el producto de los signos de p y q, con lo que: jAj = .
X
a1j1
akjk
X
ak+1jk+1
anjn = jA1 j jA2 j
Corolario 1.48 Si A = [aij ], es triangular inferior (es decir aij = 0 si i < j) o triangular superior (es decir aij = 0 si i > j), entonces: jAj = a11 a22
ann
Demostracion: Es inmediato de la Proposicion 1.47, pues A es en particular triangular por bloques, siendo [a11 ] ; [a22 ] ; : : : ; [ann ] los bloques diagonales de A. 33
Ejemplos 1.49 i) 1 2
1 0
1 2
3 4
2 0
1 2
1 0
2 1
4 3
2 1
1 2
1 0
1 2
3 4
2 4 4 3
(1.42)
= 2
(1.44)
= 0
ii)Usando las propiedades en 1.7 y 1.47, se tiene: F1
1 2
3
4
F1
1
2
3
4
F2
4 2
1
3
F2 ! F2 + 4F1
0 10
11
19
F3
1 0
0
3
F3
1
0
0
3
F4
2 0
2
3
F4
2
0
2
3
=
=
F1
1
2
3
4
F2
0
10
11
19
0
2
3
7
2
0
2
3
F3 ! F3
F1
F4
=
F1
1
2
3
4
F2
0
10
11
19
F3
0
2
3
7
0
4
4
5
F4 ! F4 =
2 F1
10
11
19
2
3
7
4
4
5
=8
El proceso anterior es iterativo, lo que permite disminuir sucesivamente el orden del determinante a calcular. iii)
34
1 0 0 0
0 0 0 1 1 0 0 0
0 0 0 1
(1.40)
=
0 1 0 0
0 1 0 0
0 0 1 0
0 0 1 0
1 0 0 0
1 0 0 0
0 1 0 0
(1.40)
=
0 1 0 0
(1.40)
=
0 0 0 1
0 0 1 0
0 0 1 0
0 0 0 1
(1.47)
=
1
Proposicion 1.50 Supongamos que las matrices A = [aij ], B = [bij ] y C = [cij ] coinciden en todas sus las (columnas), excepto en la m-esima, siendo la m-esima la (columna) de C igual a la suma de las m-esimas
la (columna) de A y B,
entonces jCj = jAj + jBj. Demostracion: Se tiene cij = aij = bij si i 6= m, y cmj = amj + bmj , luego: jCj = = =
X
X
X
c1j1
cmjn
cnjn =
c1j1
amjm
cnjn +
a1j1
amjm
= det(A) + det(B)
X
anjn +
X
X
c1j1
(amjm + bmjm )
c1j1
bmjm
cnjn
b1j1
bmjm
bnjn
cnjn
. Nota 1.51 Sea A = [aij ] de orden n. Para cada par de ndices i, j usaremos Ai;j para notar la matriz de orden n
1 obtenida a partir de A al suprimir en esta la
i-esima la y la j-esima columna. 35
De nicion 1.52 Si A = [aij ] de orden n, se llama menor de aij al determinante jAi;j j y cofactor de aij , notado con Ai;j , al numero ( 1)i+j jAi;j j. Lema 1.53 Sea A = [aij ] de orden n. Si para un ndice k, la k-esima la (columna) de A tiene un unico elemento no nulo, digamos akm (amk ), entonces: jAj = akm Akm Demostracion: A es de la forma: 2 a 6 11 6 .. 6 . 6 6 6 ak 1;1 6 6 6 0 6 6 6 ak+1;1 6 6 .. 6 . 4 an1 realizando k
Ahora con m
: : : a1m : : : a1n .. .. .. .. . . . . .. . . ak 1;m .. ak 1;n .. .. . akm . 0 .. .. . ak+1;m . ak+1;n .. .. .. .. . . . . :::
anm
1 intercambios sucesivos en las 2 0 : : : akm 6 6 6 a11 : : : a1m 6 .. .. 6 .. 6 . . . 6 6 6 ak 1;1 : : : ak 1;m 6 6 6 ak+1;1 : : : ak+1;m 6 6 .. .. 6 . ::: . 4 an1 : : : an1
:::
ann
3 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5
las de A, podemos obtener la matriz: 3 ::: 0 7 7 : : : a1n 7 7 .. .. 7 7 . . 7 7 : : : ak 1;n 7 7 7 : : : ak+1;n 7 7 7 .. .. 7 . . 5 : : : ann
1 intercambios sucesivos en las columnas de la matriz precedente se
36
puede obtener: 2
akm
0
6 6 6 a1m a11 6 .. .. 6 6 . . 6 6 A = 6 ak 1;m ak 1;1 6 6 6 ak+1;m ak+1;1 6 6 .. 6 . ::: 4 anm an1
:::
0
::: .. .
a1n .. .
: : : ak
1;n
: : : ak+1;n .. .. . . :::
ann
De modo que:
jAj = ( 1)(m
1)
3
2
akm
7 6 7 6 7 6 a1m 7 6 .. 7 6 7 6 . 7 6 7 6 7 = 6 ak 1;m 7 6 7 6 7 6 ak+1;m 7 6 7 6 .. 7 6 . 5 4 anm ( 1)(k
1)
0 0
:::
Akm
0
3 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5
jA j
segun la Proposicion 1.40, ahora por la Proposicion 1.47 resulta: jA j = akm Akm Se sigue que: jAj = ( 1)k+m akm Akm = akm Akm . Proposicion 1.54 Sea A = [aij ] de orden n. Entonces se veri ca: n X j=1
amj Aij =
im
jAj y
n X i=1
aim Aij =
jm
jAj
Demostracion: Sea B la matriz obtenida a partir de A, al reemplazar la i-esima de esta por la la de indeterminadas [x1 x2 : : : xn ].Consideremos el polinomio f de nido
37
como:
2
a a12 6 11 .. 6 .. 6 . . 6 6 6 ai 1;1 ai 1;2 6 6 f (x1 ; x2 ; : : : ; xn ) = det(B) = 6 x1 x2 6 6 6 ai+1;1 ai+1;2 6 6 .. .. 6 . . 4 an1 an2
::: .. .
a1n .. .
: : : ai :::
3
1;n
xn
: : : a1+1;n .. .. . . :::
an1
Si escribimos la la:
[x1 x2 : : : xn ] = [x1 0 : : : 0] + [0 x2 : : : 0] +
7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5
+ [0 : : : 0 xn ]
aplicando sucesivamente la Proposicion 1.50 se tiene: a11 .. . ai jBj =
a12 .. . ai
1;1
x1
::: .. .
: : : ai
1;2
0
:::
a11 .. .
a1n .. .
ai
1;n
+
0
an2
a11 .. . ai +
+
1;1
0
:::
a12 .. . ai
1;2
0
an1
ann
::: .. .
a1n .. .
: : : ai :::
1;n
xn
ai+1;1 ai+1;2 : : : a1+1;n .. .. .. .. . . . . an1
an2
:::
0
ai
1;2
x2
::: .. .
a1n .. .
: : : ai :::
1;n
0
ai+1;1 ai+1;2 : : : a1+1;n .. .. .. .. . . . .
ai+1;1 ai+1;2 : : : a1+1;n .. .. .. .. . . . . an1
1;1
a12 .. .
ann 38
an2
:::
ann
y en virtud de la Proposicion 1.53: f (x1 ; x2 ; : : : ; xn ) = det(B) =
n X
xi Aij
j=1
si evaluamos las variables x1 ; x2 ; : : : ; xn en los valores am1 ; am2 ; : : : ; amn respectivamente, se tiene: 2
a a12 6 11 .. 6 .. 6 . . 6 6 6 ai 1;1 ai 1;2 6 6 f (am1 ; am2 ; : : : ; amn ) = 6 am1 am2 6 6 6 ai+1;1 ai+1;2 6 6 .. .. 6 . . 4 an1 an2
::: .. .
a1n .. .
: : : ai :::
1;n
amn
: : : a1+1;n .. .. . . :::
an1
3
7 7 7 7 7 7 n 7 X 7 amj Aij 7= 7 7 j=1 7 7 7 7 5
Claramente si m 6= i la matriz cuyo determinante interviene en la identidad precedente tiene dos las iguales, de donde por la Proposicion 1.44 resulta: n X
amj Aij = 0
j=1
Ahora bien, si m = i; la matriz en la identidad considerada, coincide con A, de modo que:
n X j=1
en consecuencia:
n X
amj Aij = jAj
amj Aij =
im
jAj
amj Aij =
jm
jAj
j=1
La demostracion de la igualdad
n X j=1
queda a cargo del lector. 39
Nota 1.55 Las expresiones: n X
n X
aij Aij y
j=1
aij Aij
i=1
se conocen como el desarrollo del determinante de A por la i-esima la y la j-esima columna respectivamente. Ejemplos 1.56 Sea A = [aij ] de orden 3, entonces el desarrollo del jAj por la segunda la es: a11 a12 a13 jAj =
a21 a22 a23
= a21 A21 + a22 A22 + a23 A23
a31 a32 a33
= a21 ( 1)2+1
a12 a13
+ a22 ( 1)2+2
+
a31 a33
a32 a33
+ a23 ( 1)2+3
a11 a13
a11 a12 a31 a32
Proposicion 1.57 Dadas A y B de orden n, se veri ca: jABj = jAj jBj
Demostracion: Consideremos la matriz C triangular por bloques de orden dos, dada por:
2
C=4
A
0
I B 40
3 5
donde I = In y 0 = 0n . Por la Proposicion 1.47 se tiene: jCj = jAj jBj Por otra parte se pueden realizar las siguientes operaciones de las en C sin alterar el valor de su determinante segun la Proposicion 1.7, sumando a la primera la de C las las n + 1; n + 2; : : : ; 2n multiplicadas respectivamente por a11 ; a12 ; : : : ; a1n , se obtiene como primera la: 0; 0; : : : ; a11 b11 + a12 b21 +
+ a1n bn1 ; : : : ; a11 b1n +
+ a1n bnn
Es decir, los n primeros elementos de la nueva la son nulos, mientras que los n restantes, resultan ser el producto de la primera la de A por la matriz B. Analogamente, sumando a la segunda
la de C las
las n + 1; n + 2; : : : ; 2n
multiplicadas respectivamente por a21 ; a22 ; : : : ; a2n , como antes, se obtiene una la con sus primeros n elementos nulos y los n restantes dados son el producto de la segunda la de A con la matriz B. Procediendo de la misma manera con las las restantes de C, puede obtenerse la siguiente matriz: 2 3 0 P 5 D=4 I B
donde 0 = 0n y P resulta ser el producto AB. Teniendo en cuenta que el metodo empleado para obtener D a partir de C no altera el determinante, se tiene jCj = jDj. Notar que a partir de D se puede obtener la matriz: 2 3 P = AB 0 4 5 B I
mediante n intercambios de columnas. Teniendo en cuenta que jCj = jAj jBj, por las proposiciones 1.40 y 1.47 resulta: jAj jBj = jCj = jDj = ( 1)n jABj j Ij = ( 1)2n jABj = jABj . 41
De nicion 1.58 Sea A = [aij ] de orden n, se de ne la matriz adjunta de A, notada e o ad (A), como la matriz de orden n cuyos coe cientes cij estan dados por: A cij = Aji
e se tiene el cofactor del elemento Es decir, en la i-esima la y j-esima columna de A aji de A.
Proposicion 1.59 Para A = [aij ] de orden n, se veri ca: e = AA e = det(A)In AA e se tiene el producto de i-esima la de A y la Demostracion: En el lugar ij de A A e es decir: j-esima columna de A, 2 6 6 [ai1 : : : ain ] 6 4
3
Aj1 n 7 .. 7 X aik Ajk = . 7= 5 k=1 Ajn
ij
det(A)
donde la ultima igualdad resulta de la Proposicion 1.54. Lo que prueba: e = det(A)In AA
e se tiene: Analogamente, en el lugar ij de AA 2 3 a n 6 ij 7 X 6 .. 7 [a1i : : : ani ] 6 . 7 = Aki akj = 4 5 k=1 anj
ij
det(A)
donde la ultima igualdad tambien es consecuencia de la Proposicion 1.54. Se sigue que:
.
e = det(A)In AA 42
Corolario 1.60 Sea A 2 K n
n
. A es inversible si y solo si, det(A) es inversible
en K. 1
Demostracion: Supongamos A es inversible, y sea A 1
AA
su inversa, se tiene:
= In
luego det(AA 1 ) = 1, es decir, segun la Proposicion 1.57: det(A) det(A 1 ) = 1 de modo que det(A 1 ) es el inverso en K de det(A), es decir: 1
det (A)
= det A
1
:
Rec procamente, sea b en K tal que b det(A) = 1. Segun la Proposicion 1.59 se tiene: e = AA e = det(A)In AA
multiplicando por b las igualdades precedentes, resulta: e = bAA e = bdet(A)In bAA
e resulta la inversa de A. luego bA
Nota 1.61 Si K es un cuerpo y det(A) 6= 0, entonces la inversa de la matriz A puede escribirse: A
1.8.
1
=
e A det(A)
Polinomio Caracter stico
De nicion 1.62 Sea A en Mn (K). Se llama matriz caracter stica de A a la matriz xIn
A donde x es una indeterminada. El determinante de la matriz caracter stica
se denomina polinomio caracter stico de A, notado con 43
A (x).
2
i) Si A = 4
a11 a12 a21 a22
3
5 se tiene: xI
2
x 0
2
x
=4 A (x)
0 1
2
=4
luego:
1 0
A = x4
0 x
2
5
3
4 2
5
a11 a12 a21 a22
a11 a12
4
a21 a22
a11
a12
a21
x
a22
a22 )
= x2
(a11 + a22 )x + a11 a22
xI
6 6 A=6 4 A (x)
3
2 0 0
= (x
5
a21 a12
2 1 3 6 7 6 7 A=6 0 2 1 7 4 5 0 0 1 x
3
a12 a21
2
2
5
5
a11 )(x
sera:
3
3
= (x
ii) Si:
y as :
3
1
3
2)(x
1)
7 7 x 2 1 7 5 0 x 1
2)(x
Observacion 1.63 Para A = [aij ] de orden n, de grado n. Para esto basta pensar xI
3
A (x)
resulta un polinomio monico
A = [bij ] y considerar la expresion del 44
determinante: jxI
Aj =
donde el grado de cada sumando
X
b1j1
bnjn
b1j1 : : : bnjn es igual al numero de factores que
contenga en la diagonal de la matriz caracter stica. Dado que uno solo de estos contiene todos los terminos diagonales, siendo este: b11 b22 : : : bnn = (x
= xn queda claro que
A (x)
a11 ) (x
a22 ) : : : (x
(a11 + : : : + ann ) xn
ann )
1
+ : : : + ( 1)n a11 a22 : : : ann
es monico y de grado n. En forma analoga puede establecerse
que el cofactor de bij en xI
A, es un polinomio cuyo grado no excede a n
Ejemplos 1.64 Dada la matriz caracter stica de una matriz de orden 3: 2 3 x a11 a12 a13 6 7 6 7 6 a21 x a22 a23 7 4 5 a31 a32 x a33
el determinante es: x3
(a11 + a22 + a33 ) x2 + terminos de menor grado
y algunos de los cofactores: x2 + ( a11
a22 ) x + (a11 a22
a31 x + (a21 a32
a22 a31 )
Teorema 1.65 Hamilton-Cayley Sea A = [aij ] una matriz de orden n. Se veri ca: A (x)
45
=0
a12 a21 )
1.
Demostracion: Sea B = [bij ] = xI
A
la matriz caracter tica de A, y sea: ^A C = [cij ] = xI la matriz adjunta de B. Segun la Proposicion 1.59, se tiene: (xI
A) C =
A (x)I
En virtud de lo observado acerca de los cofactores de xI (1)
(n 1) n 1
cij = cij
A, podemos poner: (0)
+ : : : + cij x + cij
x
Consecuentemente: C = Cn 1 xn donde:
2
(k) c11
6 6 . Ck = 6 .. 4 (k) cn1
(k) c12
.. . (k)
cn2
1
+ : : : + C1 x + C0 3
(k) c1n
::: .. .. . .
7 7 7 para k 2 f1; : : : ; n 5
(k)
: : : cnn
Si expresamos:
A (x)
= x n + an 1 x n
1
1g
+ : : : + a1 x + a0
escribiendo: (xI
A) (Cn 1 xn
1
+ : : : + C1 x + C0 ) =
= xn I + an 1 xn 1 I + : : : + a1 xI + a0 I y comparando coe cientes con la expresion anterior se obtienen las siguientes rela-
46
ciones: Cn
1
=I
Cn
2
ACn
1
= an 1 I
Cn
3
ACn
3
= an 3 I =
C1
AC2 = a2 I
C0
AC1 = a1 I AC0 = a0 I
Multiplicando estas igualdades a la izquierda por An ; An 1 ; : : : ; A; I, respectivamente, y sumando, se obtiene en el primer miembro la matriz nula y en el segundo miembro la expresion: An + a n 1 An
1
+ : : : + a2 A 2 + a1 A + a0 I =
A (x)
con lo que queda demostrado el teorema.
1.9.
Ejercicios
1. Dadas las matrices en Rm 2
n
:
2
3
3
2
1 0 3 6 7 6 1 2 3 6 7 6 5 B=6 2 1 7 C=6 4 A=4 4 5 4 2 1 4 3 2 2 2
2 6 6 E=6 0 4 3
2
1
3
2 7 3 7 1 5 7 D=4 5 2 1 3
1 3
6 7 6 7 7 h i 6 3 7 7 6 7 F = G = 7 2 3 1 4 6 7 5 6 5 7 4 5 1 0
4 5 1
2
3
3
47
2 5
3 5
3E, C B + D, AB + D2 ,
Calcular cuando sea posible C + E, A B, B A, 2C (A A) D, A (B D), A (C + E), AC + A D, F G. 2. Calcular las potencias en los siguientes casos: i)
ii)
2 4 2 6 6 6 6 6 6 4
1
0 .. . 0
1
2
3
4
0 2
...
0 ..
.
... 0
0 .. . k
33 2 5 ;4 3n
2
1
3
2
7 2 7 7 cos ( ) 7 ;4 7 7 sen ( ) 5
3n 5
sen ( ) cos ( )
3n 5
3. Dar ejemplos de matrices cuadradas A y B tales que A.B 6= B.A 4. Encontrar matrices no nulas A y B tales que A B = 0. 5. Encontrar tres matrices A, B y C de orden 2 tales que A B = A C, B 6= C y A 6= 0. 6. Como var a el producto A B de las matrices A y B si: i) Se permutan la i-esima la y la j-esima la de la matriz A? ii) Se permutan la i-esima columna y la j-esima columna de la matriz B? 7. Probar que: i) Si A tiene una la nula entonces A B tiene una la nula. ii) Si B tiene una columna nula entonces A B tiene una columna nula. 8. Demostrar que, si A y B son matrices cuadradas de un mismo orden que no conmutan, entonces: 48
i) (A + B)2 6= A2 + 2AB + B 2 . B) 6= A2 B 2 . 2 3 a b 5 tal que: 9. Halle una matriz A = 4 c d ii) (A + B) (A
2
A4
2 3 1 2
3
2
5=4
1 0 0 1
3 5
10. Para A en Mn (K) probar: i) t A A y A t A son matrices simetricas. ii) A + t A es simetrica. iii) A
t
A es antisimetrica.
11. Si A y B son matrices simetricas de n
n, demuestre que A + B tambien es
simetrica. 12. Si A y B son matrices simetricas en K n
n
. Demostrar que: AB es simetrica,
si y solo si A y B permutan. 13. Demostrar que si AB = AC y A es inversible entonces B = C. 14. Demostrar que si AB = 0 y A es inversible entonces B = 0. 15. Si A es inversible y simetrica probar que A
1
es simetrica.
16. Sea p(x) = 3x2
5x + 2; evaluar p(x) en las siguientes matrices: 2 3 2 2 3 2 3 0 1 0 1 0 0 6 7 6 1 2 0 2 6 7 6 4 5 4 5 6 0 0 1 7 6 1 1 0 4 5 4 3 1 1 5 0 0 0 1 1 1 49
3 7 7 7 5
17. Para n 2 N, probar que: i)
ii)
2
1 1 0
6 6 6 0 1 1 4 0 0 1 2
3n
2
1 n
7 6 7 6 7 =6 0 1 5 4 0 0 3n
2
1 1 1 1 n 6 7 6 6 7 6 6 0 1 1 7 =6 0 1 4 5 4 0 0 1 0 0
18. Mostrar que las matrices que conmutan 2 0 1 6 6 6 0 0 4 0 0 son de la siguiente forma, donde a, b 2 a 6 6 6 0 4 0
n(n 1) 2
n 1
n(n+1) 2
n 1
3 7 7 7 5 3 7 7 7 5
con la matriz real: 3 0 7 7 1 7 5 0
y c son numeros reales arbitrarios: 3 b c 7 7 a b 7 5 0 a
19. Demostrar que toda matriz cuadrada es suma de una matriz simetrica y una antisimetrica. 20. Una matriz P 2 K n
n
se dice idempotente si P 2 = P . Mostrar que las sigu-
ientes matrices son idempotentes: 2 3 26 18 27 6 7 6 7 6 21 15 21 7 4 5 12 8 13
2
3
1 0 0 6 7 6 7 6 0 1 0 7 4 5 0 0 1 50
2
2 0 6 6 6 0 0 4 1 0
2
3
7 7 0 7 5 1
21. Demostrar que si A y B son matrices conmutativas e idempotentes en K n
n
entonces AB es idempotente. 22. Una matriz cuadrada J se dice involutiva si J 2 = I. Probar que si P es idempotente, entonces 2P
I es involutiva, y si J es involutiva, entonces
J+I 2
es idempotente. 23. Establecer usando Cramer si los siguientes sistemas son: determinados, indeterminados o incompatibles. 8 < 4x + 7y + 13 = 0 i) : 5x + 8y + 14 = 0 8 < 4x + 6y = 2 iii) : 6x + 9y = 3
8 < ax + by = ad ii) : bx + cy = bd
24. Demostrar que para que un determinante de segundo orden sea nulo es necesario y su ciente que sus las y sus columnas sean proporcionales. 25. Demostrar que para a; b y c reales, las ra ces de la siguiente ecuacion son numeros reales:
2
det 4
x
26. En que condiciones se veri ca: 2 1 cos(u) cos(v) 6 6 det 6 cos(u) 1 cos(w) 4 cos(v) cos(w) 1
a b 3
b x
7 7 7 = det 5
c 2
3
5=0 0
cos(u)
cos(v)
6 7 6 7 6 cos(u) 0 cos(w) 7 4 5 cos(v) cos(w) 0
27. Sin desarrollar los determinantes, demostrar las siguientes igualdades: 2 3 2 3 a1 b 1 a1 x + b 1 y + c 1 z a1 b 1 c 1 6 7 6 7 6 7 6 7 det 6 a2 b2 a2 x + b2 y + c2 z 7 = z det 6 a2 b2 c2 7 4 5 4 5 a3 b 3 a3 x + b 3 y + c 3 z a3 b 3 c 3 51
3
2
a1 + b1 x a1
b 1 x c1
3
2
a1 b 1 c 1
3
6 7 6 7 6 7 6 7 det 6 a2 + b2 x a2 b2 x c2 7 = 2x det 6 a2 b2 c2 7 4 5 4 5 a3 + b3 x a3 b3 x c3 a3 b 3 c 3 2 3 2 3 a + b1 x a1 x + b1 c1 a b c 6 1 7 6 1 1 1 7 6 7 6 7 det 6 a2 + b2 x a2 x + b2 c2 7 = (1 x2 ) det 6 a2 b2 c2 7 4 5 4 5 a3 + b3 x a3 x + b3 c3 a3 b 3 c 3
28. Calcular 2 a 6 6 6 b 4 c
2 6 6 6 6 6 6 4
los determinantes de las siguientes matrices: 3 2 3 2 3 2 2 b c x y z sen ( ) 1 cos ( ) 7 6 7 6 7 7 6 7 6 7 6 u 6 sen2 ( ) 1 cos2 ( ) 7 c a 7 v w 7 5 4 5 4 5 2 2 a b x u y v z w sen ( ) 1 cos ( ) 2 3 2 3 2 2 2 (a + b) a + b ab x y x+y 6 7 6 7 6 7 6 7 6 (c + d)2 c2 + d2 cd 7 6 y x+y x 7 4 5 4 5 2 2 2 (e + f ) e + f ef x+y x y 3 3 2 3 2 1 1 1 0 1 1 1 1 1 1 1 7 7 6 7 6 7 7 6 7 6 6 1 6 1 0 1 1 7 1 1 7 1 1 1 1 7 7 7 6 7 6 7 7 6 7 6 6 1 6 1 1 0 1 7 1 1 7 1 1 1 1 7 5 5 4 5 4 1 1 1 1 1 1 0 1 1 1 1 2 3 2 3 2 3 7 6 3 7 1 1 1 1 1 0 0 0 6 7 6 7 6 7 6 7 6 7 6 7 6 3 5 7 2 7 6 1 2 3 4 7 6 1 1 1 1 7 6 7 6 7 6 7 6 7 6 7 6 7 2 2 2 6 5 4 3 5 7 6 1 2 3 4 7 6 1 2 4 8 7 4 5 4 5 4 5 3 3 3 5 6 5 4 1 2 3 4 1 1 1 1 2 3 2 3 1 2 3 4 5 6 7 1 1 2 3 6 7 6 7 6 2 3 7 10 13 7 6 7 2 6 7 6 1 2 x 2 7 3 6 7 6 7 6 3 5 11 16 21 7 6 7 6 7 6 2 7 3 1 5 6 7 4 5 6 2 7 7 7 2 7 2 4 5 2 3 1 9 x 1 4 5 3 10 52
29. Determinante de Vandermonde. Probar la identidad: 3 2 1 1 1 7 6 7 6 Y 6 x1 x2 xn 7 7= (xj det 6 6 .. .. .. 7 6 . . . 7 1 i
xi )
30. Basandose solo en la de nicion de determinantes, calcular los coe cientes de x2 y x3 en la expresion: 2
2x x 1
6 6 6 1 x 1 f (x) = det 6 6 6 3 2 x 4 1 1 1
2
3
7 7 1 7 7 7 1 7 5 x
31. Mostrar que: 1 + x1
x2
x3
xn
x1
1 + x2
x3
xn
x1 .. .
x2 .. .
1 + x3 .. .
xn .. .
x1
x2
x3
..
.
= 1 + x1 + x2 +
+ xn
1 + xn
32. Calcular polinomio caracter stico y valores propios de las siguientes matrices: 2 3 2 3 cos(u) sen(u) cos(u) sen(u) 4 5 4 5 sen(u) cos(u) sen(u) cos(u) 2
3
1 0 0 6 7 6 7 6 0 2 0 7 4 5 1 0 0 2
2 6 6 6 4
2
1
5
3
1
0
2
3
7 7 3 7 5 2 53
2 6 6 6 4
1 2 1
3
3
3
7 7 6 13 7 5 4 8
2
3 7 6 6 6 0 1 4 0 0
1
3
7 7 4 7 5 1
2
1 1 1 1
3
7 6 7 6 6 1 1 1 1 7 7 6 7 6 6 1 1 1 1 7 5 4 1 1 1 1
2
1
6 6 6 1 6 6 6 1 4 1
1
1
1
1
1
1
1
1
1
3
7 7 1 7 7 7 1 7 5 1
2
1 1 1
3
7 6 7 6 6 1 1 1 7 7 6 7 6 6 1 1 1 7 5 4 1 1 1
33. Demostrar que el polinomio caracter stico de las matrices A B y B A coinciden. 34. Dada la sucesion doble de nida a partir de a0 y b0 de la siguiente manera : 8 8 < a < a 2bn 2bn n+1 = n+1 = i) ii) : b : b bn n+1 = an + 3bn n+1 = an
expresar an y bn en funcion de a0 , b0 y n (sugerencia: usar Hamilton Cayley).
35. Determinar si las siguientes matrices son inversibles. Si lo son, calcular su inversa:
2 4
2
cos(u)
sen(u)
sen(u)
cos(u) 3 2
3 5
2 4
cos(u)
sen(u)
sen(u) 3 2
cos(u)
2 1 1 0 0 1 6 7 6 7 6 7 6 7 6 1 2 1 7 6 0 1 0 7 4 5 4 5 1 1 2 1 0 0 3 2 2 1 1 1 1 1 7 6 6 7 6 6 6 1 6 1 1 1 1 7 7 6 6 7 6 6 7 6 1 6 1 1 1 1 5 4 4 1 1 1 1 1 2 3 2 1 1 1 1 p 6 7 6 6 7 6 6 1 6 0 1 1 1 7 6 7 6 6 7 6 6 1 1 6 0 0 1 7 4 5 4 1 1 1 0 0 54
3 5
3
1 1 6 7 6 7 6 1 1 7 4 5 1 1 3 1 1 1 7 7 1 1 1 7 7 7 1 1 1 7 5 1 1 1 3 0 0 7 7 p 0 7 7 7 1 p 7 5 0 1
36. Decidir que valores de
hacen que no sea inversible la matriz: 2 3 1 +1 6 7 6 7 6 1 2 3 7 4 5 2 +3 +7
37. Decidir para que valores de a es inversible la matriz A = [aij ] donde aij = i
j
si i > j y aij = a en otro caso. 38. Determinar cual es la matriz de orden 3 que tiene determinante igual a 4 y sus menores de orden 2 son: M11 = M22 = M33 = 3; M12 = M21 = M23 = M32 = 1; M13 = M31 = 39. Sean A = [aij ] 2 K n
m
y B = [bij ] 2 K m
n
con n
1
m. Para cada subconjunto
I = fi1 ; i2 ; : : : ; in g de f1; 2; : : : ; mg, indicamos con AI = [aij ] 2 K n
n
la
matriz obtenida al suprimir en A todas las columnas cuyas posiciones no esten indexadas por elemetos del conjunto I. Analogamente, indicamos con B 2 Kn
n
la matriz obtenida al suprimir en B todas las las cuyas posiciones no
esten indexadas por elemetos del conjunto I. Probar que: det (AB) =
X
det (AI ) det (BI )
I
donde la suma se realiza sobre todos los subconjuntos I de f1; 2; : : : ; mg con n elementos.
55
Por ejemplo: 0
2
3
2
31
3 2 2 B a b c 6 7C x a b B 7C 56 5 det 4 det B4 6 y u 7C = det 4 @ d f g 4 5A y d f z v 3 2 2 x a c 5 det 4 + det 4 z d g 3 2 2 y b c 5 det 4 + det 4 z f g x t
t u t v u v
3 5
3 5
3 5
40. Sea A una matriz de orden n. Un menor principal de orden k de A es el determinante de una matriz de orden k obtenida a partir de A suprimiendo en A n
k las y las mismas n
k columnas. Para 1
k
n llamemos Ck
a la suma de los menores principales de orden k. Demostrar que el polinomio caracter stico de A es: A (x)
= xn
C1 xn
1
+ C2 xn
2
C3 xn
3
+
+ ( 1)n Cn
Veri car la identidad para n = 2; 3 y 4. >Como es el polinomio caracter stico de la matriz A si esta tiene rango igual a 1? 41. Mostrar que el coe ciente de grado 1 en el polinomio caracter stico de la matriz A es, salvo signo, la traza de la matriz adjunta de A.
56
42. Calcular del polinomio caracter stico 2 1 1 1 1 6 6 6 1 1 1 1 6 6 6 1 1 1 1 6 6 6 1 1 1 1 6 6 6 1 1 1 1 6 6 6 1 1 1 1 6 6 6 1 1 1 1 6 6 6 1 1 1 1 4 1 1 1 1
de la siguiente matriz: 3 1 1 1 1 1 7 7 1 1 1 1 1 7 7 7 1 1 1 1 1 7 7 7 1 1 1 1 1 7 7 7 1 1 1 1 1 7 7 7 1 1 1 1 1 7 7 7 1 1 1 1 1 7 7 7 1 1 1 1 1 7 5 1 1 1 1 1
43. Calcular del polinomio caracter stico de las matrices 2 3 2 6 2 3 7 6 6 2 3 7 6 6 7 6 7 6 6 6 7 7; 6 6 4 5; 6 7; 6 7 6 4 5 6 7 6 5 6 4 6 4
57
3 7 7 7 7 7 7 7 7 7 5
2.
Cap tulo 2: Ecuaciones lineales
2.1.
Sistemas de Ecuaciones lineales
En todo lo que sigue en estas notas, K denotara un cuerpo. De nicion 2.1 Si a1 ; a2 ; : : : ; an ; b 2 K, las ecuaciones de la forma: a1 X1 + a2 X2 +
+ an Xn = b
se llaman ecuaciones lineales en las indeterminadas X1 ; X2 ; : : : ; Xn .Una solucion de la ecuacion lineal mencionada arriba, es una sucesion de elementos x1 ; x2 ; : : : ; xn en K tales que: a1 x 1 + a2 x 2 +
+ an x n = b
Es natural entonces pensar las soluciones de esta ecuacion en el producto cartesiano: Kn = K
K
K (n factores)
donde cada elemento consiste en dar en forma ordenada n numeros x1 ; x2 ; : : : ; xn en K, los que se designaran n-uplas notandolos con (x1 ; x2 ; : : : ; xn ). Se dira entonces que una n-upla (x1 ; x2 ; : : : ; xn ) en K n satisface la ecuacion lineal si (x1 ; x2 ; : : : ; xn ) es una solucion de esta. En esta seccion se estudiaran los sistemas de ecuaciones lineales en n indeterminadas, es decir, lo relativo a la soluciones de estos. Un sistema lineal de m ecuaciones en n indeterminadas puede representarse como:
8 > > a11 X1 + > > > > < a X + 21 1 > > > > > > : a X + m1 1
+ a1n Xn
=
b1
+ a2n Xn
=
b2
= + amn Xn = bm 58
con aij y bi en K. Por resolucion de un sistema lineal se entiende la determinacion de todas las posibles n-uplas (x1 ; x2 ; : : : ; xn ) en K n que satisfagan cada una de las ecuaciones del sistema. El conjunto en K n formado por estas n-uplas sera llamado el conjunto de soluciones del sistema. De nicion 2.2 Un sistema lineal se dice compatible, si admite al menos una solucion, en caso contrario, el sistema se dice incompatible. Un sistema lineal se dice homogeneo si bi = 0, 8i. Notar que un sistema homogeneo siempre es compatible, pues admite la solucion (0; : : : ; 0). La ecuacion lineal en una variable esta dada por: a; b 2 K
aX = b
Es posible analizar los sistemas de ecuaciones lineales como una ecuacion del tipo de la ecuacion anterior. Para ello notemos con A = [aij ]m;n , con X la matriz columna de indeterminadas X1 ; X2 ; : : : ; Xn y con b la matriz columna de elementos b1 ; b2 ; : : : ; bn . Ahora, el sistema de ecuaciones puede ser escrito como: 2 32 3 2 a11 a1n b X1 6 76 7 6 1 .. .. 7 6 .. 7 6 .. 6 .. 6 . . . 76 . 7 = 6 . 4 54 5 4 a1n amn Xn bn o tambien como:
3 7 7 7 5
AX = b En tal situacion la matriz A se llama matriz asociada al sistema. Es claro que una n-upla (x1 ; x2 ; : : : ; xn ) es solucion del sistema de ecuaciones, si y solo si la matriz columna X con elementos x1 ; x2 ; : : : ; xn satisface esta ultima, es decir, se veri ca: AX = b 59
Si B es una matriz inversible de orden m, A0 = B A, b0 = B b, la resolucion de la misma se apoya basicamente en el siguiente hecho: Los sistemas A X = b y A0 X = b0 tienen el mismo conjunto de soluciones. Claramente se ve que x es solucion de A X = b; si y solo si A x = b; si y solo si (B inversible) B A X = B b; si y solo si x es solucion de A0 X = b0 . Nota 2.3 A partir de esta observacion, la resolucion de A X = b, puede reducirse a la resolucion de cualquier sistema equivalente A0 X = b0 , siendo A0 y b0 como antes. La ventaja de esto, esta dada por la posibilidad de conseguir una matriz A0 mas "simple" que A. Por ejemplo si A es inversible, los sistemas: AX = b
IX =A
1
b
son equivalentes y el segundo de estos esta claramente resuelto. Nuestro objetivo sera entonces establecer sistematicamente una matriz A0 que permita resolver A X = b, con cierta simplicidad. En tal sentido se introduce la siguiente de nicion: De nicion 2.4 A = [aij ]m;n se dice escalon reducida si se veri can: i) El primer elemento distinto de cero en una la no nula de A es igual a 1. ii) Si en la i-esima la es aij su primer elemento no nulo entonces aij = 1 es el unico elemento no nulo de la j-esima columna de A y akh = 0 si k > i y h < j. iii) Ninguna la nula precede a una la no nula. Ejemplos 2.5 Podemos considerar: i) La identidad In de orden n es escalon reducida.
60
ii) Las siguientes matrices son escalon reducida: 2 2 3 1 2 1 0 0 6 0 1 2 0 6 6 7 6 0 0 0 1 0 6 7 6 0 0 0 1 7 ; 6 4 5 6 6 0 0 0 0 1 4 0 0 0 0 0 0 0 0 0
3
2
1 7 6 7 6 1 7 6 0 7 ; 6 7 6 2 7 6 0 5 4 0 0 3
0 2
3
7 7 1 1 7 7 7 0 0 7 5 0 0
Observese que el aspecto de una matriz escalon reducida en la cual la i-esima la no es nula es como sigue: 2 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 4
0 .. . 0 0
0 1
0 .. .
0 .. .
0
.. .
0 .. .
0 0
3 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5
Se vera a continuacion que para toda matriz A en K m
n
existe una matriz B in-
versible de orden m tal que B A es escalon reducida. Para esto es necesario recordar el efecto producido en las las de A al multiplicar estas a izquierda por una matriz elemental. Si F1 ; F2 ; : : : ; Fm son las las de A y E es una matriz elemental, las las de E A son: i) F1 ; F2 ; : : : ; Fi + a Fj ; : : : ; Fj ; : : : ; Fn si E = I + a Eij . ii) F1 ; F2 ; : : : ; a Fi ; : : : ; Fn si E = I + (a
1) Eii .
Notese ademas que se pueden intercambiar las las en A multiplicando a esta sucesivamente por las matrices elementales: I
Eij , I + Eji , I
palabras la matriz: (I
2 Eii ) (I + Eji ) (I 61
Eij ) A
2 Eii , en otras
se obtiene a partir de A al intercambiar en esta las las Fi y Fj . De nicion 2.6 Se llaman operaciones elementales de las a las siguientes operaciones realizadas sobre las las de una matriz: i) Para i 6= j, sumar a la i-esima la un numero por la j-esima la. ii) Multiplicar una la por un numero no nulo. iii) Intercambiar dos las. Naturalmente realizar una serie de operaciones elementales de las en una matriz, equivale a multiplicar esta por matrices elementales inversibles. El siguiente resultado es de suma utilidad para la resolucion de sistemas lineales. Proposicion 2.7 Toda matriz A = [aij ]m;n puede ser llevada por operaciones elementales de las a una matriz escalon reducida. Demostracion: Si A = 0, A es escalon reducida. Si A 6= 0, daremos un proceso que permita llevar la matriz a una matriz escalon reducida: Si la columna j1 de A es la primer columna no nula, se elige i1 tal que ai1 j1 6= 0 y se divide la la i de A por ai1 ji . A las las Fi , con i 6= i1 y aij1 6= 0, se les suma
aij1 Fi1 . Se intercambian las las 1 e i1 . Se obtiene de este modo una matriz i (1) A1 = aij . h
Si m = 1 o las las F1 ; : : : ; Fm de A1 son todas nulas, entonces A1 es escalon
reducida, en caso contrario se busca j2 tal que la columna j2 de A1 sea la primer (1)
columna con un elemento no nulo ai2 j2 con i2 > 1. Se divide la la i2 de A1 por (1)
ai2 j2 . A las las Fi de A1 con i 6= i2 y aij2 6= 0 se les suma h i (2) las las 2 e i2 . Se obtiene as una matriz A2 = aij .
aij2 Fi2 . Se intercambian
Supongase que reiterando el proceso descripto se obtiene una matriz Ai . En tal
caso, si m = i o las las Fi+1 ; : : : ; Fm no son todas nulas, por el proceso anterior puede obtenerse a partir de Ai una matriz Ai+1 . 62
Resulta claro que este proceso no puede reiterarse inde nidamente, luego existira un ndice k con 1
k
m tal que Ak es escalon reducida.
Como una aplicacion de la Proposicion 2.7 puede establecerse el siguiente resultado: Corolario 2.8 Sea A en Mn (K), A es inversible, si y solo si A es producto de matrices elementales inversibles. Demostracion: Sean E1 ; : : : ; Eh elementos inversibles tal que B = Eh
E1 A es
escalon reducida, segun 2.7. Como A es inversible tambien lo es B, luego B no posee las nulas, ademas por ser escalon reducida el primer elemento no nulo de cada la es igual a 1. Si en las columnas i1 ; i2 ; : : : ; in , las las 1; 2; : : : ; n, tienen respectivamente su primer elemento igual a 1, debera ser: i1 < i 2 <
< in
pues B es escalon reducida, siendo, esto posible solo en el caso: i1 = 1; i2 = 2; : : : ; in = n Luego B = In . Rec pocamente, por ser A producto de matrices inversibles, A resulta inversible. Corolario 2.9 Sea A en K m
n
, entonces existe una matriz B inversible de orden
m tal que B A es escalon reducida. Demostracion: Por 2.7, se sabe que pueden realizarse una serie de operaciones en las las de A y obtener una matriz escalon reducida. Pero esto equivale a multiplicar sucesivamente la matriz A a izquierda por matrices elementales, es decir, existen
63
matrices elementales E1 ; E2 ; : : : ; Ek tal que Ek
E2 E1 A es escalon reducida, luego
B puede tomarse: B = Ek
E2 E1
. Observacion 2.10 Dado el sistema A X = b, consideremos B = Ek
E2 E1 tal
que B A sea escalon reducida. Es posible llegar al sistema B A X = B b, pasando sucesivamente por los sistemas Ai X = bi , donde Ai = Ei Ei
E2 E1 A y bi =
E2 E1 b. En otras palabras, si la serie de operaciones elementales que transforman A en
B A se realizan simultaneamente en b, se obtiene B b. En consecuencia, las operaciones elementales a realizarse en A, pueden efectuarse en la matriz obtenida a partir de A agregandole b como ultima columna. Ejemplos 2.11 Considerese el sistema: 8 > > 2x + y + t = 2 > < 4x + 5y 2z + 5t = 8 > > > : x + 2y z + 2t = 3 se tiene:
2
2 1
6 6 A=6 4 5 4 1 2
0 1
3
7 7 2 5 7 5 1 2
en la matriz
2
2 1
y
6 6 6 4 5 4 1 2
2 F3 ; F3 ! F2 0 1 2
3
7 7 2 5 8 7 5 1 2 3 64
2
3
6 7 6 7 b=6 8 7 4 5 3
Realizando las siguientes operaciones de las: F1 ! F3 ; F2 ! F1
2
4 F3
se obtiene:
2
1 6 6 6 0 4 0
y haciendo ahora:
2
1
2
3
2
3
3
2
3
3
3
7 7 4 7 5 4
F1 ! F1 ; F2 ! F2 ; F3 ! F3 resulta:
2
nalmente las operaciones:
1 6 6 6 0 4 0
F1 ! F1 + dan:
2
1
2
3
2
3
0
0
0
3
F2
3
7 7 4 7 5 0
1 2 F2 ; F2 ! F2 ; F3 ! F3 3 3
2
1 3
1 0 6 6 6 0 1 4 0 0
2 3
0
1 3
1
4 3
0 0 0
3 7 7 7 5
El sistema inicial es equivalente al dado por la matriz precedente, cuya primera componente es escalon reducida. En consecuencia bastara resolver el siguiente sistema: 8 < x + 1z = 1 3 3 : y 2z + t = 4 3
de donde resulta:
8 < x= : y=
3
1 3
1 z 3
4 3
+ 23 z
t
pudiendo tomar z y t valores arbitrarios. Sea el sistema A X = b, donde A = [aij ]m;n se supone escalon reducida, es decir, existen ndices i1 ; i2 ; : : : ; ik tales que i1 < i2 < para h
< ik , a1i1 = a2i2 =
k, ahj = 0 si j < ih o j = ih+1 ; : : : ; ik y para h > k, ahj = 0. 65
= akik = 1,
Se conviene en llamar variables dependientes a las indeterminadas xi1 ; xi2 ; : : : ; xik , y variables independientes a las indeterminadas restantes. Desde que A es escalon reducida, notar que en cada ecuacion del sistema aparece una unica variable dependiente con coe ciente no nulo igual a 1. Esto permite expresar cada variable dependiente xi en funcion de las variables independientes a partir de la unica ecuacion en la que interviene xi . Resulta claro entonces, que la compatibilidad del sistema queda limitada a observar si las las nulas de A se corresponden con elementos no nulos de la columna b; es decir, el sistema es compatible si y solo si bi = 0 para i > k. De nicion 2.12 Se llama solucion general del sistema, a la n-upla (x1 ; x2 ; : : : ; xn ), en la cual las variables dependientes son reemplazadas por su expresion en funcion de las variables independientes. Ejemplos 2.13 Sea el sistema 2 0 1 6 6 6 0 0 6 6 A=6 0 0 6 6 6 0 0 4 0 0
A X = b, donde: 3 2 2 0 1 0 1 7 6 7 6 6 0 1 2 0 1 7 7 6 7 6 0 0 0 1 1 7 y b=6 7 6 7 6 7 6 0 0 0 0 0 5 4 0 0 0 0 0
1
3
7 7 3 7 7 7 2 7 7 7 a 7 5 c
Observando A, resultan ser x2 ; x4 y x6 las variables dependientes. De la primera ecuacion se obtiene: x2 = 1
2 x3
x5
x7
de la segunda ecuacion: x4 = 3
2 x5
y de la tercer ecuacion: x6 = 2 66
x7
x7
Naturalmente, el sistema sera compatible solo si a = b = 0, teniendo por solucion general: (x1 ; 1
2.2.
2 x3
x5
x 7 ; x3 ; 3
2 x5
x 7 ; x5 ; 2
x 7 ; x7 )
Regla de Cramer
Sea A = [aij ] de orden n, y sea el sistema A X = b. Si x = (x1 ; x2 ; : : : ; xn ) es una solucion del sistema, se tiene: Ax = b Multiplicando ambos miembros de la ecuacion anterior por la matriz adjunta de A, resulta: eb det(A) x = A
En la la i del primer miembro de esta ultima se tiene: det(A) xi mientras que en el segundo miembro es: 2 b h i6 1 6 .. Ai1 Ain 6 . 4 bn
3
n 7 X 7 bj Aij = jAi (b)j 7= 5 j=1
donde la matriz Ai (b) es la que se obtiene a partir de A reemplazando la i-esima
columna de esta por la columna b. La ultima igualdad se sigue de la demostracion de 1.54. Igualando las expresiones obtenidas para la i-esima la en los miembros de:
se obtiene:
eb det(A) x = A det(A)xi = jAi (b)j 67
i = 1; 2; : : : ; n
Estas relaciones se conocen como la Regla de Cramer. En particular, si det(A) es inversible (no nulo en el caso de cuerpos) resulta: xi =
jAi (b)j ; i = 1; 2; : : : ; n jAj
la unica solucion del sistema A x = b. Nota 2.14 Como una aplicacion de la Regla de Cramer, se puede citar el siguiente problema conocido como Interpolacion de Lagrange: Dados a1 ; : : : ; an en K distintos entre si, b1 ; : : : ; bn arbitrarios en K, se desea encontrar un polinomio P (X) de grado menor que n, tal que: P (ai ) = bi Poniendo P (X) = c0 + c1 X +
+ cn
1
X n 1 , las condiciones anteriores pueden
escribirse: c 0 + c 1 ai +
+ cn
1
ani
1
= bi ; i = 1; 2; : : : ; n
es decir la n-upla (c0 ; : : : ; cn 1 ) debe ser solucion de las n ecuaciones precedentes. Dicho de otro modo, esta n-upla debe ser solucion del sistema: Ax = b donde:
2
6 6 6 A=6 6 6 4
an1
1 a1 a21 1 a2 .. .. . .
an2 1
a22 .. .
1 an a2n
1
.. .
.. . ann
1
Puesto que los ai son distintos;
det(A) =
Y
(ai
i>j
68
aj ) 6= 0
3 7 7 7 7 7 7 5
A resulta inversible y por la Regla de Cramer: ci Ejemplos 2.15 Dados a1 =
1
=
jAi 1 (b)j jAj
1, a2 = 0, a3 = 2 y b1 =
4, b2 = 3, b3 = 5,
encontrar: P (X) = c0 + c1 X + c2 X 2 tal que P (ai ) = bi El problema se reduce a resolver el sistema de ecuaciones lineales: 8 > > c c1 + c2 = 4 > < 0 c0 = 3 > > > : c + 2c + 4c = 5 0
1
2
utilizando la Regla de Cramer: 4
1 1
1
4 1
1
1
4
3
0 0
1
3 0
1
0
3
5
2 4
1
5 4
1
2
5
c0 =
= 3; c1 =
= 5; c2 =
=
1
1 1
1
1 1
1
1 1
1
0 0
1
0 0
1
0 0
1
2 4
1
2 4
1
2 4
P (X) = 3 + 5 X
69
2 X2
2
2.3.
Ejercicios
1. Resolver los siguientes sistemas de ecuaciones lineales por la Regla de Cramer, caracterizando el conjunto de soluciones: 8 > > 2x > < 3x > > > : 4x
y + 3z = 9 5y + z =
4
7y + z = 5
8 > > 2x y 6z + 3t + 1 = 0 > > > > < 7x 4y + 2z 15t + 32 = 0 > > x 2y 4z + 9t 5 = 0 > > > > : x 2y + 2z 6t + 8 = 0 8 > > > > > > <
x+y+z+t=a x
y+z+t=b
> > x+y z+t=c > > > > : x+y+z t=d
2. Transformar en matrices 2 3 6 6 6 2 6 6 6 0 4 1
8 > > 2x + y + 4z + 8t = 1 > > > > < x + 3y 6z + 2t = 3 > > 3x 2y + 2z 2t = 8 > > > > : 2x y + 2z = 4
8 > > 6x + 5y 2z + 4t + 4 = 0 > > > > < 9x y + 4z t 13 = 0 > > 3x + 4y + 2z 2t 1 = 0 > > > > : 3x 9y + 2t 11 = 0 8 > > ax + by + cz + dt = p > > > > < bx + ay + dz + ct = q > > cx dy + az + bt = r > > > > : dx + cy bz + at = s
escalon reducidas 3 2 6 2 1 7 7 6 4 1 3 7 6 7 6 7 4 0 1 1 7 5 2 1 0
las siguientes matrices:
1
2
2
4
5 10
2
3
3
7 7 4 7 5 8 11 3
3. Resolver las ecuaciones lineales del ejercicio 1, transformando en matrices escalon reducidas la matriz asociada a cada uno de los sistemas. 4. Resolver las ecuaciones lineales de los siguientes sistemas, transformando en 70
matrices escalon reducidas: 8 > > 2x + 2y + t + 3 = 0 > > > > < 2x + 3y + z 4t = 0 > > 3x + 4y z + 2t = 0 > > > > : x + 3y + z t 2 = 0 8 > > 2x + 7y + 3z + t = 5 > > > > < x + 3y + 5z 2t = 3 > > x + 5y 9z + 8t = 1 > > > > : 5x + 18y + 4z + 5t = 12
5. Elegir
8 > > x + y + z + t + u = 15 > > > > > > x + 2y + 3z + 4t + 5u = 35 > < x + 3y + 6z + 10t + 15u = 70 > > > > > x + 4y + 10z + 20t + 35u = 126 > > > > : x + 5y + 15z + 35t + 70u = 210
8 > > x + y + 4z + 4t + u + 9 = 0 > > > > > > 2x + 2y + 17z + 17t + 82u + 146 = 0 > < 2x + 3z t + 4u + 10 = 0 > > > > > y + 4z + 12t + 27u + 26 = 0 > > > > : x + 2y + 2z + 10t 37 = 0
de tal modo que cada uno de los siguientes sistemas de ecuaciones
tengan solucion: 8 > > 2x y + z + t = 1 > < x + 2y z + 4 t = 2 > > > : x + 7y 4z + 11t =
8 > > (1 + ) x + y + z = 1 > < x + (1 + ) y + z = 1 > > > : x + y + (1 + ) z = 1
8 > > > <
x+y+z =1
x+ y+z =1 > > > : x+y+ z =1
6. Determinar para que valores de k el siguiente sistema tiene soluciones distintas de la trivial:
8 > > x + (k + 1) y + z = 0 > < x + y + (k + 1) z = 0 > > > : (k + 1) x + y + z = 0
En cada caso, estudiar el espacio solucion e interpretar geometricamente. 71
7. Hallar la ecuacion de la recta que pasa por los puntos p = (a; b) y q = (c; d), (p 6= q) 8. >Cual es la condicion necesaria y su ciente para que tres puntos p = (a; b), q = (c; d) y r = (e; f ) esten situados en la misma recta? 9. >Cual es la condicion necesaria y su ciente para que tres rectas: a1 x + b 1 y + c 1 = 0 a2 x + b 2 y + c 2 = 0 a3 x + b3 y + c3 = 0 pasen por un punto? 10. Probar que un polimonio de grado n queda completamente determinado por los valores que toma en n+1 valores distintos de la indeterminada. Mas precisamente, demostrar que, si x0 ; x1 ; : : : ; xn son numeros arbitrarios distintos entre si e y0 ; y1 ; : : : ; yn son numeros arbitrarios, existe un unico polinomio f (x) de grado menor o igual que n, tal que: 8 i = 0; 1; : : : ; n
f (xi ) = yi 11. Hallar el polinomio f (x) de grado f (1) =
2, tal que:
1; f ( 1) = 9;
12. Hallar el polinomio f (x) de grado
f (2) =
3
3, tal que:
f ( 1) = 0; f (1) = 4; 13. Hallar un polinomio f (x) de grado
f (2) = 3; f (3) = 16
10; tal que: 8 i = 0; 1; : : : ; 10
f (i) = i + 1 72
14. Sean u; v; w 2 K distintos dos a dos. Hallar escalares a; b y c en K; tales que: h
u3 v 3 w 3
i
=a
h
1 1 1
i
+b
h
u v w
15. Dadas las matrices en R2 2 : 3 2 3 2 2 1 0 1 0 1 5, 4 5, 4 4 0 1 0 1 0 2
mostrar que para cada matriz 4 unicos, tales que: 2 2 3 a b 4 5 = r4 c d
0 1 1 0
3
a b c d 2
5 + s4
5 2 R2
2
3
2
1 0 2
1
3
0 1
16. Para cualquier matriz [ x y ] en R1
0
5 + t4
i
+c
3 2 5, 4
h
u2 v 2 w 2
1 0 0 1
3 5
existen escalares r; s; t y u,
1
0
0
1
3
2
5 + u4
1 0 0 1
3 5
>existen escalares a; b; c en R, tales que:
[ x y ] = a[ 1 2 ] + b[ 1 1 ] + c[ 2 1 ] >Son a; b; c unicos? 17. Analizar el siguiente sistema para los distintos valores de : 8 > > 2x y+z = 2 +5 > < x+y z=1 > > > : 4x + y z=
18. Dada f : R3 ! R3 de nida como:
f (x; y; z) = (x + y + z; x
y + z; x + y
es f biyectiva? En caso a rmativo calcular f
73
i
1
.
z)
3.
Cap tulo 3: Espacios Vectoriales y Transformaciones Lineales En todo este cap tulo K denotara un cuerpo.
3.1.
Espacios vectoriales, Subespacios
De nicion 3.1 Un conjunto G se dice un grupo abeliano si esta provisto de una operacion interna "+" que veri ca: i) (a + b) + c = a + (b + c) para todo a; b; c 2 G (Asociativa) ii) a + b = b + a para todo a; b 2 G (Conmutativa) iii) Existe un elemento notado con 0 tal que a+0 = a para todo a 2 G (Elemento neutro) iv) Para todo a 2 G, existe b 2 G, notado con " a" tal que a + b = 0 (Elemento opuesto). Ejemplos 3.2 Consideremos: i) Los numeros enteros con la suma usual. ii) Los numeros racionales positivos con el producto. iii) K m
n
con la suma de matrices.
Proposicion 3.3 Si G es un grupo abeliano, se veri can las siguientes propiedades: i) El elemento neutro es unico. ii) Para a 2 G , el opuesto de a es unico. iii) Para a; b 2 G , la ecuacion a + X = b tiene solucion unica en G. Demostracion: Queda a cargo del lector. 74
De nicion 3.4 Un grupo abeliano V , se dice un espacio vectorial sobre un cuerpo K, si esta de nida una operacion: :K
V !V
que veri ca: i) (ab) v = a (b v) para todo a; b 2 K; v 2 V . ii) (a + b) v = a v + b v para todo a; b 2 K; v 2 V . iii) a (v + w) = a v + a w para todo a 2 K; v; w 2 V . iv) 1 v = v para todo v 2 V . Del mismo modo que suele suprimirse el signo del producto en la multiplicacion de escalares, suprimiremos el signo de la operacion entre escalar y vector siempre que no haya lugar a confusion, dado que generalmente se conoce la naturaleza de los elementos que intervienen en las operaciones. De nicion 3.5 Los elementos de V seran llamados vectores y los de K escalares. Ejemplos 3.6 Sean: i) K n = K
K
K (n factores), el conjunto de las n-uplas de elementos
en K forma un espacio vectorial sobre K con las operaciones que se describen a continuacion: (x1 ; x2 ; : : : ; xn ) + (y1 ; y2 ; : : : ; yn ) = (x1 + y1 ; x2 + y2 ; : : : ; xn + yn ) (x1 ; x2 ; : : : ; xn ) = ( x1 ; x2 ; : : : ; xn ) El vector nulo es 0 = (0; 0; : : : ; 0), y el opuesto de (x1 ; x2 ; : : : ; xn ) es: ( x1 ; x2 ; : : : ; xn ) ii) K m
n
, con las operaciones usuales, tambien es un espacio vectorial sobre K. 75
iii) K[t], los polinomios con coe cientes en K con la suma de polinomios y el producto de un numero por un polinomio forman un espacio vectorial. Los vectores de R2 , pueden representarse en el plano a partir de un sistema de referencia dado por los ejes cartesianos. Cada vector v = (x; y) se piensa como el segmento orientado con origen en 0 = (0; 0) y extremo en (x; y). Para a 2 R, el producto av se obtiene dilatando (si jaj
1) o contrayendo (si
jaj < 1) el segmento v, con el mismo sentido si a > 0 o sentido contrario si a < 0. Ahora, si v = (x1 ; y1 ) y w = (x2 ; y2 ), la suma v + w queda representada por la diagonal del paralelogramo que tiene por dos lados a los segmentos con extremos 0; v y 0; w. De nicion 3.7 Sea V un K-espacio vectorial. Un subconjunto S de V se dice un subespacio de V si se veri can: i) 0 2 S. ii) v 2 S, w 2 K ) v + w 2 S. iii) v 2 S,
2K)
v 2 S.
Notar que cada subespacio es a la vez un K-espacio vectorial. i) f0g
V es un subespacio.
ii) El conjunto de matrices simetricas es un subespacio del espacio de matrices de orden n. iii) Los polinomios P 2 K[t] tales que P (0) = 0; forman un subespacio de K[t]. iv) Las funciones de R en R forman un R-espacio vectorial con las operaciones siguientes (f + g) (x) = f (x) + g (x) ( f ) (x) = f (x) ; ; x 2 R Siendo subespacio de este, el conjunto de funciones continuas, el conjunto de funciones derivables, el conjunto de funciones polinomicas, etc. 76
De nicion 3.8 Sea V un espacio vectorial, v1 ; : : : ; vm en V , llama combinacion lineal de v1 ; : : : ; vm con coe cientes
1; : : :
1; : : : ; m
m
en K. Se
al vector obtenido
como: 1 v1
+
+
m vm :
Nota 3.9 El conjunto de todas las combinaciones lineales de v1 ; : : : ; vm sera notado con hv1 ; : : : ; vm i. Por otra parte, si A es un subconjunto V , se puede considerar el conjunto hAi de combinaciones lineales de elementos de A aun cuando A sea in nito. En este caso, solo se consideran las combinaciones lienales de subconjuntos ntos de A. Practicamente, no usaremos las combinaciones lineales de un conjunto in nito en este libro, debido a que, salvo casos aislados, los conjuntos involucrados seran conjuntos nitos de vectores. Por otra parte, no es dif cil ver que hAi es un subespacio de V, en cualquier caso. De nicion 3.10 El conjunto de las combinaciones lineales hv1 ; : : : ; vm i, se llama el subespacio generado por los vectores v1 ; : : : ; vm . Si existen vectores v1 ; : : : ; vm en V tales que: V = hv1 ; : : : ; vm i diremos que V es nitamente generado y que el conjunto fv1 ; : : : ; vm g es un sistema de generadores de V . Proposicion 3.11 Sea V un espacio vectorial, S un subespacio de V . Si v1 ; : : : ; vm 2 S, entonces hv1 ; : : : ; vm i es un subespacio de V y ademas: hv1 ; : : : ; vm i
S:
Demostracion: Si v1 ; : : : ; vm estan en S, es claro que toda combinacion lineal de v1 ; : : : ; vm es un elemento de S, luego hv1 ; : : : ; vm i 77
S. Por otra parte se tiene:
i) Veamos que 0v = 0 cualquiera sea v 2 V . En efecto: 0v = (0 + 0) v = 0v + 0v sumando
0v en los miembros extremos de la igualdad y usando la asociatividad
de la suma de vectores se tiene: 0 = 0v + 0v = 0v + (0v + 0v) = 0v + 0 = 0v Ahora: 0 = 0v1 + 0v2 +
+ 0vm
muestra que 0 2 hv1 ; : : : ; vm i. ii) La suma es cerrada en hv1 ; : : : ; vm i ; como lo muestra la identidad siguiente: m X
i vi
+
i=1
m X
i vi
=
i=1
m X
(
i
+
i )vi
i=1
i;
i
2K
Esta identidad se establece a partir de los axiomas de espacio vectorial. iii) Finalmente para
2 K, por los axiomas de espacio vectorial se tiene: m X
i vi
i=1
=
m X
(
i ) vi
i=1
es decir, hv1 ; : : : ; vm i es un subespacio de V .
3.2.
Dependencia Lineal
En todo lo que sigue, V denotara un K-espacio vectorial nitamente generado. De nicion 3.12 Los vectores v1 ; : : : ; vk en V se dicen linealmente dependientes si existen escalares
1; : : : ;
k
no todos nulos tales que: 1 v1
+
+
k vk
=0
En caso contrario, v1 ; : : : ; vk se dicen linealmente independientes. 78
De nicion 3.13 Si S es un subespacio de V , una base de S es un conjunto de vectores v1 ; : : : ; vk que son linealmente independientes y tales que S = hv1 ; : : : ; vm i. i) Se desea analizar la dependencia lineal de los siguientes vectores en R3 : (1; 1; 1) ; (1; 0; 1) ; (0; 1; 1) es decir, si existe una terna ( ; ; ) 6= (0; 0; 0) tal que: (1; 1; 1) + (1; 0; 1) + (0; 1; 1) = (0; 0; 0) La igualdad precedente puede escribirse como: 8 > > 1 +1 +0 =0 > < 1 +0 +1 =0 > > > : 1 +1 +1 =0
de donde ( ; ; ) debe ser solucion del sistema lineal homogeneo: AX = 0
siendo:
Dado que jAj =
2
3
1 1 0 6 7 6 7 A=6 1 0 1 7 4 5 1 1 1
1, A es inversible y (0; 0; 0) es la unica solucion del sistema, luego
es la unica terna ( ; ; )que veri ca: (1; 1; 1) + (1; 0; 1) + (0; 1; 1) = (0; 0; 0) es (0; 0; 0). As se tiene que (1; 1; 1) ; (1; 0; 1) ; (0; 1; 1) son linealmente independientes. ii) Sea m > n y v1 ; : : : ; vm vectores en Rn . Resultan v1 ; : : : ; vm linealmente dependientes. 79
Procediendo como en el ejemplo anterior, la dependencia lineal puede establecerse a partir de una solucion no trivial del sistema: AX = 0 donde A 2 K n
m
es la matriz cuyas columnas son las componentes de v1 ; : : : ; vm
respectivamente. Dado que m > n; hay mas variables que ecuaciones en el sistema, de modo que al escalonar A, se tendra por lo menos una variable independiente y en consecuencia una solucion no trivial, lo que da la dependencia lineal de v1 ; : : : ; vm . iii) Se desea analizar la dependencia lineal de: (1; 1; 1) ; ( 1; 1; 1) ; (1; 0; 1) en R3 : Como antes, hay que buscar la solucion 2 1 1 6 6 AX = 6 1 1 4 1 1
del sistema: 32 3 2 3 0 1 x 76 7 6 7 76 7 6 7 0 76 y 7 = 6 0 7 54 5 4 5 0 1 z
Escalonando A se tiene el sistema equivalente: 2 32 3 2 1 1 0 0 x 2 76 6 7 6 6 6 7 6 1 7 6 0 1 76 y 7 = 6 0 2 4 54 5 4 0 0 0 0 z y la solucion general
1 1 z; z; z 2 2
3 7 7 7 5
luego para cada valor arbitrario de z sera:
1 1 z (1; 1; 1) + z ( 1; 1; 1) + z (1; 0; 1) = (0; 0; 0) 2 2 y basta tomar z 6= 0 para mostrar la dependencia lineal. iv) Es claro que los vectores (1; 0; : : : ; 0), (0; 1; 0; : : : ; 0), base de K n , llamada la base canonica de K n . 80
, (0; : : : ; 0; 1) forman una
v) Se a rma que los vectores (2; 1; 1) ; (1; 2; 1) ; (1; 1; 2) forman una base de R3 . Para garantizar tal a rmacion, debe verse primero que todo vector de R3 es combinacion lineal de los vectores dados, es decir, para cada terna (x; y; z) existen escalares , , tales que: (x; y; z) =
(2; 1; 1) + (1; 2; 1) + (1; 1; 2)
lo que equivale a la igualdad: 2
32
2 1 1 6 76 6 76 6 1 2 1 76 4 54 1 1 2
3
La terna ( ; ; ) es unica y viene dada por: 3x
y 4
z
=
3
x 7 6 7 7 6 7 7 = 6 y 7: 5 4 5 z
Como en la igualdad precedente, la matriz de 2 3 1 16 6 6 1 3 44 1 1
=
2
orden 3 es inversible con inversa: 3 1 7 7 1 7 5 3
x + 3y 4
z
=
x
y + 3z 4
es decir, existe una unica forma de expresar (x; y; z) como combinacion lineal de los vectores dados, a saber: (x; y; z) = =
(2; 1; 1) + (1; 2; 1) + (1; 1; 2) 3x
y 4
z
(2; 1; 1) +
x + 3y 4
z
(1; 2; 1) +
x
y + 3z (1; 1; 2) : 4
En particular, existe una unica forma de expresar (0; 0; 0) como combinacion lineal de: (2; 1; 1) ; (1; 2; 1) ; (1; 1; 2) y esto da la independencia lineal de dichos vectores. 81
Observese que un vector v es linealmente independiente, si y solo si v 6= 0. Dos vectores v y w son linealmente independientes, si y solo si uno de ellos no es un multiplo escalar del otro. En general se puede establecer: Proposicion 3.14 Los vectores v1 ; : : : ; vk en V son linealmente dependientes, si y solo si existe un ndice i tal que vi es combinacion lineal de los vectores restantes. Demostracion: Sean
1; : : : ;
k
escalares no todos nulos tales que: 1 v1
+
+
k vk
=0
Para algun ndice i es ai 6= 0, y vi puede despejarse de la identidad precedente como: vi =
X j6=i
j
vj
i
Rec procamente, si para algun ndice i es vi es combinacion lineal de los vectores restantes se tienen escalares
j
(i 6= j) tales que: vi =
X
j vj
j6=i
luego: 0=
vi +
X
j vj
=
1 v1
+
+
k vk
j6=i
es decir, 0 es combinacion lineal con escalares no todos nulos (
i
y en consecuencia v1 ; : : : ; vk resultan linealmente dependientes. Teorema 3.15 Sea V 6= f0g, entonces: i) V admite una base. ii) Dos bases de V tienen el mismo numero de vectores.
82
=
1) de v1 ; : : : ; vk
Demostracion: i) Entre los sistemas de generadores de V , puede elegirse uno con el m nimo numero de vectores. Sea n este numero y fv1 ; : : : ; vn g un tal sistema. Si n = 1, v1 6= 0 pues V 6= f0g, luego fv1 g es una base de V . Si n > 1 y existe un ndice i tal que vi es combinacion lineal de los vectores restantes, es decir: vi =
X
j vj
j6=i
todo elemento v 2 V podra expresarse como combinacion lineal de los vj (j 6= i) del siguiente modo: v=
n X
j vj
=
j=1
=
X
X
j vj
+
i
j6=i
=
X
j vj
+
i vi
j6=i
X
j vj
j6=i
(
j
+
i j ) vj
j6=i
de donde V admite un sistema de generadores con n 1 elementos, lo que contradice la minimalidad de n, luego por la Proposicion 3.14 fv1 ; : : : ; vn g es una base de V . ii) Se sigue de la siguiente a rmacion: Si v1 ; v2 ; : : : ; vn generan V y m 2 N tal que m > n, entonces m vectores en V son linealmente dependientes. En efecto, sean w1 ; : : : ; wm en V , escribiendo: wj =
n P
ij vi
j = 1; 2; : : : ; m
i=1
se tiene una matriz A = [
ij ]n;m ,
y por 2.9 el sistema lineal homogeneo AX = 0
tiene una solucion fx1 ; : : : ; xm g no trivial. Multiplicando ambos miembros de las 83
expresiones para wj por xj y sumando sobre j resulta: m X
xj wj =
j=1
m X n X
ij xj vi
j=1 i=1
=
n m X X i=1
ij xj
j=1
!
vi = 0
lo que da una combinacion nula de los wj con algun xj no nulo. Ahora bien, si v1 ; v2 ; : : : ; vn , y w1 ; : : : ; wm son bases de V , puesto que w1 ; : : : ; wm son linealmente independientes, debe ser m m
n. Analogamente puede establecerse
n. Segun el Teorema 3.15, dos bases V tienen el mismo numero de elementos. Esto
da consistencia a la siguiente de nicion. De nicion 3.16 Se llama dimension de V , notada con dim (V ), a la cantidad de elementos de una base de V . Nota 3.17 Por razones operativas, convenimos en asignar la dimension 0 al espacio nulo. A continuacion se vera que todo subespacio no nulo de V admite una base, con lo que la de nicion de dimension se extiende a los subespacios no nulos de V y se conviene dimension cero para el subespacio nulo. Proposicion 3.18 Sean S y T subespacios de V , S
T . Se veri can las siguientes
propiedades: i) Todo espacio no nulo de V admite una base. ii) dim (S)
dim (T ) y si k = dim(S), m = dim (T ), T admite una base: fv1 ; : : : ; vk ; vk+1 ; : : : vm g 84
donde fv1 ; : : : ; vk g es una base de S. iii) Si dim (T )
dim (S), entonces S = T .
Demostracion: i) Sea S un subespacio no nulo de V . Si dim(V ) = n, el numero de elementos de un conjunto de vectores linealmente independientes en V , no puede exceder a n, (ver demostracion del Teorema 3.15 ii)), en particular los conjuntos de vectores linealmentes independientes en S no pueden tener mas de n elementos. Siendo S no nulo, S tiene por lo menos un conjunto de vectores linealmente independientes con un numero maximo de vectores, sea k este numero y fv1 ; v2 ; : : : ; vk g un tal conjunto. Se tiene hv1 ; v2 ; : : : ; vk i
S.
Si v 2 S, los vectores fv1 ; v2 ; : : : ; vk ; vg son linealmente dependientes con lo que existen escalares
1; : : :
k; 1 v1
Si
no todos nulos tales que: +
2 v2
+
+
k vk
+ v=0
= 0, de acuerdo con la identidad precedente, se contradice la independencia 6= 0 y podemos poner:
lineal de los vectores v1 ; v2 ; : : : ; vk ; luego v=
1
k
v1
vk
o sea v 2 hv1 ; v2 ; : : : ; vk i, de modo que S = hv1 ; v2 ; : : : ; vk i y fv1 ; v2 ; : : : ; vk g es una base de S. ii) Supongamos entonces S
T . Sea fv1 ; v2 ; : : : ; vk g es una base de S. En-
tre los conjuntos de vectores linealmente independientes de T que contienen a los vi , existira uno con un numero maximo de vectores. Sea h este numero y fv1 ; v2 ; : : : ; vk ; vk+1 ; : : : vh g un tal conjunto. Procediendo como en i) puede verse que: T = hv1 ; v2 ; : : : ; vk ; vk+1 ; : : : vm i Se sigue que h = m y fv1 ; v2 ; : : : ; vk ; vk+1 ; : : : vm g es una base de T . 85
iii) Es inmediato a partir de ii).
3.3.
Operaciones con Subespacios
A continuacion se presentaran dos operaciones que pueden realizarse con los subespacios de V , quedando a cargo del lector demostrar que en cada caso se obtienen nuevos subespacios de V . Si S y T son subespacios de V , S \ T es un subespacio de V y la suma de S y T de nida como: S + T = fs + t : s 2 S; t 2 T g es tambien un subespacio de V . De nicion 3.19 La suma de una familia S1 + S2 + suma directa, y se nota con S1
S2
+ Sm de subespacios se llama
Sm , si hay una unica manera de expresar
el vector nulo como suma de vectores en estos subespacios, es decir: Si s1 + s2 +
+ sm = 0 con si 2 Si ; entonces s1 = s2 =
= sm = 0
Observacion 3.20 Una condicion equivalente para que la suma de dos subespacios S y T sea directa es que S \ T = f0g. La comprobacion se deja para el lector. El siguiente resultado relaciona las dimensiones de los subespacios S; T , S \ T y S + T. Proposicion 3.21 Sean S y T subespacios de V , entonces: dim (S + T ) = dim (S) + dim (T )
86
dim (S \ T ) :
Demostracion: Sea fv1 ; : : : ; vk g una base de S \ T , y segun la Proposicion 3.18 podemos formar: v1 ; : : : ; vk ; w1 ; : : : wh una base de T y v1 ; : : : ; vk ; u1 ; : : : ; um una base de S. Dados s 2 S, t 2 T se puede escribir: k P
s=
i vi +
i=1
h P
i vi +
i=1
de donde: s+t=
k X
(
+
i
i ui
i=1
k P
t=
m P
i wi
i=1
i ) vi
+
i=1
m X
i ui
+
i=1
h X
i wi
i=1
Luego los vectores v1 ; : : : ; vk ; u1 ; : : : um ; w1 ; : : : wh generan S + T . Por otra parte si los escalares
1; : : : ;
k;
1; : : : k X
m; 1; : : : h
i vi +
i=1
m X
son tales que:
i ui +
i=1
h X
i wi
=0
i=1
ponemos: k X
i vi
+
i=1
m X
i ui
=
i=1
h X
i wi
i=1
En la identidad, el miembro de la izquierda es un elemento de S, mientras que el de la derecha es un elemento de T , en consecuencia ambos miembros son elementos de S \ T . Poniendo:
h X
i wi
=
i=1
resulta:
0=
k X
k X
i vi
i=1
i vi
+
i=1
h X
i wi
i=1
y desde que v1 ; : : : ; vk ; w1 ; : : : wh es una base de T , debe ser: 1
=
=
k
=
1
87
=
=
h
=0
y consecuentemente: k X
i vi
+
i=1
m X
i ui
=0
i=1
Procediendo en forma analoga, se concluye que: 1
=
=
k
=
1
=
=
m
=0
dando la independencia lineal de los vectores considerados, es decir: v1 ; : : : ; vk ; u1 ; : : : um ; w1 ; : : : wh es una base de S + T . En conclusion: dim (S + T ) = k + h + m = (k + h) + (m + k) = dim (S) + dim (T )
k
dim (S \ T )
.
3.4.
Transformaciones Lineales
A continuacion se introduce el concepto de transformacion lineal, cuyo estudio se retomara mas adelante. Las transformaciones lineales, tambien llamadas mor smos, son aquellas aplicaciones entre espacios vectoriales que preservan la estructura algebraica de estos, podr a decirse que son compatibles con suma de vectores y con el producto entre un escalar con un vector. La de nicion formal puede establecerse como sigue: De nicion 3.22 Sean V y W K-espacios vectoriales. Una funcion t : V ! W se dice una transformacion lineal si se veri can: i) t (v + u) = t (v) + t (u) para todo u; v 2 V . ii) t ( v) = t (v) para todo v 2 V;
2 K. 88
i) 1v : V ! V de nida como 1v (v) = v para todo v 2 V , es una transformacion lineal. ii) La transformacion nula 0 : V ! W de nida como 0 (v) = 0 para todo v 2 V , es una transformacion lineal. iii) La derivacion D : K[t] ! K[t] dada por: D (P (t)) =
@P (t) @t
es una transformacion lineal. iv) Si V es el espacio de funciones reales continuas en el intervalo [0; 1], la integral es una transformacion lineal de V en R, es decir: I (f ) =
Z1
f (x) dx
0
3
3
v) Si t : R ! R esta dada por: t (x; y; z) = (x + y + z; x
y + z; x + y
z)
t tambien es una transformacion lineal. De nicion 3.23 Si t : V ! W es una transformacion lineal, se de ne el nucleo de t, notado con N u(t) y la imagen de t, notada con Im (t), del siguiente modo: N u (t) = fv 2 V : t (v) = 0g Im (t) = fw 2 W : 9v 2 V con t (v) = wg : Con las notaciones precedentes, el lector puede demostrar las propiedades que se enuncian a continuacion: i) Si t es una transformacion lineal, entonces t (0) = 0. (Sugerencia: 0 = 0 + 0). ii) t es una transformacion lineal si y solo si, t ( v + u) = t (v) + t (u) para todo u; v 2 V ,
2 K. (Sugerencia: usar i) y valores apropiados para
y u).
iii) Si t es una transformacion lineal, entonces N u(t) e Im(t) son subespacios de V y de W respectivamente. 89
De nicion 3.24 Una transformacion lineal t : V ! W se dice monomor smo si t es inyectiva; epimor smo si t es sobreyectiva, e isomor smo si t es biyectiva. Dos espacios V y W se dicen isomorfos si existe un isomor smo t de V en W . Los espacios isomorfos no se distinguen estructuralmente, esto signi ca que, salvo la naturaleza de sus elementos, se pueden considerar iguales. Podr a decirse que tener dos espacios isomorfos equivale estructuralmente a tener una gura frente a un espejo; en tal sentido, toda a rmacion valida sobre la estructura de la gura seguira siendo valida sobre su imagen especular. El siguiente resultado muestra que el estudio vectorial de dimension n puede reducirse al estudio de K n como espacio vectorial. Teorema 3.25 Sea V un K-espacio vectorial de dimension nita n, entonces V es isomorfo al espacio vectorial K n . Demostracion: Sea fv1 ; : : : ; vn g una base de V . Un elemento v de V puede expresarse como: v=
n P
i vi
(
i
2 K)
i vi
(
i
2 K)
i=1
Si ademas fuera: v=
n P
i=1
Se tiene que:
0=
n X
(
i
i ) vi
i=1
y de la independencia lineal de los vi se sigue que ( i
=
i
i
i)
= 0 para todo i, es decir
para todo i.
Esto muestra que cada vector v de V puede asociarse con una unica n-upla (a1 ; : : : ; an ) en K n tal que: v=
n X i=1
90
i vi
lo que da una biyeccion t : V ! K n de nida como: t (v) = (
1; : : : ;
n ) si v =
n P
i vi
i=1
Probando la linealidad de t se tendra el isomor smo buscado. Si v; w 2 V , poniendo: n n P P v= w= i vi i vi i=1
i=1
resulta:
v+w =
n X
(
i
+
i ) vi
i=1
luego: t (v + w) = ( =(
1
+
1; : : : ;
1; : : : ;
n)
n
+
n)
+ ( 1; : : : ;
n)
= t (v) + t (w) 2 K:
hora, si
v=
n X
(
i ) vi
i=1
de donde: t ( v) = (
1; : : : ;
n)
=
(
1; : : : ;
n)
= t (v)
. De nicion 3.26 Fijada la base v1 ; : : : ; vn en V , los escalares (
1; : : : ;
n)
estable-
cidos en forma biun voca para un vector v de V , se llaman las coordenadas de v en la base v1 ; : : : ; vn .
3.5.
Bases y Sistemas de Ecuaciones Asociadas a un Subespacio
Si se supone jada una base v1 ; : : : ; vn en V , los vectores de V pueden conocerse a partir de sus coordenadas (a1 ; : : : ; an ) en K n . De este modo, dar un numero nito de vectores equivale a dar un numero nito de elementos de K n . 91
Si se conocen los generadores fw1 ; : : : ; wk g de un subespacio S de V , se presentan dos problemas a saber: 1. Hallar la base de S y en particular su dimension. 2. Encontrar un criterio para decidir si un vector v pertenece a S en funcion de las coordenadas de v. Para atacar estos problemas se usaran matrices con coe cientes en K y matrices con coe cientes en V , contemplando que las operaciones a realizarse entre estas tengan sentido. A modo de ejemplo puede suponerse dados u1 ; : : : ; um vectores en V y A en Kh
m
una matriz; el producto: 2 3 2 u1 a u + + a1m um 6 7 6 11 1 .. 6 . 7 6 A 6 .. 7 = 6 . 4 5 4 um ah1 u1 + + ahm um
3 7 7 7 5
representa h vectores que son combinaciones lineales de u1 ; : : : ; um donde cada la de A da lugar a los coe cientes respectivos. Rec procamente, sean h vectores w1 ; : : : ; wh los cuales son combinaciones lineales de los vectores u1 ; : : : ; um , escribiendo: wi =
m X
aij wj
j=1
y notando con A la matriz [aij ]h;m , se tiene: 2 2 3 w 6 1 7 6 6 .. 7 6 6 . 7 = A6 4 4 5 wh
3
u1 7 .. 7 . 7 5 um
Los resultados siguientes se obtienen basicamente a partir de las propiedades de las operaciones con matrices. 92
Proposicion 3.27 Sea v1 ; : : : ; vn una base de V , A y B matrices con coe cientes en K tales que:
2
3
2
v 6 1 7 6 6 .. 7 6 A6 . 7 = B 6 4 5 4 vn
entonces A = B.
3
v1 7 .. 7 . 7 5 vn
Demostracion: Notar que para que tenga sentido la igualdad precedente, el numero de las de A y B debe ser el mismo, y el numero de columnas de ambas debe ser n. Podemos poner: (A
2
3
2
v 6 1 7 6 6 .. 7 6 B) 6 . 7 = 6 4 5 4 vn
3
0 7 .. 7 . 7 5 0
Esta identidad establece que cada la de A
B da lugar a una combinacion lineal
nula de v1 ; : : : ; vn , de donde cada la de A
B debe ser nula y en consecuencia
A = B. Proposicion 3.28 Sean w1 ; : : : ; wk generadores de un subespacio S de V y B una matriz inversible de K k k , entonces los vectores u1 ; : : : ; uk obtenidos como sigue: 2 2 3 3 u w 6 1 7 6 1 7 6 .. 7 6 . 7 6 . 7 = B 6 .. 7 4 4 5 5 uk wk generan S.
Demostracion: De la igualdad anterior se tiene que u1 ; : : : ; uk son combinaciones lineales de w1 ; : : : ; wk , es decir u1 ; : : : ; uk son elementos de S, y por la Proposicion 3.14 se tiene hu1 ; : : : ; uk i
S.
93
Razonando de modo analogo a partir de la igualdad: 2 2 3 3 w1 u1 6 7 6 7 6 .. 7 1 6 .. 7 = B 6 . 7 6 . 7 4 5 4 5 wk uk
se sigue S = hw1 ; : : : ; wk i, es decir S = hu1 ; : : : ; uk i.
Retomando el problema de hallar una base de un subespacio S cuyos generadores son w1 ; : : : ; wk , puede considerarse la igualdad: 2 3 2 w1 v 6 7 6 1 6 .. 7 6 . 6 . 7 = A 6 .. 4 5 4 wk vn
donde A 2 K k
n
3 7 7 7 5
es la matriz cuyas las son las componentes de w1 ; : : : ; wk respecti-
vamente. Se supone que al menos uno de los wi no es cero. Si E 2 K k
k
es inversible
se sigue que B = EA es escalon reducida, podemos poner: 2 2 2 3 3 3 u w v 6 1 7 6 1 7 6 1 7 6 .. 7 6 .. 7 6 .. 7 6 . 7=E6 . 7=B6 . 7 4 4 4 5 5 5 uk wk vn
Es claro que, por la Proposicion 3.11, u1 ; : : : ; uk generan S. Siendo B escalon ree la matriz obtenida ducida, y A 6= 0, la primer la de B es no nula y notando con B e escalon reducida. Si m de B al suprimir las las nulas de B, si las hubiere, resulta B
e solo u1 ; : : : ; um son no nulos entre los vectores u1 ; : : : ; uk . es el numero de las de B, Se puede pensar entonces que S esta 2 u 6 1 6 .. 6 . 4 um
generado por u1 ; : : : ; um , siendo ademas: 3 2 3 v 7 6 1 7 7 6 e 6 ... 7 7=B 7 5 4 5 vn 94
Si una combinacion lineal de u1 ; : : : ; um con coe cientes 2 3 u h i6 1 7 h 6 .. 7 0= 6 . 7= 1 m 1 4 5 um
1; : : : ;
m
i
m,
2
6 6 e B6 4
es cero, entonces: 3 v1 7 .. 7 . 7 5 vn
Puesto que v1 ; : : : ; vn es una base de V y el ultimo miembro de las igualdades
precedente es una combinacion lineal de v1 ; : : : ; vn debe ser: h
m
1
i
e= B
h
0
0
i
e en que esta tiene Si i es un ndice entre 1 y m y j el lugar en la i-esima la de B
e posee todos sus elementos su primer elemento no nulo, la j-esima columna Cj de B nulos excepto el correspondiente a la i-esima la que es 1, luego: 0=
h
m
1
i
Cj =
i
Se sigue que u1 ; : : : ; um son linealmente independientes y en consecuencia una base de S. Observese que el problema de encontrar una base se redujo a escalonar la matriz cuyas las representan las coordenadas de los generadores dados en la base v1 ; : : : ; vn . En cuanto a la condicion de que un vector v de coordenadas (
1; : : : ;
n)
pertenez-
ca al subespacio S; puede responderse a rmativamente, si y solo si existen escalares 1; : : : ;
k
tales que: h
de esta igualdad:
1
m
2
3 v1 7 h i6 6 .. 7 = v = 6 . 7 4 5 vn 2
3 2 w1 6 7 6 6 .. 7 6 6 . 7 = A6 4 5 4 wk 95
1
3 v1 7 .. 7 . 7 5 vn
m
2
3 w1 7 i6 6 .. 7 6 . 7 4 5 wk
se tiene: h
m
1
2
3
v i6 1 7 h 6 .. 7 6 . 7= 4 5 vn
de donde segun la Proposicion 3.27 sera: h i h = 1 m
1
1
m
i
m
i
2
3
v 6 1 7 6 .. 7 A6 . 7 4 5 vn A
Trasponiendo esta ultima igualdad, el vector v pertenecera a S; si y solo si el sistema: 2 3 t
6 1 7 6 . 7 AX = 6 .. 7 4 5 n
tiene solucion. Si E 2 K n
n
es inversible tal que B = E t A es escalon reducida, este sistema
resulta equivalente a:
2
3
6 1 7 6 . 7 BX = E 6 .. 7 4 5 n
Si no hay las nulas en B, este sistema siempre tiene solucion, es decir que cualquiera que sea v en V , v esta en S, luego S = V . En otro caso, existe un ndice m tal que solo las las m; m + 1; : : : ; n de B son e es la matriz obtenida a partir de E al suprimir en esta nulas, en tal situacion, si E las las 1; 2; : : : ; m
1, el sistema en cuestion tendra solucion, si y solo si se veri ca: 2 3 2 3 0 6 1 7 6 7 . 6 7 6 e 6 .. 7 = 6 ... 7 E 7 4 5 4 5 0 n
Se concluye que v 2 S si y solo si, sus coordenadas ( sistema de ecuaciones: e =0 EX 96
1; : : : ;
n
) satisfacen el siguiente
De este modo, cuando se supone jada una base en V; a cada subespacio puede asociarsele un sistema de ecuaciones lineales homogenas cuyas soluciones son las componentes de los vectores en dicho subespacio. En particular si V = K n y v1 ; : : : ; vn la base canonica, la n-upla formada por las componentes de un vector y el vector coinciden como elementos de K n , de donde los subespacios de Rn no son otra cosa que las soluciones de un sistema lineal homogeneo. Rec procamente es facil ver que las soluciones de un sistema lineal homogeneo forman un subespacio de K n . i) Sea V el espacio vectorial formado por los polinomios en K[t] de grado menor o igual que 3. Se ja 1; t; t2 ; t3 como base de V . Se desea hallar una base del subespacio generado por: P1 (t) = 1 + t + 2t2 + t3 P2 (t) = 1 + t + 4t2 + t3 P3 (t) = 1 + t + t3 Escribiendo: 2
2
3
3
2
1
3
7 1 1 2 1 6 P 7 76 6 1 7 6 t 7 76 6 7 6 7 6 6 P2 7 = 6 1 1 4 1 7 6 5 6 t2 7 4 5 4 7 5 1 1 0 1 4 P3 3 t
la matriz numerica puede escalonarse segun las operaciones indicadas en cada paso: F2 ! F2 Se obtiene:
F1 ; F3 ! F3
2
1 1 6 6 6 0 0 4 0 0
Haciendo: F1 ! F1
2 1
F1
3
7 7 2 0 7 5 2 0
F2 ; F3 ! F3 + F2 ; F2 ! 1=2F2 97
se llega a:
2
3
1 1 0 1
6 7 6 7 6 0 0 1 0 7 4 5 0 0 0 0
de donde Q1 (t) = 1 + t + t3 y Q2 (t) = t2 son una base del subespacio en cuestion. ii) Sea V = R4 y sea: S = h( 1; 1; 1; 1) ; (2; 1; 1; 2) ; (1; 4; 4; 1) ; (4; 1; 1; 4)i Hallar un sistema de ecuaciones que determine los elementos de S. Un vector (x; y; z; t) estara 2 1 6 6 6 1 6 6 6 1 4 1
en S; si y solo si el sistema: 32 3 2 3 x 2 1 4 76 7 6 7 76 7 6 7 1 4 1 76 7 6 y 7 76 7 = 6 7 76 7 6 7 1 4 1 76 7 6 z 7 54 5 4 5 t 2 1 4
tiene solucion. Escalonando la matriz ampliada: 2 1 2 1 4 6 6 6 1 1 4 1 6 6 6 1 1 4 1 4 1 2 1 4 resulta:
2
1 0
7 3
6 6 6 0 1 35 6 6 6 0 0 0 4 0 0 0
7 7 y 7 7 7 z 7 5 t
2
2y x 3
1
x+y 3
0 z 0 t
de donde las ecuaciones del subespacio son: 8 < z y=0 : t x=0 98
x
3
3
7 7 7 7 7 y 7 5 x
Notar que la matriz: 2
7 3
1 0 6 6 6 0 1 35 6 6 6 0 0 0 4 0 0 0
2
2y x 3
1
x+y 3
0 z 0 t
3
7 7 7 7 7 y 7 5 x
brinda doble informacion; las ecuaciones del subespacio por un lado, y por otro lado si (x; y; z; t) satisface las ecuaciones del subespacio, puede expresar (x; y; z; t) como combinacion lineal de los generadores. En efecto, usando la solucion general del sistema: 7 x+y 5 +2 ; ; ; 3 3 3 3 = 0 una solucion particular para el sistema sera: 2y
Si se toma
=
x
2y
x x+y ; ; 0; 0 3 3
lo que permite poner: (x; y; z; t) = siempre que:
2y
x 3
( 1; 1; 1; 1) +
8 < z : t
x+y (2; 1; 1; 2) 3
y=0 x=0
Notese ademas que cualquier vector del subespacio puede expresarse como combinacion lineal solo de ( 1; 1; 1; 1) y de (2; 1; 1; 2) y no es casual que estos ultimos sean linealmente independientes, ya que si
y
son escalares que dan lugar a una
combinacion lineal nula de ellos, tomando x = y = z = t = 0; el vector ( ; ; 0; 0) ser a una solucion del sistema homogeneo: 2 1 0 73 6 6 6 0 1 53 6 6 6 0 0 0 4 0 0 0 99
0 0
3
7 7 1 0 7 7 7 0 0 7 5 0 0
de donde
=
= 0.
En conclusion, el metodo utilizado para encontrar ecuaciones del subespacio S permite ademas elegir una base de S entre los generadores y da las coordenadas de los vectores en dicha base. A continuacion se establecera la relacion que guardan las coordenadas de un vector correspondientes a bases distintas. Sean v1 ; : : : ; vn y w1 ; : : : ; wn bases de V . Existen matrices A y B de orden n, tales que:
2
3
2
w 6 1 7 6 6 .. 7 6 6 . 7 = A6 4 5 4 wn
de donde resulta:
3 2
3
2
v1 v 7 6 1 7 6 .. 7 6 .. 7 6 . 7;6 . 7 = B 6 5 4 5 4 vn vn
2
2 3 w1 6 6 7 6 .. 7 6 6 . 7 = AB 6 4 4 5 wn
3
w1 7 .. 7 . 7 5 wn
2 3 2 3 w1 v1 6 7 6 7 .. 7 6 .. 7 6 . 7 ; 6 . 7 = BA 6 4 5 4 5 wn vn
3 v1 7 .. 7 . 7 5 vn
luego, por la Proposicion 3.28, debe ser AB = BA = I, por consiguiente si las las de la matriz A representan las coordenadas de w1 ; : : : ; wn en la base v1 ; : : : ; vn , las las de la inversa de A, representaran las coordenadas de v1 ; : : : ; vn en la base w1 ; : : : ; wn . Si un vector v tiene coordenadas 2 v=
se tiene que:
h
1
m
1; : : : ;
v i6 1 7 h 6 .. 7 6 . 7= 4 5 vn
en la base v1 ; : : : ; vn , 2 w i 6 1 6 .. B6 . 1 m 4 wn
h
i
n
3
m
1
son las coordenadas de v en la base w1 ; : : : ; wn . 100
B
escribiendo: 3 7 7 7 5
De nicion 3.29 La matriz B se llama matriz de cambio de base, entendiendose de la base v1 ; : : : ; vn a la base w1 ; : : : ; wn . 1
Observar que la matriz A = B
es la matriz de cambio de base, en este caso,
de la base w1 ; : : : ; wn a la base v1 ; : : : ; vn . Teorema 3.30 (Teorema de la dimension) Sean V y W espacios vectoriales y t : V ! W una transformacion lineal, entonces: dim (V ) = dim (N u (t)) + dim (Im (t))
0 Demostracion: Sean v1 ; : : : ; vk y w10 ; : : : ; wm bases del N u(t) e Im(t) respectiva-
mente. Eligiendo w1 ; : : : ; wm en V tales que t(wi ) = wi0 se vera que w1 ; : : : ; wm son linealmente independientes y que v1 ; : : : ; vk ; w1 ; : : : ; wm es una base de V . En efecto, si
1; : : : ;
k
,
1; : : : ; k X
m
i vi
son escalares tales que:
+
i=1
m X
i wi
=0
i=1
aplicando t en ambos miembros de esta igualdad resulta: m X
0 i wi
=0
i=1
de donde
1
=
=
k
0 = 0, puesto que w10 ; : : : ; wm es una base de Im(t). Se sigue
entonces que: k X
i vi
=0
i=1
y por ser v1 ; : : : ; vn una base de N u(t) debe ser independencia lineal de v1 ; : : : ; vk ; w1 ; : : : ; wm . 101
1
=
=
k
= 0. Esto da la
Por otra parte, si v 2 V , existe escalares t(v) =
m X
0 i wi
=
i=1
m X
tales que: i wi )
i=1
m X
t(v
m
m X i t(wi ) = t(
i=1
y as :
1; : : : ;
i wi )
=0
i=1
Es decir, existen escalares
1; : : : ;
v
k
tales que:
m X
i wi =
i=1
o tambien: v=
k X
i vi
i=1
i vi
+
i=1
Resulta entonces:
k X m X
i wi
i=1
dim (V ) = k + m = dim(N u(t)) + dim(Im(t)) . El siguiente resultado provee un metodo para construir transformaciones lineales que cumplen condiciones preestablecidas. Teorema 3.31 Sean V y W espacios vectoriales, v1 ; : : : ; vn una base de V y consideremos w1 ; : : : ; wn vectores arbitrarios en W , entonces existe una unica transformacion lineal t : V ! W tal que t(vi ) = wi . Demostracion: Si v 2 V , existen escalares v=
1; : : : ;
n X
i vi
i=1
Se de ne: t(v) =
n X i=1
102
i wi
n
tales que:
Resulta inmediato que t es transformacion lineal y que t(vi ) = wi . Para la unicidad, supongase que existe s : V ! W , transformacion lineal, tal que s(vi ) = wi . Poniendo: v=
n X
i vi
i=1
se tiene que: s(v) =
n X
i s(vi )
=
i=1
luego s = t.
n X
i wi
= t(v)
i=1
Ejemplos 3.32 Se desea hallar una transformacion lineal t : R3 ! R2 tal que: N u(t) = h(1; 2; 1) ; (1; 1; 1)i
Im(t) = h(1; 1)i
Extendiendo (1; 2; 1) ; (1; 1; 1) a una base de R3 , por ejemplo con el vector (0; 0; 1), t puede de nirse segun las condiciones: t (1; 2; 1) =
(0; 0)
t (1; 1; 1) =
(0; 0)
t (0; 0; 1) = (1; 1) Ahora, si (x; y; z) es un elemento de R3 , se tiene: (x; y; z) = (y
x) (1; 2; 1) + (2x
y) (1; 1; 1) + (z
x) (0; 0; 1)
luego: t (x; y; z) = (y
x) (0; 0) + (2x
y) (0; 0) + (z
x) (1; 1) = (z
es decir: t (x; y; z) = (z
x; x
z)
cumple lo pedido. En efecto, por contruccion se tiene: N u(t)
h(1; 2; 1) ; (1; 1; 1)i 103
Im(t)
h(1; 1)i
x; x
z)
Con lo cual el nucleo tiene dimension por lo menos 2 y la imagen por los menos 1. Pero por el Teorema de la dimension, estas deben sumar 3, lo que solo es posible si el nucleo tiene dimension 2 y la imagen dimension 1, en tal caso se ha justi cado la igualdad esperada (ver 3.21).
3.6.
Ejercicios
1. En los siguientes casos, decidir si V es un K-espacio vectorial. i) V = fP 2 K[X] : gr(P )
ng[f0g con la suma de polinomios y el producto
de un polinomio por un escalar. ii) V = Z (los numeros enteros) K = Q (los numeros racionales) con la suma y el producto usual. iii) V = Q, K = R (los numeros reales) con la suma y el producto usual. iv) V = R, K = Q con la suma y el producto usual. v) V = fA 2 K n
n
: t A = Ag con la suma de matrices y el producto de un
numero por una matriz. vi) V = fA 2 K n
n
: tA =
Ag con suma y producto como en v).
vii) V es el conjunto de todas las funciones de un conjunto no vac o A en un cuerpo K. Para cualquier funcion f; g 2 V y todo escalar
2 K, sean f + g
y f las funciones en V de nidas por: (f + g)(x) = f (x) + g(x) ( f )(x) =
f (x)
viii) V es el conjunto de las sucesiones fan : n 2 Ng, (an 2 K) con la adicion y la multiplicacion por un escalar de nidas por: fan g + fbn g = fan + bn g fan g = f an g 104
2. Decidir en cada caso si S es un subespacio de V . i) S = fP 2 K[X] : gr(P ) es parg; V = K[X]. ii) S = f(x; y) 2 R2 : x2 = y 2 g ; V = R2 . iii) S = f(x; y) 2 R2 : x 0; y 0g ; V = R2 . 3 2 a b 5 : b = a + cg; V = K 2 2 . iv) S = f4 b c 2 3 a b 5 : c 0g; V = R2 2 . v) S = f4 c d vi) S = fA 2 Mn (K) : a11 + a22 +
+ ann = 0g; V = K n
n
.
vii) S = f(a; b; 1) : a; b 2 Kg; V = K 3 . viii) S = f(a; b; 0) : a; b 2 Kg; V = K 3 . ix) S = f(a + b; b + 2a; 3a + b) : a; b 2 Kg; V = K 3 . x) S = fA 2 K n
n
: det(A) 6= 0g; V = K n
n
.
3. Sean A y B subconjuntos nitos de un K-espacio vectorial V tales que A
B.
Demostrar : i) B es linealmente independiente entonces A es linealmente independiente. ii) A es linealmente dependiente entonces B es linealmente dependiente. 4. Sean v1 ; : : : ; vm vectores linealmente independientes en V . Dado un vector v arbitrario en V demostrar que la ecuacion lineal en las indeterminadas 1; : : : ;
m: 1 v1
+
+
m vm
=v
tiene solucion unica en K n ; o bien es incompatible.
105
5. Sea n = dim(V ) y v1 ; : : : ; vr vectores en V . Demostrar: i) Si v1 ; : : : ; vr son linealmente independiente entonces r
n.
ii) Si r > n entonces v1 ; : : : ; vr son linealmente dependientes. iii) Si v1 ; : : : ; vr generan V entonces r
n y fv1 ; : : : ; vr g contienen una base
de V . iv) Si r = n y v1 ; : : : ; vr generan V entonces v1 ; : : : ; vr son linealmente independientes. v) Si r = n y v1 ; : : : ; vr son linealmente independientes entonces v1 ; : : : ; vr es una base de V . 6. En los siguientes casos decidir si los vectores v1 ; : : : ; vr de V son linealmente dependientes. En caso a rmativo extraer un subconjunto de vectores linealmente independientes y expresar los restantes como combinacion lineal de estos. i) V = R3 : (1; 1; 0) ; (0; 2; 3) ; (1; 2; 3) ; (3; 6; 6) ii) V = R3 : (1; 1; 0) ; (3; 4; 2) iii) V = R4 : (1; 0; 1; 0) ; (0; 1; 0; 1) ; (0; 0; 0; 0) ; (2; 2; 2; 2) ; (a; b; a; b)
106
iv) V = R2 2 :
2
a) 4
1 1 2 1
2
1 1
2
1 1
b) 4
c) 4
1 1
1 1
3
2
5 ; 4
1 0
2
2 0
3
2
2 3
5 ; 4
0 1
0 3 2 1
3
2
0 1
3
2
3 1
5 ; 4
5 ; 4
1 2
v) V = fp 2 K [x] : p = 0 o gr(p)
2
5 ; 4
0 2
3
5 ; 4
3
0 2
2 1
3
2
4 6
2
2 2
5 ; 4
8 6
3 5
3
5 ; 4
1 1
3 5
3 5
2g:
a) p (x) = 2x2 + x + 1; g (x) = 3x2 + x
5; h (x) = x + 13
b) p (x) = x + 1; g (x) = x (x + 1) ; h (x) = 2x + 2 c) p (x) = x2 + 2x
1; g (x) = x2 + 1; h (x) = x2 + x
vi) V = ff : R ! R : f es continuag: a) cos(x); sen(x); ex b) x; ex ; cos(x) c) x2 ; x; ex d) cos(x)2 ; sen(x)2 ; cos(2x) 7. Probar: i) Considerando los numeros complejos C como espacio vectorial sobre R demostrar que f1; ig son linealmente independientes. Considere C como espacio vectorial sobre s mismo y demuestre que f1; ig son linealmente dependientes. p ii) Considerando R como espacio vectorial sobre Q mostrar que 1; 2 son linealmente independientes y considerando R como espacio vectorial sobre si p mismo y demuestre que 1; 2 son linealmente dependientes. 107
8. Hallar una base de R3 que incluya: i) Al vector (1; 0; 2). ii) A los vectores (1; 0; 2) y (0; 1; 3). 9. >Cual es la dimension de K m 10. Hallar una base de R2
2
n
? Escribir una base.
que incluya las matrices: 2 3 2 3 0 1 2 0 4 5;4 5 1 0 0 1
11. En los siguientes casos, hallar una base del subespacio S de V de nido por un sistema homogeneo de ecuaciones lineales: i) V = R3 ; S el conjunto de 2 1 6 6 6 2 4 3
soluciones 32 0 2 76 76 1 3 76 54 1 2
del sistema: 3 2 3 0 x 7 6 7 7 6 7 y 7=6 0 7 5 4 5 0 z
i) V = R5 ; S el conjunto de soluciones del sistema: 2 3 2 3 x 2 7 1 2 1 2 1 6 7 76 6 y 7 6 76 6 7 6 6 1 2 2 1 2 76 7 6 76 6 =6 6 z 6 76 7 6 7 6 2 4 3 3 3 76 7 6 4 56 t 7 4 0 0 1 1 1 4 5 u
i) V = R5 ; S el conjunto de soluciones del sistema: 2 3 2 3 x 2 6 7 1 2 2 1 1 6 7 6 76 y 7 6 6 7 7 6 6 0 2 2 6 2 1 76 6 6 76 z 7 =6 6 76 7 6 6 2 6 2 6 4 1 76 7 7 4 56 t 7 4 1 4 0 3 0 4 5 u 108
0
3
0
3
7 7 0 7 7 7 0 7 5 0
7 7 0 7 7 7 0 7 5 0
12. Dado el subespacio S de R3 generado por los vectores (2; 0; 1) y ( 1; 0; 1). Encontrar un vector v que no este en S y mostrar que f(2; 0; 1) ; ( 1; 0; 1) ; vg es una base de R3 . 13. Determinar una base y la dimension del subespacio, dado por el subconjunto de matrices con traza nula de R2 2 . 14. Probar que K[X] no es de dimension nita como K-espacio vectorial. 15. Caracterizar geometricamente los subespacios de R3 . >Que conclusiones se obtienen para los sistemas lineales homogeneos en tres variables? 16. Sea A 2 K m
n
una matriz escalon reducida, probar que las las no nulas de
A son linealmente independientes como elementos de K n . 17. En los siguientes casos los vectores v1 ; : : : ; vn y v vienen dados por sus coordenadas en alguna base de V . Comprobar que v1 ; : : : ; vn es una base de V y hallar las coordenadas de v en esta base. i) v1 = (1; 1; 1); v2 = (1; 1; 2); v3 = (1; 2; 3); v = (a; b; c) ii) v1 = (2; 1; 3); v2 = (3; 2; 5); v3 = (1; 1; 1); v = (a; b; c) iii)v1 = (1; 2; 1; 2); v2 = (2; 3; 0; 1); v3 = (1; 2; 1; 4); v4 = (1; 3; 1; 0); v = (a; b; c; d) 18. Dadas las bases B 0 y B de V hallar la matriz de cambio de base en los siguientes casos: i) V = R3 : B = f(1; 2; 1) ; (2; 3; 3) ; (3; 7; 1)g B 0 = f(3; 1; 4); (5; 2; 1); (1; 1; 6)g
109
ii) V = R4 : B = f(1; 0; 3; 3); ( 2; 3; 5; 4); (2; 2; 5; 4); ( 2; 3; 4; 4)g B 0 = f(1; 1; 1; 1) ; (1; 2; 1; 1) ; (1; 1; 2; 1) ; (1; 3; 2; 3)g iii) V = fp 2 K [x] : p = 0 o gr(p)
4g:
B = f1; x; x2 ; x3 ; x4 g B 0 = f1; (x
); (x
)2 ; (x
)3 ; (x
)4 g
19. Como variara la matriz de cambio de una base a otra si: i) se cambian de lugar dos vectores de la primera base? ii) se cambian de lugar dos vectores de la segunda base? iii) se escriben los vectores de ambas bases en orden inverso? 20. Hallar las coordenadas del polinomio: p(x) = a0 + a1 x +
+ an x n
i) En la base f1; x; x2 ; : : : ; xn g. ii) En la base f1; (x
1); (x
1)2 ; : : : ; (x
1)n g. (Sugerencia, puede usar el
desarrollo de Taylor de p(x)) 21. A continuacion se presenta un subespacio S de Rn dado por sus generadores. Hallar en cada caso un sistema de ecuaciones que determine S, una base de S y las coordenadas de un vector (x1 ; : : : ; xn ) de S en la base encontrada: i) S = h(1; 0; 0; 1); (2; 1; 1; 0); (1; 1; 1; 1); (1; 2; 3; 4); (0; 1; 2; 3)i ii) S = h(1; 1; 1; 1; 0); ( 1; 1; 1; 1; 1); (2; 2; 0; 0; 1); (1; 1; 5; 5; 2); ( 1; 1; 1; 0; 0)i iii) S = h(1; 1; 1; 0); (1; 1; 0; 1); (2; 0; 1; 1)i v) S = h(1; 1; 1; 1; 1); (1; 1; 0; 0; 3); (3; 1; 1; 1; 7); (0; 2; 1; 1; 2)i 110
22. Los subespacios S y T se presentan por sus generadores en Rn . Hallar sistemas de ecuaciones y bases para S + T y S \ T respectivamente: S = h(1; 2; 0; 1); (1; 1; 1; 0) i T = h(1; 0; 1; 0); (1; 3; 0; 1)i S = h(1; 1; 1; 1); (1; 1; 1; 1); (1; 3; 1; 3)i T = h(1; 2; 0; 2); (1; 2; 1; 2); (3; 1; 3; 1)i S = h(1; 2; 1); (1; 1; 1); (1; 3; 3)i T = h(2; 3; 1); (1; 2; 2); (1; 1; 3)i S = h(1; 1; 0; 0); (0; 1; 1; 0); (0; 0; 1; 1)i T = h(1; 0; 1; 0); (0; 2; 1; 1); (1; 2; 1; 2)i 23. Dados los subespacios de R4 S1 = f(x; y; z; t) =x + y
z + t = 0g
S2 = f(x; y; z; t) =x
z
y
t = 0g
obtener la dimension de S1 + S2 . 24. Si S y T son subespacios de V; tales que dim(S) + dim(T ) > dim(V ); mostrar que S \ T 6= f0g. 25. Sea V = Rn
n
; S y T los subespacios formados por las matrices simetricas y
antisimetricas respectivamente. Probar que V = S
T.
26. Dados los subespacios S y T de V decidir si S + T es suma directa y en que casos es V = S
T.
111
i) V = R3 : S = f(x; y; z) 2 R3 : x + y + z = 0g T = h(1; 1; 1)i ii) V = Rn : S = f(x1 ; : : : ; xn ) 2 Rn : x1 +
+ xn = 0g
T = h(1; 1; 0; : : : ; 0) ; (1; 1; 0; : : : ; 0)i iii) V = R4 :
8 < x+y+z+t=0 S= : x y z+t=0 8 > > x+y z > < T = x y+z > > > : x + 2y + z
iv) V = R5 :
t=0 t=0 2t = 0
S = h(1; 1; 1; 1; 0) ; (1; 1; 1; 0; 1) ; (0; 0; 0; 1; 1)i T = h(1; 0; 0; 0; 0) ; (2; 1; 0; 0; 0) ; (3; 2; 1; 0; 0)i 27. Sean V y W K-espacios vectoriales y t : V ! W una aplicacion. Demostrar: i) t es trasformacion lineal, entonces t(0) = 0. ii) t es trasformacion lineal, si y solo si: t(av + w) = at(v) + t(w)8v; w 2 V; 8a 2 K iii) Si t trasformacion lineal, entonces N u(t) e Im(t) son subespacios de V y W respectivamente. iv) Si t es trasformacion lineal se veri can: 112
a) t es monomor smo, si y solo si N u(t) = f0g. b) t es epimor smo, si y solo si Im(t) = W . c) t es isomor smo, si y solo si N u(t) = f0g e Im(t) = W . d) t es monomor smo entonces dim(V ) e) t es epimor smo entonces dim(V )
dim(W ). dim(W ).
f ) t es isomor smo entonces dim(V ) = dim(W ). g) Si dim(V ) = dim(W ), entonces t es monomor smo, si y solo si t es epimorsmo si y solo si t es isomor smo. 28. Determinar cuales de las siguientes aplicaciones son transformaciones lineales: i) f : R3 ! R2 de nida por f (x; y; z) = (y; x) ii) f_ : R2 ! R3 de nida por f (x; y) = (x; y; 0) + ( 1; 0; 0) iii) f : R2 ! R de nida por f (x; y) = xy iv) f : R2 ! R3 de nida por f (x; y) = (2x
y; x)
29. En los casos siguientes, para la tranformaciones lineal f , encontrar bases y sistemas de ecuaciones de los subespacios N u (f ) e Im (f ) i) f : R4 ! R5 dada por: f (x; y; z; t) = (x + y + t; x + z; y
z + t; x + y; y
z)
ii) f : R4 ! R3 dada por: f (x; y; z; t) = (x + y; y + z; z + t) iii) f : R5 ! R4 dada por: f (x; y; z; t; u) = (x + y + t; x + z + t + u; y 113
z
u; x + z)
iv) f : R4 ! R4 dada por: f (x; y; z; t) = (x
y; y
z; z
t; t
x)
30. Dados los vectores v1 ; : : : ; vn en V y w1 ; : : : ; wn en W , en los siguientes casos, hallar si es posible una transformacion lineal t : V ! W tal que t(vi ) = wi , para i = 1; 2; : : : ; n. i) V = R3 , W = R2 : v1 = (1; 0; 1) v2 = (1; 1; 0) v3 = (0; 1; 0) w1 = (1; 0)
w2 = (0; 1)
w3 = (1; 1)
ii) V = R3 , W = R2 2 : v1 = (1; 1; 1) v2 = (1; 2; 1) 2 3 2 3 1 0 0 1 5 w2 = 4 5 w1 = 4 0 1 1 0 iii) V = R2 , W = R3 : v1 = (1; 1)
v2 = (1; 1)
v3 = (2; 1)
w1 = (2; 1; 1) w1 = (2; 1; 1) w3 = (1; 1; 2) iv) V = R2 2 , W = R2 2 : 2 3 2 3 2 3 2 1 0 0 1 0 1 0 5 ; v3 = 4 5 ; v4 = 4 5 ; v2 = 4 v1 = 4 0 0 0 1 1 0 1
1 0
w1 = v2 ; w2 = v3 ; w3 = v4 ; w4 = v1
31. De nir una transformacion lineal f : R4 ! R3 de modo que: N u (f ) = (x; y; z; t) 2 R4 =x + y = 0; x
t = 0; y + z + t = 0
Obtener luego, una base y la dimension del nucleo. 114
3 5
32. La transformacion lineal f : R3 ! R3 esta de 2 1 1 6 6 A=6 3 3 4 2 4
nida por su matriz 3 1 7 7 3 7 5 2
respecto de la base canonica. Determinar N u (f ) e Im (f ) y sus respectivas dimensiones.
33. Se dan subespacios S y T de V y W respectivamente. Exhibir, en los casos que exista, una transformacion lineal t : V ! W tal que N u(t) = S; Im(t) = T . i) V = R3 ; W = R3 : S = f(x; y; z) : x + y + z = 0g y T = h(1; 2; 1); (0; 1; 0)i ii) V = R4 ; W = R3 : S = f(x; y; z; t) : x + y + z + t = 0g y T = R3 iii) V = R3 , W = R3 : S = f0g y T cualquiera iv) V = R2 , W = R3 : S cualquiera; T = R3 34. Hallar una transformacion lineal t : Rn ! Rn tal que: i) t(L)
S siendo: L = h(2; 1; 2)i y S = f(x; y; z) : x
y = 0g
ii) t(S) = T y t(T ) = S siendo: _ S = h(1; 0; 1); (0; 1; 1)i y T = f(x; y; z) : x 115
y + z = 0g
iii) Im(t) = h(1; 0; 1)i y N u(t) = h(2; 1; 2); (1; 0; 1)i iv) Im(t) = N u(t) = h(1; 0; 1; 2); (0; 1; 2; 0)i 35. >En que condiciones existe una transformacion lineal t : V ! V tal que N u(t) = Im(t)? 36. Si t : V ! V es transformacion lineal, demostrar que N u(t) = f0g; si y solo si Im(t) = V . 37. Consideremos un espacio vectorial V sobre un cuerpo K y dos transformaciones lineales f : V ! K y g : V ! K. Sea F : V ! K 2 de nida por: F (v) = (f (v) ; g (v)) Demostrar que F es transformacion lineal. 38. Dada la aplicacion lineal T : R3 ! R3 mediante T (x; y; z) = (x + 2y + z; 3x + y + 2z; 3x + 2y + 2z) demostrar que T es inversible y encontrar su inversa.
116
4.
Cap tulo 4: Rango
4.1.
Rango de una Matriz
Dada una matriz A en K m
n
, las las de A pueden considerarse como vectores
de K n , y las columnas como vectores de K m . En lo sucesivo, tal consideracion permitira el abuso de lenguaje empleado en ciertas ocasiones. De nicion 4.1 Sea A en K m
n
, se llama rango la de A, notado con rf (A), a la
dimension del subespacio en K n generado por las las de A. Se llama rango columna de A, notado con rc (A), a la dimension del subespacio de K m generado por las columnas de A. Notar que rf (A) = rc (t A). Proposicion 4.2 Sea A en K m
n
, existen matrices inversibles B y C de orden m
y n respectivamente, tales que la matriz D = BAC = [dij ] satisface lo siguiente: Existe un numero natural k, tal que: 8 < d = 1 si i k ii : d = 0 si i 6= j o j > k: ij
Demostracion: Sea B inversible tal que BA es escalon reducida, y sea F inversible tal que F t (BA) es escalon reducida. Es claro que la matriz traspuesta de esta ultima, BA t F , esta en las condiciones de D. La proposicion resulta entonces tomando C = tF . Notar que en la situacion anterior se tiene: rf (D) = rc (D) = k 117
pues el aspecto de D es:
Lema 4.3 Dada A en K m
2 n
4
Ik 0 0
0
3
5:
, B y C inversibles de orden m y n respectivamente,
se veri can: rf (BA) = rf (A) = rf (AC) rc (BA) = rc (A) = rc (AC) Demostracion: Escribiendo:
2
3
v 6 1 7 6 .. 7 A=6 . 7 4 5 vm
donde v1 ; : : : ; vm son los vectores las de A, se tiene: 2 3 2 v w 6 1 7 6 1 6 .. 7 6 .. BA = B 6 . 7 = 6 . 4 5 4 vm wm Por la Proposicion 3.28 resulta:
3 7 7 7 5
hv1 ; : : : ; vm i = hw1 ; : : : ; wm i de donde: rf (A) = dim hv1 ; : : : ; vm i = dim hw1 ; : : : ; wm i = rf (BA) Por otra parte, poniendo:
2
6 6 AC = 6 4
3
v1 C 7 .. 7 . 7 5 vm C
118
se tiene que v1 C; : : : ; vm C son los vectores las de AC. Si vi1 ; : : : ; vik es una base de hv1 ; : : : ; vm i, se a rma que vi1 C; : : : ; vik C es una base de hv1 C; : : : ; vm Ci. En efecto, escribiendo: vh =
k X
hj vij
j=1
se tiene: vh C =
k X
hj
(vij C)
j=1
lo que muestra que vi1 C; : : : ; vik C son generadores de hv1 C; : : : ; vm Ci. Ademas, si
1; : : : ;
k
son escalares tales que: k X
j vij C
=0
j=1
multiplicando por C
1
a derecha resulta: k X
j vij
=0
j=1
luego
1
=
=
k
= 0, lo que da la independencia lineal de vi1 C; : : : ; vik C. En
consecuencia se tiene rf (A) = k = rf (AC). La demostracion para el rango columna es similar y queda a cargo del lector. Tambien puede usarse la identidad rf (A) = rc (t A) para completar la demostracion en una forma mas simple. Teorema 4.4 Sea A en K m
n
, entonces rf (A) = rc (A).
Demostracion: Sean B y C inversibles tales que D = BAC veri que las condiciones de la Proposicion 4.2. Se tiene: rf (A) = rf (BA) = rf (BAC) = rf (D) = rc (D) = rc (BAC) =
= rc (AC) = rc (A) 119
Como consecuencia de los resultados precedentes, podemos establecer las siguientes equivalencias. Teorema 4.5 Sea A 2 K n
n
. Son equivalentes las siguientes a rmaciones:
i) A es inversible. ii) det(A) 6= 0. iii) A X = b admite solucion unica cualquiera sea b. iv) A X = 0 admite solo 0 como solucion. v) rc (A) = n. vi) Las columnas de A forman una base de K n vii) Las las de A forman una base de K n . Demostracion: i) , ii) Consecuencia del Corolario 1.60. i) , ii) Ver la Regla de Cramer. iii) , iv) Es claro que iii) implica a iv) tomando b = 0 en iii). Rec procamente, si x e y son soluciones de A X = b, se tiene: A (x luego x
y) = Ax
Ay = b
b=0
y = 0, o sea x = y.
iv) , v) Sea
=[
1
:::
n]
y notemos la matriz A por sus columnas, h i A = C1 Cn
De la identidad:
A
t
=
=
h
2
C1
3
i6 1 7 6 . 7 Cn 6 .. 7 4 5 n
1 C1
+ 120
+
n Cn
se sigue que A que A
t
t
es una combinacion lineal de las columnas de A. Si
= 0, por hipotesis debe ser
t
= 0, es decir,
es tal
= 0, lo que muestra la
independencia lineal de las n columnas de A. Luego rc (A) = n. Rec procamente, si x es una solucion del sistema lineal A X = 0, la columna Ax es una combinacion lineal de las n columnas de A con las componentes de x como coe cientes. De la independencia lineal de las columnas de A, se sigue que las componentes de x deben ser todas nulas, luego 0 es la unica solucion del sistema A X = 0. v) , vi) Es claro por de nicion de rango columna y del hecho que dim (K n ) = n. vi) , vii) Las columnas de A son una base de K n ; si y solo si rc (A) = n por el Teorema 4.4 esto vale, si y solo si rf (A) = n; si y solo si rc (t A) = n; si y solo si las columnas de t A son una base de K n ; si y solo si las las de A son una base de K n. . A continuacion daremos el concepto de rango de una matriz a partir de los determinantes de matrices cuadradas obtenidos de la matriz en cuestion. Veremos luego que esta forma de arribar al rango de una matriz coincide con las anteriores, es decir, con el rango la y con el rango columna. De nicion 4.6 Si en una matriz A en K m
n
se suprimen m
h
las y n
h
columnas para algun natural h, se obtiene una matriz de orden h, llamada submatriz de A, cuyo determinante se dira un menor de orden h de A. En ocasiones, se de ne el rango de la matriz A en terminos de sus menores como se enuncia a continuacion. De nicion 4.7 El rango por menores de una matriz A, notado con rg (A), es igual a k si A posee un menor de orden k no nulo y todos los menores de orden h son nulos para h > k. 121
A continuacion se vera que el rango segun menores y el rango la o columna de una matriz coinciden. Esto permitira referirse al rango de A indistintamente como rango la, columna, o rango por menores. Proposicion 4.8 Si A 2 K m
n
, el rango de A segun menores concide con el rango
segun las o columnas de A. Demostracion: Sea rf (A) = k, se tiene que A posee k las linealmente independientes. Sea B una submatriz de A, formada por k las linealmente independientes de A. Resulta rf (B) = rf (A) = k. Por el Teorema 4.4, rc (B) = rf (B) = k, por consiguiente, B posee k columnas linealmente independientes. Sea C una submatriz de B formada por k columnas linealmente independientes de B. Notese que C, de orden k, puede obtenerse a partir de A suprimiendo m yn
k las
k columnas en esta. Ademas siendo C de orden k y sus columnas linealmente
independientes, por el Teorema 4.5, sera det (C) 6= 0 con lo que A posee un menor de orden k distinto de cero, de modo que rf (A)
rg (A).
Un menor de orden h de A, es el determinante de una submatriz E de A, que puede obtenerse como sigue: Suprimiendose n cual, suprimiendo m
h columnas en A, se obtiene una submatriz D de A, de la h las se obtiene E. De este modo resulta: rf (E)
rf (D) = rc (D)
rc (A) = k
si det (E) 6= 0, por el Teorema 4.5 se tiene que h = rf (E)
k y en consecuencia
sera det (C) = 0 cada vez h > k, y as , rf (A) = k = rg (A). Como aplicacion del rango a los sistemas de ecuaciones lineales, se establecen los resultados que se detallan a continuacion.
122
De nicion 4.9 En el sistema lineal AX = b donde A 2 K m
n
y b 2 K n , llamare-
mos matriz ampliada a la matriz que se obtiene agregandole b a la matriz A como una columna en el lugar n + 1. Proposicion 4.10 Para el sistema AX = b tenga solucion es necesario y su ciente que el rango de la matriz A coincida con el rango de la matriz ampliada. Demostracion: Notando con C1 ; : : : ; Cn las columnas de la matriz A, y con A0 la matriz ampliada del sistema cuyas columnas son C1 ; : : : ; Cn ; b, se tiene: x es solucion del sistema, si y solo si A x = b; si y solo si b es combinacion lineal de C1 ; : : : ; Cn ; si y solo si hC1 ; : : : ; Cn i = hC1 ; : : : ; Cn ; bi ; si y solo si rc (A) = rc (A0 ). Proposicion 4.11 Sea A en K m
n
y S el subespacio de K n de nido por el sistema
lineal homogeneo A X = 0, entonces: dim (S) = n
rg (A) :
Demostracion: Sea B inversible de orden m tal que E = BA es escalon reducida. Por 4.2, rg (A) = rg (E) es igual al numero de
las no nulas de E, y S queda
determinada por el sistema EX = 0, siendo este igual a n menos el numero de las no nulas. Se tiene entonces que: dim (S) = n
rg (E) = n
rg (A)
.
4.2.
El Espacio Dual
Con cada espacio vectorial V , aparece estrechamente ligado un K-espacio vectorial llamado el espacio dual de V , notado por V , cuyos elementos son las transformaciones lineales de V en K. 123
De nicion 4.12 Se llama espacio dual de V , al espacio vectorial V dado por: V = ft : V ! K : t es linealg con las operaciones: (u + t) (v) = u (v) + t (v)
8v 2 V; u; t 2 V
( t) (v) = t (v)
8 2 K; t 2 V ; v 2 V
Ejemplos 4.13 Sea V = K n y t 2 V . Si se ja e1 ; : : : ; en la base canonica de V , escribiendo: (x1 ; : : : ; xn ) = x1 e1 +
+ xn en
de la linealidad de t resulta: t (x1 ; : : : ; xn ) = x1 t (e1 ) + Notando con
1; : : : ;
n
los escalares t (e1 ) ; : : : ; t (en ) respectivamente, se tiene: t (x1 ; : : : ; xn ) =
Rec procamente, si
+ xn t (en )
1; : : : ;
n
1 x1
+
+
n xn
son escalares arbitrarios, la aplicacion t : V ! K
de nida como: t (x1 ; : : : ; xn ) =
1 x1
+
+
n xn
resulta lineal, quedando de este modo caracterizados los elementos de (K n ) . Por otra parte, las aplicaciones ti (x1 ; : : : ; xn ) = xi , (i = 1; 2; : : : ; n) son elementos de (K n ) y forman una base de este, pues si t 2 V y (x1 ; : : : ; xn ) 2 V , se tiene: t (x1 ; : : : ; xn ) = =
1 x1 1 t1
+
+
n xn
(x1 ; : : : ; xn ) +
= ( 1 t1 +
+ 124
+
n tn
(x1 ; : : : ; xn )
n tn ) (x1 ; : : : ; xn )
se sigue entonces que: t= Por otra parte, si 0 =
1 t1
+
1 t1
+
+
+
n tn ,
n tn
evaluando en ei ambos miembros de la
igualdad, se obtiene: 0 = ( 1 t1 +
+
n tn ) ei
=
i
lo que da la independencia lineal de t1 ; : : : ; tn . Notese que las componentes de t, en esta base, son los escalares t (e1 ) ; : : : ; t (en ). Proposicion 4.14 Dada v1 ; : : : ; vn una base de V , existe una base '1 ; : : : ; 'n de V tal que 'i (vj ) =
ij ,
llamada la base dual de v1 ; : : : ; vn . En particular, se tiene
dim (V ) = dim (V ). Demostracion: Si v 2 V ,
1; : : : ;
n
son escalares tal que: v=
n X
i vi
i=1
se de ne 'j (v) =
j,
(j = 1; 2; : : : ; n). Se a rma que las uj son lineales, es decir son
elementos de V . En efecto, si
es un escalar y w 2 V , poniendo w =
que: v=
n X
(
P
i vi
i ) vi
i=1
se tiene:
'j ( v) =
j
Por otra parte, a partir de: v+w =
n X
(
i
+
i ) vi
i=1
resulta: 'j (v + w) =
j
+
j
= 'j (v) + 'j (w) :
125
y teniendo en cuenta
Si t 2 V y v 2 V , escribiendo: v=
n X
'i (v) vi
i=1
resulta: t (v) =
n X
'i (v) t (vi ) =
i=1
n X
(t (vi ) 'i ) (v) =
i=1
n X
!
t (vi ) 'i (v)
i=1
es decir:
t=
n X
t (vi ) 'i
i=1
luego, las funciones 'i generan V .
Para la independencia lineal de estas, supongamos que: 0=
n X
i 'i
i=1
evaluando ambos miembros de esta igualdad en vj , se obtiene 0 en el primer miembro y
j
en el segundo.
De nicion 4.15 Los elementos de V seran llamados formas lineales. De nicion 4.16 Un subespacio H de un espacio vectorial V se llama hiperplano, si existe una forma lineal t 6= 0 tal que H = N u (t). Proposicion 4.17 Sea V de dimension n, H un subespacio de V , se veri can: i) H es hiperplano, si y solo si dim (H) = n
1
ii) Si S es un subespacio de V , entonces dim (S \ H) = dim (S)
1oS
H.
iii) Todo subespacio S de dimension k < n es interseccion de por lo menos n hiperplanos.
126
k
Demostracion: i) Si H es un hiperplano, existe una t 6= 0, t 2 V tal que H = N u (t). Dado que t 6= 0, Im (t) es un subespacio no nulo de K, luego Im (t) = K. Por el Teorema 3.30 se tiene: dim (H) = dim (N u (t)) =n
dim (Im (t))
=n
1
Rec procamente, sea v1 ; : : : ; vn una base de V tal que v1 ; : : : ; vn
1
sea una base de
H. Si u1 ; : : : ; un es la base dual de v1 ; : : : ; vn , se tiene un (v) = 0; si y solo si v 2 H, luego H = N u (un ). ii) Si S * H; el subespacio S + H contiene estrictamente a H, luego: dim (S + H) > n
1
entonces: S +H=V ademas: n = dim (S + H) = dim (S) + dim (H) = dim (S) + n
1
dim (S \ H) dim (S \ H)
de donde: dim (S \ H) = dim (S)
1
iii) Sea v1 ; : : : ; vn una base de V tal que v1 ; : : : ; vk sea una base de S. Si u1 ; : : : ; un es la base dual de v1 ; : : : ; vn , resulta uj (v) = 0 (j > k), si y solo si v 2 S, de donde S resulta la interseccion de los N u (uj ) con j > k. 127
Si S =
Th
i=1 Hi , considerando los subespacios Sj =
tiene dim (Sj )
n
j y Sh = S, de donde: k = dim (S) = dim (Sh )
Tj
i=1
n
h
1. Hallar el rango de las siguientes matrices: 3 2 2 3 1 2 3 4 7 6 2 1 3 2 4 7 6 6 7 6 0 1 5 6 7 6 7 7 6 6 7 4 2 5 1 7 7 6 4 5 6 0 0 1 7 7 5 4 2 1 1 8 2 0 0 0 1
2
Hi , considerando ii), se
luego: h
n
k
.
4.3.
Ejercicios
2
2
1 6 6 6 2 6 6 6 5 4 7
25 32 6 6 6 75 94 6 6 6 75 94 4 25 32
3
5
1
3
1
1
7
9
20
43
1
3
7 7 53 132 7 7 7 54 132 7 5 20 48
3
7 7 4 7 7 7 7 7 5 1
2
2
6 6 6 8 6 6 6 6 4 3 6 6 6 4 3 4 8 6
a 2 6 6 6 0 b 6 6 6 0 0 4 0 0
128
4 3
4 6 7 5 c 9 0 d
4
cos( )
sen( )
sen( )
5 2 7 4 8 2 1 2
3
cos( )
3
7 7 2 7 7 7 7 7 7 7 5 7 5 6
1 4 3 8 7 7 3 7 7 a; b; c; d 6= 0 7 2 7 5 5
3 5
2. En las siguientes matrices analizar el rango segun el 2 3 2 3 3 1 1 4 6 7 1 1 2 6 7 6 7 6 4 10 1 7 6 7 6 7 6 7 2 1 5 6 7 4 5 6 1 7 17 3 7 4 5 1 10 6 1 2 2 4 3
valor de 2
3
1 1 6 7 6 7 6 1 1 7 4 5 1 1
3. Mediante operaciones de las y columnas llevar las siguientes matrices a la forma diagonal con a11 = a22 =
= arr = 1 y aij = 0 en otro caso, donde r
es el correspondiente rango. 2 2 3 1 0 1 6 2 1 1 6 6 7 6 0 1 0 6 7 6 6 1 2 1 7 6 4 5 6 1 0 1 4 1 1 2 0 1 0
0
3
7 7 1 7 7 7 0 7 5 1
2 6 6 6 4
1 2 1 1 1 1
4 8
3
7 7 1 1 7 5 1 1
4. >Cual es la dimension del subespacio de soluciones de los siguientes sistemas? 8 > 8 > 2x + y = 0 > > > > > 3x + 2y 4z = 0 > > < x y=0 < x 2y + z = 0 > > > > 4x y z = 0 > > : 10x 4y 4z = 0 > > > : x + y + 10z = 0
5. Sea A en Rn
la matriz xIn
n
. Demostrar que existen in nitos valores x en R para los cuales A tiene rango n (In es la matriz identidad de orden n ).
6. Sea
2
1 2 2 1
3
6 7 6 7 A=6 1 1 1 1 7 4 5 2 1 1 2
veri car que rg (A) = rg (At A).
129
7. Muestre que el rango de una matriz diagonal es igual al numero de elementos distintos de cero situados en la diagonal. >Que ocurre si la matriz es triangular? 8. Sea A en K n
n
e la matriz adjunta de A. Analizar el rango de y notemos con A
e a partir del rango de A. A
9. Dados los numeros b1 ; : : : ; bn en K de nimos la matriz A = [aij ] de orden n como: aij = bi bj . >Que puede decir del rango de A? 10. Probar que mas de n vectores en K n son linealmente dependientes. 11. Siempre que tengan sentido las operaciones para las matrices A y B probar las siguientes desigualdade_s: rg(A + B) rg(AB)
rg(A) + rg(B) minfrg(A); rg(B)g
12. Sean v1 ; : : : ; vk vectores linealmente independientes de un espacio vectorial V . Sea A en K k
m
y (w1 ; : : : ; wm ) = (v1 ; : : : ; vk )A. Probar que el subespacio
generado por w1 ; : : : ; wm tiene por dimension el rango de A. 13. Sean v1 = (1; 0; 1); v2 = (0; 1; 2) y v3 = ( 1; 1; 0) vectores en R3 : i) Si f es una forma lineal sobre R3 tal que f (v1 ) = 1; f (v2 ) =
1; f (v3 ) = 3,
hallar f (x; y; z). ii) Describir expl citamente una forma lineal f sobre R3 tal que f (v1 ) = 0, f (v2 ) = 0 y f (v3 ) 6= 0. iii) Sea f cualquier forma lineal tal que f (v1 ) = f (v2 ) = 0 y f (v3 ) 6= 0. Mostrar que f (2; 2; 1) 6= 0. 14. Sean v = (1; 0; 1; 2) y w = (2; 3; 1; 1) generadores del subespacio S de R4 . Determinar el espacio de formas lineales que se anulan en S. 130
15. Hallar la base dual en los siguientes casos: i) V = R4 con base (1; 1; 1; 1); (1; 1; 1; 1); (1; 1; 1; 1); ( 1; 1; 1; 1). ii) V = R3 con base (2; 1; 1); (1; 2; 1); (1; 1; 2). iii) V los polinomios de grado menor o igual a tres (incluyendo el cero), con base: 1; x
1; (x
1)2 ; (x
1)3 .
16. Si A es una matriz de orden n
n, muestre que rg (A) < n si y solo si existe
un vector x 2 Rn tal que x 6= 0 y Ax = 0. 17. Si A es una matriz de orden m
n y suponga que cada uno de sus subdeter-
minantes de orden k es cero. Entonces, demuestre que todo subdeterminante de orden k + 1 es cero 18. Sean A 2 K n
m
y B 2 Km
n
tales que AB = 0. Probar que:
rg (A) + rg (B)
m
19. Sea V un espacio vectorial y v un vector en V . Probar que v esta en un subespacio S de V; si y solo si toda forma lineal que se anula en S se anula en v. 20. Si H es un hiperplano de un espacio vectorial V y v un vector en V que no esta en H, probar que V = H
< v >.
21. Si la interseccion de m hiperplanos en Rn es f0g >que puede decir de m? 22. En los siguientes casos expresar los subespacios S de V como interseccion de k hiperplanos: i) V = R3 , k = 2, S =< (1; 0; 1) >. ii) V = R5 , k = 3, S =< (1; 0; 1; 1; 0); (0; 1; 1; 1; 0); (1; 1; 0; 0; 0) >. iii) V = R4 , k = 3, S =< (1; 2; 1; 2) >. 131
23. Sea A 2 Rn
m
, mostrar que: det At A
0
y vale cero solo en el caso en que el rango de A sea menor que n. 24. Sean v y w vectores en Rn . De nimos el segmento de extremos v y w al conjunto de vectores dados por:
v + (1
)w :
2 R; 0
1
Notemos con S(v; w) el segmento de extremos v y w. Probar que toda forma lineal f de Rn alcanza sus valores extremos en el segmento S(v; w) en los vectores v y w.
132
5.
Cap tulo 5: Valores y Vectores Propios En esta seccion se asignara a cada transformacion lineal entre espacios vectoriales
una matriz con el objeto de analizar las propiedades de la transformacion lineal a traves de esta matriz. A pesar de que tal asignacion puede realizarse de varias maneras, las propiedades a estudiarse seran independientes de la forma en que esta se realice.
5.1.
Matriz asociada a una transformacion lineal
De nicion 5.1 Sean t : V ! W una transformacion lineal, B1 = fv1 ; : : : ; vn g una base de V , B2 = fw1 ; : : : ; wn g una base de W y aij (i = 1; 2; : : : ; m ; j = 1; 2; : : : ; n) escalares tales que: t (vj ) =
m P
aij wi
i=1
8j = 1; 2; : : : ; n
Se llama matriz de t asociada a las bases B1 ; B2 , notada con jtjB1 B2 , a la matriz A = [aij ]. Observacion 5.2 Notar que los aij quedan un vocamente determinados, pues los wi son una base de W . Por otra parte es claro que la matriz A depende de las bases elegidas en V y W . Observar que la j-esima columna de A representa las coordenadas de t (vj ) en la base B2 . Conservando las notaciones precedentes, se establece el siguiente resultado: Proposicion 5.3 Si x = [x1 : : : xn ] son las coordenadas de un vector v en la base v1 ; : : : ; vn , entonces x t A son las coordenadas de t (v) en la base w1 ; : : : ; wm .
133
Demostracion: Se tiene w = t (v) =
X
P
j
xj vj , luego:
xj t (vj ) =
j
X
X
xj
j
aij wi =
i
XX i
aij xj wi
j
. Proposicion 5.4 Sea t : V ! W una transformacion lineal, B1 y B2 bases de V y W respectivamente y A = jtjB1 B2 , entonces se veri ca: dim (Im (t)) = rg (A) y dim (N u (t)) = n
rg (A) :
Demostracion: Sea w 2 Im (t) esto se veri ca, si y solo si existe v 2 V tal que t (v) = w, escribiendo: v=
X
xi vi
i
se tiene:
w = t (v) =
X
xi t (vi )
i
es decir, t (vi ) generan Im (t). Por otra parte:
[t (v1 ) : : : t (vn )] = [w1 : : : wm ] A luego resulta: dim ht (v1 ) ; : : : ; t (vn )i = rg (A) La segunda a rmacion se deduce del Teorema de la dimension. Ejemplos 5.5 Sea t : R3 ! R2 dada por t (x; y; z) = (x + y; y B1 = f(1; 2; 1) ; (2; 1; 1) ; (1; 1; 2)g B2 = f(1; 1) ; (1; 1)g
134
z):
Se tiene que: t (1; 2; 1) = (3; 1) =
2 (1; 1) + 1 (1; 1)
t (2; 1; 1) = (3; 0) =
3 2
(1; 1) + 32 (1; 1)
t (1; 1; 2) = (2; 1) =
1 2
(1; 1) + 32 (1; 1)
de donde resulta:
2
jtjB1 B2 = 4
2
3 2
1 2
1
3 2
3 2
3 5
Sean s; t transformaciones lineales, donde t : V ! W , s : W ! U , si B1 = fv1 ; : : : ; vn g ; B2 = fw1 ; : : : ; wm g ; B3 = fu1 ; : : : ; uk g son bases de V; W; U respectivamente, se puede calcular js tjB1 B3 = [cij ] a partir de [aij ] = jtjB1 B2 y [bij ] = jtjB2 B3 como sigue: X
(s t) (vj ) =
cij ui
i
ademas: (s t) (vj ) = s (t (vj )) = s
X
akj wk
X
bik akj
k
de donde: cij =
!
=
k
luego:
js tjB1 B3 = jsjB2 B3 jtjB1 B2
De analisis anterior se obtiene la siguiente:
135
X k
!
akj s (wk )
Proposicion 5.6 Sean t : V ! W , s : W ! U , transformaciones lineales, si B1 , B2 , B3 son bases de V; W; U respectivamente, entonces: js tjB1 B3 = jsjB2 B3 jtjB1 B2
A partir de la proposicion 5.6, se estableceran relaciones entre las matrices asociadas a una transformacion lineal t para distintos pares de bases. Proposicion 5.7 Sea t : V ! W una transformacion lineal, B1 , B10 bases de V , B2 , B20 bases de W , entonces: jtjB 0 B 0 = jIW jB2 B 0 jtjB1 B2 jIV jB 0 B1 1
2
2
1
donde IV e IW representan la transformacion identidad en V y W respectivamente. Demostracion: Considerando t = IW t IV , por la proposicion 5.6 resulta: jtjB 0 B 0 = j(IW t) Iv jB 0 B 0 = jIW tjB1 B 0 jIV jB 0 B1 = jIW tjB2 B 0 jtjB1 B2 jIV jB 0 B1 1
2
1
2
2
1
2
1
. Corolario 5.8 Si B1 , B2 son bases de V y IV es la transformacion identidad en V , entonces: jIV jB1 B2 = jIV jB21B1
Demostracion: Si I es la matriz identidad, se tiene: I = jIV jB1 B1 = jIV Iv jB1 B1 = jIV jB2 B1 jIV jB1 B2 . 136
Nota 5.9 Si t : V ! V es una transformacion lineal y B es una base de V , jtjBB sera notada con jtjB . Corolario 5.10 Si t : V ! V es una transformacion lineal y B1 , B2 bases de V , entonces: jtjB2 = jIV jB1 B2 jtjB1 jIV jB2 B1 Observacion 5.11 Si A y B son matrices asociadas a una transformacion lineal t : V ! V , estas quedan relacionadas de la siguiente manera: B=U AU
1
donde U esta dada por el Corolario 5.10. Ejemplos 5.12 Sea t : R3 ! R3 cuya matriz en 2 1 1 6 6 jtjC = 6 1 1 4 1 1 Calcular jtjB , siendo:
la base canonica es: 3 1 7 7 1 7 5 1
B = f(2; 1; 1) ; (1; 2; 1) ; (1; 1; 2)g Se tiene: jtjB = jidjCB jtjC jidjBC siendo:
jidjBC
2
3
2
2 1 1 6 7 16 6 7 6 1 = 6 1 2 1 7 ; jidjBC = jidjCB = 6 44 4 5 1 1 2 2 3 3 0 3 7 16 6 7 jtjB = 6 5 0 5 7 24 5 3 0 3 137
3
1
1
3
1
1
1
3
7 7 1 7 5 3
Observacion 5.13 A partir de los resultados obtenidos, sin mayor di cultad, se pueden establecer las siguientes propiedades: i) jIV jB = I ii) jt sjB = jtjB jsjB , s; t : V ! V iii) jt + sjB = jtjB + jsjB , s; t : V ! V iv) j tjB =
5.2.
jtjB ,
2K, t:V !V
Valores y vectores propios
De aqu en mas, trabajaremos con transformaciones lineales en un mismo espacio, generalmente llamadas endomor smos. Usaremos EndK (V ) para referirnos al conjunto de todos los endomor smos de V , mas precisamente: EndK (V ) = ft : V ! V : t es transformacion linealg De nicion 5.14 Sea t 2 EndK (V ), v 6= 0 en V y de t con valor propio
si: tv=
Los escalares
2 K, v se dice vector propio
v
que son valores propios para algun v 2 V se llaman valores propios
de t. Se llama polinomio caracter stico de t, notado con
t
(X) al polinomio carac-
ter stico de una matriz asociada a t en una base de V . Observacion 5.15 Notar que si A y B son matrices asociadas a la transformacion lineal t, en bases diferentes, existe una matriz inversible U tal que: B = U AU
138
1
de esta identidad se deduce: B
(X) = jX I
Bj = X I
= jU j jX I
Aj U
U AU 1
= jX I
1
= U (X I Aj =
A
A) U
1
(X)
por lo tanto A y B tienen el mismo polinomio caracter stico, lo que da consistencia a la de nicion precedente. Ejemplos 5.16 Si t : R3 ! R3 es una transformacion lineal dada por: t (x; y; z) = (x + y
z; x
y + z; x + y + z)
se tiene: t (1; 1; 1) = (1; 1; 1) = 1 (1; 1; 1) t (1; 0; 1) = (2; 0; 2) = 2 (1; 0; 1) (1; 1; 1) es vector propio de t con valor propio 1, y (1; 0; 1) es vector propio de t con valor propio 2. Teorema 5.17 Sea t 2 EndK (V ) ;entonces si
es ra z de
t
2 K es un valor propio de t; si y solo
(X).
Demostracion: Sea B una base de V , A = jtjB , v un vector propio de t con valor propio , se tiene: tv=
v , ( Iv
, rg j Iv
tjB < n , det jX Iv
, det (X Iv ,
A
t) v = 0 , N u ( Iv jtjB ) = 0 , det (X I
(X) = 0
. 139
t) 6= 0
tjB = 0 A) = 0
De nicion 5.18 Se llama subespacio propio de t asociado a , notado con V al subespacio dado por N u (t
Iv ).
Observacion 5.19 Los subespacios propios de t existen en la medida que
t
(X)
tengan ra ces en K. Por ejemplo, la transformacion t : R2 ! R2 dada por: t (x; y) = ( y; x) tiene por polinomio caracter stico a x2 +1 que no tiene ra ces reales, en consecuencia no posee subespacios propios. Proposicion 5.20 Dada t 2 EndK (V ), si
1; : : : ;
m
de t, entonces la suma de los subespacios V 1 ; : : : ; V
son valores propios distintos m
es directa, es decir, cada
elemento en esta suma se expresa en forma unica como v1 +
+ vm , con vi 2 V i .
Se tiene ademas: dim (V
1
+
+V
m
)=
m X
dim (V i )
i=1
Demostracion: Sean v1 ; : : : ; vm en V 1 ; : : : ; V 0 = v1 + multiplicando por I; t; t2 ; : : : ; tm
1
m
respectivamente tales que:
+ vm
la igualdad anterior, se tiene:
0 = v1 +
+ vm
0=
1
v1 +
+
m
vm
0=
2 1
v1 +
+
2 m
vm
0=
m 1 1
v1 +
140
+
m 1 m
vm
pudiendo expresarse tambien como: 2 3 2 3 0 1 1 1 6 7 6 7 6 7 6 7 6 0 7 6 1 2 m 7 6 7 6 7 6 7 6 7 2 2 2 6 0 7=6 m 7 2 1 6 7 6 7 6 .. 7 6 .. .. .. .. 7 6 . 7 6 . . . . 7 4 5 4 5 m 1 m 1 m 1 0 1 2 m Q Como ( i j ) 6= 0 es el valor del determinante de
2 6 6 6 6 6 6 6 6 6 4
v1 v2 v3 .. . vm
3 7 7 7 7 7 7 7 7 7 5
la matriz en la identidad
precedente, esta matriz en inversible y multiplicando ambos miembros de la igualdad anterior por la inversa de dicha matriz, resulta: 0 1 0 0 v B C B 1 B C B B 0 C B v B C= B 2 B .. C B .. B . C B . @ A @ vm 0
1 C C C C C C A
esto es vi = 0 para i = 1; 2; : : : ; m. De esto se sigue, que cada elemento en la suma se expresa en forma unica. Si B1 ; : : : ; Bm son bases de V 1 ; : : : ; V
respectivamente, resulta claro que la
m
reunion B = [m i=1 Bi forma una base de la suma. Siendo tal union disjunta, se tiene: jBj =
X i
jBi j
donde las barras indican el cardinal del conjunto que encierran. . De nicion 5.21 Dada t 2 EndK (V ), t se dice diagonalizable si existe una base B de V tal que jtjB es diagonal. Proposicion 5.22 Sea t 2 EndK (V ) y cidad como ra z de
t
2 K un valor propio de t cuya multipli-
es m. Entonces: 1
dim (V ) 141
m:
Demostracion: La dimension de un espacio propio es mayor o igual que uno justamente por la de nicion de valor propio. Para la otra desigualdad, consideremos v1 ; : : : ; vk una base de V . Podemos completar esta base hasta obtener una base B = fv1 ; : : : ; vk ; : : : ; vn g de V . La matriz de t referida a la base B tiene la forma: 3 2 D A 5 jtjB = 4 0 C es decir, es triangular por bloques y el bloque D es de la forma
I, donde I es la
identidad de orden k. Se sigue que: t
(X) =
o sea, la multiplicidad de
D
en
(X) t
C
)k
(X) = (X
C
(X)
(X) es mayor o igual que la dimension de V .
Teorema 5.23 Sea t 2 EndK (V ), t es diagonalizable, si y solo si el polinomio caracter stico
t
(X) tiene todas sus ra ces en K y para cada valor propio
multiplicidad de
en
t
(X) y dim (V ) coinciden.
Demostracion: Supongamos t diagonalizable. Sea B una base de V tal que: 3 2 0 0 7 6 1 6 . . . . . . .. 7 6 0 . 7 7=D jtjB = 6 7 6 .. . . . ... 0 7 6 . 5 4 0 0 m
Se tiene
t
(X) =
D
(X) =
n Y
(X
i)
i=1
luego las ra ces de Ademas, si
t
(X) estan en K, pues D 2 K n
n
.
es valor propio de t:
dimV = dimN u (t =n
(n
Iv ) = n
(card fj :
j
rg jt
Iv jB = n
= g)) = card fj : 142
rg jD j
= g
Ij
de t, la
es decir, dimV es precisamente la multiplicidad de
en
t
(X).
Rec procamente, sean B1 , : : :, Bk bases de los diferentes subespacios propios V 1; : : : ; V
k
base de V
1
respectivamente. En virtud de la Proposicion 5.20, B = [Bi es una +
+ V k.
Pero con las hipotesis asumidas, si mi denota la correspondiente multiplicidad de
i,
resulta: jBj =
k X i=1
jBi j =
k X
dim (V i ) =
i=1
k X
mi = gr ( t ) = dim (V )
i=1
Se sigue que B es una base de V formada por vectores propios de t, luego la matriz de t referida a la base B es una matriz diagonal.
5.3.
Ejercicios
1. Dada la transformacion lineal t :R t(x; y; z) = (x + y
3
! R4 de nida por:
z; x
y
z; x + y + z; z
x + y)
Hallar la matriz asociada a t en las siguientes bases: i) B1 = f(1; 0; 0); (0; 1; 0); (0; 0; 1)g. B2 = f(1; 0; 0; 0); (1; 1; 0; 0); (1; 1; 1; 0); (1; 1; 1; 1)g. ii) B1 = f(2; 1; 1); (1; 2; 1); (1; 1; 2)g. B2 = f(0; 0; 0; 1); (0; 0; 1; 0); (0; 1; 0; 0); (1; 0; 0; 0)g. iii) B1 = f(1; 1; 0); (0; 1; 1); (1; 1; 1)g. B2 = f( 1; 1; 1; 1); (1; 1; 1; 1); (1; 1; 1; 1); (1; 1; 1; 1)g. 2. Dada la transformacion lineal t :R3 ! R3 2 2 6 6 ktkC = 6 5 4 1 143
cuya matriz en la base canonica es: 3 1 2 7 7 3 3 7 5 0 2
hallar ktkB , donde: i) B = f(1; 2; 1); (3; 1; 2); (2; 1; 2)g. ii) B = f(0; 1; 0); (0; 0; 1); (1; 0; 0)g. iii) B = f(2; 3; 1); (3; 4; 1); (1; 2; 2)g. 3. La transformacion lineal t :R4 ! R4 en 2 1 2 6 6 6 3 0 6 6 6 2 5 4 1 2
la base e1 ; e2 ; e3 ; e4 tiene la matriz: 3 0 1 7 7 1 2 7 7 7 3 1 7 5 1 3
hallar la matriz de esta transformacion en la base: i) fe1 ; e3 ; e2 ; e4 g. ii) fe1 ; e1 + e2 ; e1 + e2 + e3 ; e1 + e2 + e3 + e4 g.
4. La transformacion lineal t en la base en la base e1 ; e2 ; e3 tiene asociada la matriz:
2
hallar la matriz en la base:
15 6 6 6 20 4 8
11 5
3
7 7 15 8 7 5 7 6
f1 = 2e1 + 3e2 + e3 ; f2 = 3e1 + 4e2 + e3 ; f3 = e1 + 2e2 + 2e3 5. Si las transformaciones t y s tienen asociadas las matrices: 2 3 2 3 3 5 4 6 4 5 , 4 5 4 3 6 9
en la bases f(1; 2) ; (2; 3)g y f(3; 1) ; (4; 2)g respectivamente, hallar la matriz de la transformacion t + s en la base f(3; 1); (4; 2)g. 144
6. Si la transformacion lineal t, en la base f( 3; 7) ; (1; 2)g y la transformacion lineal s, en la base f(6; 7) ; ( 5; 6)g tienen asociadas las matrices: 2 3 2 3 2 1 1 3 4 5 , 4 5 5 3 2 7
hallar la matriz de la transformacion s t en la base canonica.
7. Determinar los valores y vectores propios de las siguientes transformaciones lineales: i) f : R2 ! R2 de nida por f (x; y) = (4x + 3y; 3x ii) f : R3 ! R3 de nida por f (x; y; z) = (2y
z; 2x
4y) z; 2x
y)
8. Hallar los valores y subespacios propios de las transformaciones lineales dadas por sus matrices en las bases canonicas: 2 6 6 6 4 2 6 6 6 6 6 6 4
2
1
5
3
1
0
1
1
1
1
1
1
1
1
1
1
1
1
2
3
7 7 3 7 5 2 1
2 6 6 6 4
0 1 0
7 7 4 4 0 7 5 2 1 2
3 2
7 7 1 7 7 7 1 7 5 1
3
1 1 6 6 6 1 1 6 6 6 1 1 4 1 1
1 1
2
1 2 6 6 6 0 1 6 6 6 0 0 4 0 0
3 2
7 7 1 1 7 7 7 1 1 7 5 1 1
1 6 6 6 1 6 6 6 1 4 1
3 5
3
7 7 0 1 7 7 7 3 0 7 5 0 1
1
1
1
1
1
1
1
1
1
3
7 7 1 7 7 7 1 7 5 1
9. Discutir y decidir cuales de las transformaciones lineales del ejercicio anterior son diagonalizables y en los casos a rmativos hallar una base en la cual la matriz de la transformacion sea diagonal. 10. Sea B una base de R4 y t : R4 ! R4 de nida segun la matriz: 145
i) B =f(1,0,0,0),(1,1,0,0),(1,1,1,0),(1,1,1,1)g. 2 1 0 1 6 6 6 1 0 1 ktkBC = 6 6 6 1 0 1 4 1 0 1 ii) B =f(-1,1,1,1),(1,-1,1,1),(1,1,-1,1),(1,1,1,-1)g. 2 2 2 2 6 6 6 2 2 2 ktkBC = 6 6 6 2 2 2 4 2 2 2
2
3
7 7 2 7 7 7 2 7 5 2
2
3
7 7 2 7 7 7 2 7 5 2
donde C es la base canonica. Decidir en cada caso si t es diagonalizable. 11. Sea t la transformacion lineal de R dada por su matriz asociada en la base canonica:
2
0 0 0 0
3
7 6 7 6 6 a 0 0 0 7 7 6 7 6 6 0 b 0 0 7 5 4 0 0 c 0
>en que condiciones para a; b y c es t diagonalizable? 12. Sea A inversible. Demostrar que: si
es valor propio de A, entonces
1
es
valor propio de A 1 . 13. Demostrar que si
es un valor propio de A 2 K n
n
, entonces
+
es un
valor propio de I + A; 8 2 K. 14. Suponga que
es un valor propio de A con un vector propio asociado v.
Muestre que P (A) v = P ( ) v, cualquiera sea P 2 K[X]. 146
15. Sea V = fP 2 K[X] : gr(P )
ng y t :V ! V la transformacion lineal de nida
como t(P (X)) = @P (X). Hallar los subespacios propios de t. 16. Sea t :V ! V una transformacion lineal y B una base de V . Probar que t es isomor smo, si y solo si ktkB es inversible si y solo si,
t (0)
6= 0.
17. Sea la sucesion doble de nida a partir de x0 ; y0 en forma recursiva como sigue: xn+1 = 2yn ; yn+1 = xn + yn Si x0 > 0 y y0 > 0; probar que: lm
xn
n!1 yn
2
18. Sean A = 4
3
2
1
2
3
5 y P (x) = x2
147
=1
1. Diagonalizar si es posible P (A).
6.
Cap tulo 6: Espacios Euclideanos
6.1.
Espacios Euclideanos
Sea R el cuerpo de los numeros reales y V un espacio vectorial real. De nicion 6.1 Un producto interno (o producto escalar) en V es una aplicacion h ; i de nida en el producto cartesiano V
V a valores reales que veri ca:
i) hv; wi = hw; vi (simetrica). ii) hu + v; wi = hu; wi + hv; wi hu; v + wi = hu; vi + hu; wi , 8u; v; w 2 V h v; wi = iii) hv; vi
hv; wi = hv; wi, 8 2 R; v; w 2 V . (forma bilineal).
0 ,8v 2 V y vale la igualdad si y solo si, v = 0. (positiva de nida)
Observacion 6.2 De la propiedad en ii) se deduce: hv; 0i = 0
8v 2 V
dado que la bilinealidad de la aplicacion signi ca que la funcion obtenida al jar una de las variables, es una funcion lineal respecto de la variable restante. De nicion 6.3 Un espacio vectorial real provisto de un producto interno se llama espacio euclideano. En un espacio euclideano se de ne la norma (o longitud) de un vector v como kvk =
p
hv; vi
y la distancia entre dos vectores v y w como kv
wk.
Ejemplos 6.4 i) V = Rn , con el producto usual hX; Y i = X t Y , donde: h i h i X = x1 Y = y1 xn yn se identi can con matrices las.
148
ii) V = Rn
n
, si A y B son matrices reales de orden n se de ne: hA; Bi = tr A t B
donde tr denota la traza y t B la matriz traspuesta de B. Notar que esta de nicion es una extension natural de la dada en i). iii) V = ff : [0; 1] ! R tal que f es continua g, para f y g en V se de ne: Z 1 hf; gi = f (x) g (x) dx 0
Es posible veri car, sin mayor di cultad, que las aplicaciones dadas en los ejemplos anteriores de nen, en cada caso, un producto inteno en V . En todo lo que sigue V denotara un espacio euclideano.
6.2.
Matriz Gramiana y Gramiano
De nicion 6.5 Dados vectores v1 ; : : : ; vm en V de nimos la matriz gramiana asociada a esta sucesion de vectores como la matriz real de orden m que tiene el valor hvi ; vj i en el lugar correspondiente a la la i y la columna j. Usaremos [v1 ; : : : ; vm ] para referirnos a la matriz gramiana de los vectores v1 ; : : : ; vm . Notar que interesa el orden en que se presentan los vectores dados. El determinante de esta matriz se llama el gramiano de los vectores v1 ; : : : ; vm y se notara con jv1 ; : : : ; vm j. La matriz gramiana surge naturalmente al calcular el cuadrado el producto interno entre dos combinaciones lineales de los vectores v1 ; : : : ; vm : h 1 v1 +
+
m vm ;
1 v1 +
+
m vm i =
=
149
X ij
i j
hvi ; vj i
[v1 ; : : : ; vm ]
t
donde
=
h
1
:::
m
En particular se tiene:
i
y
k 1 v1 +
=
h
1
:::
2 m vm k
+
m
=
i
.
[v1 ; : : : ; vm ]
t
La matriz gramiana posee informacion su ciente como para saber acerca de la dependencia lineal de los vectores considerados. Esto se establece a continuacion: Proposicion 6.6 Los vectores v1 ; : : : ; vm en V son linealmente independientes, si y solo si jv1 ; : : : ; vm j = 6 0. Demostracion: Sean
= ( 1; : : : ;
n)
2 Rn , v =
1 v1
+
+
m vm
en V y notemos
A = [v1 ; : : : ; vm ]. Se tiene: kvk2 = A t 6= 0 en Rn tal que A
Si el determinante de A es cero, existe valor de
resulta kvk2 = 0, luego v = 0 y como
t
= 0, para este
6= 0 los vectores v1 ; : : : ; vm son
linealmente dependientes. Por otra parte, pongamos
= (hv1 ; vi ; : : : ; hvm ; vi). De la identidad:
hvi ; vi = hvi ;
1 v1
= hvi ; v1 i
+ 1
+
m vm i
+ hvi ; vm i
+
m
se sigue: At =
t
Ahora, si el determinante de A es distinto de cero, v = 0 implica
= 0; si y solo si
= 0. Como
= 0, de aqu se obtiene la independencia lineal de los vectores
v1 ; : : : ; v m .
150
6.3.
Sistemas Ortogonales y Sistemas Ortonormales
De nicion 6.7 Un conjunto de vectores v1 ; : : : ; vm en V se dice que es un sistema ortogonal (respectivamente, un sistema ortonormal) si [v1 ; : : : ; vm ] es diagonal (respectivamente, es la matriz identidad). Una base de un subespacio se dice base ortogonal (resp.base ortonormal) si sus elementos forman un sistema ortogonal (resp. ortonormal).Un vector v de V se dira unitario si kvk = 1. Proposicion 6.8 Un sistema ortogonal de vectores no nulos es un sistema de vectores linealmente independiente. Demostracion: Si v1 ; : : : ; vm es un tal sistema, se tiene que: jv1 ; : : : ; vm j = kv1 k2
kvm k2 6= 0
y la desmotracion es ahora consecuencia de la Proposicion 6.6. Por cada conjunto de vectores v1 ; : : : ; vm en V puede asignarsele un sistema ortogonal de vectores u1 ; : : : ; um de nidos del siguiente modo: u1 = v1 y para i > 1:
ui =
hv1 ; v1 i
hv1 ; v2 i
hv2 ; v1 i .. .
hv2 ; v2 i
hvi 1 ; v1 i hvi 1 ; v2 i v1
v2
hv1 ; vi i .. .
hv2 ; vi i .. .
(1)
hvi 1 ; vi i vi
donde las barras indican el determinante de la matriz que encierran. Nota 6.9 Es preciso acotar que si bien, en este caso, no se trata de una matriz numerica, o con sus coe cientes en un anillo conmutativo, podemos pensar este determinante como la combinancion lineal de los vectores v1 ; : : : ; vm que se obtendr a 151
al anular un desarrollo del determinate por la ultima la. Las ventajas de esta presentacion son; por una parte su forma compacta y por otra, que las propiedades del determinante suelen conservarse facilitando y sugiriendo los calculos a realizar. Por ejemplo, a los vectores u; v; y w le asignamos los vectores: u hu; vi u + hu; ui v (hu; vi hu; wi
hv; vi hu; wi) u
(hu; ui hv; wi
hv; ui hu; wi) v + ku; vk w
Dado v en V , de la bilinealidad del produco escalar resulta:
hv; ui i =
hv1 ; v1 i
hv1 ; v2 i
hv1 ; vi i
hv2 ; v1 i .. .
hv2 ; v2 i
hv2 ; vi i .. .
.. .
hvi 1 ; v1 i hvi 1 ; v2 i hv; v1 i
(2)
hvi 1 ; vi i
hv; v2 i
hv; vi i
Ademas ui es de la forma: ui = jv1 ; : : : ; vi 1 j vi +
i 1 vi 1
+
+
1 v1
(3)
donde convenimos: jv1 ; : : : ; vi 1 j = 1 si i = 1 Conservando las notaciones precedentes, se tiene: Proposicion 6.10 i) El sistema u1 ; : : : ; um es un sistema ortogonal y para i > 1 se tiene: kui k2 = jv1 ; : : : ; vi 1 j jv1 ; : : : ; vi j ii) Todo gramiano es no negativo. 152
iii) Si v1 ; : : : ; vm son linealmente independientes, entonces ambos conjuntos de vectores generan un mismo subespacio en V . iv) Todo subespacio no nulo de V admite una base ortonornal. Demostracion: i) Dados los ndices i; j si i < j, de las identidades en (1) y (2) se sigue que: 8 < 0 si i < j hvi ; uj i = : jv ; : : : ; v j si i = j i
1
Luego, por la bilinealidad del producto y (3) se obtiene: 8 < 0 si i < j hui ; uj i = : jv ; : : : ; v j jv ; : : : ; v j si i = j 1 i 1 1 i
ii) Si los vectores v1 ; : : : ; vm son dependientes, se tiene por la Proposicion 6.6, el
gramiano igual a cero. En caso contrario, la identidad: kui k2 = jv1 ; : : : ; vi 1 j jv1 ; : : : ; vi j permite demostrar inductivamente que el gramiano es un numero positivo. iii) El subespacio S generado por v1 ; : : : ; vm contiene los vectores u1 ; : : : ; um segun la expresion dada en (3) para los vectores ui . La independencia lineal de v1 ; : : : ; vm y la identidad en ii), garantizan que u1 ; : : : ; um forman un sistema ortogonal de vectores no nulos, es decir, son linealmente independientes segun la Proposicion 6.8. Se concluye que u1 ; : : : ; um generan a S. iv) Si v1 ; : : : ; vm es una base de un subespacio no nulo S, entonces el sistema ortogonal asociado u1 ; : : : ; um es una base ortogonal de S. Tomando los vectores: wi = se tiene:
ui kui k
8 < 1 si i = j hui ; uj i hwi ; wj i = = kui k kuj k : 0 si i 6= j
Resulta w1 ; : : : ; wm una base ortonormal de S. 153
6.3.1.
Desigualdad de Schwartz
La no negatividad de un gramiano aplicada al caso de dos vectores u y v nos dice que: hu; vi2
hu; ui hv; vi
0
o equivalentemente: jhui ; uj ij
kuk kvk
Esta desigualdad se conoce como desigualdad de Schwartz y vale la igualdad en la primera desigualdad si y solo si, los vectores son linealmente dependientes. A partir de esta puede establecerse la siguiente desigualdad para la norma, llamada la desigualdad triangular : ku + vk
kuk + kvk
Para establecer esta ultima, observamos que por la bilinealidad y simetr a del producto se tiene: ku + vk2 = hu + v; u + vi = kuk2 + 2 hu; vi + kvk2 kuk2 + 2 kuk kvk + kvk2 = (kuk + kvk)2 6.3.2.
Angulo entre vectores
De nicion 6.11 Dados los vectores no nulos u; v 2 V se de ne el angulo entre los vectores u; v como el unico argumento
con 0
cos ( ) =
tal que:
hu; vi kuk kvk
Notar que, en virtud de la desigualdad de Schwartz, es: 1
hu; vi kuk kvk 154
1
lo que da consistencia a la de nicion precedente.
6.3.3.
Volumen del Paralelep pedo
Dados los vectores v1 ; : : : ; vm en V , se de ne el paralelep pedo engendrado por v1 ; : : : ; vm como: P (v1 ; : : : ; vm ) = f 1 v1 +
+
m vm
:0
i
1g
y se de ne el volumen m-dimensional de P (v1 ; : : : ; vm ) como la ra z cuadrada de jv1 ; : : : ; vm j, notaremos: jP (v1 ; : : : ; vm )j =
p
jv1 ; : : : ; vm j
Corresponde aclarar que en el caso de la recta, el plano y el espacio, con el producto interno usual, la expresion anterior corresponde a la longitud del segmento, el area del paralelogramo y el volumen del paralelep pedo respectivamente.
6.4.
Matrices Positivas De nidas
De nicion 6.12 Una matriz real simetrica A de orden n se dice positiva de nida si la expresion: hX; Y i = XAt Y
X; Y 2 Rn
de ne un producto interno en Rn . En tal situacion, A es la matriz gramiana de la base canonica e1 ; : : : ; en de Rn , es decir A = [e1 ; : : : ; en ]. Si ponemos A = [aij ], para cada ndice i = 1; 2; : : : ; n de las Proposiciones 6.6 y 6.8 resulta:
i
=
a11 .. .
a1i .. .
ai1
aii 155
= je1 ; : : : ; en j > 0
En el sentido rec proco, supongamos que A = [aij ] es una matriz real simetrica tal que
i
> 0 para i = 1; 2; : : : ; n. De nimos en Rn la forma bilineal simetrica dada
por: hX; Y i = XA t Y
X; Y 2 Rn
Asociamos a la base canonica el sistema ortogonal de vectores u1 ; : : : ; un de nidos conforme la expresion en (1). Por la Proposicion 6.10 se tiene: 8 < 0 si i 6= j hui ; uj i = : si i = j i 1
donde convenimos
0
i
= 1. Los vectores u1 ; : : : ; un forman una base ortogonal de
Rn . Dado X 2 Rn , ponemos: X=
1 u1
+
+
n un
con
+
+
i
2R
resulta: hX; Xi =
2 1
y la igualdad se da, si y solo si
1
+
2 2
1
2
2 n
n 1
n
0
= 0.
Con las notaciones establecidas tenemos demostrado el siguiente resultado. Teorema 6.13 A es positiva de nida si y solo si,
6.5.
i
> 0 para i = 1; 2; : : : ; n.
Complemento Ortogonal
De nicion 6.14 Dado un subconjunto no vac o A de V se llama complemento ortogonal de A al conjunto: A? = fv 2 V : hv; ai = 0, 8a 2 Ag Proposicion 6.15 Sean A; B subconjuntos no vac o de V . Se veri can: i) A? es un subespacio de V 156
ii) Si A
B entonces B ?
A? .
iii) A? = hAi? , donde hAi denota el subespacio generado por los elementos de A iv) (A [ B)? = A? \ B ? . Demostracion: i) Es consecuencia directa de la bilinealidad del producto escalar. ii) Si v 2 B ? entonces hv; bi = 0 8b 2 B, en particular la identidad se cumple para los elementos de A, o sea, v 2 A? .
hAi por ii) resulta hAi?
iii) Dado que A
A? . Por otra parte, si v 2 A? y
w es combinacion lineal de elementos de A, poniendo w = i
1 a1
+
+
m am
con
2 R y ai 2 A resulta: hv;
1 a1
+
+
m am i
=
1
hv; a1 i +
+
m
hv; am i = 0
es decir v 2 hAi? , luego A? = hAi? . iv) Es claro que hv; wi = 0, 8w 2 A [ B equivale a hv; wi = 0, 8w 2 A y hv; wi = 0, 8w 2 B. Proposicion 6.16 Sea S un subespacio de V . i) Se tiene la descomposicion: V =S
S?
ii) dim (V ) = dim (S) + dim S ? iii) Si A
V es no vac o, entonces A?
?
= hAi, en particular S ?
?
= S.
Demostracion: i) Sea v 2 S \ S ? , por la de nicion de S ? se tiene hv; vi = 0. Luego, de las propiedades del producto interno resulta v = 0, es decir S \ S ? = f0g.
157
Por otra parte, consideremos v1 ; : : : ; vm una base de S y v 2 V un vector arbitrario. Sea w 2 V dado por:
w=
hv1 ; v1 i .. .
hv1 ; vm i .. .
hvm ; v1 i
hvm ; vm i hvm ; vi
v1
vm
hv1 ; vi .. .
v
es decir, w = um+1 en la construccion del sistema ortogonal asociado al conjunto de vectores v1 ; : : : ; vm ; v. Resulta entonces: hvi ; wi = 0
8i
De estas identidades y la bilinealidad del producto interno resulta: + * m m X X = ( i 2 R) i vi ; w i hvi ; wi = 0 i=1
i=1
es decir w 2 S ? . Por otra parte:
hv; wi = jv1 ; : : : ; vm ; vj y haciendo uso de las propiedades de los deteminantes, podemos poner:
w=
hv1 ; v1 i .. .
hv1 ; vm i 0 .. .. . .
hvm ; v1 i
hvm ; vm i 0
v1
vm
+
v
hv1 ; v1 i .. .
hv1 ; vm i .. .
hvm ; v1 i
hvm ; vm i hvm ; vi
v1
el primer termino de la descomposicion es igual a: jv1 ; : : : ; vm j v 158
vm
hv1 ; vi .. .
0
mientras que el segundo termino es un elemento en S, pues su desarrollo por la ultima la da una combinacion lineal de v1 ; : : : ; vm . De esto resulta que v = p (v) + c (v) donde p 2 S y c 2 S ? estan dados por: hv1 ; v1 i .. .
hv1 ; vm i .. .
hvm ; v1 i
hvm ; vm i hvm ; vi
v1
p (v) =
hv1 ; vi .. .
vm
0 (4)
jv1 ; : : : ; vm j
y: hv1 ; v1 i .. .
hv1 ; vm i .. .
hvm ; v1 i
hvm ; vm i hvm ; vi
c (v) =
v1
hv1 ; vi .. .
vm
De este modo, no solo vimos que V = S
v (5)
jv1 ; : : : ; vm j
S ? , sino que tenemos expresiones para la
descomposicion de un vector arbitrario en V . ii) Es consecuencia directa de i). A?
iii) Por la de nicion de complemento ortogonal resulta A Proposicion 6.15 A
? ?
dim (hAi) = dim (V ) = dim (V ) = dim ?
. Por i) de la
es un subespacio y como contiene a A, resulta hAi
Ahora, por el punto ii) se tiene:
de donde hAi = A?
?
A?
dim A? dim (V ) ?
.
159
dim
A?
?
A?
?
.
6.6.
Proyeccion Ortogonal
De nicion 6.17 Las aplicaciones p:V ! V y c:V ! V de nidas en (4) y (5) se llaman proyeccion ortogonal sobre S y componente ortogonal segun S respectivamente. Observacion 6.18 Dado que S ?
?
= S, la proyeccion ortogonal sobre S es la
componente ortogonal segun S ? y rec procamente, la proyeccion ortogonal sobre S ? es la componente ortogonal segun S. Por otra parte, podemos dar una expresion para la norma de la componente ortogonal en termino de gramianos. Proposicion 6.19 Sean v 2 V , S un subespacio de V con base v1 ; : : : ; vm . Entonces:
p
jv1 ; : : : ; vm ; vj kc (v)k = p jv1 ; : : : ; vm j
(6)
Demostracion: Es consecuencia de las identidades:
kc (v)k2 = hc (v) ; c (v)i = hp (v) + c (v) ; c (v)i = hv; c (v)i y las dadas en (2) y (5).
6.6.1.
Distancia entre V ariedades Lineales
De nicion 6.20 Una variedad lineal en V es un conjunto M de la forma S + v, donde S es un subespacio de V y v un vector en V , entendiendose por S + v el conjunto: S + v = fs + v : s 2 Sg Como casos particulares, se tienen los vectores (puntos) si S = 0 y los subespacios si v = 0. 160
Dados dos subconjuntos no vac os A y B de V , se de ne la distancia entre A y B como: d (A; B) = nf fd (a; b) : a 2 A; b 2 Bg Es nuestro proposito establecer el calculo de la distancia entre dos variedades lineales. Consideremos primero el caso, aparentemente particular, de calcular la distancia entre un vector y un subespacio. Nota 6.21 Para simpli car la notacion usaremos d (v; S) en lugar de d (fvg ; S) para indicar la distancia entre el vecto v y el subespacio S. Proposicion 6.22 Sean v 2 V , S un subespacio de V . La distancia entre fvg y S es igual a la norma de la componente ortogonal de v segun S. Demostracion: Para s 2 S se tiene: d2 (v; s) = kv
sk2
= hp (v)
s + c (v) ; p (v)
s + c (v)i
= kp (v)
sk2 + kc (v)k2
kc (v)k2
y vale la igualdad solo en el caso en que s = p (v), de donde: d (v; S) = kc (v)k . El calculo de la distancia entre variedades lineales se reduce al caso de distancia entre un punto y un subespacio. Corolario 6.23 Sea M = S + v y N = T + w variedades lineales en V , entonces: d (M; N ) = d (w 161
v; S + T )
Demostracion: En primer lugar notemos que: S + T = fs
t : s 2 S; t 2 T g
la razon es, que por ser T un subespacio, toda suma s + t es a la vez una diferencia s
( t) y toda diferencia s
t es a la vez una suma s + ( t). Luego:
d (M; N ) = nf fd (s + v; t + w) : s 2 S; t 2 T g = nf fd (s
= nf fd (u; w = d (w
v) : s 2 S; t 2 T g
t; w
v) : u 2 S + T g
v; S + T )
es decir, la distancia entre las variedades lineales M y N se obtiene como la distancia entre el vector w
6.7.
v y el subespacio S + T .
Ejercicios
1. Dada la forma bilineal simetrica en Rn de nida por la expresion: B(X; Y ) = XA t Y
X; Y 2 Rn , A 2 Rn
n
determinar en los siguientes casos si B(X; Y ) de ne un producto interno en Rn : i) n = 2
ii) n = 3
2
A=4 2
1 1 1 1
3
2
5 ; 4 3
2
2 1 1 2
3
2
1 a
5 ; 4 3
a b 2
3 5 3
1 1 3 1 2 1 2 1 0 6 7 6 7 6 7 6 7 6 7 6 7 A=6 1 1 3 7 ; 6 2 1 1 7 ; 6 1 2 1 7 4 5 4 5 4 5 3 3 3 1 1 2 0 1 2 162
2. Sea V un espacio vectorial con producto interno < ; >, v y w en V : i) Si kvk = kwk, mostrar que hv + w; v
wi = 0. Interpretar gra camente en
R2 . ii) Si kv + wk = kvk + kwk, mostrar que v y w son linealmente dependientes. >Vale la rec proca? iii) Mostrar e interpretar geometricamente la siguiente identidad: kv + wk2 + kv 3. Sean A y P en Rn
n
wk2 = 2(kvk2 + kwk2 )
tales que A es simetrica y P es inversible. Probar que
X A t Y determina un producto interno en Rn ; si y solo si X (P At P ) t Y determina un producto interno en Rn . 4. Dada la forma bilineal en R3 de nida por 2 a b 6 6 A=6 b d 4 c e
X A t Y donde: 3 c 7 7 e 7 5 f
i) Evaluar X A t Y para X; Y 2 f(1; 0; 0); ( b; a; 0); (be
dc; bc
ae; ad
b2 )g.
ii) Calcular: 2 6 6 6 4
1
0
0
3
2
1 7 6 7 6 7A6 0 b a 0 5 4 be dc bc ae ad b2 0
b be a bc 0 ad
dc
3
7 7 ae 7 5 b2
iii) Demostrar que X A t Y de ne un producto interno en R3 ; si y solo si a > 0, ad
b2 > 0 y det(A) > 0.
5. Encontrar un criterio como en el ejercicio 5, para decidir cuando una forma bilineal en R4 , X A t Y de ne un producto interno en R4 . 163
6. Sea V un espacio vectorial con producto interno. Si v1 ; v2 ; : : : ; vm son vectores linealmente independientes en V y A es la matriz gramiana de estos vectores, probar que X A t Y de ne un producto interno en Rm . 7. Sea V un espacio vectorial con producto interno, v1 ; v2 ; : : : ; vm vectores en V . i) Probar que el gramiano jv1 ; v2 ; : : : ; vm j es mayor o igual que cero. ii) Probar que la dimension del subespacio hv1 ; v2 ; : : : ; vm i es igual al rango de la matriz gramiana [v1 ; v2 ; : : : ; vm ]. 8. Decidir cuales de las siguientes matrices son matrices gramianas: 2 3 2 3 2 1 0 6 7 1 1 6 4 5 6 1 2 2 7 7 4 5 1 1 0 2 1 2 3 2 3 2 1 1 1 a a 6 7 6 7 6 7 6 7 6 1 2 1 7 6 a 1 a 7 4 5 4 5 1 1 2 a a 1
9. Sea V un espacio vectorial real y '1 ; '2 ; : : : ; 'n una base del espacio dual V de V . Mostrar que: < v; w >= '1 (v)'1 (w) + '2 (v)'2 (w) +
+ 'n (v)'n (w)
de ne un producto interno en V . Si v1 ; v2 ; : : : ; vn es base dual de '1 ; '2 ; : : : ; 'n , evaluar la matriz gramiana de v1 ; v2 ; : : : ; vn . 10. Dado un espacio vectorial real V con base v1 ; v2 ; : : : ; vn . Demostrar que existe un unico producto interno < , > en V en el cual v1 ; v2 ; : : : ; vn es una base ortonormal de V . 11. Sea V un espacio vectorial con producto interno y v1 ; v2 ; : : : ; vn una base de V . Si v 2 V y hv; vi i = 0 para i = 1; 2; : : : ; n, probar que v = 0. 164
12. Sea V un espacio vectorial con producto interno y ' una funcional en V . Probar que existe un unico elemento v 2 V tal que '(w) = hv; wi, 8w 2 V . 13. En los siguientes casos, determinar un producto interno en V para el cual la base B sea ortonormal: i) V = R2 , B = f(1; 1); (1; 1)g ii) V = R3 , B = f(1; 1; 0); (1; 0; 1); (0; 1; 1)g iii) V = R4 , B = f(1; 1; 1; 1); (1; 1; 1; 1); (1; 1; 1; 1); (1; 1; 1; 1)g 14. Sea V el espacio vectorial real de polinomios de grado menor o igual que n; probar que la forma bilineal: hP; Qi =
Z1
P (x) Q(x) dx
0
de ne un producto interno en V . Hallar una base ortonormal de V si n = 3. 15. Sean A y B en Rn interno en Rn
n
n
. Mostrar que hA; Bi = tr (A t B) de ne un producto
.
16. Hallar una base ortonormal del subespacio S de Rn en los siguientes casos: i) n = 3; S = fx + y + z = 0. ii) n = 4; S = h(1; 2; 2; 1); (1; 1; 5; 3); (3; 2; 8; 7)i iii) n = 4; S = h(1; 1; 0; 0); (1; 0; 1; 0); (1; 0; 0; 1)i iv) n = 4
8 < x+y+z+t=0 S= : x y+z t=0
v) n = 5; S =< (0; 1; 1; 1; 1); (1; 0; 1; 1; 1); (1; 1; 0; 1; 1) >. 17. Para los subespacios S del ejercicio 15, hallar una base de S ? . 165
18. Si S es un subespacio de R4 y S ? tiene por ecuaciones: 8 > > x 9y + 8z t = 0 > < S? = x y+z+t=0 > > > : 2x 3y + 5z 7t = 0
Hallar una base de S, y un sistema de ecuaciones que determine S.
19. Sea S el subespacio de R dado por: 8 > > x y z+t=0 > < S= x+y+z+t=0 > > > : x y z t=0
Hallar una base de S ? , y un sistema de ecuaciones que determine S ? .
20. Sea f : R4 ! R4 la transformacion lineal cuya matriz en la base canonica es: 3 2 1 1 0 2 7 6 7 6 6 1 3 1 1 7 7 6 7 6 6 0 1 0 2 7 5 4 2 1 2 0 Hallar una base del subespacio Im(f )? .
21. Sea g : R4 ! R4 la transformacion lineal dada por: g(x; y; z; t) = (x
z
t; x + y
z
t; 0; x + 2y + z + t)
Hallar generadores y sistemas de ecuaciones para los subespacios: N u(g), Im(g), N u(g)? , Im(g)? . 22. En los siguientes casos hallar la proyeccion ortogonal y componente ortogonal del vector v sobre el subespacio S y segun el subespacio S ? , respectivamente: i) v = (4; 1; 3; 4); S = h(1; 1; 1; 1); (1; 1; 1; 1); (1; 1; 1; 1)i 166
ii) v = (1; 2; 2; 1); S = fx
y
z + t = 0.
iii) v = (1; 2; 3); S = fx + y + z = 0. 23. En los siguientes casos hallar las expresiones en coordenadas cartesianas de la proyeccion y componente ortogonal asociadas al subespacio S de Rn : i) n = 3; S = fx + y
z=0
ii) n = 4; S = h(1; 0; 1; 0); (0; 1; 0; 1); (1; 1; 1; 1)i iii) n = 5; S = h(1; 1; 1; 1; 1)i 24. Sean S y T subespacios de un espacio vectorial con producto interno. Probar que: (S + T )? = S ? \ T ? (S \ T )? = S ? + T ? 25. Expresar en la forma S +v, donde S es un subespacio y v un vector jo, las variedades siguientes: i) La recta que pasa por los puntos (1; 1; 2) y (2; 1; 1) de R3 . ii) El plano que pasa por los puntos (1; 0; 0); (0; 1; 0); (0; 0; 1) de R3 . iii) La recta que pasa por los puntos (x1 ; : : : ; xn ); (y1 ; : : : ; yn ) de Rn . iv) El plano que pasa por tres puntos no alineados (x1 ; : : : ; xn ); (y1 ; : : : ; yn ) y (z1 ; : : : ; zn ) de Rn . v) La menor variedad lineal que pasa por los puntos v1 ; v2 ; : : : ; vm de Rn . 26. En los casos siguientes, hallar la distancia entre las variedades M y N : i) M = (1; 0; 1; 0);
8 < x y N= : x+y 167
z
t=
z
t=1
1
ii) M = h(1; 2; 1; 2)i + (1; 0; 0; 1), N = h(1; 1; 0; 0); (0; 1; 0; 1)i + (1; 1; 1; 1). iii) M la recta de R3 que pasa por (1; 0; 1) y (0; 1; 1) y N el plano de R3 que pasa por (1; 1; 0); (0; 1; 1); (1; 0; 1). iv) M la recta de R4 que pasa por (1; 1; 1; 1) y (1; 1; 1; 1) y N la recta de R4 que pasa por: (1; 1; 1; 1) y (1; 1; 1; 1). v) M = h(1; 0; 1; 0; 1); (0; 1; 0; 1; 0)i + (0; 1; 1; 1; 0). 8 > > y+t=1 > < N= x+z+u=1 > > > : x y+t u=0
27. Determinar el elemento de norma m nima sobre la variedad M , siendo: i) M = fx
R3 .
y + z = 1, M
ii) M el plano de R3 que pasa por los puntos (1; 0; 0); (1; 1; 0) y (0; 0; 1). iii) M la recta en R4 que pasa por (1; 0; 1; 0) y (0; 1; 1; 1). 28. Encontrar los puntos sobre las variedades M y N respectivamente que se encuentren a la menor distancia posible: i) M = (1; 0; 1); N = fx
y
z = 1.
ii) M la recta de R3 que pasa por (1; 1; 1); (0; 0; 1) y N la recta de R3 que pasa por (1; 0; 0); (0; 1; 0). iii) M = h(1; 1; 1; 1); (1; 1; 1; 1)i+(0; 1; 0; 1); N = h(1; 1; 1; 1)i+(1; 0; 1; 0). 29. Sea V el espacio de polinomios reales de grado menor o igual que 3, con el producto interno dado por: hP; Qi =
Z1
P (x) Q(x) dx
0
Hallar la distancia entre el polinomio x3 168
x y la variedad lineal ax2 + bx + 1.
30. En los casos siguientes, hallar el angulo entre el vector v y el subespacio S de V: i) V = R3 ; v = (1; 2; 1), S = fx
z = 0.
ii) V = R4 ; v = (1; 0; 1; 1), S = h(1; 1; 1; 0); (1; 1; 0; 1); (1; 0; 1; 1)i iii) V = R2 2 , con el producto interno: hA; Bi = tr A t B iv) V = Rn
n
, v = I la matriz identidad y S el subespacio de matrices de
traza nula. 31. Hallar el angulo entre las siguientes variedades S y T de Rn : i) n = 3, S = h(1; 0; 1)i, T = fx + y + z = 0. ii) n = 4, S = fx + y + z + t = 1, T = fx iii) n = 3, S = fx + y + z = 1, T = fx iv) n = 3
8 < x S= : y
y=1 z=1
y
z
y+z =
t = 2. 1.
8 < z=1 T = : x+y =
1
32. Sea A una matriz real. Mostrar que A t A y t A A son las matrices gramianas de la las de A y las columnas de A respectivamente. 33. Sea A una matriz real. Probar que el rango de A, el rango de A t A y el rango de t A A coinciden. 34. Dados v1 ; : : : ; vm 2 V , probar que: i)
p jv1 ; : : : ; vm j 169
kv1 k
kvm k
ii) jv1 ; : : : ; vm j
jv1 ; : : : ; vi j
jvi+1 ; : : : ; vm j
35. Sean w1 ; : : : ; wm las proyecciones ortogonales de v1 ; : : : ; vm sobre un subespacio S.de Rn . Probar que: jw1 ; : : : ; wm j 36. Sean A y B matrices en Rn
n
jv1 ; : : : ; vm j
tales que det(A t A + B t B) = 0. Probar que:
det(A) = 0 = det(B) 37. Sea A una matriz real simetrica de orden n, t : Rn ! Rn la transformacion lineal de nida por t(X) = X A ; ( X 2 Rn ). Mostrar que Im(t) = N u(t)? . Concluir que: Rn = Im(t)
170
N u(t)
7.
Cap tulo 7: Isometr as y Transformaciones ortogonales En este cap tulo se dara una introduccion al estudio de las isometr as en un
espacio eucl deo que notaremos con V . De nicion 7.1 Una isometr a en V es una funcion d ( (v) ; (w)) = d (v; w) Una isometr a
: V ! V que veri ca:
8v; w 2 V
se dice una transformacion ortogonal si
es lineal.
Observacion 7.2 De la misma de nicion, se desprende en forma inmediata que toda isometr a es una aplicacion inyectiva. Ejemplos 7.3 Consideremos: i) Para v en V , la aplicacion tv : V ! V de nida como: tv (w) = w + v es una isometr a llamada traslacion asociada a v, se veri ca ademas: a) tv
tw = tv+w
b) tv
t
v
= idV = t0 , es decir tv 1 = t
v
ii) En R2 con el producto canonico, la aplicacion: (x; y) = (cos ( ) x cualquiera sea
sen ( ) y; sen ( ) x + cos ( ) y)
2 [0; 2 ], es una isometr a del plano real, cuyo efecto geometrico es
el de rotar el plano alrededor del or gen barriendo un angulo de valor .
171
iii) Si v 6= 0, v 2 V , la aplicacion Sv : V ! V de nida como: Sv (w) = w
2
hv; wi v hv; vi
es tambien una isometr a de V llamada re exion asociada a v. Queda como ejercicio para el lector demostrar que la composicion de isometr as es una isometr a. Teorema 7.4 Toda isometr a en V puede ser expresada como composicion de una transformacion ortogonal y una traslacion. Demostracion: Sea
una isometr a en V y v = =t
v
( (0)) = t
v
(0). Se tiene que:
es una isometr a y se veri ca: (0) = t
v
(v) = v + ( v) = 0
de donde, para w 2 V : k (w)k = d ( (w) ; 0) = d ( (w) ; (0)) = d (w; 0) = kwk Por otra parte, para u y w en V se tiene: d2 ( (u) ; (w)) = d2 (u; w) es decir: k (u)
(w)k2 = ku
wk2
o bien: k (u)k2 + k (w)k2
2 h (u) ; (w)i = k (u)k2 + k (w)k2 172
2 hu; wi
De las identidades precedentes se concluye que una isometr a k (w)k = kwk
8w 2 V
h (u) ; (w)i = hu; wi
8u; w 2 V
que je a 0, veri ca:
A partir de estas identidades y las propiedades del producto interno, podemos desarrollar la expresion: = k (u + w)
(w)k2
(u)
del siguiente modo: = ku + wk2 + kuk2 + kwk2 + 2 (hu; wi
hu + w; wi)
= ku + wk2 + kuk2 + kwk2
2 kuk2 + hu; wi + kwk2
= 2 kuk2 + hu; wi + kwk2
2 kuk2 + hu; wi + kwk2 = 0
Resulta entonces
(u + w) = (u) + (w), 8u; w 2 V .
Por otra parte, si k ( w)
2 R y w 2 V , se tiene:
( (w))k2 = k ( w)k2 + k = k wk2 + =2
y as
hu + w; ui
( w) =
2
2
kwk2
(w)k2
kwk2 2
2
2 h ( w) ;
(w)i
2 h w; wi
hw; wi = 0
(w) ; 8 2 R; w 2 V .
Se tiene entonces que
es lineal, es decir
siendo: =t
v
resulta: = tv .
173
es una transformacion ortogonal, y
Corolario 7.5 Sea
una isometr a en V . Son equivalentes:
i)
es transformacion ortogonal
ii)
(0) = 0
iii) k (w)k = kwk, 8w 2 V iv) h (u) ; (w)i = hu; wi, 8u; w 2 V . Demostracion: Las equivalencias se siguen de la demostracion del teorma 7.4. Corolario 7.6 El conjunto de isometr as en V forman un grupo con la composicion de funciones. Demostracion: Es claro que el elemento neutro para dicho grupo es IdV y que la composicion de isometr as es nuevamente una isometr a de V . Basta ver que cada isometr a Por el Teorema 7.4,
= tv
posee una inversa, la cual tambien es isometr a. con
ortogonal y tv (w) = w + v. Dado que
es lineal e inyectiva, pues es isometr a,
es isomor smo, es decir existe
1
como
transformacion lineal de V . Ademas las traslaciones en V son biyectivas y
= tv
, composicion de funciones
biyectivas resulta biyectiva, con inversa: 1
=
1
tv 1 =
1
t
v
Por otra parte, dados u; w 2 V se tiene: 1
d Con lo cual
1
(u) ;
1
(w) = d
1
(u) ;
1
(w)
es tambien una isometr a en V , en particular
macion ortogonal.
174
= d (u; v) 1
es una transfor-
Observacion 7.7 El conjunto de transformaciones ortogonales en V asociadas a un producto interno h; i es un grupo con la composicion de funciones y recibe el nombre de grupo ortogonal de V asociado a h; i. En el caso de Rn con el producto interno usual, este grupo se notara con On . Teorema 7.8 Sean A la matriz de
una transformacion lineal, B = fv1 ; : : : ; vn g una base de V y
asociada a la base B. Entonces,
es transformacion ortogonal, si
y solo, si: t
A [v1 ; : : : ; vn ] A = [v1 ; : : : ; vn ]
En particular si la base B es ortonormal, se tiene: t
AA = I
Demostracion: Dados v y w en V , existen
= ( 1; : : : ;
n)
y
= ( 1; : : : ;
+
n vn
n)
en Rn
tales que: v=
1 v1
+
+
n vn
y w=
1 v1
+
consecuentemente: (v) =
1
(v1 ) +
+
n
(vn ) y
(w) =
1
(v1 ) +
+
n
(vn )
Partiendo de la identidad: h 1 v1 +
+
m vm ;
1 v1
+
m vm i
+
=
X
i j
ij
hvi ; vj i =
[v1 ; : : : ; vm ]
t
podemos poner: hv; wi = h (v) ; (w)i = Luego, por el Corolario 7.5
[v1 ; : : : ; vn ]
t
[ (v1 ) ; : : : ; (vn )]
t
es transformacion ortogonal, si y solo si 8 ;
[v1 ; : : : ; vn ]
t
=
[ (v1 ) ; : : : ; (vn )] 175
t
2 Rn :
o equivalentemente: [ (v1 ) ; : : : ; (vn )] = [v1 ; : : : ; vn ] Poniendo A = [aij ], se tiene: h (vi ) ; (vj )i = ha1i v1 + : : : + ani vn ; a1j v1 + : : : + anj vn i = t ai [v1 ; : : : ; vn ] aj donde ai y aj denotan la i-esima y j-esima columna de A respectivamente, de modo que: [ (v1 ) ; : : : ; (vn )] = t A [v1 ; : : : ; vn ] A usando: [ (v1 ) ; : : : ; (vn )] = [v1 ; : : : ; vn ] resulta el teorema. De nicion 7.9 Una matriz A 2 Rn
n
se dice matriz ortogonal si veri ca t A = A 1 .
Observacion 7.10 En la proposicion precedente se obtuvo que la matriz de la transformacion ortogonal referida a una base ortonormal es una matriz ortogonal. Algunas propiedades basicas de las transformaciones ortogonales son presentadas a continuacion: Proposicion 7.11 Sea
una transformacion ortogonal en V y n = dim (V ). Se
veri can: i) det ( ) = ii) Si
1.
2 C es ra z del polinomio caracter stico de , entonces j j = 1.
iii) Si n es impar, entonces det ( ) es una valor propio de .
176
Demostracion: Sea A la matriz de
en una base ortonormal de V .
i) Por el Teorema 7.8, se tiene: t
AA = I
de donde: det ( )2 = det (A)2 = det t AA = 1 y se obtiene i). ii) Sea z 2 Cn un vector propio de z = z0 + iz1 =
0
+i
1
con valor propio . Poniendo: con z0 ; z1 2 Rn con
0;
1
2R
Igualando partes reales e imaginarias, de la identidad: Az = z se tiene: Az0 =
0 z0
Az1 =
0 z1
1 z1
+
1 z0
como A es ortogonal, resulta: kz0 k2 + kz1 k2 = kAz0 k2 + kAz1 k2 = k 0 z0 =
2 0
+
1 z1 k 2 1
2
+ k 0 z1 +
kz0 k2 + kz1 k2
= j j kz0 k2 + kz1 k2 dado que z 6= 0, se obtiene j j = 1.
177
2 1 z0 k
iii) Usando el hecho que A es ortogonal, se tiene: A
Aj = X t AA
(X) = jXI = X tA
I jAj =
(X A
Ij jAj = ( 1)n jI
= jX A =
t
A
jI
X Aj jAj =
jjAj I
I) jAj X Aj jAj jAj XAj
evaluando en X = jAj resulta: A
(jAj) = jjAj I
de donde es claro que
A
Aj =
jAj I
jAj2 A =
jjAj I
Aj
(jAj) = 0.
De nicion 7.12 Llamaremos rotaciones a las transfomaciones ortogonales con determinante igual a 1. A continuacion se establecen condiciones necesarias y su cientes para que una familia de vectores pueda ser llevada por una transformacion ortogonal en otra familia de vectores, en terminos de las respectivas matrices gramianas. Teorema 7.13 Sean v1 ; : : : ; vm , y w1 ; : : : ; wm vectores en V . Existe una transformacion ortogonal
en V tal que
(vi ) = wi ; si y solo si [v1 ; : : : ; vm ] = [w1 ; : : : ; wm ].
Demostracion: En virtud del ejercicio 7 ii) del Cap tulo 6, se tiene: dim hv1 ; : : : ; vm i = dim hw1 ; : : : ; wm i Notemos S = hv1 ; : : : ; vm i, T = hw1 ; : : : ; wm i y sea k la dimension comun de S y T . Si se realiza un mismo reordenamiento en ambos sistemas de vectores, las hipotesis del teorema se conservan para los nuevos sistemas as obtenidos. Podemos suponer 178
entonces, sin perdida de generalidad, que v1 ; : : : ; vk son linealmente independientes de modo que lo mismo ocurre con w1 ; : : : ; wk . Dadas las bases ortonormales de S ? y T ? respectivamente,
de nimos
vek+1 ; : : : ; ven y w ek+1 ; : : : ; w en
como la transformacion lineal de V tal que:
se tiene:
(vi ) = wi
i = 1; 2; : : : ; k
(e vi ) = w ei
i = k + 1; : : : ; n
h (vi ) ; (vj )i = hwi ; wj i = hvi ; vj i
si 1
i; j
h (vi ) ; (e vj )i = hwi ; w ej i = hvi ; vej i = 0 si i
h (e vi ) ; (e vj )i = hw ei ; w ej i = he vi ; vej i
k
k; j > k
si i; j > k
cumple la identidad:
[ (v1 ) ; : : : ; (vn )] = [v1 ; : : : ; vn ] luego es una transformacion ortogonal que veri ca Dado un ndice i entre 1 y m, existen
(vi ) = wi para i = 1; 2; : : : ; k.
= ( 1; : : : ;
k)
y wi =
1 w1
y
= ( 1; : : : ;
k)
en Rk tales
que: vi =
1 v1
+
+
k vk
+
+
k wk
Si p y p0 denotan las proyecciones ortogonales sobre S y T respectivamente, se tiene vi = p (vi ) y wi = p0 (wi ), usando la identidad correspondiente de la proyeccion p (v) y las identidades hvi ; vj i = hwi ; wj i para 1 se concluye que
= , de modo que
i; j
m
(vi ) = wi para i = 1; 2 : : : ; m.
179
Ejemplos 7.14 En R3 con el producto canonico, decidir si existen transformaciones ortogonales
tales que: f(1; 1) ; (1; 1) ; ( 1; 0)g = f( 1; 1) ; (1; 0) ; ( 1; 1)g
En primer lugar observese que ( 1; 0) tiene norma 1, luego: k ( 1; 0)k = k( 1; 0)k = 1 es decir, la unica posibilidad es: ( 1; 0) = (1; 0) Considerando los vectores ordenados: ( 1; 0) ; (1; 1) ; (1; 1) y (1; 0) ; ( 1; 1) ; ( 1; 1) se tiene las respectivas matrices 2 1 1 6 6 6 1 2 4 1 0
luego bastara de nir
gramianas: 3 1 7 7 y 0 7 5 2
2 6 6 6 4
1
1
1
2
1
0
en la base ( 1; 0) ; (1; 1) como:
1
7 7 0 7 5 2
( 1; 0) = (1; 0) (1; 1) = ( 1; 1) Ahora: (x; y) = ((y
x) ( 1; 0) + y (1; 1))
= (y
x) ( 1; 0) + y (1; 1)
= (y
x) (1; 0) + y ( 1; 1)
= ( x; y) 180
3
o sea: (x; y) = ( x; y) Notar que: (1; 1) = ( 1; 1)
7.1.
Transformaciones ortogonales en R2 y R3
En lo que sigue se analiza el efecto geometrico de los elementos de O2 y O3 . En general, si
2 On y A es su matriz en la base canonica, se tiene: A tA = I
Si F1 ; : : : ; Fn son las las de A, la igualdad precedente puede ser expresada como: hFi ; Fj i = Fi t Fj =
ij
es decir F1 ; : : : ; Fn pensadas como vectores de Rn , forman una base ortonormal de este espacio. Rec procamente, si v1 ; : : : ; vn es una base ortonormal de Rn , sea B la matriz cuyas las estan dadas por v1 ; : : : ; vn respectivamente, se tiene: B t B = [hvi ; vj i] = I y la transformacion
de Rn en Rn dada por: (x) = B t x
es ortogonal, pues: d ( x; y)2 = B t x
B t y = B t (x
= (x
y) t BB t (x
= kx
yk = d (x; y) 181
y)
y) = (x
y) t (x
y)
En consecuencia, las transformaciones ortogonales en Rn se identi can con el conjunto de bases ortonormales en Rn . Una base ortonormal en R2 es simplemente un conjunto de dos vectores perpendiculares en la circunferencia de radio 1 centrada en el origen: Si v1 = (cos ( ) ; sen ( )), v2 tiene solo dos alternativas a saber: v2 = ( sen ( ) ; cos ( )) o bien v2 = (sen ( ) ; cos ( )) Luego la matriz cuyas las son v1 ; v2 es una de las siguientes: 3 2 3 2 cos ( ) sen ( ) cos ( ) sen ( ) 5 4 5 4 o sen ( ) cos ( ) sen ( ) cos ( )
Se sigue que si
2 O2 ,
esta en uno de los siguientes casos, para algun valor de :
(x; y) = (cos ( ) x + sen ( ) y; sen ( ) x + cos ( ) y) o (x; y) = (cos ( ) x + sen ( ) y; sen ( ) x
cos ( ) y)
El primero de los casos corresponde a una rotacion del plano alrededor del origen, barriendo un angulo de amplitud . En el segundo caso, se trata de una re exion o simetr a respecto de la recta l = h(sen ( ) ; 1
cos ( ))i.
Para el analisis de las transformaciones ortogonales en el espacio, haremos uso de los resultados en los ejercicios 7 y 8 de este cap tulo referidos a producto vectorial y su comportamiento respecto de las transformaciones ortogonles. Sea
una transformacion ortogonal en R3 . Segun la Proposicion 7.11, existe v
no nulo en R3 tal que: (v) = j j v Podemos tomar v de modo que kvk = 1. Sea w un vector unitario en R3 tal que hv; wi = 0, y consideremos B = fv; w; v ^ wg, B es una base ortonormal de R3 . 182
Se tiene: 0 = hv; wi = h (v) ; (w)i = hj j v; (w)i = j j hv; (w)i de donde hv; (w)i = 0. Si
es el angulo entre w y
(w), cos( ) = hw; (w)i; se sigue que: hv ^ w; (w)i = sen ( )
Teniendo en cuenta que: (w) = hv; (w)i v + hw; (w)i w + hv ^ w; (w)i (v ^ w) pues la base B es ortonormal, resulta: (w) = cos ( ) w + sen ( ) (v ^ w) Ahora, segun el ejercicio 8 en los ejercicios de este cap tulo, se tiene: (v ^ w) = j j ( (v) ^ (w)) = j j (j j (v ^ (w))) = v ^ (w) = v ^ (cos ( ) w + sen ( ) (v ^ w)) = De este modo, la matriz de
sen ( ) w + cos ( ) (v ^ w) referida a la base de B es: 2 3 j j 0 0 6 7 6 7 6 0 cos ( ) sen ( ) 7 4 5 0 sen ( ) cos ( )
De nicion 7.15 La matriz precedente se conoce como la Forma Normal de . La Forma Normal permite describir de manera geometrica a a continuacion. 183
como se muestra
Suponemos que
6=
idR3 ya que en esos casos no queda determinado el de
rotacion al que vamos a referimos. Si j j = 1, el efecto de
es el de una rotacion alrededor del eje: l = v 2 R3 : (v) = v
barriendo un angulo de amplitud . Si j j =
1, el efecto de
es el de una rotacion alrededor del eje: l = v 2 R3 : (v) =
v
barriendo un angulo de amplitud , seguido de una re exion sv con v 2 l. Notar que tr ( ) = j j + 2cos( ), de donde: cos ( ) = De nicion 7.16 El angulo eje de rotacion de
tr ( ) j j 2
se llama angulo de rotacion de , la recta l se llama
y el plano perpendicular al eje de , se llama el plano de rotacion
de . En cualquier caso, si
6=
idR3 , el eje de rotacion de
esta dado por:
l = v 2 R3 : (v) = j j v es decir, el eje es el espacio propio de
asociado con el valor propio j j.
Ejemplos 7.17 En R3 con el producto canonico se tiene la transformacion ortogonal , de nida por: (x; y; z) =
x + 2y + 2z 2x + y ; 3 3
Encontrar la Forma Normal de . 184
2z 2x ;
2y + z 3
La matriz de
en la base canonica es: 2 1 16 6 A= 6 2 34 2
2
2
7 7 2 7 5 1
1 2
luego, tr ( ) = tr (A) = 1, y det ( ) = det (A) =
1, es decir
de una inversion y su Forma Normal de es: 2 3 1 0 0 6 7 6 7 6 0 1 0 7 4 5 0 0 1 Dado que
rota cero grados alrededor del eje,
respecto del eje. El eje de
3
es rotacion seguida
queda reducida a una inversion
esta dado por l = hvi tal que
(v) =
v, es decir v
satisface el sistema
equivalentemente, v satisface: 2 2 6 6 6 1 4 1
( I
A) X = 0
1
32
2 1
2
3
3
0 x 76 7 6 7 76 7 6 7 1 76 y 7 = 6 0 7 54 5 4 5 0 2 z
1
luego v puede tomarse como ( 1; 1; 1). Se tiene entonces l = h( 1; 1; 1)i el eje de , y: l? = h(2; 1; 1) ; (1; 2; 1)i el plano de rotacion de . Notese que al ser
solo una inversion sobre su eje l = hvi,
re exion asociada a v, es decir: (w) = Sv (w) = w
2
hw; vi v hv; vi
Compruebelo calculando la matriz de Sv en la base canonica. 185
coincide con la
7.2.
Ejercicios
1. Indicar cuales de 2 0 6 6 6 1 4 0 2
las matrices siguientes 3 2 1 0 1 0 7 6 7 6 6 0 1 0 0 7 5 4 0 1 0 0
1 0
1
6 6 6 0 1 4 1 0
3
7 7 0 7 5 1
2
1 0 0
6 6 6 0 0 0 4 0 0 1
3
son ortogonales: 3 2 p1 0 0 2 7 6 7 6 6 0 7 0 1 5 4 p1 1 0 2
7 7 7 5
2
cos( )
6 6 6 sen( ) 4 0
p1 2
3
7 7 0 7 5
p1 2
sen( ) 0
3
7 7 cos( ) 0 7 5 0 1
2. Mostrar que las siguientes funciones son isometr as de R2 : i) (x; y) = (2 ii) (x; y) = (
x
y; 1 + x). y+2 x+y 2 p p ; ). 2 2
3. Probar que la composicion de isometr as es una isometr a. Probar que la inversa de una isometr a es tambien una isometr a. 4. Dadas
y ; las isometr as del ejercicio 2, calcular
y expresarla como
composicion de una tranformacion ortogonal seguida de una traslacion. Hacer lo mismo con 5. Sea de de
.
una rotacion de R3 y y
una transformacion ortogonal de R3 . Si l es el eje
el angulo de rotacion de , determinar el eje y el angulo de rotacion 1
.
6. Sean v = (1; 1; 0) y w = (1; 0; 1) en R3 . Calcular las re exiones sv y sw asociadas a v y w respectivamente, determinar el eje y el angulo de rotacion de sv
sw . Hacer lo mismo para la rotacion dada por sw
186
sv .
7. Sean v y w vectores no nulos en R3 y sv y sw las re exiones asociadas a v y w respectivamente. Probar que el angulo de rotacion de sv
sw es el doble del
angulo entre v y w. Mostrar que hv ^ wi es el eje de rotacion de sv
sw .
8. Sean X e Y en R3 , X = (x1 ; x2 ; x3 ); Y = (y1 ; y2 ; y3 ). Se de ne el producto vectorial entre X e Y como: e1 e2 e3 X ^Y =
x1 x2 x3
= (x2 y3 y2 x3 ; y1 x3 x1 y3 ; x1 y2
y1 x2 )
y1 y2 y3 siendo e1 ; e2 ; e3 la base canonica de R3 . Probar que: i) 8X; Y 2 R3 ; 8 2 R se tiene: a) X ^ Y =
(Y ^X)
b) X^X = 0 c) X^( Y ) = (X^Y ) = ( X)^Y . ii) Sea Z = (z1 ; z2 ; z3 ), mostrar que: z1 z2 z3 hZ; X ^ Y i =
x1 x2 x3 y1 y2 y3
iii) 8X; Y 2 R3 se cumple hX; X^Y i = 0 = hY; X^Y i. iv) 8X; Y 2 R3 se tiene: kX^Y k = kXk kY k sen( ) donde
es el angulo entre X e Y .
v) Mostrar que X e Y son linealmente dependientes, si y solo si X^Y = 0. 187
vi) Si X; Y es un sistema ortonormal, entonces X; Y; X^Y es una base ortonormal de R3 9. Sea
una tranformacion ortogonal de R3 , probar que: (X^Y ) = det( )( (X)^ (Y ))
10. Sea
una rotacion de R3 tal que: (1; 2; 1) = (2; 1; 1) y
(2; 1; 1) = (1; 1; 2)
Calcular (1; 1; 3); (2; 0; 1); (1; 2; 3). 11. Sea
una rotacion de R3 tal que: (2; 1; 0) = (1; 0; 2) y
(2; 0; 1) = (0; 1; 2)
Calcular (x; y; z). 12. Decidir si existen transformaciones ortogonales que apliquen el conjunto A en el conjunto B. Exhibir una en los casos posibles dando su expresion en coordenadas cartesianas. i) A = f(1; 1)g; B = f(1; 1)g. ii) A = f(1; 2)g; B = f(1; 0)g. iii) A = f(1; 2); (2; 1)g; B = f( 1; 2); ( 2; 1)g. iv) A = f(1; 1; 0); (0; 0; 1)g; B = f(1; 0; 1); (1; 0; 0)g. v) A = f(1; 1; 0); (0; 1; 1); (1; 0; 1)g; B = A. 13. Sea i)
: R3 ! R3 la transformacion lineal de nida por: (1; 1; 0) = (1; 0; 1); (1; 0; 1) = (0; 1; 1); (0; 1; 1) = (1; 1; 0). 188
ii) iii)
(1; 1; 0) = ( 1; 1; 0); (0; 1; 1) = (0; 1; 1); (0; 0; 1) = (0; 0; 1). (1; 1; 0) = (1; 0; 1); (1; 0; 1) = (1; 1; 0); (0; 1; 1) = (0; 1; 1).
Mostrar que en los casos i) y ii) que rotacion de
es una rotacion, hallar el eje y angulo de
en cada caso. Mostrar que en el caso iii) que
es una simetr a,
dar el eje de rotacion y el angulo de . 14. Sea
la rotacion de R3 cuya matriz en la base canonica es: 2 3 6 6 6 4
1 3
2 3
2 3
2 3
1 3
2 3
2 3
2 3
1 3
7 7 7 5
Hallar el angulo y eje de rotacion de . 15. Sean T ; C y E los conjuntos del plano dados por: T = f(2; 0); ( 1;
p
3); ( 1;
p
3)g
C = f(1; 0); (0; 1); ( 1; 0); (0; 1)g p p 3)g E = T [ T = f (2; 0); ( 1; 3); ( 1; T ; C y E son los vertices de un triangulo equilatero, un cuadrado y un exagono regular respectivamente. Mostrar que en cada caso hay un numero nito de transformaciones lineales
de R2 tales que (T ) = T ; (C) = C; (E) = E
respectivamente. Mostrar que tales transformaciones son necesariamente ortogonales y describirlas geometricamente. 16. En los siguientes casos hallar una rotacion y una simetr a de R3 que intercambie los vetores v y w de R3 . _ i) v = (1; 1; 1); w = (1; 1; 1). ii) v = (2; 2; 1); w = (0; 3; 0).
189
17. Sean X e Y en Rn tales que kXk = kY k. Hallar una re exion s de Rn que intercambie los vectores X e Y . 18. En los siguientes casos hallar una rotacion y una simetr a de R3 que intercambie los planos P y Q de R3 . i) P = fx
y + z = 0 y Q = fx + y + z = 0
ii) P = fx = 0 y Q = fx
y=0
iii) P = h(1; 1; 0); (0; 1; 1)i y Q = fz = x + y 19. Hallar una re exion s de R4 que intercambie los hiperplanos P y Q , siendo: P = fx + y + z + t = 0
190
Q = fx
y+z
t=0
8.
Cap tulo 8: Formas Bilineales
8.1.
Formas Bilineales y Formas Cuadraticas
Los temas tratados en esta seccion son de utilidad en analisis y geometr a. Aunque corresponde tratarlos con cierta generalidad, se ha intentado no alejarse demasiado del caso real. Se conservan notaciones: V es un K-espacio vectorial de dimension n. Se asume que K es un cuerpo donde es posible la division por 2, es decir, que el elemento 1 + 1 es distinto de cero. Notar que esta condicion no la cumple Z2 , el cuerpo de restos modulo 2. De nicion 8.1 Una forma bilineal en V es una aplicacion B : V
V ! K que
veri ca: i) 8v; u; w 2 V
B (v; u + w) = B (v; u) + B (v; w) B (v + u; w) = B (v; w) + B (u; w)
ii) 8v; w 2 V , 8 2 K B ( v; w) = B (v; w) = B (v; w) Una forma bilineal B se dice simetrica si B (v; w) = B (w; v), 8v; w 2 V . Nota 8.2 A lo largo de este cap tulo se consideran formas bilineales simetricas. Ejemplos 8.3 Sean: i) Sea V un espacio vectorial con producto interno h ; i, entonces B (v; w) = hv; wi 191
de ne una forma bilineal en V . ii) Sean f; g formas lineales en el espacio dual V de V , entonces: B (u; w) = f (u) g (w) de ne una forma bilineal en V . De nicion 8.4 Una aplicacion Q : V ! K se dice una forma cuadratica si: i) Q ( v) =
2
Q (v), 8 2 K; v 2 V (homogenea de grado 2)
ii) La aplicacion Q (v + w)
B (v; w) =
Q (v) 2
Q (w)
es bilineal. Observacion 8.5 Asociada con cada forma bilineal B, se tiene una forma cuadratica QB de nida como: QB (v) = B (v; v) Notar que: B (v; w) =
B (v + w; v + w)
B (v; v) 2
B (w; w)
para toda forma bilineal B, lo que garantiza que QB es una forma cuadratica. Rec procamente, a cada forma cuadratica Q en V puede asociarsele la forma bilineal BQ , de nida como: BQ (v; w) =
Q (v + w)
Q (v) 2
Q (w)
Esta correspondencia entre formas cuadraticas y formas bilineales es biyectiva, lo que permite hablar de la forma bilineal BQ asociada a una forma cuadratica Q, y rec procamente, de la forma cuadratica QB asociada a una forma bilineal B.
192
Como en el caso de los productos escalares, si B es una forma bilineal en V y E = fv1 ; : : : ; vn g una base de V , los valores de B pueden ser expresados en terminos de las funciones coordenadas de esta base. En efecto, si v=
n P
i vi y w =
i=1
por ser B bilineal, sera:
n P
i vi
i=1
n X
B (v; w) = B
i vi ;
i=1
n X
i vi
i=1
!
luego, si C = [cij ] es la matriz de orden n dada por cij = cji = B (vi ; vj ) se tiene: C = tC y ademas: B (v; w) =
h
n
1
i
2
3
6 1 7 6 . 7 C 6 .. 7 4 5 n
es decir, jada una base de E en V , a cada forma bilineal B de V puede asignarsele de modo natural una unica matriz simetrica C que permite calcular los valores de B en funcion de las coordenadas, segun la identidad precedente. De nicion 8.6 La matriz C, notada con jBjE , se dira la matriz asociada a B en la base E. Notar que si Q es la forma cuadratica asociada a B, se tiene: 2 3 Q (v) = B (v; v) =
h
1
193
n
i
6 1 7 6 . 7 C 6 .. 7 4 5 n
motivo por el cual se de ne la matriz asociada a Q en la base E, notada con jQjE , como la matriz jBjE . Ahora bien, si E 0 = fw1 ; : : : ; wn g es otra base de V y
1; : : : ;
respectivas cooordenadas de v y w en otra base, sera: 2 3 B (v; w) =
h
n
1
6 1 7 h 6 . 7 C 6 .. 7 = 4 5
i
0
n
1
n
siendo C 0 = c0ij con c0ij = B (wi ; wj ).
Existe una matriz inversible P tal 2 2 3 w 6 6 1 7 6 6 .. 7 6 . 7=P6 4 4 5 wn
En tal situacion se tiene: h
h
n
1
n
1
que: 3 v1 7 .. 7 . 7 5 vn i i
= =
i
n
y
1; : : : ; n
2
3
6 1 7 6 . 7 C 6 .. 7 4 5 n
P = jIdV jE 0 E
h h
1
n
1
n
i
i
P P
y en consecuencia: h
1
n
i
2
3
6 1 7 h 6 . 7 C 6 .. 7 = 4 5 0
para todo par de n-uplas ( 1 ; : : : ;
n
1
n
n ),
( 1; : : : ;
n ).
i
C 0 = P C tP o bien
194
t
3
6 1 7 6 . 7 P C P 6 .. 7 4 5
Se concluye que:
jBjE 0 = jIdV jE 0 E jBjE
2
jIdV jE 0 E
t
n
las
Esto sugiere pensar que una buena eleccion de la base V podr a simpli car la matriz asociada a B. En tal sentido, se tiene el siguiente resultado: Teorema 8.7 Sea A = [aij ] una matriz simetrica de orden n. Existe una matriz inversible P de orden n, tal que P A t P es diagonal. Demostracion: Supongamos que A 6= 0. Indicaremos un modo de llevar A a una matriz diagonal mediante las mismas operaciones elementales de las y columnas. Si existe un ndice i tal que aii 6= 0, sea k = m n fj : ajj 6= 0g y ponemos: B = EA t E Donde E es la matriz elemental que permuta las las 1 y k por multiplicacion a derecha. Si aii = 0 para todo i, sean i; j ndices tales que aij 6= 0 y B = E2 E1 A t E1 t E2 donde E1 es la matriz elemental que a la la i le suma la la j y E2 la matriz elemental que permuta las las 1 e i. Podemos suponer entonces que existe una matriz inversible U tal que: B = U A t U y b11 6= 0 Sea F = [fij ] de orden n de nida como: 8 > < fij = ij si > : f11 = 1
y
j 6= 1 fi1 =
bi1 b11
Notar que F no es una matriz elemental pero es el resultado de varias operaciones elementales.
195
Poniendo C = [cij ] = F B t F se tiene C simetrica, con: ci1 = =
n X
fik bkh f1h
k;h=1 n X
n X
fik bk1 f11 +
k=1
fik bkh f1h
h=2;k=1
= fi1 b11 +
n X
fik bk1
k=2
Si i = 1, c11 = f11 b11 +
n X
f1k bk1 = b11
k=2
Si i 6= 1 ci1 = fi1 b11 +
n X
fik bk1
k=2
= fi1 b11 + bi1 = de donde C es de la forma:
2 6 6 6 6 6 6 4
(bi1 =b11 ) b11 + bi1 = 0
c11 0 0 .. .
0
D
0
3 7 7 7 7 7 7 5
con D simetrica pues C lo es, y siendo D de orden n existe una matriz inversible P0 de orden n
1 tal que P0 D t P0 es diagonal.
Consideremos P1 la matriz de orden n dada por: 2 3 1 0 0 6 7 6 7 6 0 7 6 7 6 .. 7 6 . 7 P0 4 5 0 196
1, por hipotesis inductiva
Se tiene P1 inversible pues det (P1 ) = det (P0 ), y 3 2 c11 0 0 7 6 7 6 7 6 0 t 7 P 1 C P1 = 6 7 6 .. 7 6 . P0 D t P0 5 4 0 resulta diagonal.
Corolario 8.8 Sea B una forma bilineal en V . Existe una base de V para la cual la matriz asociada a B es diagonal. Demostracion: Si E = fv1 ; : : : ; vn g es una base cualquiera de V y A = jBjE , A resulta simetrica, luego existe una matriz inversible P de orden n tal que P A t P es diagonal. Sea E 0 = fw1 ; : : : ; wn g la base de V dada por: 2 2 3 3 v1 w1 6 6 7 7 6 .. 7 6 .. 7 = P 6 . 7 6 . 7 4 4 5 5 wn vn se tiene:
jBjE 0 = P jBjE t P es decir jBjE 0 es diagonal. Ejemplos 8.9 Sea en R3 la forma bilineal dada por: B ((x; y; z) ; (x0 ; y 0 ; z 0 )) = 2xx0 + 2yy 0 + 2zz 0 + xy 0 + x0 y + xz 0 + x0 z + yz 0 + y 0 z Encontrar una base de R3 tal que la matriz asociada a B en E sea diagonal. En la base canonica se tiene :
2
2 1 1
6 6 A = jBjC = jB (ei ; ej )j = 6 1 2 1 4 1 1 2 197
3 7 7 7 5
Si E es una matriz elemental, EA t E se obtiene realizando una operacion de las en A, esto es EA, luego realizando la "misma operacion "en las columnas de EA, esto es EA t E. Haciendo las operaciones, en A, F3 ! F3 C3 ! C3
siendo:
F2 dada por E1 , en E1 A, se hace
C2 y notando A1 = E1 A t E1 , se obtiene: 2 2 1 6 6 A ! E1 A ! E1 A t E1 = 6 1 2 4 0 1 2
Haciendo en A1 ; F2 ! 2 F2
1 6 6 E1 = 6 0 4 0
0 0
3
0
3
7 7 1 7 = A1 5 2
7 7 1 0 7 5 1 1
F1 dada por E2 , en E2 A1 se hace C2 ! 2C2
C1 se
tiene: 2
siendo:
2 6 6 A1 ! E2 A1 = 6 0 4 0
1 3 1
2
3
2 6 7 6 7 t 1 7 ! E2 A1 E2 = 6 0 4 5 0 2
0
2
6 6 E2 = 6 4
1 0 0
0
0
3
7 7 2 7 = A2 5 2
6 2
3
7 7 1 2 0 7 5 0 0 1
Si en A2 se hace F3 ! 3F3 + F2 dada por E3 , en E3 A2 se hace C2 ! 3C3 + C2 , resulta: 2
2 0
6 6 A2 ! E3 A2 = 6 0 6 4 0 0
0
3
2
2 0
0
7 6 7 6 t ! E A E = 6 0 6 0 2 7 3 2 2 5 4 4 0 0 12 198
3
7 7 7 = A3 5
siendo:
2
A3 es diagonal y ademas:
3
1 0 0 6 7 6 7 E3 = 6 0 1 0 7 4 5 0 1 3
E3 E2 E1 A t E1 t E2 t E3 = E3 E2 E1 A t (E3 E2 E1 ) = A3 Tomando:
2
6 6 P = E3 E2 E1 = 6 4
1 1 1
y D = fw1 ; w2 ; w3 g base de R3 , dada por: 2 3 2 2 3 e1 e1 w1 6 7 6 6 7 6 7 6 6 7 6 w2 7 = P 6 e2 7 = 6 2 e2 e1 4 5 4 4 5 3 e3 e2 e1 e3 w3 se tiene:
0 0
3
3
2
7 7 2 0 7 5 1 3 (1; 0; 0)
7 6 7 6 7 = 6 ( 1; 2; 0) 5 4 ( 1; 1; 3)
3 7 7 7 5
jBjD = P jBjC t P = P A t P = A4 es decir en la base D = f(1; 0; 0) ; ( 1; 2; 0) ; ( 1; 1; 3)g, la matriz de B es la matriz diagonal:
2
2 0 0 6 6 6 0 6 0 4 0 0 12
3 7 7 7 5
Ademas si Q es la forma cuadratica asociada a B y (a; b; c) ; (a0 ; b0 ; c0 ) las respectivas coordenadas de v y w en la base D, se tiene: B (v; w) = 2aa0 + 6bb0 + 12cc0 Q (v) = 2a2 + 6b2 + 12c2 199
Notar que si bien E2 y E3 no son matrices elementales, son inversibles, y en consecuencia producto de elementales. Observacion 8.10 Sea B una forma bilineal en V y Q la forma cuadratica asociada a B. Si v1 ; : : : ; vn es una base de V en la cual la matriz de B es diagonal, con elementos diagonales a1 ; : : : ; an , y '1 ; : : : ; 'n es la base dual de v1 ; : : : ; vn , se tiene: v=
n X i=1
B (v; w) = Q (v) =
n P
i=1
'i (v) vi ; 8v 2 V n X
ai 'i (v) 'i (w)
i=1
ai 'i (v)2 o sea Q =
n P
i=1
ai '2i
es decir, '1 ; : : : ; 'n es un sistema de coordenadas que permite expresar B, y naturalmente Q, a traves de una matriz diagonal. Por abuso de lenguaje, en la situacion precedente, se dice que '1 ; : : : ; 'n es un sistema de coordenadas que diagonaliza a las formas B y Q, tal diagonalizacion se conoce por diagonalizacion af n de las formas. En todo lo que sigue se tomara K como el cuerpo de los numeros reales. Proposicion 8.11 Sea Q una forma cuadratica en un espacio vectorial real V .
200
Entonces existe una base E de V tal que: 2 1 6 6 .. . 6 6 6 6 1 6 6 6 1 6 6 ... jQjE = 6 6 6 6 6 6 6 6 6 6 4
3
1 0 ... 0
7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5
Es decir, la matriz jQjE es diagonal y en consecuencia, existe un sistema de coordenadas x1 ; : : : ; xn en V e ndices k y m tales que: Q (x1 ; : : : ; xn ) = x21 +
+ x2k
x2k+1
x2m + 0x2m+1 +
+ 0x2n
Demostracion: Existe una base E de V tal que jQjE es diagonal. Si '1 ; : : : ; 'n es la base dual de E se tiene: Q ('1 ; : : : ; 'n ) =
n X
ai '2i
i=1
Reordenando la base E si fuera necesario, puede suponerse que a1 ; : : : ; ak son numeros reales positivos, ak+1 ; : : : ; am numeros reales negativos y am+1 ; : : : ; an son nulos, donde 0
k; m
Tomando:
n. 8 p > > xi = aii 'i si i k > < p aii 'i si k + 1 xi = > > > : x =' si m + 1 i i
i i
m n
se tiene x1 ; : : : ; xn un sistema de coordenadas en V tal que: Q (x1 ; : : : ; xn ) = x21 +
+ x2k
x2k+1 201
x2m + 0x2m+1 +
+ 0x2n
Sea Q una forma cuadratica en un espacio vectorial real. Para cada diagonalizacion de Q, como en la Proposicion 8.11, dada por el sistema de coordenadas x1 ; : : : ; xn , sea v1 ; : : : ; vn la base de V asociada a x1 ; : : : ; xn . Se tiene: v=
n P
xi (v) vi
i=1
De niendo
8v 2 V
V+ = hv1 ; : : : ; vk i , V = hvk+1 ; : : : ; vm i y V0 = hvm+1 ; : : : ; vn i resulta: V = V+
V
V0
siendo dim (V+ ) = k (respectivamente dim (V ) = m
k, dim (V0 ) = n
(k + m)) el
numero de sumandos positivos en la expresion de Q (x1 ; : : : ; xn ), (respectivamente sumandos negativos, sumandos nulos) Teorema 8.12 (Ley de Inercia) Sea Q una forma cuadratica en V , entonces el numero de sumandos positivos, negativos y nulos en una diagonalizacion de Q es independiente del sistema de coordenadas utilizado para diagonalizar la forma cuadratica. Demostracion: Si un sistema de coordenadas en V diagonaliza la forma Q, se tiene una particion de V en suma directa: V = V+ Notar que si v 2 V+ , Q (v) si v 2 V , Q (v)
V
V0
0 y vale la igualdad, si y solo si v = 0. Analogamente,
0 y vale la igualdad, si y solo si v = 0.
Si otro sistema de coordenadas diagonaliza la forma Q, este induce otra descomposicion de V como: V = V+0
V0
202
V00
Sea v 2 V+0 \ (V
V0 ), se tiene: Q (v)
0
0
de donde v = 0, pues v 2 V+0 , luego: V+0 \ (V
V0 ) = f0g
Dado que: V+0
(V
V0 )
V
se tiene: dim V+0 + dim (V
V0 ) = dim V+0
(V
V0 )
dim (V )
luego: dim V+0
dim (V )
Analogamente resulta dim (V+ )
dim (V
V0 ) = dim (V+ )
dim V+0 , con lo que dim V+0
Del mismo modo puede mostrarse que dim V 0
= dim (V+ ).
= dim (V ) y consecuentemente
dim (V00 ) = dim (V0 ). Tales igualdades expresan que en cualquier diagonalizacion de Q, el numero de sumandos positivos, negativos y nulos permanece constante. Este resultado se conoce como la Ley de Inercia de formas cuadraticas. Esto ultimo permite dar la siguiente de nicion sin ambig• uedad. De nicion 8.13 Sea Q una forma cuadratica en un espacio vectorial real, una diagonalizacion de Q como en la Proposicion 8.11, se dira una diagonalizacion af n canonica de Q. A continuacion se daran criterios que brindan cierta informacion acerca de la diagonalizacion canonica de una forma cuadratica real. 203
De nicion 8.14 Una forma cuadratica Q en un espacio vectorial real V se dice positiva (negativa) de nida si Q (v) > 0; (Q (v) < 0) para todo v no nulo en V , y se dice positiva (negativa) semide nida si Q (v)
0; (Q (v)
0) para todo v en V .
Ejemplos 8.15 La norma asociada a un producto interno da lugar a una forma cuadratica positiva de nida. Es claro que toda forma cuadratica positiva de nida, tendra en su diagonalizacion canonica todos sus coe cientes iguales a 1, y las positiva semide nidas solo 0 y 1. Proposicion 8.16 (Criterio de Sylvester) Sea Q una forma cuadratica en V , y A = [aij ] la matriz de Q en alguna base de V . Q es positiva de nida, si y solo si todos los menores angulares son mayores que cero. Es decir: = a11 > 0
11
22
a11 a12
=
>0
a21 a22
a11 a12 a13 33
=
a21 a22 a23
>0
a31 a32 a33 .. . n
= jAj > 0
Demostracion: Es consecuencia del Teorema 6.13. Corolario 8.17 Sea Q una forma cuadratica real y A la matriz de Q asociada a una base de V , Q es negativa de nida, si y solo si los menores angulares de A poseen signos alternados, mas precisamente: 1
< 0;
2
> 0; 204
3
< 0; : : :
Demostracion: Sea Q0 la forma cuadratica de nida en V , dado por: Q0 (v) =
Q (v)
Q0 resulta de nida positiva y la matriz asociada a Q0 en la base considerada es A = [ aij ]. Por la Proposicion 8.16, se tiene que los menores angulares de
A son
positivos, esto es: ( 1)i donde
i
i
> 0 para i = 1; : : : n
son los menores angulares de A. A partir de las ultimas identidades se
establece: 1
< 0;
2
> 0;
3
< 0; : : :
Cuando se estudia el lugar geometrico de nido por los puntos en V en los que una forma cuadratica toma un mismo valor (hipersuper cies de nivel), los cambios de coordenadas utilizados hasta el momento, no conservan las propiedades metricas de dicho lugar, por ejemplo la ecuacion: 2x2 + 3y 2 = 1 mediante un cambio de coordenadas puede ser llevada a la ecuacion de la forma x2 + y 2 = 1, es decir no ser a posible distinguir una elipse de una circunferencia con los cambios de coordenadas utilizados. A continuacion se restringiran los cambios de coordenadas a utilizarse, de modo que se conserven las propiedades metricas. Se establece previamente un resultado acerca de matrices simetricas reales. Lema 8.18 Sean A y B matrices simetricas reales de orden n, tales que: det A t A + B t B = 0 entonces det (A) = 0 = det (B). 205
Demostracion: Se usara el hecho que para y 2 Rn , la identidad y t y = 0 implica y = 0. De las hipotesis, se tiene que existe x 2 Rn , x 6= 0, tal que: A tA + B tB
t
x=0
de donde: 0 = x A tA + B tB
t
x = (xA) t (xA) + (xB) t (xB)
puesto que ambos terminos en el ultimo miembro de la igualdad, son no negativos, resulta: (xA) t (xA) = 0 = (xB) t (xB) se sigue que xA = 0 = xB, y consecuentemente det (A) = 0 = det (B). Teorema 8.19 Sea A una matriz simetrica real de orden n. Existe una matriz ortogonal O de orden n tal que OA t O es diagonal. Demostracion: Veremos primero que todos los valores propios de A son numeros reales. En efecto, supongamos que
= a + bi es una ra z compleja del polinomio
caracter tico de A, se tiene: jaI
A + biIj = j I
multiplicando la igualdad precedente por jaI (aI dado que aI
Aj = 0 A
biIj, resulta:
A)2 + b2 I = 0
A es simetrica, por el lema anterior se tiene: jaI
es decir, b = 0 y en consecuencia
Aj = 0 = jbIj es real.
206
Sea S el subespacio de Rn dado por: S=
X
S
donde la suma recorre los valores propios de A y S es el espacio propio de A asociado al valor propio . Mas precisamente: S = x 2 R n : At x =
t
x
Veremos que S = Rn . En caso contrario, sea z 2 S ? tal que z 6= 0. Para
valor
propio de A, ponemos: t
A) t z
w=( I
Se tiene que w 2 S ? y ademas w 6= 0. En efecto, veamos que: hS ; wi = 0 donde
es un valor propio de A. Si v 2 S , tenemos: At v =
t
v o bien vA = v
se sigue que: hv; wi = v t w = v ( I
A)t z = ( v
v)t z = (
) vtz = 0
Por otra parte, la igualdad w = 0 implica: At z = es decir z 2 S \ S ? Ahora, si
1; : : : ;
t
z
S \ S ? = f0g, lo que contradice que z 6= 0. n
son los valores propios de A, contados con sus multiplici-
dades, se tiene una sucesion de vectores no nulos en S ? dada por: z; z ( 1 I
A) ; z ( 1 I
A) ( 2 I
A) ; : : : ; z ( 1 I 207
A)
(
nI
A)
pero el ultimo vector de esta sucesion es: z
A
(A)
y por el Teorema de Hamilton-Cayley resulta igual a cero, obteniendose as una contradiccion. Se concluye que S ? = 0, o sea S = Rn . Si B es una base ortonormal de S , para B=
[
valor propio de A, entonces:
B
es una base ortonormal de Rn . Es claro que B es una base de Rn , y para ver que es ortonormal, bastara ver que: hv; wi = 0
v 2 S ;w 2 S ;
6=
De las igualdades: v t w = vAt w = v t w resulta: ) vtw = 0
( y como
6= , se tiene hv; wi = 0.
Sea O la matriz cuyas las estan dadas por los vectores de la base B. Dado que B es ortonormal, se tiene: O tO = I Por otra parte, como las columnas de t O son vectores propios de A, resulta: A t O = t OD donde D es una matriz diagonal, luego: OA t O = O t OD = D:
208
Ejemplos 8.20 Considerando
2
3
1 1 1 6 7 6 7 A=6 1 1 1 7 4 5 1 1 1
se desea hallar O de orden 3 tal que OA t O sea diagonal y O t O = I. El polinomio caracter stico de A es: A
(X) = X 3
3X 2
de donde los valores propios de A son 0 y 3. En consecuencia los espacios propios S0 y S3 quedan de nidos por: S0 = x 2 R3 : Ax = 0 S3 = x 2 R3 : (A
3I) x = 0
se tiene S0 = h(1; 1; 0) ; (0; 1; 1)i S3 = h(1; 1; 1)i Una base ortonormal de S0 puede tomarse como: ! p p p p 2 2 6 6 ; ;0 ; ; ; 2 2 6 6 p p p y una base ortonormal de S3 es 3=3; 3=3; 3=3 2 p p 2 2 0 2 6 p2 p p 6 6 6 6 O=6 6 6 3 4 p p p 3 3
3 3
se tiene:
3 3
2
p ! 6 3 . De niendo: 3 7 7 7 5
0 0 0
6 6 O t O = I y OA t O = 6 0 0 0 4 0 0 3 209
3 7 7 7 5
Como consecuencia del Teorema 8.19 se tiene que toda forma cuadratica Q en Rn puede ser diagonalizable mediante un cambio ortogonal de coordenadas, es decir que dicho cambio de coordenadas esta dado por una matriz ortogonal. De nicion 8.21 La diagonalizacion precedente recibe el nombre de diagonalizacion eucl dea de Q.
8.2.
Ejercicios
1. Decidir en los siguientes casos si B : V
V ! R es una forma bilineal. En los
casos a rmativos, indicar si B es simetrica: i) V = R2 , B((x; y); (u; v)) = (xu)2 + (yv)2 ii) V = R3 , B((x; y; z); (u; v; w)) = xv + yw + zu iii) V = R2 , B((x; y); (u; v)) = xu + yv + 1 iv) V = R3 , B((x; y; z); (u; v; w)) = xu + yv + zw v) V = R4 ; B((x; y; z; t); (u; v; w; r)) = (x + y + z + t) (u + v + w + r) 2. Sea V = R2
3
y de nimos la forma bilineal: 0 2 3 1 1 2 5 Y A (X; Y 2 V ) B (X; Y ) = tr @t X 4 3 4
donde tr denota la funcion traza. Hallar la matriz de B asociada a la base canonica de V fE11 ; E12 ; E13 ; E21 ; E22 ; E23 g. >Es B simetrica? 3. Sea V = R2
3
y de nimos la forma bilineal: 0 2 3 1 a b 5 Y A (X; Y 2 V ) B (X; Y ) = tr @t X 4 c d
donde tr denota la funcion traza. >Bajo que condiciones en a; b; c; d es B un producto interno? 210
4. Sea V = Rn
n
y de nimos: B (X; Y ) = n tr (X Y )
tr (X) tr (Y )
donde tr denota la funcion traza. Mostrar que B es una forma bilineal simetrica. >De ne B un producto interno? 5. La matriz de una forma bilineal B asociada a la base canonica de R4 es: 3 2 1 2 3 4 7 6 7 6 6 2 3 4 3 7 7 6 7 6 6 3 4 3 2 7 5 4 4 3 2 1
encontrar una base de R4 para la cual la matriz asociada a B sea diagonal. >De ne B un producto interno?
6. Sea A la matriz asociada a una forma cuadratica positiva de nida en Rn . Mostrar que la forma cuadratica asociada a la matriz A
1
es positiva de nida.
7. Sea A la matriz asociada a una forma cuadratica positiva de nida en Rn . Mostrar que la forma cuadratica asociada a la matriz adjunta de A es positiva de nida. 8. Sea B una forma bilineal antisimetrica en Rn , es decir: B (x; y) =
B (y; x) (x; y 2 Rn )
Mostrar que la forma cuadratica asociada a B es identicamente nula. 9. Sea A una matriz real antisimetrica de orden n, probar que: x A t x = 0 8x 2 Rn 10. Sea A una matriz real antisimetrica de orden n. Si de A, probar que
= 0. 211
2 R es un valor propio
9.
Cap tulo 9: Funciones Cuadraticas En este cap tulo, aplicaremos los elementos del algebra lineal, que fueron tratados
en cap tulos anteriores, al estudio de las funciones cuadraticas en varias variables. En lo que sigue K denota un cuerpo.
9.1.
Funciones Cuadraticas
De nicion 9.1 Una funcion cuadratica es una funcion polinomial F : K n ! K de grado 2,es decir: F (x1 ; : : : ; xn ) =
X
ij x
i j
x +
ij ; bi ; c
bi x i + c
i=1
1 i j n
donde
n X
2 K y al menos uno de los escalares
ij
no es cero.
Una funcion cuadratica puede expresarse en terminos de matrices y sus operaciones en la siguiente forma: F (X) = t XAX + t bX + c aqu es:
2
2
3
x 6 1 7 6 6 . 7 6 X = 6 .. 7 y b = 6 4 4 5 xn
3
b1 7 .. 7 . 7 5 bn
es decir, identi camos X 2 K n con un elemento de K n 1 . Por otra parte, A = [aij ] 2 K n es la matriz simetrica dada por: aij =
1 (aij + aji ) 2
Una funcion cuadratica consta de tres terminos: i) t X A X, que es una forma cuadratica. 212
ii) t bX, que es una forma lineal. iii) c llamado termino constante. Por ejemplo, la funcion cuadratica: ax2 + by 2 + cz 2 + dxy + exz + f yz + gx + hy + iz + j puede ser expresada en forma unica como:
h
9.2.
2
i6 6 x y z 6 4
a
d 2
d 2
b
e 2
f 2
e 2
32
3
2
3
x x 76 7 h i6 7 7 6 7 6 7 f 76 y 7 + g h i 6 y 7 + j 2 54 5 4 5 c z z
Clasi cacion de Funciones Cuadraticas
Los teoremas de diagonalizacion para matrices simetricas, inclu dos en el Cap tulo 8, seran utilizados a continuacion en el estudio de las funciones cuadraticas. Aunque la clasi cacion af n puede realizarse en cualquier cuerpo, trabajaremos en el cuerpo de los numeros reales. En este caso se presentan dos tipos de clasi caciones, dependiendo del tipo de cambios de coordenadas a utilizar. Dada la funcion cuadratica F (X) dependiendo de las variables X analizamos su expresion respecto de las variables Y las cuales estan sometidas a una relacion de la forma: X = PY + d donde P 2 Rn
n
es una matriz inversible y d 2 Rn 1 .
Este cambio de coordenadas, corresponde a elegir un nuevo sistema de referencia en Rn . Para analizar la expresion de F en funcion de las variables Y hacemos: t
XAX + t bX + c = t (P Y + d) A (P Y + d) + t b (P Y + d) + c = tY
t
P AP Y + 2 t dA + t b P Y + F (d)
213
es decir la expresion de F respecto de las variables Y sera de la forma: e + tebY + e c F (Y ) = t Y AY
donde:
e = t P AP eb = (2 t dA + t b) P e A c = F (d)
Los cambios de coordenadas, o variables, a utilizarse seran siempre de la forma: X = PY + d De nicion 9.2 Un tal cambio de coordenadas se dira un cambio af n si la matriz P es inversible, y se dira un cambio eucl deo si la matriz P es ortogonal. Observacion 9.3 Como casos especiales tenemos los cambios de coordenadas correspondientes a transformaciones lineales, cuando d = 0, o correpondientes a traslaciones cuando P = I. No es dif cil ver que la composicion de cambios a nes de coordenadas es un nuevo cambio af n de coordenadas. Lo mismo ocurre cuando se consideran cambios eucl deos de coordenadas. Estos ultimos, corresponden a las expresiones de isometr as cuando se ha jado una base ortonormal. De nicion 9.4 Diremos que F en las variables Y = P X + d, con P inversible, esta en la Forma Normal Af n si F (Y ) tiene una de las formas siguientes: m P 2 F (Y ) = (m n, i = 1, e 2 R) i yi + e i=1
F (Y ) =
m P
i=1
2 i yi
+ ym+1
(
i
=
1, m < n) :
De nicion 9.5 Diremos que F en las variables Y = OX + d, con O ortogonal, esta en la Forma Normal Eucl dea si F (Y ) tiene una de las formas siguientes: m P 2 F (Y ) = (m n, i , e 2 R) i yi + e i=1
F (Y ) =
m P
i=1
2 i yi
+ xm+1
( m < n,
214
i,
2 R,
> 0)
9.3.
Clasi cacion Af n
Para alcanzar la Forma Normal Af n de una funcion cuadratica F , indicamos tres pasos: 1. Buscamos una matriz inversible P tal que: D = t P AP sea una matriz diagonal. La existencia de P esta garantizada por el Teorema 8.7. Usando el cambio de coordenadas dado por: X = PY Tendremos para F (Y ) una expresion del tipo: F (Y ) =
n X
di yi2
+
i=i
n X
bi y i + c
i=1
donde: D = t P AP b = t bP c = F (0) = c 2. Para cada ndice i tal que di 6= 0, consideramos las expresiones: di yi2 Haciendo:
obtenemos:
bi yi + 2di
+ bi yi = di
8 < z =y + i i : z =y i i F (Z) =
X
bi 2di
2
b + i 4di
si di 6= 0 si di = 0
di zi2 +
di 6=0
2
X
bi zi + c
di =0
Notar que el cambio de coordenadas efectuado en este paso es de la forma: Z =Y +v 215
3. Si:
X
bi zi = 0
di =0
hacemos:
8 < w = pjd jy si d = 0 i i i i 6 : w =z si di = 0 i i
teniendo la Forma Normal Af n de F : F (W ) =
X
wi2 + c
di 6=0
Si:
X
di =0
Hacemos:
bi zi 6= 0
8 p > < wi = jdi jyi si di 6= 0 P > bi zi + c para algun j tal que dj = 0 : wj = di =0
y completamos el cambio de coordenadas de modo de tener una matriz inversible. Se tiene: F (W ) =
X
wi2 + wj
di 6=0
Notar que este ultimo cambio de coordenadas es de la forma: W = PY + v Finalmente, un reordenamiento de las variables nos permitira encontrar la Forma Normal Af n de la funcion cuadratica considerada.
9.4.
Clasi cacion Eucl dea
Tiene los mismos pasos que la clasi cacion af n, solamente que hay que usar matrices ortogonales en lugar de inversibles. 216
1. Se busca una matriz ortogonal O tal que t O A O sea diagonal. La existencia de O esta garantizada por el Teorema 8.19. 2. Es identico al caso af n. 3. Si:
X
bi zi = 0
i =0
termina la clasi cacion obteniendose: F (Y ) =
X
2 i yi
+c
i 6=0
Si:
X
i =0
Hacemos: 8 > < wi = yi P > : wj =
bi zi 6= 0
si bi zi + c para algun j tal que kbk
i =0
i
6= 0
j
=0
completando el cambio de modo de obtener una matriz ortogonal, siendo en este caso la Forma Normal Eucl dea: F (W ) =
X
i 6=0
wi2 + kbk wj
Nuevamente, por reordenamiento de las variables, podemos obtener la Forma Normal Eucl dea de la funcion cuadratica considerada. i) Caso af n: Determinar la Forma Normal Af n de la siguiente funcion cuadratica: F (X) = 2 (x1 x2 + x1 x4 + x2 x3 + x3 x4 ) + x1 + 2x2 + 2x3 + x4 + 2
217
En forma matricial: 2
0 1 6 6 6 1 0 F (X) = t X 6 6 6 0 1 4 1 0
En este caso es:
2
0 1
3
7 7 h i 1 0 7 7X + 1 2 2 1 X + 2 7 0 1 7 5 1 0
0 1 6 6 6 1 0 A=6 6 6 0 1 4 1 0
3
3
2
1 7 6 7 7 6 7 6 2 7 1 0 7 7 y b=6 7 7 6 7 6 2 7 0 1 7 5 4 5 1 1 0 0 1
Queremos una matriz inversible P tal que t P AP sea diagonal para modi car la expresion de la funcion cuadratica como: F (Y ) = t Y t P AP Y +t
t
Pb Y + c
La matrices t P AP y t P b se obtienen por operaciones de las y columnas, siendo comunes las operaciones de las que se realizaran en A y b. Es entonces conveniente usar la matriz ampliada A j b en el proceso de diagonalizacion. Si ademas fuera necesario conocer la matriz P , agregar amos una matriz identidad para guardar las operaciones de las o de columnas, es decir, para obtener t P con las operaciones de las, o para obtener P con las operaciones de columnas. Con operaciones de las, y las mismas de columnas, diagonalizamos la matriz dada guardando solo las operaciones 2 0 1 0 6 6 6 1 0 1 6 6 6 0 1 0 4 1 0 1
de las: 1 1 1 0 0 0
3
7 7 0 2 0 1 0 0 7 7 7 1 2 0 0 1 0 7 5 0 1 0 0 0 1 218
Como todos los elementos diagonales son ceros, es inutil intentar poner un elemento distinto de cero en el lugar 11 usando permutaciones de las y la misma de columnas. Sin embargo tenemos la posibilidad de simpli car la matriz A antes de proceder a diagonalizarla. Por ejemplo, hacemos F3 ! F3 2 0 1 0 6 6 6 1 0 1 6 6 6 0 0 0 4 1 0 1
luego C3 ! C3
ahora F4 ! F4
luego C4 ! C4
C1
2
0 1 6 6 6 1 0 6 6 6 0 0 4 1 0
F2 2
C2
0 1 6 6 6 1 0 6 6 6 0 0 4 0 0 2
0 1 6 6 6 1 0 6 6 6 0 0 4 0 0
F1 1 1 0 2 0 1 0 1
0 1 1 0 0 2 0 0 1 0 0 1
1 0 0 0
3
1 0 0 0
3
7 7 0 1 0 0 7 7 7 1 0 1 0 7 5 0 0 0 1 7 7 0 1 0 0 7 7 7 1 0 1 0 7 5 0 0 0 1
0 1
1
1
0 0
2
0
0 0
1
1
0 0
1
0
0 0
1
1
0 0
2
0
0 0
1
1
0 0
1
0
219
0 0 0
3
0 0 0
3
7 7 1 0 0 7 7 7 0 1 0 7 5 1 0 1
7 7 1 0 0 7 7 7 0 1 0 7 5 1 0 1
Ahora F1 ! F1 + F2
luego C1 ! C1 + C2
2
1 1 0 0
6 6 6 1 0 0 0 6 6 6 0 0 0 0 4 0 0 0 0 2
2 1 6 6 6 1 0 6 6 6 0 0 4 0 0
Para evitar usar fracciones, 2 2 6 6 6 2 6 6 6 0 4 0 luego C2 ! 2C2
ahora F2 ! F2
2
F1
2 6 6 6 0 6 6 6 0 4 0
1
2
0
1
1
1
0
1 0 0
0 0
3
1 0 0
3
1 0 0
3
3
1
1
0 0
2
0
1
0 0
1
0 0
1
1
0
1 0 0
3
1
0 0 0
4
0
0 0 0
1
1
0 0 0
1
0
0 0
3
1
0 0
4
0
0 0
1
1
0 0
1
0
2 0 0
3
1
2 0 0
1
1
0 0 0
1
1
0 0 0
1
0
220
3
7 7 1 0 0 7 7 7 0 1 0 7 5 1 0 1
0 0
hacemos F2 ! 2F2
2 2 6 6 6 2 0 6 6 6 0 0 4 0 0 2
3
7 7 0 0 7 7 7 0 1 0 7 5 1 0 1
7 7 2 0 0 7 7 7 0 1 0 7 5 1 0 1 7 7 2 0 0 7 7 7 0 1 0 7 5 1 0 1 1 0 0
3
7 7 1 0 0 7 7 7 0 1 0 7 5 1 0 1
luego C2 ! C2
C1 2
2
6 6 6 0 6 6 6 0 4 0
0 0 0
3
1
2 0 0
1
1
0 0 0
1
1
0 0 0
1
0
1 0 0
3
7 7 1 0 0 7 7 7 0 1 0 7 5 1 0 1
La informacion de esta matriz se descompone en tres datos: 2 3 2 3 2 2 0 0 0 3 6 7 6 7 6 6 7 6 7 6 6 7 6 7 6 0 2 0 0 1 t t t 6 7 6 7 6 P AP = 6 P b = P = 7 6 7 6 6 0 6 1 7 6 0 0 0 7 4 5 4 5 4 0 0 0 0 1
1 1 1 0
1 0 0
3
7 7 1 0 0 7 7 7 0 1 0 7 5 1 0 1
Hemos diagonalizado la matriz de la forma cuadratica guardando las operaciones de las realizadas. Haciendo el cambio de coordenadas: X = PY La funcion quedara: F (Y ) = 2y12
2y22 + 3y1 + y2 + 2y3
2y4 + 2
Agrupamos para completar cuadrados: 2y12 + 3y1 y
2y22 + y2
escribiendo: 2y12 + 3y1 = 2 y1 + 2y22 + y2 =
2 y2
221
3 2 4
1 2 4
9 8
+
1 8
Haciendo:
2
3
3
2
2
y z 6 1 7 6 1 7 6 7 6 7 6 6 6 z2 7 6 y2 7 6 7+6 7=6 6 7 6 7 6 6 6 z3 7 6 y3 7 6 5 4 5 4 4 y4 z4
Tenemos:
F (Z) = 2z12
2z22 + 2z3
Para nalizar, hacemos: 3 2 p 2 w 2 0 0 6 1 7 6 p 7 6 6 6 w2 7 6 0 2 0 7=6 6 7 6 6 6 w3 7 6 0 0 2 5 4 4 w4 0 0 a
0
3 4
3
7 7 7 7 7 0 7 5 0 1 4
2z4 + 1
32
3
2
z 76 1 7 6 7 6 76 0 7 6 z2 7 6 7+6 76 7 6 76 2 7 6 z3 7 6 5 4 54 z4 b
0
3
7 7 0 7 7 7 1 7 5 0
donde a; b se eligen con la sola condicion que la matriz resulte inversible, por ejemplo a = 0; b = 1.
2
w 6 1 6 6 w2 6 6 6 w3 4 w4
De este modo se tiene:
3
2 p 2 0 0 7 6 p 7 6 7 6 0 2 0 7=6 7 6 7 6 0 0 2 5 4 0 0 0 F (W ) = w12
32
3
2
3
0 z 76 1 7 6 7 7 6 7 76 0 7 6 z2 7 6 0 7 7+6 7 76 7 6 7 76 7 6 z 7 6 1 7 2 54 3 5 4 5 0 z4 1 0
w22 + w3
la Forma Normal Af n. ii) Caso Eucl deo: Clasi caremos en forma eucl dea la misma funcion cuadratica.
222
Para diagonalizar la matriz en este caso, es necesario hallar una base ortonomal de vectores propios, notando con:
2
0 1 0 1
3
7 6 7 6 6 1 0 1 0 7 7 6 A=6 7 6 0 1 0 1 7 5 4 1 0 1 0
A tiene rango 2 de manera que su caracter stico es: X4
0X 3
4X 2
Es decir, sus ra ces son 2; 2; 0; 0. Al elegir la base de S0 tratamos de elegirla de modo que sea ortogonal, por ejemplo: S0 = h(1; 0; 1; 0) ; (0; 1; 0; 1)i Los otros: S2 = h(1; 1; 1; 1)i
S
2
= h(1; 1; 1; 1)i
Normalizando los vectores obtenemos la matriz ortogonal O, pues la base: f(1; 1; 1; 1) ; (1; 1; 1; 1) ; (1; 0; 1; 0) ; (0; 1; 0; 1)g es ortogonal. Se tiene:
2
1 6 6 16 1 O= 6 26 6 1 4 1
Luego, haciendo X = O Y de 2 2 6 6 6 0 t O AO = 6 6 6 0 4 0
1
p
1 1 1
2 0
p
2 0
3
0 p 7 7 2 7 7 7 0 7 p 5 2
las identidades: 3 0 0 0 7 7 h 2 0 0 7 t 7 , bO = 3 0 7 0 0 0 7 5 0 0 0 223
p
2 2
p
2 2
i
resulta: F (Y ) =
2y12
2y22
p 2 2 y3 + y4 + 2 2 2
p
+ 3y1
Como antes completamos cuadrados: 2y12 y hacemos:
3 + 3y1 = 2 y1 + 4 3
2
2
z 6 1 7 6 7 6 6 6 z2 7 6 7=6 6 7 6 6 6 z3 7 6 5 4 4 z4
Teniendo:
F (Z) = 2z12 Finalmente hacemos: 2 w 6 1 6 6 w2 6 6 6 w3 4 w4
3
2
1 0 7 6 7 6 7 6 0 1 7=6 7 6 7 6 0 0 5 4 0 0
3
y1
2
2
3 4
9 8 3
7 6 7 7 6 7 y2 7 6 0 7 7+6 7 7 6 7 y3 7 6 0 7 5 4 5 y4 0
p 7 2 2 z3 + z4 + 2 2 8
p
2z22
0
0
3
32
2
3
z 0 76 1 7 6 7 7 6 7 76 0 0 7 6 z2 7 6 0 7 7+6 7 6 p p 7 7 6 7 6 2 2 7 7 6 z 7 6 78 7 2 2 54 3 5 4 5 z4 a b 0
donde la eleccion de a; b debe hacerce con la restriccion que la matriz resultante sea
una matriz ortogonal, por ejemplo: p
p 2 2 a= ; b= 2 2 quedando:
2
w1
3
2
1 0
6 7 6 6 7 6 6 w2 7 6 0 1 6 7=6 6 7 6 6 w3 7 6 0 0 4 5 4 w4 0 0
0
0
32
z1
3
2
0
76 7 6 76 7 6 7 6 0 0 z2 7 6 0 7 6 7+6 p p 76 7 6 7 2 2 76 z 7 6 2 2 54 3 5 4 8 p p 2 2 z 0 4 2 2 224
3 7 7 7 7 7 7 5
y de este modo: F (W ) = 2w12
2w22 + w3
En tercer paso en cada caso podr a resultar algo mas particular que en la situacion tratada, por ejemplo si: F (x; y; z; t) = 2 x2
3 y2
1
En este caso la matriz de la forma cuadratica ya es diagonal y no se puede completar cuadrados, es decir solo resta efectuar el tercer paso, y la parte lineal es nula. En el caso af n podemos 2 x 6 6 6 y 6 6 6 z 4 t
hacer: 3 2 p 2 0 0 0 7 6 p 7 6 7 6 0 3 0 0 7=6 7 6 7 6 0 0 1 0 5 4 0 0 0 1
para obtener la Forma Normal Af n:
F x; y; z; t = x2
32
3
x 76 7 76 7 76 y 7 76 7 76 7 76 z 7 54 5 t
y2
1
Este mismo ejemplo, en el caso eucl deo, no podemos mejorarlo y es directamente la Forma Normal Eucl dea de la funcion cuadratica. iii) Ambos Casos F (x; y; z; t) = 2 x2 + y
z + 2t
1
Igual que antes solo queda el tercer paso y la parte lineal no es nula. En el caso af n, con el proposito de convertir la parte lineal junto con la constante en una nueva variable, ponemos: y=y
z + 2t
225
1
hacemos:
2
x 6 6 6 y 6 6 6 z 4 t
3
2 p 2 7 6 7 6 7 6 0 7=6 7 6 7 6 0 5 4 0
3
32
2
x 76 7 6 76 7 6 1 2 76 y 7 6 76 7 + 6 76 7 6 b c 76 z 7 6 54 5 4 t e f
0
0 0
1 a d
0
3
7 7 1 7 7 7 0 7 5 0
donde a; b; c; d; e; f deben elegirse con la unica restriccion que la matriz de cambio de coordenadas sea inversible, por 2 3 2 p x 2 6 7 6 6 7 6 6 y 7 6 0 6 7=6 6 7 6 6 z 7 6 0 4 5 4 0 t
ejemplo: 0
0 0
32
3
2
x 76 7 6 76 7 6 1 2 76 y 7 6 76 7 + 6 76 7 6 1 0 76 z 7 6 54 5 4 0 1 t
1 0 0
0
3
7 7 1 7 7 7 0 7 5 0
Aqu se consigue el proposito perseguido quedando la Forma Normal Af n: F x; y; z; t = x2 + y
Para el mismo ejemplo en el caso eucl deo, similar al caso af n, ponemos: x y + 2t 1 x y=q = 12 + ( 1)2 + 22
y + 2t p 6
1
es decir que la parte lineal de y esta dada por un vector unitario ya que debe ingresarse como una la en una matriz ortogonal. El cambio de coordenadas buscado sera:
2
x
3
2
1
6 7 6 6 7 6 6 y 7 6 0 6 7=6 6 7 6 6 z 7 6 0 4 5 4 0 t
0 p1 6
0
0
p1 6
a
b
d
e
32
x
3
2
76 7 6 76 7 6 76 y 7 6 76 7 + 6 76 7 6 c 76 z 7 6 54 5 4 f t
p2 6
0 p1 6
0 0
3 7 7 7 7 7 7 5
donde a; b; c; d; e; f deben elegirse con la restriccion que la matriz de cambio de coordenadas resulte una matriz ortogonal. Para esto consideramos una base ortogonal
226
de R3 que tenga como primer vector a (1; 1; 2), por ejemplo, agregando los vectores (1; 1; 0) y (1; 1; 1). Luego armamos la matriz con estos vectores normalizados: 2 3 2 3 32 3 2 1 0 0 0 0 x x 6 7 6 7 76 7 6 6 7 6 76 7 6 1 1 7 1 2 p p p p 6 y 7 6 0 7 76 y 7 6 6 6 6 76 6 7 6 7=6 7+6 6 7 6 7 6 7 7 6 6 z 7 6 0 p12 p12 0 76 z 7 6 0 7 4 5 4 5 54 5 4 1 1 1 p p p t 0 t 0 3 3 3 De este modo, teniendo en cuenta: y=
x y+2t 1 p 6
o sea
p
6y = x
y + 2t
1
obtenemos la Forma Normal Eucl dea como: F x; y; z; t = 2x2 +
De nicion 9.6 Dado un conjunto C
p
6y
Rn , C se dice una cuadrica si existe una
funcion cuadratica F : Rn ! R tal que: C = fx 2 Rn : F (x) = 0g La descripcion de las cuadricas en Rn , naturalmente lleva a considerar las ecuaciones del tipo F (x) = 0 para una funcion cuadratica F . Como vimos, tales ecuaciones pueden analizarse efectuando cambios de coordenadas en Rn . Del mismo modo que en dos variables, la clasi cacion de una funcion cuadratica nos permite decidir si C es una elipse, hiperbola, parabola etc., en el caso general podemos encuadrar C en un numero nito de tipos de super cies. Sera importante saber entonces que la clasi cacion no depende del metodo empleado para 227
llegar a la forma normal, ya sea af n o eucl dea. Por ejemplo, para la clasi cacion af n, una elipse y una circunferencia quedan encuadradas en un mismo tipo, pero las distingue de una hiperbola. En cambio la clasi cacion eucl dea es mas na, enmarcando dos cuadricas en un mismo tipo solo si son identicas salvo la posicion que ocupan en Rn . Si bien no trataremos en detalle este tema, a continuacion hacemos notar algunos hechos sobre las formas normales. Consideremos primero el termino correspondiente a la forma cuadratica de una forma normal. En el caso af n, la Ley de Inercia en el Teorema 8.12 garantiza que este termino no depende del metodo empleado. En el caso euclideo, la misma queda determinada por los valores propios de la forma cuadratica inicial. Analicemos ahora el termino lineal de una forma normal. Supongamos que la forma normal de la funcion cuadratica F (X) se obtuvo a partir del cambio de coordenadas: Y = PX + d se tiene: F (Y ) = t Y
t
P AP Y + 2 t dA + t b P Y + F (d)
Si el termino lineal es cero, resulta: 2 t dA + t b = 0 es decir, b se encuentra en el subespacio generado por las las de A. Rec procamente, si b se encuentra en el subespacio generado por las las de A, entonces: 2 t dA + t b esta en el subespacio generado por las las de A, pero este tambien esta generado por las las de t P A, pues P es inversible. Se sigue que: 2 t dA + t b P 228
se encuentra en el subespacio generado por las las de t P A P , y por tratarse de una forma normal, debe ser: 2 t dA + t b P = 0 En el caso eucl deo, podemos conocer el valor del coe ciente del termino lineal. Pongamos: F (Y ) = t Y
t
OAO Y + 2 t dA + t b OY + F (d)
con O matriz ortogonal. Se tiene: 2 t dA + t b O t OAO = 0 es decir: 2 t dA + t b A = 0 o bien: A (2Ad + b) = 0 Resulta 2Ad+b es un vector en el subesapcio propio S0 de A, mientras que 2Ad dado que: t
x2Ad = 2t dAx = 0
8x 2 S0
Descomponiendo b = b1 + b0 donde b1 2 S0? y b0 2 S0 , se tiene: (2Ad + b1 ) + b0 = 2Ad + b 2 S0 de modo que 2Ad + b1 = 0 y 2Ad + b = b0 . Por otra parte, en la expresion: F (Y ) =
m X
2 i xi
+ xm+1
i=1
el valor de
esta dado por: =
2 t dA + t b O = 229
2 td A + tb
= kb0 k
S0?
Es decir,
es la longitud de la proyeccion ortogonal de b sobre el subespacio propio A
asociado con el valor propio 0 de A, de modo que queda un vocamente determinado por A y b. Con respecto al termino constante de una forma normal, si este no es cero, su valor es F (d), es decir, que solo depende de la traslacion del cambio de coordenadas utilizado. En este caso se tiene: 2 t dA + t b = 0 o bien: t
dA =
1 t b 2
luego: F (d) = c
t
dAd
Si e es el vector asociado con la traslacion utilizada en otro cambio de coordenadas para obtener la forma normal de F , sera: t
dA =
1t b = t eA 2
es decir: t
(e
d) A = 0 o bien A (e
v) = 0
Ahora: F (e) = c
t
eAe = c
t
(e
d + d) A (e
d + d) = c
t
dAd = F (d)
De este modo hemos asegurado que la forma normal de una funcion cuadratica, ya sea af n o eucl dea, no depende del cambio de coordenadas utilizado. Del analisis precedente podemos concluir: Teorema 9.7 Toda funcion cuadratica puede ser expresada un vocamente, mediante un cambio de coordenadas, en la Forma Normal Af n o en la Forma Normal Eucl dea. 230
9.5.
Ejercicios
1. Encontrar la Forma Normal Af n de las siguientes funciones cuadraticas de Rn indicando el cambio de coordenadas utilizado en cada caso: i) a) F (x; y) = x2
4xy + 2y 2 + x
b) F (x; y) = 2x2
y+1
12xy + 18y 2 + 2y
2
ii) a) F (x; y; z) = x2 + 25y 2
4z 2
b) F (x; y; z) = 5x2 + 5y 2 + z 2
10xy + 4xz 8xy + 2xz
20yz + x
2y + 3
2yz + x + 4z
1
iii) a) F (x; y; z; t) = 2 (x2 + y 2 + z 2 + t2 ) + xy + xz + xt + yz + yt + t + 1 b) F (x; y; z; t) = x2 + y 2 + z 2 + t2 + 2 (xy + yz + zt) c) F (x; y; z; t) = 2 (xy + xt + yz + zt) + x
y+z
t
2. Encontrar la Forma Normal Eucl dea de las siguientes funciones cuadraticas de Rn indicando el cambio de coordenadas utilizado en cada caso. i) a) F (x; y) = x2 + xy + y 2 + 1 b) F (x; y) = 2xy + x + y
1
ii) a) F (x; y; z) = x2 + y
z+1
b) F (x; y; z) = x2 + y 2 + z 2 + 2 (xy + xz + yz)
(x + y + z) + 1
iii) a) F (x; y; z; t) = x2 + y
z+t
b) F (x; y; z; t) = x2 + y 2 + z 2 + t2 + 2 (xy + xz + xt + yz + yt + zt) c) F (x; y; z; t) = x2 + y 2 + z 2 + t2 231
2 (xy + xz + xt + yz + yt + zt)
1
iv) a) F (x; y; z; t; u) = x2 + y + z
t
u+2
b) F (x; y; z; t; u) = x2 + y 2 + z 2 + t2 + u2 + 2 (xy + tu)
z+1
3. Hallar la Forma Normal Af n y la forma normal eucl dea de las siguientes funciones cuadraticas de Rn , indicando el cambio de coordenadas utilizado en cada caso. i) a) F (x; y; z) = 4x2 + y 2 + 4z 2 + 4xy + 8xz + 4yz + 2x + y + 2z b) F (x; y; z) = x2 + xy + xz
yz
c) F (x; y; z) = 9x2 + y 2 + z 2
6xy + 6xz
9
2y 2yz + 10x + 8y
5
ii) a) F (x; y; z; t) = 2 (xy + xt + yz + zt) + x b) F (x; y; z; t) = 2 (xy + yz + 2x + y
y+z
z + 2t)
t
1
iii) a) F (x; y; z; t; u) = x2 + y 2 + z 2 + t2 + u2 + 2 (xy + xz + xt + xu + yz) + +2 (yt + yu + zt + zu + tu) + 4 (x + y + z + t + u) b) F (x; y; z; t; u) = 2x2 + x + y + z + t + u + 1 4. Probar las siguientes desigualdades: i) xy
x2 + xz
3x
y2
yz
z2 + z
3
8x; y; z 2 R ii) 1
2x2 + 2xy + 2xz + 2y 2 + 2yz + 2z 2
8x; y; z 2 R tal que x2 + y 2 + z 2 = 1. 232
4
1
iii) 1
3x2
2xy + 4xz + 4y 2
2yz + 3z 2
6
8x; y; z 2 R tal que x2 + y 2 + z 2 = 1. 5. Hallar los valores extremos de la longitud de un vector sobre la cuadrica en R3 dada por: 3x2
2xy + 4xz + 4y 2
2yz + 3z 2
6. Un subconjunto A de Rn se dice acotado si r 2 R, r > 0 tal que: kak < r
8a 2 A
Indicar cuales de las siguientes cuadricas son acotadas: i) xy + xz + yz + y 2 = 0 ii) 2 x2 + y 2 + z 2 + t2 + 2 (xy + xt + yz + zt) = 0
233
10.
Cap tulo 10: Polinomio Caracter stico
En lo siguente K denotara un cuerpo, V un espacio vectorial de dimension n sobre K y t un endomor smo de V .
10.1.
Subespacios Invariantes
Recordemos que dada una base B = fv1 ; v2 ; : : : ; vn g en V , podemos asociarle al endomor smo t una matriz A en K n
n
cuya i-esima columna se forma con las
coordenadas de t (vi ) en la base B. Es nuestro objetivo estudiar el endomor smo t mediante el analisis de su matriz A, en una base convenientemente elegida", es decir de manera que A sea sencilla a los efectos del calculo. Ejemplos 10.1 Sea R el cuerpo de los numeros reales y t el endomor smo de R3 cuya matriz en la base canonica fe1 ; e2 ; e3 g 2 1 6 6 A=6 1 4 2
es: 1 1 2
1
3
7 7 1 7 5 2
La matriz de este endomor smo en la base fe1 + e2 ; e1 2 3 0 0 0 6 7 6 7 A=6 0 0 0 7 4 5 0 0 4
e3 ; e1
e2 + 2e3 g es
Si para un numero natural k, tk denota el endomor smo de V obtenido al componer k veces t consigo mismo, se deduce muy facilmente que dim N u tk
= 2 a partir
de la segunda matriz hallada para t, lo que no ser a tan evidente si usaramos la primer matriz asociada a t. 234
Ejemplos 10.2 Supongamos que t satisface, t2 = t t = t , es decir, t es una proyeccion. Tomemos B = fv1 ; v2 ; : : : ; vk ; vk+1 ; : : : ; vn g una base de V donde fv1 ; v2 ; : : : ; vk g es base del N u (t) y fvk+1 ; : : : ; vn g es base de la Im (t). As la matriz asociada a la base de B tiene la forma:
2 4
0 0 0 I
3 5
donde la particion en bloques esta asociada naturalmente a la particion de la base. Vamos a estudiar bases B = fv1 ; v2 ; : : : ; vk ; vk+1 ; : : : ; vn g donde la escritura de t (vi ), con i = 1; : : : ; k no involucre a los vj , con j = k + 1; : : : ; n, es decir, la matriz asociada a t en la base B tenga la forma: 2 3 A D 4 5 0 C
En otras palabras, el subespacio S generado por v1 ; v2 ; : : : ; vk debe cumplir la condicion: t (S)
S.
De nicion 10.3 Un subespacio S de V se dice t-invariante o t-estable si t (S)
S.
Ejemplos 10.4 Los siguientes subespacios son t-invariantes. Ejemplos 10.5 i) 0; V ii) Im (t) ; N u (t). iii) N u (aIV
t) donde a 2 K; IV es el endomor smo identidad.
iv) Si h es un endomor smo tal que t h = h t entonces Im (h) e N u (h) son subespacios t-invariantes. Veamos que los subespacios dados en iv) son t-invariantes: Si v esta en el N u (h) entonces h (t (v)) = (h t) (v) = (t h) (v) = t (h (v)) = t (0) = 0 235
es decir, t (v) esta en el N u (h). Supongamos ahora v 2 Im (h) ; sea v = h (w), se tiene: t (v) = t (h (w)) = (t h) (w) = (h t) (w) = h (t (w)) lo que prueba que t (v) esta en la Im (h).
10.2.
Propiedades del Polinomio caracter stico
Sea S un subespacio t-invariante no nulo de V . Tomemos v1 ; : : : ; vk ; vk+1 ; : : : ; vn una base de V tal que v1 ; : : : ; vk formen una base de S. Sea A = [aij ] la matriz asociada a t en esta base. Dado que S es invariante por t, para i
k se tiene t (vi )
en S, es decir: t (vi ) = a1i v1 +
+ aki vk + 0vk+1 +
+ 0vn
Luego la matriz A toma la forma triangular por bloques: 2 3 B C 5 A=4 0 D
donde B en K k
k
es la matriz de t como endomor smo de S en la base v1 ; : : : ; vk , C
es una matriz en K (n en K (n
k) (n k)
k) k
, 0 denota la matriz nula en K k
(n k)
y D es una matriz
.
Si notamos con Im la matriz identidad en K m m , se tiene: 2 3 xIk B C 5 = det (xIk B) det (xIn det (xI A) = det 4 0 xIn k D
k
D)
de manera que:
A
(x) =
B
(x)
D
(x)
(6)
Lo que muestra que el polinomio caracter stico de t restringuido a S divide al polinomio caracter stico de t. 236
Nota 10.6 Sea S un subespacio t-invariante no nulo de V , notaremos con
tS
(x)
el polinomio caracter stico de t restringuido a S. Como consecuencia de la discusion precedente y con las notaciones establecidas se tiene: Proposicion 10.7 Si S es un subespacio t-invariante no nulo de V , entonces es un divisor de
t
tS
(x)
(x).
Demostracion: Es clara a partir de (6). Corolario 10.8 Sea t un endomor smo tal que
t
(x) es irreducible en K [x], en-
tonces los unicos subespacios t-invariantes de t son 0 y V . Demostracion: Sea S un subespacio t-invariantes no nulo de V , de
t
tS
(x) es un divisor
(x), se tiene ademas: gr (
de donde
tS
(x) =
t
tS
(x)) = dim (S) 6= 0
(x) y dim S = n, o sea S = V .
Teorema 10.9 Sea t un endomor smo tal que
t
tiene todas sus ra ces en K, en-
tonces existe una base en V en la cual la matriz asociada a t es triangular superior (esto es, aij = 0 si j < i). Demostracion: Sea a1 una ra z de
t
(x), por 5.17 existe V1 en V tal que t (v1 ) = a1 v1 .
Tomemos v1 ; w2 ; : : : ; wn una base de V y A = [aij ] la matriz de t en esta base, se tiene:
2
6 6 6 A=6 6 6 4
a1 a12 0 .. .
a1n
B
0 237
3 7 7 7 7 7 7 5
donde B = [bij ] con bij = ai+1j+1 es una matriz (n
1) (n
1). Por la demostracion
de 10.7 :
de esta igualdad resulta que
A
(x) = (x
a1 )
B
(x) tiene todas sus ra ces en K. Si pensamos a B
B
(x)
operando naturalmente como un endomor smo en K n 1 , un argumento inductivo sobre la dimension garantiza la existencia de una base en K n
1
tal que la matriz
dada por B es triangular superior, pero esto es decir que existe una matriz inversible C 2 K (n
1) (n 1)
tal que: CBC
1
es triangular superior. Luego, tomando: 2 1 0 6 6 6 0 U =6 6 .. 6 . 4 0 y operando por bloques, se tiene: 2 a d 6 1 12 6 6 0 1 U AU = 6 6 .. 6 . C B 4 0
0
3
2
a1 d12
C
d1n
C
=T
1
3
7 6 7 6 7 6 7=6 7 6 7 6 5 4
7 7 7 7 7 7 5
0 .. . 0
d1n
T
3 7 7 7 7 7 7 5
En estas igualdades, el primero de los miembros indica que se ha hecho un cambio de base para la matriz asociada a t, y en el ultimo hay una matriz triangular, lo que concluye con la demostracion. Corolario 10.10 Sea K un cuerpo algebraicamente cerrado (por ejemplo K = C). Para todo endomor smo t existe una base en V tal que la matriz asociada a t en ella es triangular superior. 238
Demostracion: En un cuerpo algebraicamente cerrado las hipotesis del Teorema 10.9 son validas. De nicion 10.11 Sea p (x) = xn + an 1 xn
1
+
+ a1 x + a0 un polinomio en K [x].
Llamaremos matriz compa~ nera de p a la matriz Cp = [cij ] 2 K n cin =
ai
1
y cij = 0 en otro caso.
i) p (x) = x ii) p (x) = x2
a; Cp = [a] 2 K 1
1
x + 2;
2
iii) p (x) = x3 + ax2 + bx + c;
Cp = 4 2
3
1
1
0 0
2
5 c
3
7 7 b 7 5 a
0 0 0
3
0
3
2
a)n+1 ;
2
n+1 i
2
3
0 0 6 6 6 7 6 1 0 0 0 6 7 4 5 ;6 1 0 0 7;6 Cp = 4 5 6 6 0 1 1 0 4 0 1 0 0 0 2
v) p (x) = (x
0
6 6 Cp = 6 1 0 4 0 1
iv) p (x) = x2 ; x3 ; x4 ;
donde ai =
n
6 6 6 Cp = 6 6 6 4
( a)n+1 i .
0
In
a0
7 7 a1 7 (n+1) 7 .. 7 2 K . 7 5 an
239
0 0
3
7 7 0 0 7 7 7 0 0 7 5 1 0
(n+1)
, siendo ci+1i = 1,
Nota 10.12 La matriz compa~ nera de p (x) sera presentada luego con mas naturalidad, en este caso solo la de nimos para mostrar que todo polinomio monico de grado n es polinomio caracter stico de una matriz n
n.
Proposicion 10.13 Con las notaciones precedentes se tiene: Cp
(x) = p (x) :
Demostracion: Sean f1 ; : : : ; fn las las de xI
Cp . Vamos a operar con las las de
modo que no se altere el determinante. Primero reemplazaremos fn fn
1 +xfn ,
luego fn
2
por fn0
2
= fn
2 +x
fn0
1
1
por fn0
1
=
y as sucesivamente hasta reemplazar
f1 por f10 = f1 + xf20 . Ahora es inmediato que: det (f1 ; : : : ; fn ) = det f10 ; : : : ; fn0 1 ; fn = p (x) En lo que sigue vamos a determinar los coe cientes del polinomio caracter stico de una matriz A como funciones de las coordenadas de A. Ejemplos 10.14 Pongamos A = [aij ] y tr (A) = a11 + a22 +
+ ann ,es decir tr
denota la funcion traza. i) Si n = 2 puede calcularse el polinomio caracter stico de A como: A
(x) = x2
tr (A) x + det A
ii) Para n = 3, el calculo permite escribir: A
(x) = x3
tr (A) x2 + det A1 + det A2 + det A3
donde Ai denota la matriz 2
x + det (A)
2 que resulta de suprimir la la y la columna i en A.
Estos ejemplos dan una idea de lo que puede ser la expresion general del polinomio caracter stico y sugieren introducir las siguientes notaciones: 240
Proposicion 10.15 Para A en K n
n
, Ai notara la matriz de n
n obtenida al
reemplazar en A los elementos aki y aik por cero si k 6= i y aii por 1. Se veri can: j
i
Proposicion 10.16 i) (Ai ) = (Aj ) y se notara con Aij . ii) Aii = Ai , A12:::n = I. iii) Si 0 es la matriz nula de n
n, llamemos Ii = 012:::i y Bi = xIi
A. Se tiene:
a) det (Bi+1 ) = x det Bii+1 + det (Bi ) por la linealidad en la (i + 1) esima columna. b)det (Bn ) =
A
(x).
iv)Finalmente para 1
k
i
n sea:
8 > < ak;i (A) = Se tiene:
P
det ( Ai1 i2 :::ik )
1 i1 <
> : ao;i (A) = det ( A)
a) ai;i (Ai+1 ) = ai+1;i+1 (A). b) Si k
1, ak;i (Ai+1 ) + ak;i (A) = ak;i+1 (A).
Demostracion: Es clara a partir de las notaciones jadas. Proposicion 10.17 Con las notaciones precedentes se tiene: det (Bj ) =
j P
ak;j (A) xk
j = 1; 2; : : : ; n
k=0
Demostracion: Por induccion. Es claro para j = 1, usando la linealidad del determinante en la primer columna. Supongamos valida la formula para j < n y veamos
241
que tambien lo es para j + 1. det (Bj+1 ) = x (1)
j P
= aj;j (Aj+1 ) xj+1 + = aj+1;j+1 (A) +
(2)
=
(3)
ak;j (A) xk
k=0 jP1
k=0
j+1 P
j P
ak;j (Aj+1 ) xk +
aj;k (Aj+1 ) xk+1 +
k=0
j P
(ak
j P
ak;j (A) xk + ao;j (A)
k=1
1;j
(A
j+1
) + ak;j (A)) xk + ao;j+1 (A)
k=1
ak;j+1 (A) xk
k=0
(1) por 10.15 (c) teniendo en cuenta la igualdad Bii+1 = xIi
Ai+1 ; (2) Por 10.15
(d, i)) y (3) por 10.15 (d, ii)). Corolario 10.18 Se tiene: A (x) =
n X
ak;n (A) xk :
k=0
Observacion 10.19 Las funciones polinomiales ak;n de nidas en 10.15 k = 1; : : : ; n toman los mismos valores sobre matrices semejantes, es decir: ak;n (U AU
1
si U es una matriz inversible de n Notemos que an
1;n
(A) =
) = ak;n (A)
k = 1; : : : ; n
n, esto es claro a partir de la observacion 5.15.
tr (A) y a0;n (A) = ( 1)n det (A) ; y en general, salvo
signo, ak;n (A) es la suma de todos los menores principales de orden k de A. Dadas dos matrices A; B 2 K n
n
, vamos a probar que AB y BA tienen el
mismo polinomio caracter stico, esto es claro si una de las matrices es inversible, dado que en esta situacion AB y BA son semejantes. En particular, obtendremos como consecuencia que ak;n (AB) = ak;n (BA). Proposicion 10.20 Sean A y B 2 K n AB
n
, entonces:
(x) = 242
BA
(x)
Demostracion: Sea k el rango de A, sean U y V matrices inversibles, como en 4.2, tales que: U AV = Ik Es facil ver que: CIk
cualquiera sea C 2 K n det (xI
n
Ik C
(x)
. Luego:
AB) = det (U ) det (xI
Corolario 10.21 Para k n
(x) =
AV V 1
= det (xI
U AV V
= det (xI
Ik V
= det (xI
V
1
BU
= det (xI
V
1
BAV )
= det (xI
BA)
1
BU 1
BU 1
1
B) det (U
1
1
)
)
)
Ik )
n sean ak;n como en 10.15. Si A y B son matrices de
n; se veri ca: ak;n (AB) = ak;n (BA) :
Demostracion: Es una consecuencia de 10.18 y 10.20.
10.3.
Ejercicios
Nota 10.22 En los ejercicios a continuacion, mientras no se indique en forma expl cita, las matrices consideradas se suponen de nidas sobre un cuerpo cualquiera. 1. Sea A 2 Q4
4
dada por:
2
1 6 6 6 2 6 6 6 2 4 2
0 2 1 1 243
0 0
3
7 7 1 0 7 7 7 1 1 7 5 0 0
Encontrar una matriz inversible U 2 Q4
4
tal que U AU
1
sea triangular su-
perior. 2. Sea A 2 K n
n
,K
Cy A
1;
2; : : : ;
(x) = (x
n
2 C tales que:
1 ) (x
2)
(x
n)
i) Determinar el polinomio caracter stico de Am donde m es un numero natural ii) Determinar el polinomio caracter stico de A3
4A2 + A
2I.
iii) Determinar el polinomio caracter stico de P (A) siendo P un polinomio en K [x]. 3. Sean ; ;
las ra ces del polinomio real x4 + 3x3
y
i
Mostrar que
i
+
i
+
+ i
+
i
+ i
i
+
i
x2 + x
1. Calcular:
i = 1; 2; 3; 4; 5
es un numero entero cualquiera sea i 2 N .
4. Encontrar todos los numero enteros positivos a; b; c; d; e tales que la matriz: 3 2 a b c d e 7 6 6 7 6 e a b c d 7 6 7 6 7 6 b e a b c 7 6 7 6 7 6 c d e a b 7 5 4 b c d e a no sea inversible.
5. El metodo de Leverrier. Sea A 2 K n A
(x) = xn + a1 xn
1
n
+ a2 x n
244
, mostrar que: 2
+
+ an 1 x + an
donde: a1 = a2 = a3 =
ak =
s1 1 (s2 + a1 s1 ) 2 1 (s3 + a1 s2 + a2 s1 ) 3 1 (sk + a1 sk k
1
+
+ ak 1 s 1 )
siendo si = tr (Ai ). 6. Sea t : C n ! C n una transformacion lineal tal que tr (ti ) = 0 para 1
i
n.
Probar que t es nilpotente, es decir, tn = 0. 7. Sea A 2 K n
n
una matriz antisimetrica. Probar que existe un polinomio P en
K [X] tal que: A
(X) = P (X 2 ) o
A
(X) = X P (X 2 )
segun n sea par o impar. 8. Sea A 2 K n
e 6= 0, donde A e denota la matriz tal que det (A) = 0 y tr A
n
adjunta de A. Probar que 0 es ra z simple de 9. Sea A 2 K n caracter stico
n
A
A.
y P 2 K [x] tal que P (A) = 0. Probar que el polinomio divide a P n . Concluir que todas las ra ces de
A
son ra ces
de P . 10. Sea A 2 C n
n
, B 2 Cm
m
y
y
las transformaciones lineales de C n
por: (M ) = AM + M B
M 2 Kn
m
(M ) = AM B
M 2 Kn
m
245
m
dadas
Determinar los polinomios caracter sticos A
11. Sea
y
y
en terminos de las ra ces de
B.
una ra z del polinomio x3 + x
1y
una ra z del polinomio x2
Encontrar un polinomios monicos S y P en Z [x] tales que: S( + )=0 y P (
246
)=0
x
1.
11.
Cap tulo 11: Descomposicion Primaria
Sean K, V , y t como en el Cap tulo 10.
11.1.
Subespacios C clicos e Irreducibles
De acuerdo con lo visto en 10.7 cada espacio S 6= 0 y t-invariante, da lugar al divisor monico
t=S
2 K [x] del polinomio caracter stico
t
de t, donde gr
t=S
es igual a dim S. En particular si t admite una recta de vectores propios con valor propio , esta induce el divisor irreducible (x propios estan asociados con los factores lineales de
) de t.
t.
Es decir que los espacios
En general, podemos estudiar
los subespacios no nulos t- invariantes que se asocien con factores irreducibles decir, aquellos subespacios S tales que
t=S
t,
es
sea irreducible en K [x].
De nicion 11.1 Sea S un subespacio t-invariante no nulo. Se dira que S es irreducible si
t=S
es irreducible en K [x].
Proposicion 11.2 Consideremos: Proposicion 11.3 i) Si S es irreducible, los unicos subespacios t-invariantes de S son 0 y S. ii) Si S y T son subespacios irreducibles, entonces S = T o la suma S + T es directa. iii) Si S es irreducible y T t-invariante entonces S
T o la suma S + T es
directa. iv) Sea S1 ; : : : ; Sk subespacios irreducibles tales que los polinomios diferentes. Entonces la suma S1 +
+ Sk es directa.
247
t=Si
sean
Demostracion: i) 10.8 ii) S \ T es un subespacio t-invariante de T y de S. iii) S \ T es un subespacio t-invariante de S. iv) Razonando inductivamente podemos suponer que la suma S2 + es directa. Por lo tanto
t=T
=
t=Sk .
t=S2
Como
t=S1
no divide a
+ Sk = T t=T ,
S 6= T ,
luego por 11.3 la suma S + T es directa. Como acabamos de ver, los subespacios irreducibles tienen un comportamiento similar al de las rectas generadas por los vectores propios distintos. Sea ahora S irreducible y v en S no nulo. Notemos con ti los endomor smos de V obtenidos al componer t conisgo mismo i veces, es decir ti = t
t y acordamos
t0 = idV . Como S es t-invariante, los vectores, v; t (v) ; t2 (v) ; : : : ; tk (v)
k = dim S
estan en S. Dado que hay k + 1 vectores, estos deben ser linealmente dependientes y por lo tanto existe i < k tal que: v; t (v) ; t2 (v) ; : : : ; ti (v)
son independientes y
v; t (v) ; t2 (v) ; : : : ; ti+1 (v)
son dependientes
El ndice i ha sido elegido de manera tal que existen escalares a0 ; a1 ; : : : ; ai en K no todos nulos tales que: a0 v + a1 t (v) +
+ ai ti (vi ) + ti+1 (v) = 0
o bien ti+1 (v) =
ai ti (v)
a1 t (v)
a0 v
(1)
Sea Si el subespacio generado por v; t (v) ; : : : ; ti (v). Si w esta en Si , podemos escribir: w = bi ti (v) +
+ b1 t (v) + b0 v 248
y por lo tanto, por (1); tw = bi ti+1 (v) + = (bi + (b1
+ b1 t2 (v) + b0 t (v)
bi ai ) ti (v) + (bi
1
bi 1 ai 1 ) ti
2
bi a2 ) t2 (v) + (b0
bi a1 ) t (v)
1
(v) +
b i a0 v
Es decir que Si es un subespacio t-invariante no nulo de S y por lo tanto Si = S, pues S es irreducible. Por otra parte, dado que los vectores v; t (v) ; : : : ; ti (v) forman una base de Si , debe ser i = k
1. La matriz de t=S respecto a la base v; t (v) ; : : : ; ti (v)
resulta por (1) igual a la matriz compa~ nera del polinomio: p (x) = xk + ak 1 xk
1
+
+ a1 x + a0
y por lo tanto t=S
= p (x)
Antes de continuar estudiando las propiedades de S, es conveniente introducir de niciones que permitan simpli car las notaciones. De nicion 11.4 Un subespacio de V se dice c clico si existe v 2 V tal que el subespacio esta generado por fti (v) : i 2 N0 g. De nicion 11.5 Sea P (x) un polinomio en K [x]. P (x) = am xm + am 1 xm
1
+
+ a1 x + a0
Si t es un endomor smo de V , de nimos el endomor smo P (t) por: P (x) = am tm + am 1 tm
1
+
+ a1 t + a0 IdV
Nota 11.6 Notaremos con hvit al subespacio generado por fti (v) : i 2 N0 g y lo llamaremos subespacio c clico generado por v. 249
Observacion 11.7 i) Es claro que hvit es un subespacio t-invariante. ii) Si S = hvit , existira un numero natural k tal que los vectores v; t (v) ; : : : ; tk (v) son dependientes, es decir tales que existen escalares no todos nulos a0 ; a1 ; : : : ; ak con: ak tk (v) +
+ a1 t (v) + a0 v = 0
luego si P (x) = ak xk +
+ a1 x + a0
tendremos: P (x) 6= 0 y P (t) (v) = 0 De nicion 11.8 Dado v 2 V , llamaremos polinomio minimal de v referido a t, al polinomio mv (x) monico de grado m nimo entre los que satisfacen P (x) 2 K [x], P (t) (v) = 0. Observacion 11.9 Si P y Q estan en K [x], valen las siguientes relaciones: i) (P + Q) (t) = P (t) + Q (t) ii)(P Q) (t) = P (t) Q (t) iii)1 (t) = IdV Esto indica que ciertas identidades polinomiales se conserven al evaluar en t. Con las notaciones ya establecidas se tiene: Proposicion 11.10 Sea S = hvit . Si k = gr (mv ) entonces dim (S) = k y los vectores v; t (v) ; : : : ; tk
1
(v) forman una base de S. Respecto a esta base, la matriz
de t=S es Cmv (la matriz compa~ nera de mv ). Demostracion: Sea mv (x) = xk + ak 1 xk 250
1
+
+ a1 x + a0 :
Se tiene entonces: tk (v) =
ak 1 tk
1
(v)
a1 t (v)
a0 v:
Esta igualdad permite escribir tj (v) como combinacion lineal de v; t (v) ; : : : ; tk para cualquier natural j, de modo que dim (S)
k. Pero v; t (v) ; : : : ; tk
1
1
(v)
(v) son
vectores linealmente independientes, dado que de existir una combinacion lineal nula no trivial de ellos, existir a un polinomio P no nulo de grado menor que k tal que P (t) (v) = 0, lo que resulta contradictorio con la de nicion de mv . Esto completa la demostracion. Corolario 11.11 S es c clico, si y solo si existe v en S tal que
t=S
= mv .
Proposicion 11.12 Las siguientes propiedades son equivalentes: i) S es irreducible. ii) 8v 6= 0 en S; S = hvit . iii) 8v 6= 0 en S; mv =
t=S .
iv) S es c clico y para todo polinomio P (x) 2 K [x] vale: P (t=S) = 0 o P (t=S) es un automor smo de S. Demostracion: i) )ii) Por i) de la Proposicion 11.2. ii) )iii) Por la Proposicion 11.10. iii) )iv) Sea P 2 K [x] tal que P (t=S) 6= 0. Sea v 2 S con P (t=S) (v) = w 6= 0. Si vale iii) debe ser mw =
t=S .
Es claro que hwit
Im (P (t=S)) y por lo tanto se
tiene que dim (S) = gr
t=S
= gr (mw )
= dim (hwit ) 251
dim (Im (P (t=S)))
y por lo tanto P (t=S) es inversible. Es claro por otra parte que para cualquier vector v 6= 0 en S vale hvit = S y por lo tanto S es c clico. iv) )i) Sea S = hvit . Por el Corolario 11.11
t=S
= mv . Supongamos mv = P Q
con P y Q en K [x]. La igualdad: (P (t) Q (t)) (v) = mv (t) (v) = 0 puede pensarse como que P (t) se anula en Q (t) (v) o que Q (t) se anula en P (t) (v). Como v 6= 0, si Q (t) (v) = 0 debe ser gr (Q) = gr (mv ) y P una unidad en K [x]. Si Q (t) (v) 6= 0; Q (t=S) es un endomor smo inversible (suponiendo la validez de 4) y por lo tanto debe ser P (t) (v) = 0. Con el mismo razonamiento hecho antes para Q, vemos entonces que gr (P ) = gr (mv ) y que Q es una unidad en K [x] Hemos probado por lo tanto que
t=S
= mv es irreducible en K [x], o sea que S es irreducible.
Proposicion 11.13 Sea v 2 V Se tiene: i) mv divide a
t
ii) Si P 2 K [x] ; P (t) (v) = 0; si y solo si mv divide a P . Demostracion: i) Sea S = hvit , S es t-invariante y
t=S
= mv por 11.11, luego i) se deduce de
10.7. ii) Sea P = Qmv , con Q 2 K [x] : Entonces:
P (t) (v) = (mv (t) Q (t)) (v) = (Q (t) mv (t)) (v) = Q (t) (mv (t) (v)) = Q (t) 0 = 0 Rec procamente, supongamos que P (t) (v) = 0. Por el algoritmo de la division en K [x] existen polinomios Q y R en K [x] tales que P = Q mv + R y R = 0 o gr (R) < gr (mv ). Se tiene entonces: 0 = P (t) (v) = (Qmv ) (t) (v) + R (t) (v) = R (t) (v) 252
Como no puede ser gr (R) < gr (mv ), resulta entonces que R = 0 y por lo tanto mv divide a P . Ls resultados a continuacion se obtienen, sin mayor di cultad, como consecuencia de la proposicion precedente. Corolario 11.14 8v 2 V;
t
(t) (v) = 0.
Teorema 11.15 (Hamilton-Cayley) t
(t) = 0:
Corolario 11.16 Los endomor smos IdV ; t; t2 ; : : : ; tn son linealmente dependientes. Observacion 11.17 Notemos que el Teorema de Hamilton-Cayley se puede demostrar de manera elemental en el caso en que
t
tenga todas sus ra ces en K.
Efectivamente, en este caso podemos aplicar el Teorema 10.9 para obtener una base de V = fv1 ; v2 ; : : : ; vn g tal que: t (vi ) = a1i v1 + a2i v2 +
+ aii vi
i = 1; : : : ; n
Deducimos de estas igualdades que: t
= (x
a11 ) (x
a22 )
(x
ann )
y que (t
a11 IdV ) (v1 ) = 0
(t
a11 IdV ) (t
a22 IdV ) (v2 ) = 0
(t
a11 IdV ) (t
a22 IdV )
(t
aii IdV ) (vi ) = 0
Luego el endomor smo: (t
a11 ) (t
a22 )
se anula sobre una base de V , es decir que 253
(t t
ann ) = (t) = 0.
t
(t)
i = 3; : : : ; n
Ejemplos 11.18 Sea R el cuerpo de los numeros reales. i) Sean V = R2 , a 2 R:
t (x; y) = (y; ax) Se tiene
t
(x) = x2 + a. Si a > 0, V es irreducible. Si a
0, V es c clico, aunque no
irreducible. En cualquier caso, si e1 = (1; 0) y e2 = (0; 1) entonces e2 y t (e2 ) = e1 son independientes y t2 (e2 ) =
ae2 o sea que t2 (e2 ) + ae2 = 0, de modo que:
me2 (x) = x2 + a
V = he2 it :
y
ii) Sea V = R4 y t (v; x; y; z) = ( 2z; v; x
3z; y) :
La matriz de t en la base canonica es la matriz compa~ nera del polinomio x4 + 3x3 + 2 = x2 + 1
x2 + 2
de modo que t
(x) = x2 + 1
x2 + 2 :
Sean ei los vectores de la base canonica de R4 . Se tiene que e1 ; e2 = t (e1 ) ; e3 = t2 (e1 ) ; e4 = t3 (e1 ) son independientes, luego R4 = he1 it
y
w1 = (t2 + 1) (e1 ) 6= 0
y
w2 = (t2 + 2) (e1 ) 6= 0:
(t2 + 2) (w1 ) = 0
y
(t2 + 1) (w2 ) = 0
t
= me1 :
Sean
Se tiene:
254
donde 1 y 2 denotan respectivamente 1IdV y 2IdV . Estas ultimas igualdades implican que mw1 divide a (x2 + 2) y mw2 divide a (x2 + 1) en R [x]. Como w1 y w2 son no nulos, concluimos que mw1 (x) = x2 + 2 y mw2 (x) = x2 + 1, y por lo tanto S = hw1 it
y
T = hw2 it
son subespacios irreducibles con polinomios asociados distintos, es decir que, en este caso, R4 = S
T . Si tomamos como base de R4 la formada por los vectores
w1 ; t (w1 ) ; w2 ; t (w2 ) la matriz de t adopta la forma : 2 3 0 2 0 0 6 7 6 7 6 1 0 0 0 7 6 7: 6 7 6 0 0 0 1 7 4 5 0 0 1 0
No siempre es posible descomponer a V como suma directa de subespacios irreducibles. Basta por ejemplo tomar a = 0 en i) para que esto sea imposible. Hasta ahora el comportamiento de los subespacios irreducibles se han mantenido similar al de las rectas generadas por los vectores propios, pero aun falta saber si todo divisor monico irreducible es inducido por un subespacio irreducible, como ocurre en el caso de los divisores lineales y los vectores propios. Veamos la siguiente proposicion, que sera utilizada frecuentemente. Proposicion 11.19 Las siguientes propiedades son inmediatas. i) Sea t en EndK (V ), B una base de V y P 2 K [x]. Notemos con [t]B y [P (t)]B las matrices respectivas de t y P (t) en la base B. Se tiene entonces: [P (t)]B = P ([t]B ) ii) Sea P 2 K [x] ; A y U en K n
n
con U inversible. Se tiene entonces:
U P (A) U
1
= P U AU
255
1
Demostracion: i) Esto es consecuencia de la Observacion 5.13. Consideremos ahora un divisor monico irreducible P de
t.
Si V es c clico, sea
V = hvit . Tendremos mv =
t
= PQ
Como P no es unidad en K [x] ; Q (t) (v) = w 6= 0 dado que gr (Q) < gr (mv ). Se tiene entonces P (t) (w) = 0 y al ser P irreducible y monico, mw = P . Por lo tanto el subespacio irreducible hwit de V induce el divisor P de Razonaremos ahora inductivamente sobre el grado de
t. t.
Sea v un vector no
nulo en V , y sean S = hvit y k = dim (S) = gr (mv ). Sea T un subespacio de V tal que V = S
T . Consideramos en S la base v; t (v) ; : : : ; tk
1
(v) y en T una base
cualquiera fwk+1 ; wk+2 ; : : : ; wn g. Respecto de la base B =
v; t (v) ; : : : ; tk
matriz de t tiene la forma:
Por lo tanto se tiene
t
= mv
2
[t]B = 4 C.
1
Cmv D 0
C
(v) ; wk+1 ; wk+2 ; : : : ; wn
de V , la
3 5
Por ser P irreducible, P divide a mv o a
C
en
K [x]. En el primer caso, el mismo razonamiento hecho en el caso en que V es c clico permite mostrar que P es inducido por un subespacio irreducible. Podemos por lo tanto reducirnos al segundo caso, que P divida a
C.
La hipotesis
inductiva aplicada al endomor smo de nido canonicamente por C en K n k ; permite a rmar la existencia de un vector columna: 2 3 x 6 k+1 7 6 .. 7 x = 6 . 7 2 K n k 1 tal que x 6= 0 y P (C) :x = 0 4 5 xn
Sea w 2 T el vector de coordenadas x en la base fwk+1 ; wk+2 ; : : : ; wn g ; es decir, w = xk+1 wk+1 + xk+2 wk+2 +
+ xn wn . Las coordenadas de w en V respecto a la
256
base B estan dadas por lo tanto por el vector columna 2 3 0 6 7 6 . 7 x = 6 .. 7 2 K n 1 4 5 x
Teniendo entonces encuenta que la matriz de P (t) en la base B tiene la forma: 2 3 P (Cmv ) D0 5 [P (t)]B = 4 0 P (C)
vemos que las coordenadas de P (t) (w) en la base B de V estan dadas por el vector columna:
2
y=4
D0:x P (C) :x
3
2
5=4
D0:x 0
3 5
y por lo tanto P (t) (w) 2 hvit . Concluimos entonces que el polinomio minimal de P (t) (w) ; Q debe ser divisor de mv =
t=S
y por lo tanto coprimo con P (recordemos
que hemos supuesto que P no divide a mv ). Sea w0 = Q (t) (w). En lo que sigue mostraremos que mw0 = P de donde resultara que P es inducido por el subespacio irreducible hw0it . Observemos primeramente que: P (t) (w0) = P (t) (Q (t) (w)) = Q (t) (P (t) (w)) = 0 Es su ciente probar entonces que w0 = 6 0. Dado que P y Q son polinomios coprimos, existen R y S en K [x] tales que: 1 = RP + SQ y por lo tanto: w = IdV (w) = R (t) (P (t) (w)) + S (t) (Q (t) (w)) Deducimos entonces que Q (t) (w) = w0 es distinto de cero, dado que si fuera w0 = 0, resultar a w = R (t) (P (t) (w)) 2 S (observemos que por ser S t-invariante, es R (t)invariante). Esto da una demostracion del siguiente teorema. 257
Teorema 11.20 Sea P es un divisor monico irreducible en K [x] de
t;
si y solo si
existe v 6= 0 en V tal que P = mv y hvit es un subespacio irreducible de V . Corolario 11.21 Sea S 6= 0 un subespacio t-invariante. S es irreducible, si y solo si los unicos subespacios t-invariantes de S son 0 y S. Demostracion: )) Por i) de la Proposicion 11.2. () Si P es un divisor irreducible de
t=S
(monico), existe v 6= 0 en S tal que
mv = P . Pero debe ser S = hvit y por lo tanto P = mv =
t=S .
Corolario 11.22 Sea P 2 K [x] tal que P (t) = 0. Entonces cada divisor irreducible de
t
en K [x], es tambien divisor de P .
Demostracion: Sea Q un divisor irreducible monico de
t.
Sea v 2 V tal que Q = mv .
como P (t) (v) = 0, entonces mv divide a P , o sea que Q divide a P .
11.2.
Polinomio Minimal
De manera analoga a lo hecho en 11.1 para introducir el polinomio minimal de un vector referido a t, consideramos ahora los endomor smos: IdV
t t2 : : : tn
de los que sabemos por 11.16 si i es tal que IdV
t t2 : : : ti
son linealmente independientes y IdV
t t2 : : : ti ti+1 258
son linealmente dependientes, es claro que no existe ningun polinomio P no nulo tal que P (t) = 0 y gr (P ) < i. Por otra parte, la eleccion hecha de i implica que existe un polinomio de grado i + 1 que anula a t. De nicion 11.23 Llamamos polinomio minimal de t al polinomio monico mt (x) de grado m nimo entre los polinomios P 2 K [x] tales que P (t) = 0. Proposicion 11.24 Sea P 2 K [x] tal que P (t) = 0. Entonces mt divide a P en K [x]. Demostracion: Analoga a la de la Proposicion 11.13. Teorema 11.25 Se tiene que: i) mt divide a ii) mt y
t
t
en K [x].
tienen los mismos divisores irreducibles en K [x]. En particular, mt y
t
tienen las mismas ra ces en K. Demostracion: i) Se deduce del Teorema 11.15 y la Proposicion 11.24. ii) Resulta de i) y del Corolario 11.22 Si v 2 V , es claro que mv divide a mt . Si tomamos una base fv1 ; : : : ; vn g de V y llamamos m al m nimo comun multiplo de los polinomios mv ; i = 1; : : : ; n, resulta m divisor de mt en K [x]. Por otra parte, dado que cada mv divide a m, el endomor smo m (t) se anula en todos los vectores v1 ; : : : ; vn o sea m (t) = 0. Dado que m es monico (por de nicion de m nimo comun multiplo), resulta m = mt . En consecuencia tenemos: Proposicion 11.26 Sea v1 ; : : : ; vn una base de V . Entonces mt es el m nimo comun multiplo de los polinomios mv1 ; : : : ; mvn . 259
Ejemplos 11.27 R denota el cuerpo de los numeros reales. Sea t el endomor smo de R4 cuya matriz en la base canonica e1 ; e2 ; e3 ; e4 2 3 0 2 6 6 6 2 3 2 A=6 6 6 2 0 1 4 2 2 2 se tiene:
2
e1
1 6 6 6 0 6 6 6 0 4 0
t (e ) 3 2 1 3 3 7 6 7 7 6 7 7 6 2 7 7 6 7 7 6 7 7 6 2 7 5 4 5 2
t2 (e1 ) 2 3 5 6 7 6 7 6 4 7 6 7 6 7 6 4 7 4 5 4
es: 0
3
7 7 2 7 7 7 0 7 5 1
t3 (e1 ) 2 3 7 6 7 6 7 6 6 7 6 7 6 7 6 6 7 4 5 6
t4 (e1 ) 2 3 9 6 7 6 7 6 8 7 6 7 6 7 6 8 7 4 5 8
Si operamos con las las de la matriz as constru da, obtenemos en las tres primeras columnas:
2
1 0 6 6 6 0 1 6 6 6 0 0 4 0 0
1
3
7 7 2 7 7 7 0 7 5 0
lo que nos indica que e1 ; t (e1 ) y t2 (e1 ) son linealmente dependientes, mas precisamente, t2 (e1 ) = ( 1) e1 +2t (e1 ) resultando ademas claro que e1 y t (e1 ) son independientes. Por lo tanto me1 = x2
2x + 1 = (x
1)2 . Calculando de la misma manera
1)2 . Por lo tanto es mt = (x
me2 ; me3 ; me4 obtenemos nuevamente (x mt (t) = 0 debe ser mt (A) = 0, es decir: 2 2 6 6 6 2 mt (A) = 6 6 6 2 4 2
0
2
2
2
0
2
2
2
260
0
32
7 7 2 7 7 = 0: 7 0 7 5 2
1)2 . Como
Como
t
y mt tienen las mismas ra ces,
t
debe ser (x
1)4 . Es claro que t no
puede ser diagonal pues t 6= IdV , pero sin embargo podemos hallar una base en que la matriz de t sea triangular superior. Sabemos que (t y por lo tanto (t
1) (e1 ) 6= 0
1) (e1 ) = (2; 2; 2; 2) es un vector propio con valor propio 1.
Ademas t (e1 ) = (t vectores (t
1)2 (e1 ) = 0 y (t
1) (e1 ) + e1 y por lo tanto si iniciamos una base de R4 con los
1) (e1 ) ; e1 la matriz de t sera triangular superior en sus dos primeras
columnas. Completemos el conjunto de estos dos vectores a una base de R4 , por ejemplo: (t
1) (e1 ) ; e1 ; e2 ; e3 . En esta base la matriz de t es: 2 3 1 1 1 1 6 7 6 7 6 0 1 2 0 7 7 A0 = 6 6 7 6 0 0 1 0 7 4 5 0 0 2 1
Observemos que mt es el polinomio minimal de todas las matrices que representan a t en distintas bases, en el siguiente sentido: De nicion 11.28 Sea A 2 K n
n
. Llamamos polinomio minimal de A al polinomio
monico mA de grado m nimo entre los polinomios P 2 K [x] tales que P (A) = 0. Proposicion 11.29 Sea t un endomor smo y A la matriz de t referida a una base de V . Se tiene entonces: mt = mA Demostracion: Sea B una base de V y sea A = [t]B . Se tiene entonces: 0 = mA (A) = mA ([t]B ) = [mA (t)]B es decir que mA (t) = 0
0 = [mt (t)]B = mt ([t]B ) = mt (A)
. 261
Observacion 11.30 En las demostraciones de los Teoremas 10.9 y 11.20 hemos utilizado un subespacio t
invariante S distinto de cero y de V , que nos permitio es-
cribir la matriz de t en la forma: 2
D=4
A B 0 C
3
5:
Dado que C opera sobre las coordenadas respecto a los vectores de la base elegida que no estan en S, mC (t) opera trivialmente sobre estas, lo que es evidente matricialmente, dado que: 2
mC (D) = 4
mC (A)
B0
0
mC (C)
3
2
5=4
mC (A) B0 0
0
3 5
es la matriz de mC (t) en la base mencionada. Es claro por lo tanto que mC (t) aplica V en S. Este tipo de argumento, ligeramente modi cado, nos permitira agrupar en un subespacio t-invariante todos los vectores cuyos minimales sean potencias de un mismo polinomio irreducible divisor de mt (o
11.3.
t ).
Descomposicion Primaria
Lema 11.31 Sea P un divisor monico irreducible en K [x] de exponente tal que P m divide a
t
t.
Sea m el mayor
y k el mayor exponente tal que P k divide a mt .
Existe entonces un unico subespacio SP que es t-invariante tal que
t=SP
= Pm y
mt=SP = P k SP coincide con la totalidad de vectores v 2 V tal que mv divide a P k . Demostracion: Sea SP = N u P k (t) . Dado que t y P k (t) conmutan, SP es tinvariante. Notemos
tP
y mtP el caracter stico y el minimal de t=SP respectiva-
mente. Sea j = dim (SP ) y B = fv1 ; : : : ; vj ; vj+1 ; : : : ; vn g una base de V tal que 262
v1 ; : : : ; vj es una base de SP . Respecto de esta base, la matriz de t tendra la forma: 3 2 A D 5 [t]B = 4 0 C y por lo tanto:
t
=
A C
y
tP
=
A.
Si P divide a
C,
razonando como en la
demostracion de 11.20 podremos construir un vector columna 2 3 x 6 j+1 7 6 .. 7 x=6 . 7 4 5 xn
en K n
j
tal que x 6= 0 y P (C) x = 0. Pero entonces: w = xj+1 vj+1 +
+ xn vn
satisfara P (t) (w) 2 SP y por lo tanto P k+1 (t) (w) = 0. Dado que w 2 = SP , P k (t) (w) 6= 0 y por lo tanto debe ser mw = P k+1 (t), lo que es contradictorio dada la de nicion de k. En consecuencia P no divide a A
=
tP .
C,
luego P m divide a
Teniendo en cuenta la de nicion de SP y el Teorema 11.20, el unico
divisor irreducible de
tP
es P , y en consecuencia
tP
= P m.
Consideremos por otra parte una base cualquiera fw1 ; : : : ; wn g de V . Sea para cada i; ki el mayor exponente tal que P ki divide a mwi . Dado que mt es el m nimo comun multiplo de los polinomios mwi ; existe j tal que kj = k. Sea mwj = P k Q y de namos w = Q (t) (wj ). Probaremos a continuacion que mw = P k . Es claro por un lado que P k (t) (w) = P k (t) (Q (t) (wj )) = 0 y por lo tanto mw es un divisor de P k . Pero si P S (t) (w) = 0, entonces P S (t) (Q (t) (wj )) = P S Q (t) (wj ) = 0 263
y as P S Q es divisible por P k Q luego s
k. Tenemos por lo tanto w 2 SP tal que
mw = P k . Por lo tanto P k divide a mtP . Como es claro por otra parte que mtP divide a P k (dado que P k (t=SP ) = 0 por de nicion de SP ), resulta mtP = P k como quer amos probar. Lema 11.32 Sea P 2 K [x]. P (t) es inversible, si y solo si P y
t
son coprimos,
si y solo si P y mt son coprimos. Demostracion: )) Sea P 2 K [x] tal que P (t) es inversible. Si existiera un polinomio Q irreducible en K [x] divisor de P y de
t,
por el Teorema 11.20 existir a v 6= 0 2 V tal que
Q (t) (v) = 0, al ser Q divisor de P , debe ser P (t) (v) = 0, lo que es contradictorio con la suposicion de que P (t) es inversible. () Sea P 2 K [x] coprimo con
t.
Existen entonces R y Q en K [x] tales que:
1 = PR + Q
t
y por lo tanto IdV = P (t) R (t) + Q (t) pues
t
t
(t) = P (t) R (t)
(t) = 0 por 11.15.
Por lo tanto P (t) es inversible y se tiene (P (t))
1
= R (t).
La segunda equivalencia resulta de ii) del Teorema 11.25. Consideremos ahora P1 ; : : : ; PS el conjunto de los polinomios irreducibles en K [x] que dividen a
t.
Tendremos entonces, para exponentes mi y ki adecuados: = P1m1
PSmS
mt = P1k1
PSmS :
t
Teorema 11.33 de Descomposicion Primaria. Si Si = N u Piki (t) , entonces V = S1 264
SS .
Demostracion: Sean vi 2 Si tales que: 0 = v1 +
+ vS :
Aplicando en ambos miembros de la igualdad el endomor smo: PSkS (t)
Q1 (t) = P2k2 (t) P3k3 (t) obtenemos: 0 = Q1 (t) (v1 ) : Por el Lema 11.31
t=S1
= P1m1 y por lo tanto Q1 es coprimo con
t=S1 .
Luego por
el Lema 11.32 Q1 (t=S1 ) es inversible y por lo tanto obtenemos v1 = 0. De manera analoga podemos mostrar que v2 =
= vS = 0. Por lo tanto la suma de los
subespacios Si es directa. Por el Lema 11.31, se tiene dim (Si ) = gr
= mi gr (Pi ) y por lo tanto la
t=Si
dimension de la suma de los Si sera: m1 gr (P1 ) +
+ mS gr (PS ) = gr ( t ) = dim (V )
. Corolario 11.34 Sea P un divisor irreducible monico de mt y k el mayor exponente tal que P k divide a mt . Entonces para cada i
k existe v 2 V tal que mv = P i .
Demostracion: De la demostracion del Lema 11.31 resulta que existe v 2 V tal que mv = P k . De niendo entonces para i
k; vi = P k
i
(t) (v), es sencillo mostrar que
mvi = P i . Corolario 11.35 Sean P y k como en 11.34, entonces: N u (P (t))
N u P k (t)
N u P 2 (t)
y N u P i (t) = N u P k (t) 8i 265
k
Demostracion: Es clara la validez de las inclusiones del enunciado. Para mostrar que son estrictas, basta observar que si tomamos v tal que mv = P i ; 2 que v 2 N u (P i (t)) y v 2 = N u (P i
1
i
k, es claro
(t)).
En cuanto a la segunda observacion, supongamos que P i (t) (v) = 0. Entonces mv debe ser una potencia de P y dividir a mt , por lo que resulta P k (t) (v) = 0. Es claro que se tiene: Corolario 11.36 Con las notaciones de 11.33, se tiene: mi =
dim (Si ) : gr (Pi )
Ejemplos 11.37 Sea R el cuerpo de los numeros reales. i) Sea t el endomor smo de R6 cuya matriz en la base canonica fei : i = 1; : : : ; 6g es:
2
6 6 6 6 6 6 A=6 6 6 6 6 6 4
1
2
2
2
2
2
0
2
1
0
0
2
0
2
2
0
0
2
0
3
3
3
2
3
0
2
2
2
1
2
0
4
1
0
0
4
3 7 7 7 7 7 7 7 7 7 7 7 7 5
Notemos con mi a los polinomios minimales mei ; i = 1; : : : ; 6. Se tiene: m1 = (x
1)
m2 = x6 + x5
x4
x3 = x3 (x + 1)2 (x
1) :
Se tiene por lo tanto: t
(x) = mt (x) = m2 (x) = x3 (x + 1)2 (x
1) :
Si notamos S0 = N u (t3 ) ; S
1
= N u (t + 1)2 266
y S1 = N u (t
1)
sabemos por el Corolario 11.36 que: dim (S0 ) = 3; dim (S 1 ) = 2 y dim (S1 ) = 1: Es claro que S1 esta generado por e1 . Los vectores: v = (t + 1)2 (t
1) e2 y w = t3 (t
1) e4
tienen, como es facil mostrar, minimales: mv (x) = x3 y mw (x) = (x + 1)2 y por lo tanto los vectores: v = (0; 0; 2; 1; 0; 10) ; t (v) = (0; 4; 2; 0; 0; 2) y t2 (v) = (0; 6; 0; 0; 0; 6) forman una base de S0 y los vectores w = ( 2; 0; 0; 16; 14; 0) y t (w) = (0; 0; 0; 4; 4; 0) forman una base de S 1 . Si tomamos una base de R6 ; B = fv; t (v) ; t2 (v) ; w; t (w) ; e1 g, resulta: 3 2 0 0 0 0 0 0 7 6 7 6 6 1 0 0 0 0 0 7 7 6 7 6 6 0 1 0 0 0 0 7 6 7 [t]B = 6 7 6 0 0 0 0 1 0 7 6 7 6 7 6 0 0 0 1 2 0 7 5 4 0 0 0 0 0 1
como era de prever, al tomar una base de R6 formada como union ordenada de bases de las componentes primarias (o sea en este caso de los subespacios S0 ; S la matriz de t resulta diagonal en bloques, es decir, tiene la forma: 2 3 C 0 0 6 7 6 7 6 0 D 0 7 4 5 0 0 E 267
1
y S1 ),
donde C; D y E no son otra mas que las matrices de t=S0 ; t=S
1
y t=S1 respectiva-
mente, referidas a las bases consideradas en cada uno de estos subespacios. ii) Sea V un espacio vectorial sobre C (el cuerpo de los numeros complejos), t un endomor smo de orden nito, es decir, tal que tk = IdV para algun numero natural k. Sea P (x) = xk
1. Es claro que P (t) = 0. Sabemos que si e es una ra z k esima
primitiva de la unidad (por ejemplo e =cos(2 =k) + isen(2 =k)), P (x) se factoriza en la forma: P (x) = (x
1) (x
e) x
e2
x
ek
1
:
En particular todas las ra ces de P son simples, es decir que cada factor irreducible en C [x] de P , aparece en P con exponente 1. Como mt debe dividir a P , debe ser: mt (x) = (x
a1 )
(x
am )
con todos los ai diferentes. Por lo tanto las componentes primarias de V (es decir, los subespacios Si del Teorema 11.33) resultan: Si = N u (t
ai IdV )
i = 1; : : : ; m
y dado que V =
m
N u (t
i=1
ai IdV )
de esta identidad surge que es posible obtener una base de V formada por vectores propios de t, luego t es diagonalizable. De nicion 11.38 Llamaremos componentes primarias de V , respecto del endomorsmo t, a los subespacios Si considerados en el Teorema 11.33. Como lo sugiere el ejemplo 11.37 ii), y como consecuencia del Teorema de la Descomposicion Primaria 11.33 en la Proposicion11.39 s establece que, para que un endomor smo t sea diagonal es condicion necesaria y su ciente que mt tenga todas sus ra ces en K y que estas sean ra ces simples. 268
Proposicion 11.39 Sea t 2 Endk (V ), t es diagonalizable si y solo si el polinomio minimal de t tiene todas sus ra ces en K y estas son simples. Demostracion: )) Basta considerar una base en l que la matriz de t sea diagonal y fundados en 11.29 calcular el minimal de esta matriz. () Consecuencia del Teorema 11.33 y la Proposicion 5.22. La analog a entre vectores propios y subespacios irreducibles destacada en la Proposicion 11.2 y en el Teorema 11.20, sugiere pensar en un resultado analogo al de la Proposicion 11.39 pero en terminos de subespacios irreducibles. Es natural buscar una caracterizacion de los endomor smos tales que V puede descomponerse como una suma directa de subespacios irreducibles. Estos endomor smos se conocen como endomor smos semisimples y son generalizaciones de endomor smo diagonalizables. De nicion 11.40 Un endomor smo t de V se dice semisimple si V puede ser expresado como suma directa de subespacios irreducibles. Proposicion 11.41 Las siguientes propiedades son equivalentes: i) t es semisimple. ii) Para todo subespacio t-invariante S de V existe un subespacio t-invariante T de V tal que: V =S
T:
iii) V es suma de subespacios irreducibles. Demostracion: i) )ii) Sea V = S1
Sk con todos los subespacios Si irreducibles y sea
S un subespacio t-invariante de V . Si S = V , es claro que existe T = f0g en las condiciones de ii). En otro caso, sea j1 tal que Sj1 * S. Por iii) de la Proposicion 269
11.2, la suma S + Sj1 es directa. Sea S 1 = S + Sj1 . Si S 1 = V resulta ii) de niendo T = Sj1 y si S 1 6= V , existe j2 tal que la suma S 1 +Sj2 es directa. De nimos entonces S 2 = S 1 + Sj2 , etc. Elegimos de esta manera ndices j1 ; : : : ; jr tales que, la suma S + Sj1 + Sj2 +
+ Sjr
es directa y S
Sj1
Sjr = V
(el proceso no es inde nido por claras razones de dimension). Basta por lo tanto de nir T = Sj1
Sjr .
ii) ) iii) Sea S1 un subespacio invariante no nulo de dimension m nima. S1 es irreducible por el Corolario 11.21. Si S1 = V , vale iii). Si S1 6= V , existe un subespacio t-invariante no nulo de dimension m nima de S1 , luego como S1
S2 es
t-invariante existe un subespacio t-invariante T2 tal que: V = S1
S2
T2
Nuevamente un argumento de dimension nos permitira concluir la demostracion. iii) )i) Sea V = S1 +
+ Sk con Si irreducibles. Si los Si son todos iguales, V
es irreducible. Si S1 y S2 son dos sumandos distintos, entonces S1 + S2 = S1 Si S1
S2 no es V , existe un sumando S3 2 = S1 (S1
S2 )
S 3 = S1
S2 .
S2 , luego: S2
S3
y as siguiendo. Teorema 11.42 Sea t 2 Endk (V ), t es semisimple, si y solo si mt = P1 Pi polinomios irreducibles distintos en K [x], i = 1; : : : ; k. Demostracion:
270
Pk con
)) Sea P un divisor irreducible monico de mt y h el mayor exponente tal que P h divide a mt . Por el Corolario 11.34 existe v 2 V tal que mv = P h . Sea w = P (t) (v). Es claro que v 2 = hwit . Sea T un subespacio t-invariante de V tal que por 11.41 tenemos: hwt i Notemos que dim (hwit ) = gr (P ) (h
T = V: 1) < gr (P ) h = dim (hvit ) y por lo tanto el
subespacio invariante T 0 = T \ hvit es no nulo y satisface: T 0 \ hwit = f0g : Sea w0 un vector no nulo en T 0. Por estar w0 en hvit , existe un polinomio Q 2 K [x] tal que w0 = Q (t) (v), por no estar w0 en hwit , P no debe dividir a Q y por lo tanto P y Q deben ser coprimos. Como P (t) (w0) = Q (t) (P (t) (v)) esta en T 0 y en hwit ; debe ser: Q (t) (P (t) (v)) = Q (t) (w) = 0: Pero por ser Q coprimo con P; Q (t) es inversible en hvit (11.32) y por lo tanto P (t) (v) = 0, o sea h = 1. Una demostracion mas breve de esta implicacion puede ser como sigue: Sea V = S1
Sm con Si irreducibles, i = 1; : : : ; m. Tomando una base de
V formada como union de bases de los Si y usando que mt es el m nimo comun multiplo de los minimales de los vectores de una base (11.26), vemos que ningun factor irreducible P puede aparecer con exponente mayor que uno. () El Teorema 11.33 nos permite descomponer a V como: V = N u (P1 (t))
N u (Pk (t)) :
Bastara entonces descomponer cada subespacio N u (Pi (t)) como suma de subespacios irreducibles. Podemos por lo tanto reducirnos a estudiar el caso en que mt = P , 271
con P irreducible. Sea fv1 ; : : : ; vn g una base de V . Para cada i, debe ser mvi = P y por lo tanto hvi it es un subespacio irreducible. Es claro ademas que: V = hv1 it +
+ hvn it
con lo que el resultado es consecuencia de la caracterizacion dada en iii) de la Proposicion 11.41 para los endomor smos semisimples. Proposicion 11.43 Un endomor mo t de V es semisimple, si y solo si existe una base B de V respecto a la cual la matriz de t tiene la forma: 2 3 C 0 : : 0 6 P1 7 6 7 6 0 CP2 0 7 6 7 6 7 [t]B = 6 : : :: 7 6 7 6 7 6 : : 0 7 4 5 0 0 0 CPk con P1 ; : : : ; Pk polinomios irreducibles en K [x].
Demostracion: )) Sea V = S1
Sk , con Si subespacios irreducibles. Si vi 2 Si es no nulo,
entonces Si = hvi it y el polinomio Pi = mvi es irreducible. Si en cada Si tomamos una base de la forma: Bi = fvi ; t (vi ) ; : : : ; tmi
1
(vi )g
mi = gr (Pi )
la matriz de t=Si respecto a esta base es CPi (11.10). Basta por lo tanto tomar la base B como union ordenada de las bases Bi para obtener lo requerido. () Despues de un par de observaciones esta implicacion se obtendra como consecuencia del Teorema 11.42. 272
Sea P un polinomio monico de grado positivo. entonces mCP = P . Si pensamos a CP operando naturalmente en K n , el vector v = (1; 0; : : : ; 0) satisface mv = P . Si una matriz A tiene la forma: 2
A=4
C
0
0 D
3 5
entonces mA es el m nimo comun multiplo de mC y mD , dado que para todo polinomio Q se tiene:
2
Q (A) = 4
Q (C)
0
0
Q (D)
3
5:
Hechas estas dos observaciones, resulta claro que si existe una base en la que la matriz de t tiene la forma diagonal por bloques del enunciado, entonces mt = P1
Pk y
por lo tanto t es semisimple. Ejemplos 11.44 Sea t el endomor smo de R6 cuya matriz respecto a la base canonica B = fe1 ; : : : ; e6 g es:
Se tiene t2 =
2
6 6 6 6 6 6 [t]B = 6 6 6 6 6 6 4
1
0
1
1
1
0
0
1
1
1
1
1
2
0
1
0
2
0
2
0
0
0
1
0
2
0
2
1
2
0
2
2
2
2
2
1
3 7 7 7 7 7 7 7 7 7 7 7 7 5
1 o sea mt (x) = x2 + 1. Es facil comprobar que los vectores
e1 ; t (e1 ) ; e2 ; t (e2 ) ; e3 ; t (e3 ) forman una base de R6 , los subespacios he1 it ; he2 it y he3 it son irreducibles y:
R6 = he1 it
he2 it
273
he3 it :
En la base mencionada, la matriz de t es: 2 0 1 6 6 6 1 0 6 6 6 0 1 6 6 6 1 0 6 6 6 0 4 1
3
7 7 7 7 7 7 7: 7 7 7 7 1 7 5 0
Este mismo endomor smo operando naturalmente en el espacio vectorial complejo C6 es diagonalizable, dado que el polinomio minimal es tambien en este caso x2 +1 = (x + i) (x
i) pues depende solo de la matriz (ya sea en R6 o en C6 ).
Para convencerse bastara calcular el minimal de la matriz: 2 3 0 1 5 A=4 1 0
pensada como endomor smo de C2 . Como A2 = es claro que I y A son independientes en C2
2
I, debe ser gr (mA )
2. Pero
y por lo tanto mA = x2 + 1. (Se
puede mostrar que los endomor smos semisimples en K n son diagonales si se los e n , siendo K e la clausura algebraica de K). considera operando en K
11.4.
Ejercicios
1. Sea t : R6 ! R6 la transformacion lineal cuya matriz en la base canonica es: 2 3 3 1 0 0 1 0 6 7 6 7 6 9 2 1 1 2 1 7 6 7 6 7 6 2 1 1 0 1 0 7 6 7 jtjC = 6 7 6 2 1 0 1 1 0 7 6 7 6 7 6 2 1 0 0 1 1 7 4 5 3 1 0 0 1 0 274
Hallar la descomposicion de R6 en componentes primarias de t. 2. Sea t : Cn ! Cn una transformacion lineal tal que tm = idV . Probar que t es diagonalizable. 3. Sean u y t en Enk (V ), tales que ut = tu. Si el polinomio caracter stico de u es un polinomio irreducible, probar que el polinomio caracter stico de t es potencia de un polinomio irreducible. 4. Sea t : V ! V un endomor smo. Si V = hvit para algun v 2 V , demostrar que todo endomor smo que conmute con u puede ser expresado como un polinomio en t. 5. Sea t : Q4 ! Q4 la transformacion lineal 2 0 0 6 6 6 1 0 A=6 6 6 0 1 4 0 0
cuya matriz en la base canonica es: 3 0 2 7 7 0 0 7 7 7 0 0 7 5 1 0
Demostrar que fu 2 End (V ) : ut = tug es un cuerpo, con la suma y la composicion de endormor smos.
6. Encontrar todos los numeros primos p tales que Ap = I para alguna matriz A 2 Z20
20
.
7. Sea A 2 Q3
3
tal que Am = I para algun numero natural m. Probar que
m = 1; 2; 3; 4; 6. >Conoce el polinomio ciclotomico?
275
12.
Cap tulo 12: Forma Canonica de Smith
Como en los cap tulos anteriores, K es un cuerpo, V un espacio vectorial de dimension nita n sobre K y t un endomor smo de V . Conservamos las notaciones del Cap tulo 11; mt y
t
para indicar el polinomio minimal y polinomio caracter tico
de t respectivamente, y para un vector en V con mv indicamos el polinomio minimal de v respecto de t y con hvit el subespacio c clico generado por v. Fijamos ademas e1 ; e2 ; : : : ; en para denotar la base canonica de K n .
12.1.
Teorema de la Descomposicion C clica
Hemos visto la descomposicion primaria (Teorema 11.33) del espacio V como suma directa de subespacios t-invariantes, sustentada sobre la base de la estructura algebraica del anillo de polinomios K [X]. Vamos ahora a dar una descomposicion de V esencialmente distinta. En ella podremos expresar a V como suma directa de subespacios c clicos, (Teorema 12.12). Este resultado arroja un criterio para semejanza de matrices (Corolario 12.15), al tiempo que permite re nar la descomposicion primaria de V , obteniedose as una descomposicion minimal de V , en el sentido que cada sumando interviniente es indescomponible (ver 12.19 y 13.1). Comenzaremos caracterizando los subespacios c clicos que admiten un subespacio complementario invariante por t. Esto conduce a obtener una matriz para t de la forma:
2 4
Cmv
0
0
A
3 5
donde Cmv es la matriz compa~ nera de mv y A es una matriz cuadrada. Proposicion 12.1 Sea S un subespacio t-invariante. Son equivalentes: 276
i) S admite un subespacio complementario t-invariante. ii) Existe una proyeccion
de V tal que S = Im ( ) y t = t.
Demostracion: Supongamos que R es un subespacio t-invariante tal que V = S Sea
R.
la proyeccion de V de nida como: (v) = s si v = s + r (s 2 S; r 2 R)
Es claro que
es una proyeccion y como S y R son t-invariantes, se tiene: (t (s) 2 S; t (r) 2 R)
t (v) = t (s) + t (r) de modo que:
t (v) = t (s) = t (v) En el sentido contrario, supongamos que existe una proyeccion
en las condiciones
de ii). Sea R = N u ( ). Como ocurre con cualquier proyeccion, Im ( ) \ N u ( ) = 0 y por el Teorema de la dimension se tiene: V = Im ( ) Por otra parte, dado que t y es decir que el nucleo de
Nu ( ) = S
Nu ( )
conmutan, se tiene t (v) = t (v) = 0 si
(v) = 0,
es t-invariante.
Proposicion 12.2 Sea s un endomor smo de V que conmuta con t. Entonces s (w) = w 8w 2 hvit ; si y solo si s (v) = v. Demostracion: Es consecuencia de poder expresar a w como combinacion lineal de los vectores ti (v), y tener en cuenta la linealidad de s y las identidades sti = ti s. Lema 12.3 (J. R. Busch)
277
Sea v 2 V con gr (mv ) = k+1. El subespacio hvit tiene complemento t-invariante, si y solo si existe una funcional lineal u 2 V tal que: 8 > > umv (t) = 0 > < uti (v) = 0 (0 i < k) > > > : utk (v) = 1
Demostracion: En virtud de la Proposicion 12.1, una condicion necesaria y su ciente para que hvit tenga un complemento t-invariante es que exista una proyeccion
tal
que Im ( ) = hvit y que t = t. Veremos bajo que condiciones existe una tal . Los vectores v; t (v) ; : : : ; tk (v) forman una base de hvit . Dado w 2 V , por las condiciones par (w) =
0v
donde naturalmente, los escalares alidad, como
+ i
1 t (v)
+
k kt
+
(v)
dependen de w, es decir
es transformacion lineal, los
i
debe ser:
i
=
i
(w). En re-
son funcionales lineales en V . En
efecto: ( w) =
8 2K
(w)
pero esto es: (w) v +
+
(w) tk (v) =
+
k
y por la independencia lineal de v; t (v) ; : : : ; tk (v), debe ser
i
0
k
forma similar obtenemos que
i
(u + w) =
0
i
( w) v +
(u) +
i
( w) tk (v) ( w) =
i
(w). En
(w).
Interpretemos ahora la condicion t = t. Esto es en el primer miembro: 0
(w) t (v) +
1
(w) t2 (v) +
+
k
(w) tk+1 (v)
mientras que en el segundo miembro: 0
(t (w)) v +
1
(t (w)) t (v) + 278
+
k
(t (w)) tk (v)
teniendo en cuenta que: mv (X) = X k+1 +
kX
k
+
+
0
igualando coe cientes, como la igualdad debe ser para todo w 2 V , se tiene: 8 < t= 0 0 k : t= i k i i 1 i k para 1 o bien:
Si i = k se tiene:
8 < :
0t
+
=0
0 k
i 1
=
it
+
k 1
=
kt
i k
+
k k
para 1
i
=
k I)
k
(t +
k
donde con I denotamos la identidad en V . Ahora, si i = k k 2
=
k 1t
=
k
=
k
+
(t +
1, se tiene:
k 1 k k I) t
t2 +
kt
+
+
k 1 k k 1I
Este proceso puede continuarse y mostrar que cada
i
es de la forma
k pi
(t) donde
pi 2 K [X]. Es claro que pk = 1 y de las relaciones: i 1
=
it
+
i k
se sigue que conocido pi , debe ser pi
1
=
k
(pi (t) t +
= pi X +
i.
i I)
Los polinomios p0 ; p1 ; : : : ; pk
estan dados entonces por la siguiente ley de recurrencia: 8 < p =pX+ i
Pero esto no es otra cosa que el llamado desarrollo de Horner del polinomio minimal mv . Ilustramos este hecho con un ejemplo. 279
Para evaluar el polinomio X 3 + aX 2 + bX + c lo escribimos como: ((1X + a) X + b) X + c llegamos al polinomio dado en sucesivos pasos dados como sigue: 1 ! (1X + a) ! ((1X + a) X + b) ! ((1X + a) X + b) X + c es decir, en cada caso pasamos al polinmio siguiente multiplicando por X el que ya obtuvimos y sumando un escalar. Volviendo a nuestro analisis, la condicion
0t
+
0 k
= 0 es
i
k
k mv
(t) = 0. Pode-
mos poner entonces: 8 <
k mv
:
i
=
(t) = 0 k pi
(t) para 0
Falta tener en cuenta la condicion (v) = v (ver Proposicion 12.2), esto implica: 8 < 0 (v) = 1 : (v) = 0 para 1 i k i Resulta:
0=
k
(v)
0=
k 1
(v) =
k
0=
k 2
(v) =
k
1=
0
(v) =
k
(t +
k I) (v)
t2 +
tk +
kt
k 1 kt
Es decir, las ecuaciones resultantes son: 8 > > m (t) = 0 > < k v i para 0 k t (v) = 0 > > > : tk (v) = 1 k
280
+
k 1I
+
i
(v)
(v)
k
1
(1)
Tomando u =
k,
las condiciones en (1) son las del enunciado del teorema, y conlcuye
la demostracion. Observacion 12.4 Con las notaciones del teorema precedente, notar que si existe en las condiciones pedidas, el complemento t-invariante de hvit es el nucleo de , pero esta dado por las ecuaciones: i
(w) = 0 para 0
pero por las relaciones entre los
i
con
k
i
k
= u, es posible ver que estas relaciones
equivalen a: uti (w) = 0 para 0
i
k
Corolario 12.5 Si v 2 V , es tal que mv = mt entonces hvit admite un complemento t-invariante. Demostracion: Como mv (t) = 0, las condidiones en (1) se reducen a: 8 < uti (v) = 0 para 0 i k 1 : utk (v) = 1
y en este caso, una funcional lineal u existe debido a la independencia lineal de v; t (v) ; : : : ; tk (v), (ver Teorema 12.3) Ejemplos 12.6 i) Sea t : R5 ! R5 la transformacion lineal cuya matriz en la base canonica es:
2
1 1 1 1 1
6 6 6 0 1 1 6 6 A=6 0 0 1 6 6 6 0 0 0 4 0 0 0 281
3
7 7 1 1 7 7 7 1 1 7 7 7 1 1 7 5 0 1
Consideremos v = e1 , se tiene mv (X) = X
1. Las condiciones para que hvit = hvi
tenga complemento invariante son que exista una funcional lineal u tal que: u (v) = 1 y u (t
idR5 ) = 0. Pero, en coordenadas, u = (u1 ; : : : ; u5 ) debe ser solucion del
sistema:
h
2
u 1 u2 u 3 u 4
0 1 1 6 6 6 0 0 1 i6 6 u5 6 0 0 0 6 6 6 0 0 0 4 0 0 0
1 1
3
7 7 1 1 7 7 7 1 1 7=0 7 7 0 1 7 5 0 0
o sea u es de la forma (0; 0; 0; 0; u5 ), luego u (v) = 0 y en consecuencia no hay complemento invariante. Si v = e3 resulta mv (X) = (X
h
u 1 u2 u 3 u4
y ademas :
h
1)3 , las 2 0 6 6 6 0 i6 6 u5 6 1 6 6 6 0 4 0 2
u 1 u2 u 3 u 4
ecuaciones para u son: 3 1 3 7 7 1 2 7 7 h i 7 = 0 0 1 1 1 7 7 7 0 0 7 5 0 0 0 0 0 1 3
6 6 6 0 0 0 i6 6 u5 6 0 0 0 6 6 6 0 0 0 4 0 0 0
3
7 7 0 1 7 7 7 0 0 7=0 7 7 0 0 7 5 0 0
Lo que es incompatible, y hay complemento invariante.
En realidad, ningun subespacio propio tendra complemento invariante en este caso. Notar que el polinomio minimal de t es (X
282
1)5 , una descomposicion no
trivial de R5 , permitir a asignar a t una matriz diagonal por bloques: 2 3 P 0 5 M =4 0 Q los polinomios minimales de P y Q son de la forma (X
1)k con k < 5, con lo
cual el de mayor grado anula a ambos bloques, pero entonces anula a M , lo que es contradictorio. ii) Sea t : R5 ! R5 la transformacion lineal 2 1 1 4 6 6 6 1 2 3 6 6 A=6 1 1 4 6 6 6 1 1 5 4 1 1 4
cuya matriz en la base canonica es: 3 1 2 7 7 1 2 7 7 7 1 2 7 7 7 2 2 7 5 0 3
Ahora si tomamos v = e2 se tiene mv (X) = X 2 2X +1. En este caso las ecuaciones son:
h
2
u1 u 2 u3 u 4
y:
h
0 1 7 6 7 6 6 1 2 7 7 h i i6 7 6 = 6 7 u5 0 1 0 1 6 7 6 7 6 0 1 7 5 4 0 1 2
u1 u 2 u3 u4
3
2 0 6 6 6 1 0 i6 6 u5 6 1 0 6 6 6 1 0 4 1 0
6 5 5 9 5
0 4
3
7 7 0 4 7 7 7 0 4 7=0 7 7 4 4 7 5 4 8
Una solucion, si no la unica, es u = ( 1; 0; 4; 1; 1). El complemento invariante
283
asociado con u es: 2 4
2
1 0 4
1
1 1 3
1
es decir el subespacio h4e1 + e2 + e3 ; e1
3
x 6 1 7 6 3 6 x2 7 7 7 1 6 7 56 6 x3 7 = 0 6 7 1 6 7 6 x4 7 4 5 x5
e4 ; e1
e5 i.
Nota 12.7 Dados polinomio p y q en K [X], usaremos (p; q) para indicar el maximo comun divisor entre p y q, y [p; q] para indicar el m nimo comun multiplo entre p y q. Es conocido que: pq = (p; q) [p; q] Proposicion 12.8 i) Sean S y T subespacios t-invarinates tales que S \ T = 0. Si v 2 S y w 2 T entonces: mv+w = [mv ; mw ] ii) Sea p 2 K [X], v 2 V y w = p (t) (v), entonces: mw =
mv (mv ; p)
iii) Sean v; w 2 V tales que (mv ; mw ) = 1, entonces mv+w = mv mw . iv) Dados u; v 2 V , existe w 2 V tal que mw = [mu ; mv ]. Demostracion: i) Sea h = [mv ; mw ], por ser h multiplo de mv y mw , se tiene h (t) v = 0 = h (t) w, luego: h (t) (v + w) = h (t) v + h (t) w = 0 Resulta entonces que mv+w es un divisor de h (Proposicion 11.13 ii)). Por otra parte: 0 = mv+w (t) (v + w) = mv+w (t) (v) + mv+w (t) (w) 284
Dado que S y T son t-invarinates, se tiene mv+w (t) (v) 2 S y mv+w (t) (w) 2 T . Debe ser mv+w (t) (v) = 0 y mv+w (t) (w) = 0, nuevamente y por Proposicion 11.13 ii), mv y mw son divisores de mv+w , luego h es divisor de mv+w , y como ambos son polinomios monicos, resulta h = mv+w . ii) Sean: mv (mv ;p)
f=
y g=
p (mv ;p)
Se tiene f p = gmv , de donde: h (t) (w) = h (t) p (t) (v) = g (t) mv (t) (v) = g (t) (0) = 0 Por otra parte: 0 = mw (t) (w) = mw (t) p (t) (v) = (mw p) (t) (v) con lo cual, mv divide a mw p, o bien, h divide a mw g, pero como h y g son coprimos, resulta que h divide a mw . Se tiene h = mw . iii) Si u 2 hvit \ hwit , por ii) mu divide a mv y a mw . Se sigue que mu = 1 y u = 0. Ahora iii) resulta de i). iv) Existen polinomios p y q en K [X] tales que: p divide a mu , q divide a mv , (p; q) = 1 y pq = [mu ; mv ]. Consideremos: w1 =
mu p
(t) (v) y w2 =
mv q
(t) (v)
Por i) es mw1 = p y mw2 = p. Sea w = w1 +w2 , de iii) resulta mw = pq = [mu ; mv ]. Lema 12.9 Existe v 2 V tal que mv = mt . Demostracion: Es consecuencia de la Proposicion 11.26 y de iv) de la Proposicion 12.8. Observacion 12.10 El Corolario 11.34 y iii) de la Proposicion 12.8 dan tambien una demostracion del Lema 12.9. 285
Lema 12.11 Sean A; B; C matrices cuadradas tales que las matrices (dadas por bloques)
2 4
A 0 0 B
son semejantes, entonces mB = mC .
3
2
5 y 4
A 0 0 C
3 5
Demostracion: Sean mB = p y mC = q. Por 11.19, las matrices: 3 31 2 02 q (A) 0 A 0 5 5A = 4 q @4 0 q (B) 0 B 02
q @4
A 0 0 C
31
y
2
5A = 4
q (A) 0 0
0
3 5
deben tener el mismo rango, lo que solo es posible si q (B) = 0. Por el mismo argumento es p (C) = 0, y por la Proposicion 11.13 ii), debe ser p = q. As hemos presentado los elementos necesarios para demostrar el Teorema de Descomposicion C clica que enunciamos a continuacion. Teorema 12.12 i) Existen vectores v1 ; : : : ; vk cuyos respectivos polinomios minimales m1 ; : : : ; mk satisfacen mi+1 divide a mi y ademas V = hv1 it
hvk it .
ii) Si w1 ; : : : ; wl respectivos polinomios minimales p1 ; : : : ; pl estan en las condiciones de i), entonces l = k y mi = pi 8i. Demostracion: i) Sera por induccion en la dimension de V . En virtud del Lema 12.9 podemos considerar v 2 V tal que mv = mt . Si V = hvit , no hay nada que probar. En caso contrario, conforme el Corolario 12.5, existe un complemento t-invariante S para
286
hvit . Dado que dim (S) < dim (V ), usando t restringida a S, por hipotesis inductiva se tiene: S = hv2 it
hvk it
donde los vectores v2 ; : : : ; vk 2 S y sus respectivos polinomios minimales m2 ; : : : ; mk satisfacen mi+1 divide a mi . Es claro que el polinomio minimal de t restringida a S es igual al m nimo comun multiplo de los polinomios m2 ; : : : ; mk , o sea m2 . Pero m2 es un divisor de mt = mv . Poniendo v = v1 y mv = m1 , se tiene: V = hv1 it
hvk it
y los polinomios minimales m1 ; : : : ; mk en las condiciones requeridas. ii) Para la unicidad, notemos primero que m1 = mt = p1 . Pongamos: S = hv2 it
hvk it y T = hw2 it
hwl it
Podemos elegir bases adecuadas de V , una de ellas formadas por bases de hv1 it y S, y la otra por bases de hw1 it y T , de modo que las matrices de t asociadas sean de la forma:
2 4
Cmt
0
0
A
3
2
5 y 4
Cmt
0
0
B
3 5
El polinomio minimal de t restringida a S es mA = m2 , mientras que el polinomio minimal de t restringida a T es mB = p2 . En virtud del Lema 12.11 debe ser mA = mB , o sea m2 = p2 . Este argumento puede ser repetido tomando bases de V , una formada por bases de hv1 it hw1 it
hv2 it y de S 0 , y otra formada por bases de
hw2 it y de T 0 donde: S 0 = hv3 it
hvk it y T 0 = hw3 it
de modo que las matrices de t sean 2 C 0 0 6 m1 6 6 0 Cm2 0 4 0 0 A0
3
2
Cp1
7 6 7 6 7 y 6 0 5 4 0 287
0 Cp2 0
hwl it
0
3
7 7 0 7 5 0 B
Reiterando el argumento se tiene m3 = p3 , continuando de esta manera sera mi = pi y es claro que ambas familias deben agotarse simultaneamente, es decir k = l. Corolario 12.13 Existen polinomios monicos m1 ; m2 : : : ; mk , un vocamente determinados, tales que mi+1 divide a mi y una base de V tal que la matriz asociada a t tiene la forma diagonal por bloques: 2 C 6 1 6 6 C2 6 6 ... 6 4
3
Ck
donde Ci es la matriz compa~ nera de mi .
7 7 7 7 7 7 5
Demostracion: Resulta de la demostracion del Teorema 12.12. De nicion 12.14 Se llaman factores invariantes de t a la familia de polinomios m1 ; : : : ; mk cuya exitencia y unicidad garantiza el Teorema 12.12. La matriz asociada a t en las condiciones del Corolario 12.13, se llama la Forma Racional de t. Corolario 12.15
Sean A; B 2 K n
n
operando naturalmente como mor smo de
K n . Son equivalentes: i) A y B son semejantes. ii) A y B tienen los mismos factores invariantes. iii) A y B tienen la misma Forma Racional. Demostracion: Es claro que ii) y iii) resultan equivalentes. Si A y B son semejantes, existe una matriz inversible U tal que B = U AU V BV
1
1
. Sea V inversible tal que
es la Forma Racional de B, pero esto es V U A (V U ) 1 , o sea i) implica iii).
Finalmente, cada matriz es semejante a su Forma Racional, es decir, iii) implica i). 288
Ejemplos 12.16 i) Supongamos que mt = p es un polinomio irreducible en K [X]. Entonces debe ser m1 =
= mk = p y la Forma Racional de t tiene la forma
diagonal por bloques:
2 6 6 6 6 6 6 4
3
Cp Cp ..
. Cp
7 7 7 7 7 7 5
donde Cp es la matriz compa~ nera de p. En particular, en este caso gr (p) es un divisor de dim (V ). ii) Sea t : R4 ! R4 cuya matriz respecto de la base canonica es: 3 2 1 2 3 4 7 6 7 6 6 2 1 4 3 7 7 A=6 7 6 6 3 4 1 2 7 5 4 4 3 2 1
Sea v = e1 , resulta mv = X 2
2X + 30. Encontramos que hvit tiene complemento
invariante dado por: S = h3e1 + 2e4 ; 3e3 + 4e4 i Sea w = 3e1 + 2e4 , resulta mw = X 2
2X + 30, es decir, R4 = hvit
base fv; t (v) ; w; t (w)g la matriz asociada 2 0 30 6 6 6 1 2 6 6 6 0 0 4 0 0
hwit y en la
a t es: 0 0 0 1
0
3
7 7 0 7 7 7 30 7 5 2
iii) Supongamos que hay una descomposicion c clica de V dada por: V = hv1 it
hv2 it 289
hv3 it
hv4 it
donde: m1 (X) = (X
1)2 X
m2 (X) = X
m3 (X) = (X
1) X 2
m4 (X) = X
1
Naturalmente que esta no es la descomposicion c clica de V . Sin embargo podemos considerar: w1 = t (v1 ) + (t
idV ) v3
w2 = (t
idv )2 v1 + t2 v3
w3 = v2 + v4
Se sigue de la proposicicion 12.8 que los polinomios minimales pi de wi estan dados por: p1 (X) = (X
1)2 X 2
p2 (X) = (X
1) X
p3 (X) = (X
hw2 it
hv1 it
1) X
Por otra parte: hw3 it = hv2 it
hv4 it y hw1 it
hv3 it
Si hw1 it \ hw2 it = 0, por razones de dimension tendremos: V = hw1 it
hw2 it
hw3 it
la descomposicion c clica de V . Supongamos dados dos polinomios f y g en K [X] tales que: f (t) (w1 ) = g (t) (w2 ) Se tiene: f (t) t
g (t) (t
1)2 (v1 ) = g (t) t2
f (t) (t
1) (v3 )
como los miembros de esta igualdad pertenecen a sumandos directos distintos, ambos deben ser iguales a cero. Se sigue de la Proposicion 11.13 ii) que: m1 (X) = (X
1)2 X divide a f (X) X
m3 (X) = (X
1) X 2 divide a g (X) X 2
Se deduce que p1 (X) = (X
g (X) (X f (X) (X
1)2 1)
1)2 X 2 es un divisor de f , luego f (t) (w1 ) = 0. 290
Observacion 12.17 A partir del Lema 12.3, es posible iniciar una descomposicion de V como suma de subespacios c clicos desde cualquier vector mientras se consiga un complemento t-invariante para el subespacio c clico correspondiente. Este proceso, continuado sobre el complemento reiteradas veces, dar a una descomposicion c clica de V que, en principio no tiene por que ser la del teorema 12.12. Sin embargo, tal como se hizo en iii) de los ejemplos precedentes, podr a usarse una descomposicion c clica dada para llevarla a otra en las condiciones del teorema 12.12. La siguiente proposicion garantiza que esto siempre es posible y su demostracion provee un mecanismo expl cito pasar de una descomposicion c clica cualquiera a la descomposicion c clica de la Forma Racional. Proposicion 12.18 Sea u; v 2 V tales que V = huit
hvit , entonces los factores
invariantes de t son [mu ; mv ] y (mu ; mv ). Demostracion: Se sigue de la proposicicion 12.8, que exiten polinomio p; q con p divisor de mu , q divisor de mv y (p; q) = 1 tales que: mw = [mu ; mv ] para w =
mu p
mv q
(t) (u) +
(t) (v)
Por otra parte: z=
mu mv (t) (u) + (t) (v) (mu ; mv ) (mu ; mv )
satisfase mz = (mu ; mv ), tambien por la proposicicion 12.8. Veamos que: V = hwit Indiquemos con r y s los polinomios
mu (mu ;mv )
hzit y
mv (mu ;mv )
respectivamente. Si f y g son
polinomios en K [X] tales que f (t) (w) = g (t) (z), resulta: f
mu p
gr (t) (u) =
291
gs
f
mv q
(t) (v)
como los miembros de esta igualdad pertenecen a sumados directos distintos, deben ser ambos iguales a cero. Se sigue de la Proposicion 11.13 ii) que mu divide a f mpu gr y mv divide a gs
f mqv . Se tiene que: f mpu mu
es decir pq divide a f (p
gr
+
gs
f mqv mv
=f
q
p pq
2 K [X]
q), pero como (p; q) = 1 resulta (pq; p
q) = 1 y mt =
[mu ; m] = pq es un divisor de f . Se concluye que hwit \ hzit y la proposicion resulta por un argumento en la dimension.
12.2.
Espacios Indescomponibles
Tanto el teorema de Descomposicion Primaria como el teorema de Descomposicion C clica, proveen metodos para obtener una descomposicion del espacio como suma directa de subespacios t-invariantes. Sin embargo, hay casos donde el espacio no admite una tal descomposicion, a menos que sea trivial. De nicion 12.19 V se dice indescomponible respecto de t si no existen subespacios propios S y T , ambos t-invariantes, tales que V = S
T.
Nota 12.20 Como suele ser usual, diremos que V es indescomponible en lugar de indescomponible respecto de t cuando no haya lugar a confusion. Proposicion 12.21 V es indescomponible, si y solo si existe un polinomio irreducible p 2 K [X] y un numero natural k tal que
t
= pk = mt .
Demostracion: Si V es indescomponible, la descomposicion primaria en el teorema 11.33 debe reducirse a un solo termino, con lo cual
t
es potencia de un polinomio
irreducible. Por otra parte, su descomposicion c clica en el teorema 12.12 tambien debe reducirse a un solo termino, de donde mt = 292
t.
Para la rec proca, una descomposicion propia de V permitir a asociar a t una matriz diagonal por bloques de la forma: 2 3 A 0 4 5 0 B
donde mA y mB son ambos potencias de p menores que k, luego mt = [mA ; mB ] ser a una potencia de p menor que k lo que es una contradiccion. Proposicion 12.22 Sea V indescomponible y v 2 V tal que mv = mt = pk con p irreducible en K [X]. Entonces, los subespacios t-invariantes de V son exactamente los subespacios c clicos dados por hpi (t) (v)it donde 0
i
k.
Demostracion: Por la Proposicion 12.21, se tiene V = hvit ya que: dim (hvit ) = gr (mv ) = gr (mt ) = gr ( t ) = dim (V ) La identidad V = hvit puede ponerse como: V = fq (t) (v) : q 2 K [X]g Sea S un subespacio t-invariante y q 2 K [X] tal que q (t) (v) 2 S. Factorizamos q como q = pj h con (p; h) = 1. Por el Lema 11.32, h (t) es inversible, siendo h (t)
1
un polinomio en t, se tiene: pj (t) (v) = h (t)
1
q (t) (v) 2 S
Consideremos i la menor potencia de p tal que pi (t) (v) 2 S y sea w = pi (t) (v). Ahora, si q (t) (v) 2 S, del analisis precedente, dado que pj (t) (v) 2 S, podemos escribir: q (t) (v) = pj h (t) (v) = pj i h (t) pi (t) (v) es decir S = hpi (t) (v)it . 293
A pesar de no poder descomponer el espacio V como suma directa de subespacios t-invariantes, en el caso indescomponible, es posible, sin embargo, encontrar una base en V respecto de la cual la matriz de t se aproxime a la forma diagonal por bloques. Proposicion 12.23 Sea V indescomponible y gr (p) = m + 1 y k
t
= pk+1 con p irreducible en K [X],
0. Si v 2 V satisface mv = mt , los vectores: vij = ti p (t)j (v)
0
i
m; 0
j
k
forman una base de V . Demostracion: Dado que dim (V ) = gr ( t ) = (k + 1) (m + 1), bastara probar que los vectores vij que generan V . De la demostracion de la Proposicion 12.22, surge que los subespacios c clicos Sj generados por p (t)j (v) satisfacen: 0 = Sk+1
Sk
S0 = V
Si w 2 Sj , entonces w = (qpj ) (t) (v). Escribiendo q = cp + r donde r = 0 o bien gr (r) < gr (p) se tiene: r (X) =
m X
iX
i
i=0
y luego:
w = cpj+1 (t) + rpj (t) (v) = cpj+1 (t) +
m X
i j it p
(t) (v)
h=0
es decir w 2 Sj+1 + hvij i, iterando este proceso, encontramos que w 2 hvij i. Observacion 12.24 Supongamos V idescomponible y consideremos el polinomio minimal de t dado por pk+1 donde: p (X) = X m+1 +
mX
294
m
+
+
0
Analizando la matriz de t referida a una base como la dada en la Proposicion 12.23, observamos que: tm+1 (v) = p (t) (v)
m mt
(
+
+
0 ) (v)
de donde: tm+1 pj (t) (v) = pj+1 (t) (v) lo que indica que la matriz de t tiene la 2 C 6 P 6 6 E Cp 6 6 6 E 6 6 6 4
(
m mt
+
+
0) p
j
(t) (v)
siguiente forma triangular por bloques: 3 ... ..
.
..
.
E
Cp
7 7 7 7 7 7 7 7 7 5
donde Cp es la matriz compa~ nera de p y E = [eij ] es la matriz de orden k + 1 dada por e1;k+1 = 1 y eij = 0 en otro caso.
Ejemplos 12.25 Sea t : R4 ! R4 la transformacion lineal que tiene por matriz respecto a la base canonica a: 2
6 6 6 A=6 6 6 4 Se tiene
2 1
1
3 1
3
0 0
2
0 0
3
2
t
1
3
7 7 2 7 7 7 1 7 5 1
(X) = (X 2 + X + 1) y puede veri carse que V = he4 it . En la base: e4 ; t (e4 ) ; p (t) (e4 ) ; tp (t) (e4 )
295
donde p (X) = X 2 + X + 1 la matriz de t 2 0 1 6 6 6 1 1 6 6 6 0 1 4 0 0
12.3.
es: 0 0 0 1
0
3
7 7 0 7 7 7 1 7 5 1
Calculo de los Factores Invariantes
A lo largo de esta seccion usaremos el termino matrices cuyos elementos son polinomios, principalmente matrices caracter ticas y sus adjuntas. De nicion 12.26 Llamaremos matriz polinomial a una matriz en K [X]n
m
. Una
matriz polinomial A se dira inversible si existe una matriz polinomial B tal que AB = I. Observacion 12.27 Naturalmente, toda la informacion sobre una transformacion lineal esta en cualquier matriz que se le asocie, en algunos casos la informacion resulta mas o menos evidente dependiendo de la matriz considerada, por ejemplo, decidir sobre la inversibilidad es mas directo sobre una matriz triangular que sobre una matriz sin ceros, lo mismo sobre su polinomio caracter stico o minimal. Los factores invariantes se leen directamente desde la Forma Racional como los polinomios asociados a las matrices compa~ neras que aparecen en los bloques diagonales. Supongamos que m1 ; : : : ; mk son los factores invariantes del endomor smo t de V y C1 ; : : : ; Ck las respectivas matrices compa~ neras. La matriz caracter stica de la Forma Racional de t es: 2 C 6 1 6 6 C2 F = XI 6 6 .. . 6 4
3
Ck
2
7 6 7 6 7 6 7=6 7 6 7 6 5 4
XI
296
3
C1 XI
C2 ..
. XI
Ck
7 7 7 7 7 7 5
aqu , en el segundo miembro, sobreentendemos que las matrices identidades que aparecen tiene el orden adecuado. Entre los menores de la matriz F estan los factores invariantes de t, como en principio, podr amos desconocer sus ubicaciones y ordenes, tomando todos los menores F nos aseguramos de tener los factores invariantes. Por ejemplo, el unico menor de orden n es el
t,
que en general no es un factor
invariante. En cambio el polinomio minimal de t es el factor invariante de mayor grado. Si Fe denota la matriz adjunta de F , recordemos la identidad: FeF =
tI
usada en el teorema 1.65 para demostrar el teorema de Hamilton-Cayley. Justamente en Fe estan, salvo un multiplo escalar, todos los menores de orden n 1 de F . Surgen
las identidades:
n X k+1
Feik Fki =
t
esto signi ca que el maximo comun divisor de los elementos en la la Feik es un
divisor de
t
y lo mismo se puede decir para la columna Fki , solo que esto ultimo
resulta menos interesante ya que por lo general ese maximo comun divisor es igual a 1. En particular tenemos que el maximo comun divisor g de todos los elementos Fe que dividen a
t
y podemos poner: FeF = gpI o bien
Fe F g
= pI
A partir de la ultima identidad, se puede copiar la demostracion del teorema de Halmilton-Cayley para obtener que p (t) = 0. Sobre esto y algo mas respecto de g trata la siguiente proposicion. Proposicion 12.28 Sean A 2 K n
n
, B = [bij ] 2 K [X]n
tales que: B (XI
A) = p (X) I 297
n
y p 2 K [X], p 6= 0
si para cada bij 6= 0 es gr (bij ) < gr (p), entonces p (A) = 0. Demostracion: Es igual a la del teorema 1.65 (Hamilton-Cayley) Proposicion 12.29 Los menores de orden k de una matriz diagonal por bloques que no sean productos de menores de los bloques diagonales son iguales a cero. Demostracion: Cada menor de orden k es el determinante de una matriz que se obtiene al suprimir n
k las y n
k columnas en la matriz dada. Si en cada bloque
diagonal se han suprimido la misma cantidad de las que de columnas, la matriz resultante sigue siendo diagonal por bloques cuyos determinantes son menores de los bloques originales. En cambio, si en algun bloque diagonal se han suprimido cantidades diferentes de las y columnas, podemos aparear las y columnas que pasen por un mismo bloque diagonal y suprimirlas de a pares, quedando una matriz diagonal por bloques en la que falta suprimir una misma cantidad l de las y columnas de modo que por cada bloque se suprimen solo las o solo columnas, esto motiva que mientras que el orden de la matriz baja en l unidades, su rango baja en 2l unidades, pues el rango es la suma de los rangos de los bloques y estas bajan en una unidad cada vez que se suprime una la o una columna. De modo que, en este caso el menor es igual a cero. Consideremos nuevamente F , Fe y g como antes. Dado que F es diagonal por
bloques, sus menores no nulos de orden k estan entre los productos de los menores de sus bloques, los cuales son matrices caracter sticas de matrices compa~ neras. Para una matriz compa~ nera Cf coinciden el polinomio minimal, el polinomio caracter stico y f , de la igualdad: ^Cf ) (XI (XI
Cf ) = f (X) I
^Cf ) debe ser igual resulta que el maximo comun divisor g de los elementos en (XI a 1, ya que por la Proposicion 12.28,
f g
(Cf ) = 0 pero f es el polinomio minimal de 298
Cf . Ahora, para determinar el maximo comun divisor de los elementos de Fe, de la Proposicion 12.29 se sigue que estos son nulos o tienen la forma: M1 m 2
m k m 1 M2
mk
m1 m2
Mk
^Ci ). De la condicion mi+1 j mi , es claro que donde Mi es un elemento de (XI m2
mk divide a todos los elementos de Fe. Por otra parte, como el maximo comun
^C1 ) es 1, resulta g = m2 divisor de (XI
mk y en consecuencia la ecuacion
Fe m1 m2 mk t F = I= I = mt I g g m2 mk Aqu corresponde destacar que: m1 m2 mk = m1 m2 mk indica que m1 es el cociente entre el maximo comun divisor de los menores de orden n de F y el maximo comun divisor de los menores de orden n
1 de F .
Observemos que el maximo comun divisor de los menores de orden k de una matriz polinomial divide al maximo comun divisor de los menores de orden k + 1, esto es por el desarrollo de un determinante por una de sus las. Si consideramos el maximo comun divisor de los menores de orden n
2 de F ,
estos son de la forma: M1 M2
m k M1 m 2 M3
N1 m 2
mk
m 1 N2
mk mk
donde los Mi y Ni son menores de orden n
m1
Mk 1 M k
m1 m2 1yn
Nk
2 respectivamente de XI
razonando como antes, el maximo comun divisor es en este caso: m3
mk
y queda medianamente claro que esperar para los casos restantes.
299
Ci .
El analisis precedente conduce a estudiar algunos aspectos de las matrices polinomiales, particularmente, el comportamiento de los divisores comunes entre sus menores. Nota 12.30 Sea A una matriz polionomial de orden n. Para 1 con 0
k
k
n indicaremos
(A) el maximo comun divisor de los menores de orden k de A. Convenimos
(A) = 1.
Proposicion 12.31 Una matriz polinomial A de orden n es inversible, si y solo si det (A) es un escalar no nulo. Demostracion: Si A es inversible, tomando determinante en la identidad AA
1
= I,
se tiene det (A) det (A 1 ) = 1, pero tanto det (A) como det (A 1 ) son polinomios no nulos, entonces deben ser ambos de grado cero para que el producto sea igual a 1. Rec procamente, si det (A) = k es un escalar no nulo, se tiene A matriz polinomial.
1
e es una = k1 A
Proposicion 12.32 Sean A y B matrices polinomiales de orden n. Se veri can: i) ii)
k
(t A) =
k
iii)
(A) divide a
k
iv) [
(A).
k
k
k+1
(A).
(A) = 1 8k sii A es inversible. (A) ;
versible,
k
k
(B)] divide a
(AB) =
k
(A) =
k
(AB), para 0
k
(BA).
k
n. En particular, si B es in-
Demostracion: i) Es inmediato de la de nicion. ii) Por el desarrollo de un determinante por una la o columna. iii) Es consecuencia de ii) y la Proposicion 12.31.
300
iv) Un menor de orden k de AB se obtiene como el determinante de un producto A0 B 0 donde A0 se forma suprimiendo n n
k las en A y B 0 se forma suprimiendo
k columnas en B. Por las propiedades del determinante es posible expresar: X det (A0 B 0 ) = det (A0 ) det (B 0 )
donde
=
1;
2; : : : ;
k
es una sucesion creciente en f1; 2; : : : ; ng, A0 es la matriz
obtenida al suprimir en A0 las columnas fuera de las posiciones
1;
2; : : : ;
la matriz obtenida al suprimir en B 0 las las fuera de las posiciones
1;
k
y B 0 es
2; : : : ;
k.
Proposicion 12.33 Sea t un endomor smo y F la matriz carcter stica de Forma Racional de t. Entonces, los factores invariantes de t son los polinomios distintos de 1 que aparecen en los cocientes: k k
(F ) 1 (F )
Demostracion: Si m1 ; : : : ; mk son los factores invariantes de t, del analisis realizado desde el comienzo de esta seccion, se tiene que: 8 < n i (F ) = mi+1 : : : mk si i < k : si k i n i (F ) = 1 de donde resulta la proposicion.
Teorema 12.34 Sea t un endomor smo V y A la matriz asociada a t respecto de una base de V . Entonces, los factores invariantes de t son los polinomios distintos de 1 que aparecen en los cocientes: k k
(XI A) A) 1 (XI
Demostracion: Sea R la Forma Racional de t. Existe una matriz inversible U tal que R = U AU k
1
(XI
, luego: R) =
k
XI
U AU
1
=
k
y el teorema sigue de la proposicion 301
U (XI
A) U
1
=
k
(XI
A)
12.4.
Forma Canonica de Smith
Observacion 12.35 Las matrices elementales de nidas en el Cap tulo 1 son matrices inversibles. Su efecto sobre las las de otra matriz al multiplicar a derecha es, a una la sumarle un multiplo polinomial de otra en un caso, y a una la multiplicarla por un escalar no nulo en otro caso. Lo mismo se puede decir en termino de columnas cuando se multiplica a izquierda. Sin embargo hay una diferencia con las matrices sobre un cuerpo, por ejemplo, no siempre es posible operar con las las de una matriz para llevarla a una matriz escalon reducida, basicamente porque no esta permitido dividir una la por un polinomio no constante. Por fortuna, como en el caso de los numeros enteros, en K [X] hay algoritmo de division, esto permite diagonalizar una matriz polinomial operando por las y columnas. El principio del proceso es reducir el grado de los polinomios no nulos que esten en una misma la o en una misma columna. Por ejemplo, si p y q son dos polinomios no nulos en una misma columna de una matriz polinomial A, si gr (p) < gr (q), por el algoritmo de division, podemos poner: q = pc + r con r = 0 o gr (r) < gr (p) Si a la la donde se encuentra q le sumamos la la que contiene a p multiplicada por
c, en la posicion de p quedara r. Usando este principio veremos que toda
matriz polinomial se puede llevar, por operaciones de las y columnas, a una matriz diagonal un vocamente determinada, llamada la forma canonica de Smith. Teorema 12.36 (Forma Canonica de Smith) Sea A una matriz polinomial. Existen matrices polinomiales inversibles U y V tales que U AV = [dij ] donde dij = 0 si i 6= j, dii divide a di+1i+1 , y dii no nulo es monico.
302
Demostracion: Notar que no se asume que A sea una matriz cuadrada. Para una matriz polinomial B = [bij ] 6= 0 notamos m (B) el grado m nimo de B de nido como m (B) = m n fgr (bij ) : bij 6= 0g Supongamos A = [aij ] 6= 0, de lo contrario no hay nada que probar. Sea aij tal que gr (aij ) = m (A), usando el algoritmo de division podemos escribir: 8 < a =c a +r kj k ij kj si k 6= i : a =d a +r ik k ij ik si k 6= j
Realizamos las operaciones de las y columnas sobre A dadas por: a la la k-esima, con k 6= i, le sumamos la la i-esima multiplicada con
ck , a la columna k-esima,
con k 6= j, le sumamos la columna k-esima multiplicada con
dk . Llamamos A1
a la matriz obtenida de esta manera, resulta A1 = U1 AV1 donde U1 y V1 son, respectivamente, el resultado de las operaciones elementales de
las y columnas
realizadas sobre A. Al quedar rik y rkj y aij en las respectivas posiciones de A1 , se tiene que m (A1 )
m (A), ya que ambas tienen a aij . Si m (A1 ) < m (A), reiniciamos
el proceso con A1 . Si se diera la igualdad m (A1 ) = m (A), entonces, tanto los rik como los rkj deben ser iguales a cero por la condicion para los restos dada en el algoritmo de division. El proceso se detendra cuando las operaciones indicadas, realizadas en todas sus posibilidades, no produzcan ninguna modi cacion sobre la matriz, en ese punto, la matriz debe tener a lo sumo un elemento no nulo sobre cada la y a lo sumo un elemento no nulo sobre cada columna. Permutando las y columnas, llevamos la matriz a la forma diagonal. Resta alcanzar la condicion sobre los elementos en la diagonal. Para ver eso, consideremos primero una matriz diagonal de orden 2: 2 3 p 0 4 5 0 q 303
Escribiendo el maximo comun divisor: d = (p; q) = rp + sq o bien 1 = r dp + s dq hacemos:
2 4
r s q d
p d
32 54
p 0 0 q
32 54
s dq
1 1 1
s dq
3
2
5=4
(p; q)
0
0
[p; q]
3 5
Este proceso aplicado en forma reiterada sobre las submatrices de orden 2 de la matriz diagonal, conduce a la forma requerida, teniendo en cuenta que (p; q) y [p; q] se toman monicos. En cuanto a la unicidad, de la Proposicion 12.32 iv) se tiene que los dii se obtienen como cocientes de dos
k
(A) consecutivos, por lo tanto quedan un vocamente
determinados. Corolario 12.37 Toda matriz polinomial inversible es producto de matrices elementales. Demostracion: Queda a cargo del lector. Ejemplos 12.38 Encontremos la forma canonica de Smith de la siguiente matriz caracter stica:
2
6 6 6 6 6 A=6 6 6 6 4
X
1
2
0
1
1 X +1
0
0
1
1 X
1
1
1
0 X
1
1
0
Realizamos las operaciones siguientes: f5 ! f5
304
0
0
3
7 7 0 7 7 7 1 7 7 7 0 7 5 X
Xf3 , c4 ! c4
c5 , c3 ! c3
Xc5 ,
c2 ! c2 + c5 , intercambiamos f1 con f3 , intercambiamos c1 con c4 , resulta: 2 3 1 0 0 0 0 6 7 6 7 6 0 X +1 0 0 1 7 6 7 6 7 6 0 2 0 1 X 1 7 6 7 6 7 6 0 1 0 X 1 7 4 5 2 0 x 1 X X X 1
Ahora hacemos: c2 ! c2 f5
(X
(X + 1) c4 , f3 ! f3
1) f2 , permutamos 2 1 6 6 6 0 6 6 6 0 6 6 6 0 4 0
Ahora, c5 ! c5 + c4
f2 , f5 !
c2 y c5 , se tiene: 0
0
0
1
0
0
0
0
1
0
0
X
0
X2
X
0
3
7 7 0 7 7 7 2 X 1 7 7 7 X 7 5 2 X X
c3 , f5 ! f5 + f4 , c5 ! c5 + X 2 c4 , f4 ! f4
permutamos c3 y c4 , permutamos f4 y 2 1 0 6 6 6 0 1 6 6 6 0 0 6 6 6 0 0 4 0 0
12.5.
1) f2 , f4 ! f4
(X
Xf3 , c3 !
c3 ,
f5 , resulta: 0
0
0
0
1
0
0 X2 0
0
0
3
7 7 0 7 7 7 0 7 7 7 0 7 5 3 X
Aplicacion al estudio de los grupos abelianos
nita-
mente generados Dado que en matrices polinomiales solo se usa el algoritmo de division para tener la forma canonica de Smith, el teorema 3.4.1 es valido para matrices con coe cientes enteros, es decir en Zn
m
. En este caso hay que observar que los unicos elementos 305
inversibles en Z son
1, en consecuencia solo son inversibles aquellas matrices cuyo
determinante sea 1 o
1. En cuanto a las operaciones elementales de las o columnas,
una la o columna se puede multiplicar por 1 o
1.
Veremos una aplicacion de la Forma Canonica de Smith relacionada con la clasicacion de grupos abelianos nitamente generados. Comencemos jando algunos conceptos previos y notaciones a utilizar. Sea G un grupo abeliano.Usaremos la notacion aditiva para G. Si k 2 Z y g 2 G, notaremos con k g el elemento de G obtenido como: 8 > > 0 si k = 0 > < kg = g+ + g (k factores) si k > 0 > > > : g+ + ( g) ( k factores) si k < 0
Aqu 0 tambien denota el elemento neutro de G.
De nicion 12.39 Un grupo abeliano G es nitamente generado si existen elementos g1 ; : : : ; gm en G tales que: G = fk1 g1 +
+ km gm : (k1 ; : : : ; km ) 2 Zm g
En tal caso, diremos que g1 ; : : : ; gm generan el grupo G. Si G es un grupo abeliano
nitamente generado, entonces existen elementos
g1 ; : : : ; gm tales que la aplicacon dada por: ' : Zm ! G (k1 ; : : : ; km ) ! k1 g1 +
+ km gm
es sobreyectiva. Por otra parte no es dif cil ver que ' es un mor smo de grupos, siendo ademas: G'
Zm N u (') 306
Este isomor smo es la base para caracterizar a los grupos abelianos
nitamente
generados, que consiste fundamentalmente, en lograr una buena descripcion de los subgrupos de Zm . Esto es lo que haremos a continuacion. Z m un subgrupo. H es nitamente generado, pudien-
Proposicion 12.40 Sea H
do generarse con a lo sumo m elementos. Demostracion: Supongamos H 6= 0. Demostraremos la proposicion por induccion en m. Si m = 1, sea d el menor numero natural que contiene H. Dado h 2 H, podemos poner: h = qd + r con 0 Como r = h
r
qd 2 H, debe ser r = 0, de donde H es el grupo c clico generado por
d, o sea: H = Zd = fk d : k 2 Zg Sea m > 1. Consideramos: d = m n fjkm j : (k1 ; : : : ; km ) 2 Hg Sea H0 = f(k1 ; : : : ; km ) 2 H : km = 0g, es claro que H se identi ca con un subgrupo de: Zm
1
= f(k1 ; : : : ; km 1 ; 0) : ki 2 Zg
por la hipotesis inductiva, H0 puede suponerse generado por elementos h1 ; : : : ; hn con n
m 1. Sea h un elemento en H tal que km = d._ Dado h0 = (k1 ; : : : ; km ) 2 H,
poniendo: km = qd + r como antes, del hecho que h0
qh 2 H, resulta r = 0. Luego h0 2 H0 + Z h, de
modo que H puede ser generado por los elementos h1 ; : : : ; hn ; h, es decir a lo sumo m elementos. 307
Observacion 12.41 Supongamos que g1 ; : : : ; gm generen el grupo G. Si V 2 Zm
m
es una matriz inversible, entonces los elementos f1 ; : : : ; fm de G dados por la identidad:
2
3
f 6 1 7 6 .. 7 6 . 7=V 4 5 fm
2
3
g 6 1 7 6 .. 7 6 . 7 4 5 gm
_ En efecto, dado g 2 G existen enteros k1 ; : : : ; km tales tambien generan el grupo G. que: [g] =
luego, poniendo:
se tiene:
h
h
h1
k1
hm
[g] =
h
km
i
=
h
2
g i6 1 7 6 .. 7 6 . 7 4 5 gm
k1
h1
hm
3
km 2
i
V
1
3
f i6 1 7 6 .. 7 6 . 7 4 5 fm
Supongamos que el mor smo ' de nido como antes, a partir de los generadores g1 ; : : : ; gm tiene por generadores de su nucleo a los vectores v1 ; : : : ; vn en Zm , (n Si de nieramos del mismo modo un mor smo dados anteriormente, entonces tores v1 V
1
; : : : ; vm V
1
m).
a partir de los generadores f1 ; : : : ; fm
tendra como generadores de su nucleo a los vec-
. Por otra parte, si U 2 Zn
vectores w1 ; : : : ; wn dados por: 2
3
2
w 6 1 7 6 6 .. 7 6 6 . 7=U6 4 5 4 wn
308
3
v1 7 .. 7 . 7 5 vn
n
es una matriz inversible, los
son tambien un sistema de generadores del N u ('), y en tal caso, como generadores del N u ( ) tendr amos: 2
6 6 U6 4
v1 V .. .
1
vn V
1
3
2
3
v 7 6 1 7 7 6 .. 7 7 = U 6 . 7V 5 4 5 vn
1
En conclusion, haciendo uso de la Forma Normal de Smith, podemos encontrar generadores f1 ; : : : ; fm y un mor smo
cuyo nucleo tenga por generadores a d1 e1 ; : : : ; dn en
donde di 2 Z, fei : i = 1; : : : ; ng es la base canonica y cada elemento di divide a di+1 . Con el objeto de dar consistencia a las notaciones posteriores, tomaremos d1 e1 ; : : : ; dm em como generadores del N u ( ) poniendo di = 0 si i > n. De lo anteriormente expuesto, obtendremos el siguiente teorema de caracterizacion de grupos abelianos nitamente generados. Teorema 12.42 Si G es un grupo abeliano nitamente generado, entonces existen enteros no negativos d1 ; : : : ; dn , distintos de 1, tales que: G ' Zd1
Zdn
Estos numeros son unicos si se cumple que di divide a di+1 . Demostracion: Usando el isomor smo: G'
Zm N u (')
para un mor mo cuyo nucleo, segun observamos, este generado por vectores de la forma d1 e1 ; : : : ; dm em donde di divide a di+1 , se puede establecer sin mayor di cultad el isomor smo: G ' Zd1
Zdm 309
Notar que si di = 1, entonces Zdi = 0 . Los terminos triviales pueden ser descartados de la expresion, y rede niendo los enteros d1 ; : : : ; dm como d1 ; : : : ; dn donde ninguno de estos es igual a 1, se tiene la primer parte del teorema. Un mor smo
de G = Zd1
Zdm en H = Zh1
Zhn puede ser realizado
como: (x1 ; : : : ; xm ) ! (y 1 ; : : : ; y n ) = (x1 ; : : : ; xm ) E donde E es una matriz con coe cientes enteros y la barra denota que cada componente del producto debe ser considerada modulo el correspondiente entero hi . Sean U y V matrices enteras inversibles tales que P = U E V es la Forma Canonica de Smith de E. Componiendo
con los automor smos
y :
(x1 ; : : : ; xm ) ! (x1 ; : : : ; xm ) U (y 1 ; : : : ; y n ) ! (y 1 ; : : : ; y n ) V de G y H respectivamente, se tiene un mor smo
1 1
=
de G en H, que puede
representarse como: (x1 ; : : : ; xm ) ! (y 1 ; : : : ; y n ) = (x1 ; : : : ; xm ) P A continuacion veremos que si
es inyectiva, entonces m
n y ki es un divisor de
hi para cada ndice i. En efecto, si
es inyectiva, tambien lo es . Sean p1 ; : : : ; pk los elementos en la
diagonal de P , donde k = m n fm; ng. Si m > n, se tiene: (x1 ; : : : ; xm ) = (x1 p1 ; : : : ; xn pn ) y los elementos en G de la forma (0; : : : ; xn+1 ; : : : ; xm ) estan en el nucleo de , luego no es inyectiva. Debe ser m
n. Consideremos ahora los elementos en G de la
forma (0; : : : ; xi ; : : : ; 0) que se aplican, v a
, en los elementos de H de la forma
0; : : : ; 1; : : : ; 0 , se tiene: xi pi
1 mod (hi ) 310
y considerando
0; : : : ; ki xi ; : : : ; 0 = ki x i p i
(0) = 0, debe ser: 0 mod (hi )
de donde hi es un divisor de ki . En conclusion, si
es un isomor smo, se tiene que m = n y ki = hi para cada
ndice i = 1; : : : ; m. Con esto queda demostrado el teorema.
12.6.
El Anillo Mn (K) [x]
Como ya se pudo apreciar, la teor a de polinomios en una variable ha desempe~ nado un papel primordial en los temas tratados. Nos apoyamos reiteradas veces en el algoritmo de division. Afortunadamente el algoritmo de division funciona en otros casos un poco mas generales, y como veremos luego, un importante criterio para semejanza de matrices puede ser obtenido. Las matrices polinomiales tambien pueden ser pensadas como polinomios matriciales, en el siguiente sentido: 2 3 2 3 2 x2 x x 1 0 1 0 0 4 5=4 5 x2 + 4 x 0 x+1 0 0 0
1 1 0 1 0 1
3
2
5x + 4
0
1 0
0
0 1
3 5
es decir, pueden ser expresadas como un polinomio en la indeterminada X con coe cientes matriciales. Vamos a interesarnos en el caso de las matrices cuadradas y notamos este anillo con Mn (K) [x]. Podemos poner: ( n X Ai x i : Ai 2 K n Mn (K) [x] = i=0
n
)
Es claro que este anillo no es conmutativo si n > 1. Sin embargo se puede realizar una suerte de algoritmo de division, por la izquierda, o por la derecha, como veremos a continuacion.
311
De nicion 12.43 Dados p y q en Mn (K) [x] diremos que p divide a izquierda a q (respectivamente a derecha) si existe h en Mn (K) [x] tal que q = ph (respectivamente q = hp). El grado de un polinomio no nulo se de ne del mismo modo que en K [x]. Proposicion 12.44 Dados p y q en Mn (K) [x], se veri can: i) Si p; q y p + q son distintos de cero, entonces gr (p + q)
max fgr (p) ; gr (q)g.
ii) Si gr (p) 6= gr (q), entonces vale la igualdad en i). iii) Si p; q y pq son distintos de cero,entonces gr (pq)
gr (p) + gr (q)
Demostracion: i) y ii) son claras. Para iii) notar que el producto de los coe cientes principales de p y q podr a ser igual a cero. Teorema 12.45 Sean p; q 2 Mn (K) [X] y supongamos que el coe ciente principal de p es inversible. Entonces, existen unicos polinomios c; r; c0 ; r0 tales que: q = cp + r
con
r = 0 o gr (r) < gr (p)
q = pc0 + r0 con r0 = 0 o gr (r0 ) < gr (p) Demostracion: Haremos un caso, el otro es similar. Si q = 0 o gr (q) < gr (p), entonces c = 0 y r = q. En otro caso, el argumento es hacer induccion en el grado de q. Si n = gr (p)
gr (q) = m y A y B los coe cientes principales de p y q
respectivamente, ponemos: h=q
BA 1 X m
n
p
es claro que h = 0 o gr (h) < gr (q). En cualquier caso, por un argumento inductivo, podemos asumir que existen f y r tales que: h = f p + r con r = 0 o gr (r) < gr (p) luego: q = f + BA 1 X m 312
n
p+r
es decir, c = f + BA 1 X m
n
.
Para ver la unicidad, supongamos: q = cp + r
q = ap + b
donde r y b estan en las condiciones requeridas. Poniendo: (c Si c
a) p = b
r
a 6= 0, dado que el coe ciente principal de p es inversible, se tiene: gr (c
a) + gr (p) = gr ((c
a) p) = gr (b
r) < gr (p)
lo que es imposible, luego c = a y en consecuencia b = r. Como es usual, vamos a referirnos a los polinomos c; r; c0 ; r0 como los cocientes y los restos, a derecha o izquierda segun sea el caso. Observacion 12.46 Un polinomio en Mn (K) [X] puede ser evaluado en una matriz en al menos dos formas. Consideremos: p (x) = An xn + y C 2 Kn
n
+ A1 x + A0
, usaremos pd (C) y pi (C) para indicar las evaluaciones: pd (C) = An C n +
+ A1 C + A0
pi (C) = C n An +
+ CA1 + A0
Corolario 12.47 (Teorema del Resto) Sean q 2 Mn (K) [x] y C 2 K n
n
. El resto de dividir q por XI
(respectivamente a izquierda) es qd (C) (respectivamente qi (C)).
313
C a derecha
Demostracion: Pongamos: q (X) = An xn +
+ A1 x + A 0
Se tiene: q (x)
qd (C) = An (xn
C n) +
+ A1 (xI
C)
Como x y C conmutan, podemos factorizar: xm I
C m = xm 1 I + xm 2 C +
+ Cm
1
(xI
C)
luego: q (x)
qd (C) = h (x) (xI
C)
o bien: q (x) = h (x) (xI
C) + qd (C)
como qd (C) = 0 o gr (qd (C)) = 0, por la unicidad del teorema, qd (C) es el resto de la division. La demostracion de la version a izquierda es similar. Usando en teorema del resto podemos dar otra demostracion del teorema de Hamilton -Cayley. Teorema 12.48 (Hamilton-Cayley) Sea A 2 K n
n
, entonces
A
(A) = 0.
Demostracion: De la identidad: A
se sigue que xI A
(A) I, o sea
^A) (xI (x) I = (xI
A divide a derecha A
A
A)
(x) I, luego el resto es 0, pero el resto es
(A) = 0. Corresponde destacar que, en este caso, resto a derecha
o resto a izquierda coinciden, dado que los polinomos considerados conmutan. 314
El siguiente resultado puede ser obtenido por otros caminos, pero la demostracion que presentamos usando el algoritmo de division es realmente contundente. Recordamos que dos matrices A y B en K n inversible U 2 K n
n
1
tal que b = U AU
n
son semejantes si existe una matriz
, por otra parte, dos polinomios matriciales
u y v son equivalentes, si existen polimomios inversibles p y q tales que v = puq. Teorema 12.49 A; B 2 K n
n
son semejantes, si y solo si xI
A y xI
B son
Demostracion: Si A y B son semejantes, resulta claro que xI
A y xI
B son
equivalentes.
equivalentes. En el sentido opuesto, supongamos que p y q son polinomios matriciales inversibles tales que: p (x) (xI
A) q (x) = xI
B
Por el algoritmo de division podemos poner: p (x) = (xI donde C; D 2 K n xI
n
B) f (x) + C y q (x) = g (x) (xI
B) + D
. Resulta: B = (xI
B) f (x) (xI
+ C (xI
A) q (x)
A) g (x) (xI
B) + C (xI
A) D
o sea: xI
B = C (xI
A) D + H (x)
donde: H (x) = (xI + p (x)
B) f (x) p (x) (xI
1
(xI
B) f (x)) (xI
B) A) g (x) (xI
B) f (x) p (x)
1
(xI
B) f (x) (xI
A) g (x) (xI
= (xI
B) S (x) (xI
B)
= (xI
(xI
B) + (xI
315
B)
B)
B) q (x)
1
g (x) (xI
B)
Luego: (xI
B) S (x) (xI
B) = xI
B
C (xI
A) D
Si los polinomios en ambos miembros de esta igualdad son distinto de cero, el polinomio en el primer miembro tiene grado mayor o igual que 2, mientras que en el segundo miembro el grado es menor o igual que 1, es decir ambos polinomios son cero. Se sigue que: xI
B = C (xI
A) D
o sea: CD = I y B = CAD:
12.7.
Ejercicios
1. Hallar la Forma Racional de la transformacion lineal de R6 cuya matriz en la base canonica 2 4 6 6 6 10 6 6 6 3 A=6 6 6 4 6 6 6 3 4 4
es: 0
1
0
1
1
1
2
1
2
2
1
1
0
1
1
0
1
0
1
1
0
1
1
1
1
0
1
0
1
1
2. Hallar la forma normal de Smith de 2 3 4 0 4 4 2 6 7 6 7 6 6 2 4 4 2 7 6 7 6 7 6 10 0 10 4 2 7 4 5 10 0 4 10 2
3 7 7 7 7 7 7 7 7 7 7 7 7 5
2
6 6 6 6 6 6 B=6 6 6 6 6 6 4
2 1 2
0
4 2 3
0
3 1 3
0
1 1 2
1
2 1 2
1
2 1 2
0
las matrices siguientes: 2 16 18 22 28 6 6 6 1 3 1 1 6 6 6 5 5 11 5 4 11 11 11 23
316
1 0
3
7 7 1 0 7 7 7 1 0 7 7 7 1 0 7 7 7 2 0 7 5 1 0
16
3
7 7 1 7 7 7 5 7 5 11
2
1
6 6 6 x 6 6 6 1 6 6 6 x 4 1
x
1
2
x +x x + x2 x2 x 2 6 6 6 6 6 6 6 6 6 6 6 6 4
x x2
x
1
x+x 1 + x3
3
x 2
x+x
x + x2
x
2x2 + x3
1
x3 + x
2
2x2 + x3
x
2x2 + x + x4 x2 x + 2x2
0
1
0
0
0
2
x+1
1
0
0
0
2
0
x+2 0
0
0
0
0
1
x
2
0
1
0 x+1
8
1
2
1
1
1
2x3 + x4 3
0 0 x+2
7 7 7 7 7 7 7 7 7 5
7 7 7 7 7 7 7 7 7 7 7 7 5
3. Sea G un grupo abeliano generado por g1 ; : : : ; g6 sometidos a las relaciones: 3 2 g 36 1 7 2 7 6 1 3 1 1 2 1 6 g2 7 7 76 6 7 76 6 6 2 2 1 5 4 1 7 6 g2 7 7=0 76 6 7 76 6 6 2 4 4 4 2 2 7 6 g4 7 7 56 4 7 6 3 1 2 1 2 1 6 g5 7 5 4 g6 Hallar la descomposicion c clica de G, es decir, descomponer G '
Zdi donde
di j di+1 . 4. Decidir si hay dos matrices semejantes entre las matrirces: 2 3 2 3 2 1 2 2 1 4 25 8 3 1 6 7 6 7 6 6 7 6 7 6 6 4 6 3 17 6 4 5 1 1 7 4 2 7 6 7 6 7 6 6 7 6 7 6 6 1 7 6 7 6 1 1 4 1 3 9 1 0 4 5 4 5 4 1 2 1 3 4 20 5 1 1 317
2
2
5
1
1
4
2
1
1
3
7 7 1 7 7 7 1 7 5 3
13.
Cap tulo 13: Forma Normal de Jordan
13.1.
Descomposicion como suma de Subespacios Indescomponibles
Dado un endomor smo de un espacio vectorial V , hemos visto dos maneras esencialmente distintas de descomponer a V en subespacios invariantes (teoremas 11.33 y 12.12). Estos resultados pueden ser combinados para obtener una descomposicion como suma directa de subespacios indescomponibles, optima en el sentido que esta no podr a re narse mas. Consideremos un endomor smo t de V y pongamos: t
= p1 1
pk k y mt = p1 1
pk k
donde p1 ; : : : ; pk son polinomios monicos irreducibles en K [x]. Notemos con Si las componentes primarias de V respecto de t, es decir Si = N u (pi i (t)) y se tiene: V = S1
Sk
siendo pi i y pi i los polinomios caracter sticos y minimal de t restringida a Si respectivamente. Por el teorema 12.12 cada subespacio Si puese ser descompuesto como suma directa de subespacios c clicos en la froma: Si = hvi1 it
hviri it
donde los sucesivos polinomios minimales de los vectores vi1
viri son potencias
decrecientes del polinomio pi , es decir que existe una sucesion de numeros naturales si1
si2
siri tales que el polinomio minimal: s
mvij = pi ij
318
Ademas: si1 =
i
y si1 +
+ siri =
i
Como cada subespacio hvij it es indescomponible, se concluye que V admite una descomposicion como suma directa de subespacios indescomponibles. Por otra parte, supongamos que existen vectores w1 ; : : : ; ws tales que: V = hw1 it
hws it
siendo los hwi it subespacios indescomponibles. Sea mj = mwj , por ser hwi it un subespacio indescomponible, existe un ndice i tal que mi es una potencia de pi . Consideremos: Ti =
M
pi jmi
hwi it
es decir, la suma es sobre los ndices i tales que pi es un divisor de mi . Se tiene entonces: V = T1
Tk y Ti
Si
debe ser Ti = Si 8i, por un argumento en las dimensiones. Es importante destacar que si el polinomio minimal de un endomor smo no potencia de un polinomio irreducible, cualquier descomposicion del espacio V como suma directa de subespacios c clicos puede ponerse en las condiciones del teorema 12.12 con solo reordenar los sumandos. Notando que el polinomio minimal de t s
restringido Si es p i , resulta claro entonces que la familia de polinomios pi ij puede obtenerse reordenando los miembros en la familia mwi donde mwi es un divisor de pi . Como consecuencia del analisis precedente se tiene: Teorema 13.1 Sea t un endomor smo de V , entonces:
319
i) Existen vectores v1 ; : : : ; vk tales que: V = hv1 it
hvk it
y donde los polinomios minimales mi de los vectores vi son una potencia de un polinomio irreducible en K [x]. ii) Si los vectores v10 ; : : : ; vl0 y sus repectivos polinomios minimales m01 ; : : : ; m0l cumplen las condiciones en i), entonces l = k y las familias m1 ; : : : ; mk y m01 ; : : : ; m0k coinciden salvo el orden de sus miembros. De nicion 13.2 Sea: V = hv1 it
hvs it
siendo los hvi it subespacios indescomponibles. Llamaremos divisores elementales de t a la familia de polinomios minimales m1 ; : : : ; mk correspondientes a los vectores v1 ; : : : ; vk respectivamente. Observacion 13.3 Los divisores elementales coinciden con los factores invariantes solo en el caso en que el polinomio minimal del endomor smo sea una potencia de un polinomio irreducible en K [x]. En el caso general, los divisores elementales aparecen, justamente, como las potencias de polinomios irreducibles en las factorizaciones de los factores invariantes. Sea fp1 ; : : : ; pk g los distintos factores irreducibles monicos en K [x] del polinomio minimal de t. Notemos con S1 ; : : : ; Sk las componentes primarias de V y sus respectivas descomposiciones c clicas dadas por el teorema 12.12: Si = hvi1 it
hviri it
Ponemos ademas: s
mvij = pi ij con si1 320
si2
siri
Sea r = max fri : 1 i kg y para 1 8 < v si j ri ij wij = : 0 si r < j r i
i
k de namos: 8 < s si j ri ij y cij = : 0 si r < j r i
y consideremos:
zj = w1j + w2j +
+ wkj
de la Proposicion 12.8 se sigue que: c
c
mzj = P1 1j P2 2j
c
Pk kj
y por razones de dimension es: hzj it = hw1j it
hwkj it
Como V es suma directa de los subespacios hvij it , resulta: V = hz1 it
hzk it
Debido a que los exponentes cij son decrecientes en el ndice j, se tiene que mzj divide a mzj
1
y en consecuencia, por razones de unicidad, los polinomios mzj son
los factores invariantes de t. i) Si los divisores elementales de un edomor smo son: p2 ; p2 ; p; p; q 3 ; q; q; r2 ; r donde p; q y r son polinomios irreducibles en K [X], se tiene entonces que los factores invariantes son: p2 q 3 r2 ; p2 qr; pq; p ii) Si los factores invariantes de un edomor smo son: p2 q 2 r2 ; p2 qr; pqr donde p; q y r son polinomios irreducibles en K [X], entonces se tendra que los divisores elementales son: p2 ; p2 ; p; q 2 ; q; q; r2 ; r; r 321
13.2.
Forma Canonica de un Enfomor smo Nilpoltente
Vamos a estudiar el caso en que los valores propios de un endormo smo pertenezcan al cuerpo K. Esta situacion siempre ocurre cuando trabajamos con un cuerpo algebraicamente cerrado, como, por ejemplo, cuando K = C es el cuerpo de los numeros complejos. Supongamos que
1; : : : ;
k
2 K son los distintos valores propios del endomor-
smo t y ponemos: mt (X) = (X
1)
1
(X
k)
k
En este caso, las componentes primarias estan dadas por: Si = N u ((t siendo (X
i)
i
i I)
i
)
el polinomio minimal de t restringida a Si .
En virtud de la descomposicion primaria, el estudio de descomposiciones mas nas para V se reduce al caso de endomor smos cuyos polinomios minimales son una potencia de un polinomio irreducible en K [X], pero en nuestro caso, estos minimales son polinomios de la forma (X se reduce al tratamiento del caso t
) . Como veremos luego, este analisis
= 0, dado que podemos estudiar el endomor smo
idV .
De nicion 13.4 Un endomor smo t se denomina nilpotente si existe un numero natural k tal que tk = 0. Analogamente, una matriz A 2 K n
n
se dice nilpotente si
existe un numero natural k tal que Ak = 0. Proposicion 13.5 Sean t un endormo smo nilpotente de V y n la dimension de V . Entonces el polinomio caracter stico de t es tn = 0.
322
t
(X) = X n . En particular se tiene
Demostracion: Es consecuencia de la Proposicion 11.24, el teorema 11.25 y del teorema de Hamilton Cayley. Presentamos a continuacion una manera alternativa para realizar la descomposicion c clica de un endomor smo nilpotente que puede aportar una vision mas amplia de esta descomposicion. Teorema 13.6 Sea t un endomor smo no nulo de V con mt = X k . Para 0
i
k
notemos Ti = N u (ti ), se veri can: i) Para 0
i
k, Ti es un subespacio t-invariante.
ii) Se tiene: 0 = S0
S1
S2
Sk = V
donde todas las inclusiones son estrictas. iii) Para 0
i
k, t (Ti+1 )
Ti
iv) Para 0 < i < k y un subespacio S de Ti+1 que veri que S \ Ti = 0, se tiene que t (S) \ Ti
1
= 0.
Demostracion: i) Es consecuencia del hecho que t y ti conmutan (ver ejemplos 10.4). ii) Comparar con el Corolario 11.35. Notar que por las hipotesis es S1 6= 0. iii) Sea v 2 Ti+1 , resulta ti+1 (v) = 0, pero ti+1 (v) = ti (t (v)), es decir t (v) 2 Ti . iv) Sea v 2 S, si t (v) 2 Ti
1
entonces ti
1
(t (v)) = ti (v) = 0, luego v 2 S \ Ti ,
es decir v = 0 y en consecuencia t (v) = 0. Corolario 13.7 Conservando las notaciones del teorema precedente, ponemos: ri = dim (Ti+1 ) Entonces ri
dim (Ti )
ri 1 .
323
0
i
k
1
Demostracion: Sea S un subespacio complementario de Ti en Ti+1 , es decir: Ti+1 = S
Ti
Resulta dim (S) = ri . Por iii) y iv) del teorema 13.6, se tiene que t (S) t (S) \ Ti
1
Ti y
= 0. Bastara entonces mostrar que t es inyectivo en S. En efecto, si
v 2 S y t (v) = 0, como i es por lo menos 1, se tiene: v 2 S \ N u (t) = S \ T1 luego ri = dim (S) = dim (t (S))
S \ Ti = 0
ri 1 .
Observacion 13.8 El Corolario 13.7 a rma que las codimension de Ti en Ti+1 determina una sucesion decreciente. Por ejemplo, si dim (V ) = 4, las posibilidades son: i) k = 1, r0 = 4 ii) k = 2 y: a) r0 = 3, r1 = 1 o b) r0 = 2, r1 = 2 iii) k = 3, r0 = 2, r1 = 1, r2 = 1 iv) k = 4, r0 = r1 = r2 = r3 = 1. Corolario 13.9 Existe una base B de V tal que la matriz asociada a t respecto de la base B es triangular inferior estricta. Demostracion: Conservando las notaciones precedentes, ponemos: Ti+1 = Si
Ti
1
i
k
1
Sea Bi una base de Si y B0 una base de T1 . La base de V formada por union de B0 ; B1 ; : : : ; Bk
1
convenientemente ordenada, cumple las condiciones requeridas.
324
Corolario 13.10 Una matriz A 2 K n
n
es nilpotente, si y solo si es semejante a
una matriz triangular inferior estricta. Demostracion: Si A es nilpotente, el endomor smo de K n dado por x ! xA tiene a A por matriz en la base canonica y es nilpotente. por el corolario previo, en alguna base de V este mor smo admite una matriz triangular inferior estricta que debe ser semejante con A. La a rmacion rec proca es consecuencia de la identidad: U AU
1 k
= U Ak U
1
donde k es un numero natural y U una matriz inversible. Probaremos ahora un resultado que, en cierto sentido, re na el anterior acerca de la triangulacion de endomor smos nilpotentes. Como subproducto del mismo, obtendremos la forma canonica de Jordan para un endomor smo nilpotente. Se mantienen las notaciones del teorema 13.6. Teorema 13.11 i) Existen subespacios Si de Ti tales que: a) Ti = Si
Ti 1 .
b) Existen bases Bi de Ti tales que t (Bi )
Bi 1 .
ii) Dado un subespacio S de V y una base B de S, tal que V = S
Tk 1 , existen
subespacios Si de Ti y bases Bi de Ti en las condiciones de i) y tales que Sk = S y Bk = B. Demostracion: Procedemos por induccion en k, el grado del polinomio minimal de t. Si k = 1, entonces t = 0 y es claro que basta tomar S1 + V y B1 cualquier base de V , y quedan probados i) y ii) en este caso. Supongamos k > 1 y el teorema valido para todo endomor smo nilpotente t tal que el grado de mt sea menor que k. Pongamos: V = Tk = Sk 325
Tk
1
y sea Bk una base cualquiera de Sk . Dado que t restringido a Sk es inyectivo, t (Bk ) es un conjunto de vectores linealmente independientes en Tk 1 . Por otra parte se tiene t (Sk ) \ Tk
1
=0
(ver demostracion del Corolario 13.7 y el teorema 13.6). Sea Sk Tk
1
un subespacio de
tal que: Tk
y sea Bk
1
una base de Sk
La restriccion de t a Tk es X k
1
1 1 1
= Sk
2
tal que t (Bk )
t (Sk )
Sk
1
Bk 1 .
es un endomor smo nilpotente cuyo polinomio minimal
2
y bases B1 ; : : : ; Bk 2 , todo en Tk 1 , tales que: Ti = Si
para 1 < i 1
Tk
1
(ver teorema 13.6 ii) ). Por la hipotesis inductiva, podemos considerar
subespacios S1 ; : : : ; Sk
y Bk
1
k
Ti
1
y t (Bi )
Bi
1
1. Resulta claro, por la manera en que fueron construidos Sk
1
a partir de Sk y Bk , que los subespacios T1 ; : : : ; Tk y las respectivas bases
B1 ; : : : ; Bk estan en las condiciones de i) y que se veri ca ii). La forma diagonal por bloques que asociamos a un endomor smo nilpotente en el corolario a continuacion, es la Forma nomal de Jordan en el caso nilpotente. Corolario 13.12 Sea t un endomor smo nilpotente de V . Existe una base B de V respecto de la cual la matriz asociada a t tiene la forma diagonal por bloques: 2 3 N 6 1 7 6 7 6 7 N2 7 jtjB = 6 6 7 .. . 6 7 4 5 Ns
siendo cada Ni la matriz compa~ nera de un polinomio de la forma xri , donde ri+1 326
ri .
Demostracion: Consideremos subespacios Si con bases Bi en las condiciones del teorema 13.11. Pongamos Ck = Bk , Ci = fv 2 Bi : v 2 = t (Bi+1 )g para 1
i
k
1
k
y sea C = [ Ci . Escribimos C = fv1 ; : : : ; vs g donde los vectores estan ordenados de i=1
manera que los grados de sus polinomios minimales queden en sucesion decreciente. A rmamos que: V = hv1 it
hvs it
Notemos con W el subespacio: W = hv1 it + Veremos que primero que cada base Bi Bk
1
= Ck
1
[ t (Ck ) resulta Bk
1
+ hvs it W . Es claro que Bk
W , escribiendo
W y siguiendo con este argumento en las
identidades Bi = Ci [ t (Bi+1 ), se tiene Bi
W y as , W = V .
Por otra parte, notemos que por la construccion: k
[ Bi = tj (vi ) : 0
i=1
j
gr (mvi ) ; 1
i
s
de modo que la descomposicion en suma de subespacios c clicos es una suma directa. Observacion 13.13 Como dijimos antes, esta ultima es una manera alternativa para obtener la descomposicion c clica de un endomor smo nilpotente, en este caso la llamada forma de Jordan no es otra cosa que la Forma Racional del endomor smo. En particular, la unicidad de la forma de Jordan en este caso esta garantizada por el hecho de que coincide con la Forma Racional. Por otra parte, los cardinales si = jCi j determinan un vocamente los factores invariantes o divisores elementales, puesto que: gr (mvi ) = j si vi 2 Cj 327
En efecto, si vi 2 Cj = Bj tj
1
t (Bj+1 ), como Bj
Tj
Tj
1
se tiene tj (vi ) = 0 y
(vi ) 6= 0, con lo cual el polinomio minimal de vi es X j .
Ejemplos 13.14 i) Sea t un endomor smo nilpotente en K 21 y los numeros dim (N u (ti )) dados por: i
0 1
2
3
4
dim (N u (ti )) 0 8 14 19 21 Se tiene: s4 = 21
19 = 2 s3 = 19
14
2 = 3 s2 = 14
8
5 = 1 y s1 = 8
6=2
De modo que los factores invariantes son: X 4 ; X 4 ; X 3 ; X 3 ; X 3 ; X 2 ; X; X y si notamos con Ci a la matriz compa~ nera de X i , la forma normal de Jordan de t esta dada por: 3 2 C4 7 6 7 6 7 6 C4 7 6 7 6 7 6 C3 7 6 7 6 7 6 C3 7 6 7 6 7 6 C3 7 6 7 6 7 6 C2 7 6 7 6 7 6 C1 5 4 C1 ii) Con las notaciones de i), sea t un endomor smo de K 12 tal que: u3 = 12 u2 = 8 y u1 = 4 Se tiene: s3 = 12
8 = 4 s2 = 8
4
4 = 0 y s1 = 8
328
4
4=0
Los factores invariantes son en este caso X 3 ; X 3 ; X 3 ; X 3 y la forma normal de Jordan:
2 6 6 6 6 6 6 4
3
C3 C3 C3 C3
7 7 7 7 7 7 5
iii) Sea t el endomor smo de K 6 cuya matriz respecto de la base canonica es: 2 3 1 1 0 0 0 0 6 7 6 7 6 1 1 0 0 0 0 7 6 7 6 7 6 1 1 1 1 1 1 7 6 7 A=6 7 6 1 1 0 0 0 1 7 6 7 6 7 6 0 0 1 1 1 0 7 4 5 0 0 0 0 0 0
Resulta A2 = 0, es decir mt = X 2 . En este caso basta descomponer: K 12 = S Si ei , 1 e1
e2 ; e3
i
N u (t)
6, denotan los vectores de la base canonica de K 12 , se tiene que e4 y e4
e5 forman una base de N u (t), y podemos tomar como base
de S los vectores e2 ; e4 y e6 . Resulta C2 = fe2 ; e4 ; e6 g y C1 = ?. Si consideramos la base B de K 6 dada por: B = fe2 ; t (e2 ) ; e4 ; t (e4 ) ; e6 ; t (e6 )g se tiene:
2
3
0 0 6 7 6 7 6 1 0 7 6 7 6 7 6 7 0 0 6 7 jtjB = 6 7 6 7 1 0 6 7 6 7 6 0 0 7 4 5 1 0 329
En particular, los factores invariantes son X 2 ; X 2 ; X 2 . Proposicion 13.15 Sea t un endomor smo nilpotente. Entonces, el numero de factores invariantes de t coincide con la dimension de N u (t). Demostracion: Por una parte notar que [j ftj
1
(vi ) : vi 2 Cj g es una base del nucleo
de t. De otra manera, en la forma canonica de Jordan el rango se sigue de que el rango de la matriz en n menos el numero de bloques de Jordan, donde n es la dimension de V . Esto es porque el rango de un bloque de Jordan es una unidad inferior al tama~ no del bloque. Ejemplos 13.16 Sea t el endomor smo de K 6 cuya matriz en la base canonica es: 3 2 1 1 0 0 0 0 7 6 7 6 6 0 0 1 0 0 0 7 7 6 7 6 6 1 1 1 0 0 0 7 7 A=6 7 6 6 1 1 1 1 1 0 7 7 6 7 6 6 1 1 1 1 1 0 7 5 4 0 0 0 0 0 0 Resulta:
2
6 6 6 6 6 6 2 A =6 6 6 6 6 6 4
1
1
1 0 0 0
1
1
1 0 0 0
0
0
0 0 0 0
0
0
0 0 0 0
0
0
0 0 0 0
0
0
0 0 0 0
y A3 = 0. Una base de N u (t2 ) es fe1
e2 ; e2
330
7 7 7 7 7 7 7 7 7 7 7 7 5
e3 ; e4 ; e5 ; e6 g. Sea S3 el subespacio
generado por e1 , se tiene: K 6 = N u t3 = S3
3
N u t2
Sea ahora, S2 el subespacio generado por t (e1 ) = e1 N u t2 = S2
e3 + e4 + e5 y e4 , se tiene:
N u (t)
Sea S1 el subespacio generado por t2 (e) = e1
e2 , t (e4 ) = e4 + e5 y e6 , se tiene:
N u (t) = S1 En la base B = fe1 ; t (e1 ) ; t2 (e1 ) ; e4 ; t (e4 ) ; e6 g la tiene matriz asociada a t es: 2 3 0 0 0 6 7 6 7 6 1 0 0 7 6 7 6 7 6 0 1 0 7 7 jtjB = 6 6 7 6 7 0 0 6 7 6 7 6 7 1 0 4 5 0 y los factores invariantes son X 3 ; X 2 ; X.
13.3.
Forma Normal de Jordan
Consideremos el caso en que el polinomio minimal de un endomor smo es (X con
2 K. Es claro que el endomor smo u = t
)k
idV es nilpotente. Existe entonces
una base B de V tal que la matriz de u respecto de esta base es la forma normal de Jordan, es decir:
2
6 6 jujB = 6 4
3
C1 ..
. Cs
7 7 7 5
donde los Ci son matrices compa~ neras de polinomios del tipo X i . Dado que: jujB = jt
idV jB = jtjB 331
I
resulta:
2
6 6 jtjB = 6 4
3
I1 + C1 ... Is + Cs
7 7 7 5
donde la matrices I1 ; : : : ; Is son identidades del mismo orden que el correspondiente bloque Ci . De nicion 13.17 Para cada
2 K y cada numero natural k de nimos el bloque
de Jordan de orden k y autovalor , a la matriz de orden k notada con Jk; dada por: Jk; = I + Ck donde I es la matriz identidad de orden k y Ck es la matriz compa~ nera del polinomio X k. Ejemplos 13.18 Sean: 2
J1; = [ ] J2; = 4
0 1
3
5 J3;
2
3
0 0 6 7 6 7 =6 1 0 7 4 5 0 1
2K
t
Entonces, existen numeros naturales k1
ks y una base B de V tal que
k2
(X) = (X
)n con
Lema 13.19 Sea t un endomor smo de V tal que
la matriz de t respecto de B tiene la forma diagonal por 2 J 6 k1 ; 6 6 J k2 ; jtjB = 6 6 .. . 6 4 J ks ; Demostracion: Surge de la discusion previa. 332
bloques: 3 7 7 7 7 7 7 5
Observacion 13.20
El Lema 13.19 puede deducirse directamente del teorema
3.1.16, si mostramos que las matrices Jk; y la matriz compa~ nera del polinomio (X
)k son semejantes. Para ello consideremos el endomor smo t de K k dado
por x ! xJk; . No es dif cil ver que los vectores ek ; t (ek ) ; : : : ; tk
1
(ek ) forman una )k .
base de K k respecto de la cual la matriz de t es la matriz compa~ nera de (X Por otra parte, con las notaciones del Lema 13.19, si la base: v1 ; : : : ; vk1 ; w1 ; : : : ; wk2 ; : : : ; u1 ; : : : ; uks
la matriz de t es diagonal por boques con bloques de Jordan Jk1 ; ; Jk2 ; ; : : : ; Jks ; , se tiene que: vk1 ; t (vk1 ) ; : : : ; tk1
1
(vk1 ) ; wk2 ; t (wk2 ) ; : : : ; tk2
1
(wk2 ) ; : : : ; uks ; t (uks ) ; : : : ; tks
1
(uks )
forman una base de V , respecto de la cual la matriz de t es la Forma Racional de t. Teorema 13.21 (Forma Normal de Jordan) Sea t un endomor smo de V tal que su polinomio caracter stico tiene todas sus ra ces en K, siendo numeros naturales k1
; ;:::;
las distintas ra ces de
k s ; m1
t
(X). Entonces existe
mr ; : : : ; n 1
V tal que la matiz de t en dicha base es: 2 J 6 k1 ; 6 ... 6 6 6 6 Jks ; 6 6 6 Jm1 ; 6 6 .. . 6 6 6 6 Jm1 ; 6 6 6 6 6 6 6 6 6 4 333
nu y una base de 3
... Jn1 ; ..
. Jnu ;
7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5
Demostracion: Resulta de aplicar el Lema 13.19 a las restricciones de t sobre las componentes primarias. Observacion 13.22 Dada la unicidad de las componenetes primarias y la de los factores invariantes, la forma diagonal por bloques presentada en el teorema anterior, es unica salvo el ordenamiento de los bloques diagonales. De nicion 13.23 La forma diagonal por bloques de la matriz de un endomor smo en la condiciones del teorema 4.3.4 se llama la Forma normal de Jordan. El siguiente resultado es de interes teorico y lo usaremos en conexion con la exponencial de una matriz. Daremos la demostracion en el caso que las ra ces del polinomio caracter stico esten todas en el cuerpo K. Teorema 13.24 Sea t un endomor smo de V tal que su polinomio caracter stico tiene todas sus ra ces en K. Entonces t se descompone en forma unica como suma de dos endomor smos s y n tales que: i) s es semisimple y n es nilpotente ii) s y n conmutan. iii) s y n pueden ser expresados como polinomios en t. Demostracion: Si los valores propios de t estan en el cuerpo K, se puede descomponer la matriz J de la forma normal de Jordan de t, como suma de una matriz diagonal D y una matriz nilpotente N en la forma mas obvia. Es inmediato que D y N conmutan, pues basta veri carlo sobre sus bloques de Jordan donde la parte diagonal es una matriz escalar. Si s y n son los endomor smos asociados con las matrices D y N , se tiene t = s + n con s diagonalizable, en particular semisimple, n nilpotente y sn = ns. 334
Para probar la unicidad de la descomposicion, veremos que D puede ser expresada como un polinomio en J. Pongamos: mt (X) = (X donde las
i
1)
1
(X
k)
k
son las distintas ra ces de mt . Consideremos los polinomios: pi (X) =
mt (X) (X i)
i
El maximo comun divisor de estos polinomios es 1, luego podemos hacer: 1=
k X
qi (X) pi (X) y h (X) =
i=1
k X
i qi
(X) pi (X)
i=1
donde qi son polinomios en K [X]. Calculando h (J) sobre cada uno de los bloque Bj que corresponden a la componente primaria asociada con
j,
de las identidades
precedentes resulta: h (Bj ) =
j IJ
donde Ij es la matriz identidad del mismo orden que el bloque Bj . De este modo se obtiene h (J) = D y en consecuencia es h (t) = s. Supongamos ahora otra descomposicion de t = s0 + n0 en las condiciones del teorema, como s0 y n0 conmutan, se tiene que ambos conmutan con t, luego s0 y n0 conmutan con s = h (t) y con n = t s
h (t). En la identidad: s0 = n 0
n
el elemento en el segundo miembro es nilpotente, pues n0 y n conmutan, mientras que el elemento en el primer miembro es semisimple, luego ambos deben se iguales a cero (ver ejercicios). Como consecuencia de la Forma normal de Jordan tenemos la siguiente proposicion que suele ser de utilidad en la practica. 335
Proposicion 13.25 Sea t un endomo smo,
un valor propio de t y k el primer
ndice tal que: idV )i = N u (t
N u (t
idV )i+1
Entonces; i) k es el mayor exponente de X
que divide a mt (X)
ii) V = N u (t
idV )k
idV )k
Im (t
Demostracion: i) Tambien es el Corolario 11.35 y ii) se sigue directamente de la forma normal de Jordan de t. Ejemplos 13.26 Hallar la froma normal de Jordan del endomor smo t de R5 cuya matriz respecto de la base canonica es: 2 2 6 6 6 0 6 6 A=6 1 6 6 6 1 4 1
El polinomio minimal de t es 1
2 4 1 0
3
7 7 3 1 0 7 7 7 3 1 0 7 7 7 2 2 0 7 5 1 2 1
3 2 2 2
2X 2 + X 4 = (X
1)2 (X + 1)2 . Para la descom-
posicion primaria tenemos en cuenta que: N u (A + I)2 = Im (A Hacemos:
2 6 6 6 6 6 6 6 6 6 4
3
2 4 1 0
0
4
1
2
1
2
1
2
32
2
7 6 7 6 6 3 1 0 7 7 6 7 6 2 1 0 7 =6 7 6 7 6 7 6 2 1 0 5 4 1 2 0 336
4 4 4 8 0 4 0 4 0 4
I)2
8 0 0
3
7 7 4 0 0 7 7 7 4 0 0 7 7 7 4 0 0 7 5 4 0 0
de donde: Im (A
I)2 = he1 + e2 + e3 ; e5 ; e4 i
N u (A + I)2 = h3e1 + e3 + e4 + e5 ; 3e2 + e3 + e4 + e5 i La matriz de t referida a la base fe1 + e2 + e3 ; e5 ; e4 ; 3e1 + e3 + e4 + e5 ; 3e2 + e3 + e4 + e5 g es:
2 6 6 6 6 6 6 6 6 6 4
0 0 1
0
2 1 2
0
1 0 2
0
0 0 0
1 3
0 0 0
4 3
0
3
7 7 0 7 7 7 0 7 7 1 7 7 3 5 5 3
Trabajamos sobre cada bloque para encontrar la forma normal de Jordan, en el bloque de orden 3 el polinomio minimal es (X 1)2 , consideramos 2 3 2 3 2 0 0 1 1 0 0 1 0 6 7 6 7 6 6 7 6 7 6 6 2 1 2 7 6 0 1 0 7=6 2 0 4 5 4 5 4 1 0 2 0 0 1 1 0
entonces: 3 1 7 7 2 7 5 1
es de rango 1. Conforme con el Corolario 13.12 tomamos u = e1 + e2 + e3 y v = e5 . En el bloque de orden 2, el polinomio minimal es (X + 1)2 , hacemos: 2 3 2 3 2 3 1 1 1 2 1 0 3 5 3 5 4 3 4 5=4 3 4 5 4 2 0 1 3 3 3 3
y tomamos w = 3e1 + e3 + e4 + e5 . En este caso: R5 = huit y en la base B = fu; (t
hvit
hwit
id) (u) ; v; w; (t + id) (w)g donde id es la identidad en R5
337
se tiene la forma normal de Jordan de t: 2 1 0 0 6 6 6 1 1 0 6 6 6 0 0 1 6 6 6 0 0 0 4 0 0 0
13.4.
0 0 0 1 1
0
3
7 7 0 7 7 7 0 7 7 7 0 7 5 1
La Exponencial
A partir de la forma normal de Jordan, diversas funciones pueden ser de nidas sobre las matrices. Un caso especial es el de la funcion exponencial para matrices complejas de nida como la serie: A
e =
1 X 1
i! i=0
i
A = lm
k!1
k X 1
i! i=0
Ai
Es posible ver que esta serie es convergente, ya que es una sucesion de Cauchy en el espacio completo Cn
n
2
= Cn respecto de la metrica usual.
Estamos interesados en poder calcular la exponencial de una matriz, lo que tambien probar a su existencia. Las propiedades enunciadas a continuacion quedan a cargo del lector. Proposicion 13.27 Sea A; B y U matrices en C n
n
. Se veri can:
i) Si A y B conmutan, entonces eA eB = eA+B . ii) Si U es inversible, entonces U eA U iii) eA
1
=e
A
1
1
= eU AU .
.
iv) Si A = [aij ] es diagonal entonces eA es la diagonal que tiene a eaii como elemento en la diagonal. v) Si A es nilpotente, eA es un polinomio en A.
338
Dada A 2 Cn U 2 Cn
n
n
, del teorema 13.21 se sigue que existe una matriz inversible
tal que: U AU
1
=D+N
donde D es diagonal, N es nilpotente y DN = N D. Se sigue que: eA = eU
1 (D+N )U
1 D N
=U
e e U
y todos los factores en el ultimo miembro estan bien de nidos. Ejemplos 13.28 Calcular la exponencial de la 2 4 2 1 6 6 6 4 3 1 A=6 6 6 3 2 0 4 3 2 1
matriz: 3 8 7 7 9 7 7 7 6 7 5 7
Calculando la forma de Jordan J de A tenemos: 32 2 1 0 0 0 2 1 1 1 76 6 76 6 6 1 2 1 1 76 1 1 0 0 76 A=6 76 6 6 1 1 2 1 76 0 0 1 0 54 4 0 0 1 1 1 1 1 1
Se tiene:
luego:
2
2
1 0 6 6 6 0 1 J =6 6 6 0 0 4 0 0
0 0 1 0 32
0
3
2
32
339
0
1
7 76 7 76 76 1 2 1 1 7 7 76 7 76 76 1 1 2 1 7 5 54 1 1 1 1
0 0 7 6 7 6 0 7 6 1 0 7+6 7 6 0 7 6 0 0 5 4 1 0 0
e 0 0 0 1 0 0 6 76 6 76 6 0 e 0 0 76 1 1 0 76 eJ = 6 6 76 6 0 0 e 1 0 76 0 0 1 4 54 1 0 0 0 e 0 0 1
2 1 1 1
3
3
0 0
3
7 7 0 0 7 7 7 0 0 7 5 1 0
2
3
e 0 0 0 7 6 7 7 6 7 0 7 6 e e 0 0 7 7=6 7 7 6 7 1 7 6 0 0 0 e 0 7 5 4 5 1 1 0 0 e e 1
Finalmente:
es decir:
2
2 1 1 1
e 0 0 0
32
2 1 1 1
3
1
76 7 6 76 76 7 6 76 6 1 2 1 1 76 e e 0 0 76 1 2 1 1 7 A 76 7 76 e =6 76 7 6 76 6 1 1 2 1 7 6 0 0 1e 0 7 6 1 1 2 1 7 54 5 4 54 1 1 1 1 1 1 0 0 e e 1 1 1 1 2
3e
6 6 6 3e A e =6 6 6 2e 4 2e
13.5.
32
e
1
e
1
2e
e
e
1
e
e
e
1
e
e
e
e
1
2e
1
e
1
2e
1
1
e
1
2e
1
1
e
1
2e
1
1
e
1
4e
3
7 7 5e 7 7 7 3e 7 5 3e
Aplicacion a Sistemas de Ecuaciones Diferenciales Ordinarias
Consideremos un sistema de ecuaciones diferenciales de la forma: X 0 = AX donde A 2 Cn
n
y X = X (t) es una columna de funciones del parametro t. La
solucion de este sistema, con la condicion inicial X (0) = X0 , esta dada por: etA X0 La razon es que la derivada, respecto del parametro t, de la exponencial etA es precisamente AetA . Ejemplos 13.29 Usaremos la matriz del ejemplo anterior. Sea el sistema de ecuaciones diferenciales dado por: 2 3 2 0 (t) 6 7 6 6 0 7 6 6 (t) 7 6 6 7=6 6 0 7 6 6 (t) 7 6 4 5 4 0 (t)
4 2 1 4 3 1 3 2 0 3 2 1 340
8
32
76 76 9 76 76 76 6 76 54 7
(t)
3
7 7 (t) 7 7 7 (t) 7 5 (t)
con la condicion inicial solucion del sistema 2 et 6 6 6 0 tJ e =6 6 6 0 4 0 luego:
etA
es decir:
etA
2
2
(0) =
(0) =
usando los calculos 32 0 0 0 1 76 7 6 et 0 0 76 t 76 76 t 0 e 0 76 0 54 t 0 0 e 0
2 1 1 1
32
t
e
(0) =
(0) = 1. Vamos a encontrar la
del ejemplo anterior. Se tiene: 3 2 3 t e 0 0 0 0 0 0 7 6 7 7 6 t t 7 1 0 0 7 6 te e 0 0 7 7=6 7 7 6 7 1 7 6 0 0 et 0 7 0 1 0 5 4 5 t 1 0 t 1 0 0 et et 0
0
0
32
3
2 1 1 1
1
6 76 76 7 6 76 76 7 6 1 2 1 1 7 6 tet et 0 0 76 1 2 1 1 7 76 76 7 =6 6 76 76 7 t 6 1 1 2 1 76 0 0 e 0 76 1 1 2 1 7 4 54 54 5 1 1 1 1 0 0 te t e t 1 1 1 1 t
t
2e + te 6 6 t 6 e + 2tet =6 6 t 6 e + tet 4 et + tet
e
t
t
e
e
e
t
2et
e
t t
e
t
et
e
t
e
t
et
e
t
y la solucion es entonces:
2
te
te
t
te
t
t
2
1 6 7 6 6 7 6 6 1 7 6 7 6 etA 6 6 7=6 6 1 7 6 4 5 4 1
341
3e t
+e
te 3
3e
t
e
t
e
t
e
t
e
t
3 7 7 7 7 7 7 5
t t
te te
t t
t
te
2tet
2e
t
te
t
tet
3e
t
te
t
tet
t
3e
3
7 7 3et 7 7 t 7 2e 7 5 t 2e
13.6.
Ejercicios
1. Hallar una base de R4 para obtener la forma normal de Jordan de la transformacion lineal t : R5 ! R5 cuya matriz en 2 2 1 6 6 6 2 2 6 6 jtjC = 6 1 1 6 6 6 1 1 4 1 1 El polinomio minimal de t es mt = (x
la base canonica es: 3 3 0 1 7 7 4 0 1 7 7 7 2 0 1 7 7 7 4 1 2 7 5 3 0 2
1)3 .
2. Sea t : R5 ! R5 la transformacion lineal cuya 2 1 0 0 6 6 6 2 2 1 6 6 jtjC = 6 1 0 1 6 6 6 1 1 1 4 0 0 0
matriz en la base canonica es: 3 1 0 7 7 0 1 7 7 7 6 0 7 7 7 2 1 7 5 1 1
que tiene por polinomio minimal a mt (x) = x4
2x3 + x.
i) Hallar la descomposicion primaria de t. ii) Encontrar la Forma normal de Jordan de t. iii) Determinar la solucion general del sistema de ecuaciones diferenciales dado por: X (t) = AX (t) 3. Demostrar que toda matriz A 2 K n
n
es semejante a su traspuesta t A.
4. >Cuantas matrices nilpotentes de rango 3 hay en R6 6 , no semejantes dos a dos? 342
5. Sea A 2 K 3
3
una matriz nilpotente y tal que la ecuacion X 2 = A no tiene
solucion en K 3 3 . Hallar la Forma Normal de Jordan de A. 6. Analizar la existencia de soluciones de la ecuacion X 2 = A, i) para X; A 2 Rn
n
, ii) para X; A 2 Cn
7. Sea A 2 K 4
4
n
.
una matriz nilpotente. Hallar todos los posibles valores de la
dimension del conmutador de A, es decir dim B 2 K 4
4
: AB = BA
8. Sea t 2 EndK (V ). El conmutador de t es el subespacio de EndK (V ) dado por: C (t) = fu 2 EndK (V ) : ut = tug i) Probar que dim(C (t)) es mayor o igual que el grado del polinomio minimal de t. ii) V es c clico si y solo si, dim(C (t)) = dim (V ). iii) Caracterizar los elementos inversibles en C (t) en el caso en que V sea c clico. 9. Sea A 2 Cn
n
y v 2 Cn un vector propio de A con valor propio . Probar que
eA :v = e v. 10. Sea A 2 Cn
n
, probar que det eA = etr(A) .
11. Sea A 2 Cn
n
, probar que tr eA = e 1 + e 2 +
+e
n
donde
1; : : : ;
n
son
las ra ces del polinomio caracter stico de A, contadas con multiplicidad. 12. Sea A 2 Cn
n
, expresar el polinomio caracter stico de eA en funcion de los
valores propios de A.
343
Referencias [1] Bellman, R :Introduccion al Analisis matricial. Ed. Reverte. 1965. [2] Faddieed, D., Sominnski, I: Problemas de Algebra Superior. Ed. Mir. 1971. [3] Gentile, Enzo R.. Espacios vectoriales.Ed. Functor, 1968. [4] Gantmacher, F. R.: The Theory of Matrices. Ed. Chelsea Pub. Co., N.Y. 1960. [5] Hernandez, E.: Algebra y Geometr a. Addison-Wesley/Universidad Autonoma de Madrid. 1994 [6] Ho man, K.,Kunze, R.: Algebra Lineal. Ed. Prentice Hall International. 1981. [7] Larotonda,: Algebra Lineal y Geometr a. Ed. EUDEBA. 1977. [8] Maltsev, A. I.: Fundamentos de Algebra Lineal. Ed. Mir. 1978. [9] Noble, B., Daniel, J.W.: Algebra Lineal Aplicada. Ed. Prentice Hall International. 1989. [10] Proskuriakov, I. V.: 2000 Problemas de Algebra Lineal. Ed. Reverte. 1978.
344