´ Algebra Lineal Jorge Luis Arocha versi´on compilada el 25 de abril de 2011
Jorge Luis Arocha P´erez Instituto de Matem´aticas Universidad Nacional Aut´onoma de M´exico M´exico D.F. 04510
BibTeX: @textbook{ArochaLA AUTHOR = {Arocha, Jorge L.} TITLE = {\’Algebra Lineal} YEAR = {2011} NOTE = {Available at combinatoria.matem.unam.mx} }
Mathematics Subject Classification 2000: 00–01, 12–01, 15–01
c °2011 Jorge Luis Arocha P´erez Permitida la reproducci´on para uso individual y no comercial. Todos los dem´as derechos est´an reservados.
Introducci´on ´ Este libro lo escrib´ı como texto b´asico para el curso de “Algebra Lineal” para estudiantes de Licenciatura que he impartido por muchos a˜nos en la Facultad de Ciencias de la Univer sidad Nacional Aut´onoma de M´exico. ´ Se presupone que los estudiantes hayan cursado ya las materias de “Algebra superior” y “Geometr´ıa Anal´ıtica” o sea tengan ciertos conocimientos sobre matrices, vectores, polino mios, n´umeros complejos, etc. El objetivo es desarrollar el a´ lgebra lineal sobre campos arbitrarios pero se hace e´ nfasis en los reales, los complejos y los residuos m´odulo un n´umero primo. Despu´es de una intro ducci´on corta a la teor´ıa de campos se estudian los espacios vectoriales, las transformaciones lineales, los determinantes y finalmente los teoremas de descomposici´on de operadores. Por ahora, este libro no contiene pr´acticamente nada de transformaciones bilineales, pro ductos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes est´a escribir una segunda parte o aumentar este libro con cap´ıtulos sobre estos temas. El material que comprende este libro es demasiado para un semestre y usualmente yo imparto en un semestre de los cap´ıtulos I—IV aquellas secciones que no est´an marcadas como avanzadas. Un segundo semestre podr´ıa comenzar con las secciones de polinomios so bre campos, continuar con la descomposici´on de operadores lineales y terminar con aquellos temas que ya se˜nal´e, faltan aqu´ı. Otras secciones las escrib´ı porque me parecieron un buen material de lectura complementaria para los alumnos curiosos. Este libro es inusualmente colorido y visualmente agresivo. La raz´on de esto es que cuando estaba en el papel de alumno yo prefer´ıa estudiar por las libretas de notas de mis compa˜neras de clase. Se me hac´ıa muy f´acil memorizar la imagen completa de una p´agina llena de rayas, ores, corazones etc. y dentro de todo esto, las matem´aticas. La idea es que cada p´agina luzca visualmente diferente. He tratado dentro de lo posible, lograr esto. Los caracteres de matem´aticas est´an en un color diferente. El texto y las secciones avan zadas est´an marcados con un birrete. Uso unos lentes para marcar aquello que el lector no debe dejar pasar. Errores comunas que cometen los que no est´an familiarizados con el mate rial est´an marcados con calaveras. Los teoremas est´an resaltados visualmente, etc. Se incluyen m´as de un centenar de ejercicios. Los ejercicios m´as notables consisten en material adicional que un estudiante de matem´aticas o f´ısica debe conocer tarde o temprano. Las soluciones de los ejercicios no rutinarios se dan al final del libro. He compilado un glosario de t´erminos que es a la vez un ´ındice del libro y un diccionario de los conceptos introducidos y/o usados. Finalmente, incluyo una gu´ıa de estudio. De esta gu´ıa yo escojo las preguntas para los ex´amenes. Esto representa una ventaja enorme para los estudiantes ya que una de las dificul tades m´as importantes de ser estudiante es comprender que es lo que se espera de ellos. Jorge Arocha M´exico D.F. Diciembre de 2010
IV
Cap´ıtulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 1
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4). Distributividad (5). El a´ lgebra “abstracta”(5).
1.2 N´umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (7). Reales (8). Com plejos (9).
1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi ci´on de morfismos (13).
1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El anillo de los enteros m´odulo n (14). Dominios de integridad (14). El campo de los enteros m´odulo p (15).
1.5 Campos primos. Caracter´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10 13 16
Campos primos (16). Caracter´ıstica (18).
1.6 Aritm´etica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
M´ultiplos y exponentes enteros (18). Asociatividad general (19). Distributividad gene ral (19). F´ormula multinomial (19). La expansi´on de ΠΣαij (21).
*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
Suma y producto de polinomios (22). Divisi´on de polinomios (22). Factores y raices (23). Ideales de polinomios (24). Unicidad de la factorizaci´on en irreducibles. (25). Desarrollo de Taylor (26).
*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
Forma polar. Igualdad de Moivre (27). Continuidad (29). L´ımite de sucesiones com plejas (30). Teorema de Gauss (31).
*1.9 Factorizaci´on de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . .
32
Caso Complejo (32). Caso real (33).
*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
Campos de fracciones (34). Funciones racionales (36).
*1.11 Anillos con divisi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
Quaterniones (37). Caso finito (38).
Cap´ıtulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Definici´on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El espacio de nadas Kn (41). El espacio de polinomios K [x] (42). El espacio de sucesiones KN (42). El espacio de series K [[x]] (42). El espacio de funciones KN (42). El espacio de Nadas KN (43). El espacio de Nadas con soporte finito K{N } (43). Subcampos (44). El espacio de Nadas de vectores EN (44). El espacio de NM matrices KN M (44). El espacio de tensores (45).
39 39 40
Contenido
VI
2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
Uni´on e intersecci´on de subespacios (46). Combinaciones lineales (47). Cerradura li neal (48).
2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
Conjuntos generadores (49). Conjuntos linealmente independientes (50). Bases (51). Dimensi´on (52). Bases can´onicas (54).
2.5 Clasificaci´on de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
Isomorfismos lineales (55). Coordinatizaci´on (57). Clasificaci´on (57). Campos de Ga lois (58). Como pensar en espacios vectoriales (58).
2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
Subespacios de R (59). Suma de conjuntos y subespacios (60). La igualdad modular (61). Suma directa (62). Isomorfismo can´onico entre la suma y la suma directa. (62). Subespacios complementarios (63). Espacios vectoriales versus conjuntos (64). n
2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
Subespacios afines (65). El espacio cociente (66). El isomorfismo con los complemen tarios (67).
*2.8 El espacio af´ın. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
La regla del paralelogramo (69). Cerradura af´ın (69). Generadores e independencia (70). Bases afines (70).
*2.9 El caso de dimensi´on infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
El Lema de Zorn (72). Existencia de bases (72). Cardinales (73). Equicardinalidad de las bases (73).
Cap´ıtulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Definici´on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75 75
Imagenes de subespacios (75). Homotecias (76). Inmersiones (77). Proyecciones (77).
3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
78
El espacio vectorial de las transformaciones lineales (78). Composici´on de transfor maciones lineales (79). El a´ lgebra de operadores lineales (80). El grupo general lineal (81).
3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
Extensiones y restricciones (81). El isomorfismo entre FN y Mor (E, F) (82). Un cri terio de isomorfismo (83).
3.4 Coordinatizaci´on de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . .
83
El producto escalar can´onico (85). El producto de matrices (85). Productos de matri ces y vectores (86). La transformaci´on lineal de una matriz (86). La matriz de una transformaci´on lineal (87). Composici´on de TLs y producto de matrices (87). Matrices inversas (88).
3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
Cambios de base en un espacio vectorial (89). Cambios de base en el espacio de trans formaciones lineales (90). Cambios de base en el espacio de operadores lineales (91). La transformaci´on lineal tanspuesta (92).
3.6 El nucleo y la imagen de una transformaci´on lineal . . . . . . . . . . . . . . . . . . . . . Definiciones (93). Transformaciones lineales con nucleo trivial (94). Descomposici´on de transformaciones lineales (94). La descomposici´on de la transpuesta (95). Un crite rio de isomorfismo (95). Descomposici´on can´onica de transformaciones lineales (96).
93
Contenido *3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . . . .
VII
97
Trasformaciones semilineales reales (97). Propiedades de las transformaciones semili neales (98). Automorfismos semilineales. (98). Coalineaciones (99). Estructura de las coalineaciones (100).
Cap´ıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
105 105
El grupo sim´etrico (105). Ciclos (106). El grupo alternante (107). El signo de una permutaci´on (108).
4.2 Propiedades b´asicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
108
Definici´on de los determinantes (109). Determinantes de matrices peque˜nas (109). El determinante de la identidad (110). Matrices con filas nulas (111). El determinante de la transpuesta (111). Matrices con filas iguales (111). Permutaciones de columnas y renglones (112). El determinante del producto (112). Matrices de permutaciones (113).
4.3 Expansi´on de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
114
Cambios de ´ındices (114). Complementos algebraicos (116). La expansi´on de un de terminante por sus renglones (116). La expansi´on de Laplace en forma gr´afica (117). Multinearidad de los determinantes (118). La inversa de una matriz (119). El determi nante de un operador lineal (121).
*4.4 La expansi´on generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121
Matrices diagonales y triangulares por bloques (122). La expansi´on generalizada de Laplace en forma gr´afica (123).
4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
125
Matrices no singulares (125). Espacios de columnas y renglones (125). Lema de au mento de matrices no singulares (126). Bases de una matriz (126).
4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
127
Regla de Cramer (128). Existencia de soluciones (129). Eliminaci´on de ecuaciones dependientes (130). El nucleo y la imagen de una matriz (131). Bases del subespacio af´ın de soluciones (131).
4.7 M´etodo de eliminaci´on de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
132
Transformaciones elementales (132). Ejemplo (133). El caso general (133). Soluci´on de ecuaciones matriciales, matriz inversa (134).
Cap´ıtulo 5 Descomposici´on de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
137 137
Subespacios invariantes, componentes irreducibles (138). Ejemplos en dimensi´on 2 (139). Las matrices y los subespacios invariantes (140).
5.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
141
El morfismo de K [x] en End (E) (141). La sub´algebra K [h] (142). El polinomio m´ıni mo (142). El per´ıodo de un vector (143). Anuladores (144). Nucleos de polinomios de operadores lineales (144). Conjuntos de vectores y polinomios (145).
5.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
146
Operadores lineales radicales (147). Componentes radicales (148). Existencia de un vector de per´ıodo m´aximo (149).
5.4 El espacio cociente por un subespacio invariante . . . . . . . . . . . . . . . . . . . . . . . Polinomios y el espacio cociente (151).
150
VIII
Contenido 5.5 Subespacios c´ıclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
152
Conjuntos hgeneradores (153). Conjuntos hindependientes (154). hbases (155).
5.6 Descomposici´on en subespacios c´ıclicos radicales. . . . . . . . . . . . . . . . . . . . . . 5.7 Estructura de los operadores c´ıclicos radicales . . . . . . . . . . . . . . . . . . . . . . . . . .
156 161
Subespacios invariantes (161). Formas can´onicas (162). ∇ = 1 (165). ∇ = 2 (165). Usando la base can´onica (167).
5.8 Polinomio caracter´ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
168
Rectas invariantes (168). El polinomio caracter´ıstico de un operador lineal (168). El polinomio caracter´ıstico y el polinomio m´ınimo (169).
Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
173
Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
185
Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
197
Gu´ıa de estudio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
201
IX
El a´ lgebra es la oferta hecha por el Diablo a los matem´aticos. El Diablo dice: “Yo te dar´e a ti esta poderosa maquinaria que responder´a cualquier pregunta que tu quieras. Todo lo que se necesita que tu hagas es entregarme tu alma: dame la geometr´ıa y tendr´as esta maravillosa m´aquina” ... el da˜no a nuestra alma est´a ah´ı, porque cuando usted pasa a hacer c´alculos algebraicos, esencialmente usted deja de pensar ...
Sir Michael Atiyah
X
Capítulo primero
Campos l objeto del a´ lgebra lineal es el estudio de los espacios vectoriales. Estos espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares. Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores, la suma resta multiplicaci´on y divisi´on de escalares y la multiplicaci´on de escalares por vectores. La mayor´ıa de los temas estudiados en este libro no dependen del conjunto de escalares y el lector puede casi siempre considerar que los escalares son los reales R y que el espacio vectorial es el espacio “geom´etrico” com´un Rn . Sin embargo, como esta teor´ıa no depende (al menos en gran parte) del conjunto de escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem´aticas y las ciencias naturales) es conveniente elevar un paso el nivel de abstracci´on y pensar que el conjunto de escalares es un campo arbitrario K . El primer objetivo de este cap´ıtulo es dar al lector un conocimiento b´asico de lo que es un campo. Esto se pretende lograr por tres medios: dando la definici´on formal, estudiando algunas propiedades (como la caracter´ıstica) de los mismos, viendo que las reglas usuales de manipulaci´on de f´ormulas en un campo no se diferencian esencialmente de las f´ormulas en los reales y sobre todo, dando los ejemplos fundamentales de campos. Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi cientes en un campo. En particular, los teoremas de descomposici´on en factores de polino mios complejos y reales ser´an fundamentales para, en un cap´ıtulo posterior, desarrollar la descomposici´on de Jord´an de operadores lineales.
1.1 Operaciones binarias Sea A un conjunto. Una operaci´on binaria es una funci´on del producto cartesiano A×A en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hace corresponder un tercer elemento de A. Demos algunos ejemplos sencillos: 1) a + b 2) a − b 3) ab 4) ab
suma resta producto divisi´on
5) 6) 7) 8)
ab loga b mcd (a, b) mcm (a, b)
exponenciaci´on logaritmo m´ax com´un divisor m´ın com´un m´ultiplo
2
Cap´ıtulo 1. Campos
Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual conjunto est´a definida la operaci´on. Esto no es correcto formalmente, as´ı por ejemplo la divisi´on es una operaci´on que no est´a definida en el conjunto de los n´umeros enteros. Sin embargo el lector podr´a f´acilmente encontrar los conjuntos en los cuales estos ejemplos son operaciones binarias.
Ejercicio 1 ¿En cuales conjuntos las operaciones 18 est´an correctamente definidas? [173] Ejercicio 2 ¿Que es una operaci´on unaria? De ejemplos. [173] Ejercicio 3 Dados tres n´umeros reales a, b, c definamos A (a, b, c) como el area del tri´an gulo con lados a, b y c. ¿Es esta una operaci´on ternaria en R? [173] Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones 46. Lo que tienen en com´un, es que no nos alcanza una l´ınea de s´ımbolos para escribirlas. Necesitamos subir y/o bajar adem´as de movernos de derecha a izquierda. O sea, necesitamos dos dimensiones para escribirlas. Quiz´a sea m´as ilustrativo, poner un ejemplo m´as complejo ¢ R ¡ de notaci´on dos dimensional. La integral en el recuadro a la π/4 x derecha est´a bien definida para cualesquiera valores reales a, b 0 a sin x + b sin 2 dx y por lo tanto es una operaci´on binaria definida en R. M´as sencillos son los ejemplos de notaciones lineales 13,78. En realidad, para las no taciones lineales solo hay tres posibilidades: ◦ (a, b) notaci´on prefija o funcional a◦b notaci´on operacional (a, b) ◦ notaci´on sufija Las operaciones 13 est´an en notaci´on operacional y las operaciones 78 est´an en nota ci´on prejija. La notaci´on sufija es u´ til sobre todo en la programaci´on de compiladores para lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo m´as f´acil es decirle a una computadora “toma el n´umero a” , “toma el n´umero b” ,“s´umalos” y no hacerlo de otra manera.
Ejercicio 4 La notaci´on sufija para a (b + c) /2 es bc + a × 2÷ . ¿Cual ser´a la notaci´on sufija para la expresi´on (a + b) (x + y)? [173]
Cualquier intento, de tratar de unificar las notaciones usadas en la comunicaci´on entre humanos, solo llevar´ıa a confusiones mucho peores. Sin embargo, tenemos la libertad de es coger una notaci´on unificada para las operaciones binarias abstractas que definamos. De una vez, postularemos que siempre usaremos la notaci´on operacional para definir operaciones binarias abstractas.
Secci´on 1.1
Operaciones binarias
3
Recalquemos que una operaci´on “abstracta” no significa nada m´as que es una operaci´on que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Despu´es, tempranamente en el estudio de las matem´aticas, la expresi´on a+b significa que a un n´umero a (no se sabe cual) le sumamos un n´umero b (tampoco se sabe cual). Ahora, la expresi´on a+ b significar´a que a un objeto a (n´umero, polinomio, matriz , quien sabe que) le “sumamos” (no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho). Conmutatividad ¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23 ? No. Una operaci´on binaria denotada por ◦ y definida en el conjunto A se dice que es conmutativa si se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa es la propiedad m´as sencilla que diferencia las operaciones binarias. ∀a, b ∈ A a◦b=b◦a
Ejercicio 5 ¿Cuales de las operaciones 19 son conmutativas? [173] Asociatividad ¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿No ser´a que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) . Una operaci´on binaria denotada por ◦ y definida en el con junto A se dice que es asociativa si se cumple la propiedad en ∀a, b, c ∈ A a ◦ (b ◦ c) = (a ◦ b) ◦ c el recuadro de la derecha. Los estudiantes preuniversitarios se encuentran por primera vez con la dificultad de una operaci´on no asociativa en el caso de la operaci´on de exponen 3 ciaci´on. A esta temprana edad es muy necesario insistir que la expresi´on 22 es ambigua ¡ ¢3 3 porque 2(2 ) = 256 6= 64 = 22 .
Ejercicio 6 ¿Cuales de las operaciones 19 son asociativas? [173]
La asociatividad de una operaci´on es una propiedad crucial. Sin esta propiedad, el manejo algebraico de una operaci´on se complica bastante. Es m´as, gracias a ella podemos introducir la notaci´on de la operaci´on “re 11 petida”. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar la suma P a a1 +a2 +· · ·+a11 podemos usar la notaci´on (mucho m´as c´omoda) que se muestra n=1 n en el recuadro a la derecha. Esta notaci´on no requiere de la conmutatividad de la operaci´on “suma” gracias a que los ´ındices tienen un orden y sabemos cual elemento debe ir primero y cual despu´es. Si tenemos que la operaci´on es no solamente asociativa sino tambi´en conmutativa enton ces podemos ser m´as generosos con esta notaci´on.
Cap´ıtulo 1. Campos
4
Supongamos que aρ , a` , aκ , a9 y a∇ son elementos de un conjunto con una suma asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) la n∈N podemos denotar por la expresi´on en el recuadro a la izquierda, donde N es el conjunto de ´ındices {ρ, κ, `, ∇, 9}. Si la operaci´on binaria definida entonces es usual, P no se llama “suma” sino “producto”,Q en lugar de usar la letra griega (sigma may´uscula), usar la letra griega (pi may´uscula). Podemos, en este caso, usar la primera o segunda notaci´on dependendiendo de si nuestro producto es conmutativo o no. P
an
Elementos neutros La suma de n´umeros naturales tiene un elemento especial y u´ nico: el cero. Su propie dad definitoria es que cualquier n´umero sumado con cero da el mismo n´umero. La misma propiedad la tiene el uno con respecto al producto de n´umeros naturales. Para una operaci´on binaria denotada por ◦ y definida en el con ∀a ∈ A junto A se dice que e ∈ A es un elemento neutro si este cumple la a ◦ e = e ◦ a = a propiedad en el recuadro. Una operaci´on binaria no puede tener m´as de un elemento neutro. Efectivamente, sean e y e0 elementos neutros. Por ser e neutro, tenemos e ◦ e0 = e0 . Por ser e0 neutro, tenemos e ◦ e0 = e. De estas dos igualdades obtenemos e = e0 .
Ejercicio 7 ¿Cuales de las operaciones 19 tienen neutro? [173] Los elementos neutros juegan un papel importante en las notaciones para operaciones repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean adem´as N y M dos conjuntos finitos de ´ındices disjuntos. Naturalmen Q Q Q ai • ai = ai te, de la definici´on se sigue la propiedad del recuadro a la i∈N i∈M i∈N∪M izquierda. Pero ¿que pasa si alguno de los conjuntos de ´ındices (digamos M) es vac´ıo? Si queremos que esta propiedad se conserve entonces observamos que Y Y Y Y ai • ai = ai = ai i∈N Q
i∈∅
i∈N∪∅
i∈N
por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operaci´on (si no hay neutro entonces estamos en problemas). Es por esto, como el lector seguramente ya sabe, que la suma vac´ıa de n´umeros es igual a cero y el producto vac´ıo de n´umeros es igual a uno. Elementos inversos Para cada n´umero entero a hay un u´ nico n´umero −a tal que sumado con a da cero. Ge neralizemos esta propiedad a operaciones binarias arbitrarias. Sea ◦ una operaci´on binaria en el conjunto A con elemento neutro. Se dice que a ∈ A tiene elemento a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda.
Secci´on 1.1
Operaciones binarias
5
Para cualquier operaci´on binaria asociativa el elemento inverso de otro es u´ nico. Efecti vamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = c o sea que b y c tienen que ser el mismo.
Ejercicio 8 Describa los inversos en las operaciones 19. [174] Distributividad Frecuentemente nos encontramos con conjuntos en los cuales hay m´as de una operaci´on binaria definida. El ejemplo m´as sencillo son los naturales en los que sabemos sumar y sabe mos multiplicar. Estas dos operaciones est´an relacionadas con la propiedad de que podemos sacar factor com´un o sea ax + ay = a (x + y). Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ A conjunto A. Se dice que la operaci´on ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ◦ (a ¦ c) respecto a la operaci´on ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) recuadro. Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a ¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma: a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva respecto al producto: a + (bc) 6= (a + b) (a + c).
Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas una con respecto a la otra. [174] El a´ lgebra “abstracta” Filos´oficamente, el concepto de “abstracci´on” es la propiedad, que tiene el pensamiento humano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objeto o fen´omeno, y olvidarnos de las restantes. La abstracci´on es imprescindible para el lenguaje. El concepto “silla” nos permite reco nocer una silla, independientemente si esta es de madera, de hierro, pl´astica, grande, c´omoda, con tres, cuatro o cinco patas etc. Casi cada palabra del espa˜nol (y de cualquier idioma) re presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo. La ciencia lleva este nivel de abtracci´on a un nivel a´un mayor. Parte de este conoci miento cient´ıfico, pasa al conocimiento p´ublico. Baste recordar conceptos como: velocidad, volumen, higiene, ADN, penicilina, electr´on, metal, colesterol, tri´angulo, etc. Algunos de los mencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayor´ıa de estos conocimientos queda solamente en manos de los especialistas en la materia. Con las matem´aticas pasa igual. No hace falta saber que la suma de naturales es una operaci´on binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de
6
Cap´ıtulo 1. Campos
“operaci´on” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa mente “nuevo”. En la primera mitad del siglo XX, progresivamente, la comunidad matem´atica se fu´e dan do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac tas. Tanto fu´e el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar “Algebra moderna”. Otros a´un m´as entusiastas, m´as fr´ıvolos y con muchas ganas de vender sus libros le llamaron “Matem´atica moderna”. En la actualidad este lenguaje es parte in tr´ınseca e indivisible del pensamiento en matem´aticas y cualquier calificaci´on de “moderna” suena muy tonta. Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac ta”. Esto, en mi opini´on, aunque m´as moderado, tampoco tiene ning´un sentido. Toda a´ lgebra es abstracta, de hecho, todas las matem´aticas son abstractas. Estoy convencido de que, el tiempo se encargar´a de acabar con todos estos calificativos.
´ 1.2 Numeros En esta secci´on repasaremos los principales tipos de n´umeros que el lector ya conoce: naturales, enteros, racionales, reales y complejos. Esto nos dar´a la posibilidad de introducir las definiciones m´as b´asicas del a´ lgebra: grupos, anillos y campos. Naturales Hay una frase famosa que dice “Dios hizo los naturales y el hombre todo lo dem´as”. El conjunto de los n´umeros a veces b veces naturales N = {0, 1, 2, ...} es el conjunto de los cardinales de los conjuntos finitos. En N hay dos operaciones binarias bien definidas: la suma y el producto. De hecho, el producto es una operaci´on derivada de la suma y la suma solo se puede definir en t´erminos de conjuntos. Por ejemplo, a + b es el cardinal de la uni´on de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b. Como la uni´on de conjuntos es asociativa tambi´en lo es la suma de naturales. De la definici´on se obtiene que el producto de naturales tambi´en es asociativo. Tanto la suma como el producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elemento neutro 1. El producto es distributivo respecto a la suma. ab = a ... + a} = |b + {z ... + b} | + {z
Enteros Ning´un elemento de N salvo el cero tiene inverso para la suma. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c n´umeros negativos Z− = {−1, −2, −3, ...} y en el conjunto −b + (−a) = − (a + b) Z = N ∪ Z− de los n´umeros enteros definimos la suma como la operaci´on conmutativa definida por las propiedades en el recuadro a la derecha.
Secci´on 1.2
N´umeros
7
Grupos Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento tiene inverso. O sea los enteros dan el primer ejemplo G1) la operaci´on es asociativa de grupo. A un conjunto no vac´ıo con una operaci´on bi G2) tiene elemento neutro naria se le llama grupo si se cumplen los tres axiomas G3) todo elemento tiene inverso G1G3. A los grupos cuya operaci´on es conmutativa se les llama abelianos en honor al matem´atico noruego Niels Henrik Abel (18021829). Abel fu´e el que resolvi´o el problema algebraico m´as importante de su e´ poca. Demostr´o, que no existen f´ormulas en radicales para resolver las ecuaciones polinomiales de grado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cuales si hay f´ormulas generales). Al momento de encontrar esta demostraci´on, el problema ya duraba varios siglos sin resolverse. Abel muri´o a los 26 a˜nos a causa de una neumon´ıa. Anillos La operaci´on de producto de naturales se extiende f´acilmente al a (−b) = − (ab) conjunto de los enteros mediante las reglas en el recuadro. Nuevamente (−a) b = − (ab) el producto es asociativo,conmutativo y distributivo con respecto a la (−a) (−b) = ab suma. O sea los enteros tambi´en dan el primer ejemplo de anillo. Un conjunto A no vac´ıo con dos operaciones bi A1) (A, +) es un grupo abeliano narias + y • se le llama anillo si se cumplen los A2) • es asociativa axiomas en el recuadro a la izquierda. Si el anillo A3) • es distributiva con respecto a + es tal que la operaci´on • es conmutativa entonces A4) • tiene elemento neutro se dice que tenemos un anillo conmutativo. En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para el producto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la suma de un elemento se le llama su opuesto. Al inverso con respecto al producto de un elemento se le llama inverso multiplicativo o simplemente inverso a secas. Observemos que si a es un elemento de un anillo entonces a • 0 + a = a • (0 + 1) = a y debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que 0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de un solo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aqu´ı se desprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradicci´on. En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a. Como 1 × 1 = 1 tenemos 1−1 = 1. Tambi´en (−1)−1 = −1 ya que si a = −1 entonces 0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo 1 y −1 tienen inversos. En Z ning´un elemento salvo 1 y −1 tiene inverso. Normalmente en la definici´on de anillo no se pide el axioma A4. En este caso, a los anillos que tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros todos los anillos son unitarios.
8
Cap´ıtulo 1. Campos
Racionales Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio nes y con ellas el conjunto de n´umeros racionales Q. Una fracci´on es un par ordenado de n´umeros enteros denotado por a/b donde b 6= 0. Dos fraccio c a = ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro. b d Los n´umeros racionales Q son las fracciones con la relaci´on de igualdad as´ı definida. Los enteros son parte de los racionales por cuanto podemos identificar cada n´umero entero a ∈ Z con la fracci´on a/1. La suma y el producto de n´umeros racionales se definen por las igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • b b•d suma forman un grupo abeliano y otra vez el producto es aso b d a c a • c ciativo, conmutativo, tiene elemento neutro y es distributivo con • = respecto a la suma. La diferencia es que ahora todo elemento di b d b • d ferente de cero tiene inverso multiplicativo. O sea los racionales nos dan el primer ejemplo de campo. Un conjunto K no vac´ıo con dos operaciones bi C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los C2) (K\0, •) es un grupo abeliano tres axiomas C1C3. En otras palabras un campo C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento diferente de cero tiene inverso multiplicativo.
Ejercicio 10 Si ◦ es una operaci´on en A entonces, en A2 est´a definida la operaci´on por
coordenadas (x, y) ◦ (x0 , y0 ) = (x ◦ x0 , y ◦ y0 ). Pruebe¡ que si (A, ¡ 2 ¢ ¢ ◦) es un grupo entonces A , ◦ es un grupo, si (A, +, •) es un anilloentonces, A2 , +, • es tambi´en un anillo.
Ejercicio 11 Sea ¡(K, +, •)¢un campo. Como K es un anillo conmutativo entonces, por el 2 2
ejercicio anterior, K , +, • tambi´en es un anillo conmutativo. ¿Ser´a K un campo? [174] Reales Dicen que cuando Pit´agoras (Samos 569475 A.C.) descubri´o que la longitud de la hipotenusa de un tri´angulo rect´angulo con cate tos de longitud uno no es un n´umero racional √ qued´o horrorizado. A nosotros nos parece esto 2 una exageraci´on. Sin embargo, si nos ponemos 1 en el lugar de Pit´agoras comprenderemos que 1 en aquel momento era inconcebible que existan √ p n´umeros que no sean cociente de dos enteros. 2= 6 La pintura a la izquierda es un detalle del fres q co de Rafael “La escuela de Atenas” en la cual supuestamente, se muestra a Pit´agoras.
Secci´on 1.2
N´umeros
9
√ Sigamos a Pit´agoras y probemos que efectivamente 2 no es un racional. Para√esto denotemos ° 2 por °2 2el° n´umero de veces que el natural a se divide entre 2. Tenemos 2 = ° kak p ° ° ⇒ 2q 2 = °p °2 ⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradicci´on ya que un q n´umero impar no puede ser igual a uno par. √
Ejercicio 12 Sea n un n´umero natural. Pruebe que n es un natural o no es racional. [174] √ Ejercicio 13 Basandose en el anterior de otra prueba de que 2 no es racional. [174] Esto motiva la construci´on de los n´umeros reales R. La construci´on de los reales es un proceso complicado y se han descubierto muchas formas de formalizar esta construci´on siendo la m´as popular la de las cortaduras de Dedekind. Para nuestros prop´ositos basta una definici´on menos formal y m´as intuitiva: un n´umero real es simplemente un l´ımite de ra cionales. Las propiedades de la suma y producto de racionales se traspasan f´acilmente a los reales usando las propiedades del l´ımite de sucesiones. De esta manera obtenemos nuestro campo principal (R, +, •) . El campo de los reales se destaca porque es ordenado (siempre podemos decidir si un n´umero real es mayor, menor o igual a cero) y porque es cerrado (el l´ımite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de que el espacio en que vivimos es (o al menos nos parece que es) R3 .
Ejercicio 14 Pruebe que la longitud de un segmento de recta es un n´umero real. [174] Complejos En 1546 Gerolamo Cardano public´o su libro “Ars Magna” en el cual di´o m´etodos (basa dos en parte en el trabajo de otros matem´aticos) para el calculo de las raices de los polinomios de grado 3 y 4. Estos m´etodos, a veces requer´ıan el extraer raices cuadradas de n´umeros ne gativos, incluso cuando el resultado final era un n´umero real. Rafael Bombelli estudi´o este asunto en detalle y es considerado como el descubridor de los n´umeros complejos. Para lograr que todos los √ polinomios tengan raices inven tamos el imaginario i = −1 y definimos que un n´umero (a + bi) + (a0 + b0 i) = complejo es algo de la forma a + bi donde a, b ∈ R. La (a + a0 ) + (b + b0 ) i suma y el producto de complejos se definen por las f´ormulas en los recuadros a la derecha y abajo a la izquierda. Las propiedades de la suma y el producto se desprenden in 0 0 (a + bi) × (a + b i) = mediatamente de sus definiciones y es f´acil comprobar que (C, +, •) es un anillo conmutativo. Para ver que es un cam (aa0 − bb0 ) + (ab0 + a0 b) i ¡ ¢−1 po, observamos que (a + bi)−1 = a2 + b2 (a − bi). La principal propiedad que hace que para muchas cosas el campo C sea el m´as simple es que el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado n > 0 con coeficientes en complejos tiene n raices complejas.
Cap´ıtulo 1. Campos
10
1.3 Morfismos En esta secci´on estudiaremos las funciones entre conjuntos con operaciones binarias. Morfismos de grupos Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Una funci´on f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ). Todo morfismo conserva las propiedades fundamentales de las operaciones binarias. M´as precisamente, si f : (A, ◦) → (B, •) es un morfismo entonces, 1. • es una operaci´on binaria dentro de la imagen de f. 2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f. 3. Si ◦ es asociativa entonces • es asociativa en la imagen de f. 4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f. 5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B. Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en A tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 ) (*) que prueba la primera afirmaci´on. Si ◦ es conmutativa entonces, usando (*) obtenemos b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1 por lo que • es tambi´en conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos (b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) = = f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 ) y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operaci´on ◦ entonces, b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1 f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1 por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces, f (a) • f (a0 ) = f (a ◦ a0 ) = f (e) f (a0 ) • f (a) = f (a0 ◦ a) = f (e) de lo que concluimos que f (a0 ) es el inverso de f (a).
Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1. ¿Y porqu´e siempre dentro de la imagen de f y no en todo B? La respuesta es que lo u´ nico que sabemos de B est´a dado por el morfismo. Aquellos elementos de B que no tienen pre imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos. De aqu´ı en lo adelante a la imagen de cualquier funci´on f (y en particular de un morfismo) la denotaremos por Im f.
Secci´on 1.3
Morfismos
11
Si (A, ◦) es un grupo entonces (Im f, •) es un grupo. Prueba. Por 1.1.1 • es una operaci´on binaria en Im f. Por 1.1.3 esta operaci´on es asociativa. Por 1.1.4 esta operaci´on tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im f tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos los axiomas de grupo. Recordemos que si f : A → B es una funci´on entonces al conjunto A se le llama dominio de f y al conjunto B codominio de f. Si el dominio y el codominio de un morfismo son grupos entonces se dice que este es un morfismo de grupos.
Ejercicio 16 Construya un morfismo inyectivo de (R, +) en (R, •). ¿Cual es su imagen? Morfismos de anillos ¿Y que pasa con la distributividad? ¿Tambi´en se conserva? El primer problema que te nemos que resolver es que en la distributividad est´an involucradas dos operaciones. Sean (A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Observese que estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar con cuatro s´ımbolos diferentes ya es demasiada confusi´on. Una funci´on f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ). Recalquemos que el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dos operaciones entonces, se requiere que la funci´on sea morfismo para cada una de ellas. Si • es distributiva con + en A entonces, • es distributiva con + en la imagen de f. Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) = = f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • c y esto prueba la tesis. Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es un morfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces se dice que este es un morfismo de campos.
Ejercicio 17 Demuestre que si (A, +, •) es un anillo y f : A → B es un morfismo entonces,
(Im f, +, •) es un anillo. Demuestre que lo mismo ocurre para los campos.
Cap´ıtulo 1. Campos
12
Ejercicio 18 Pruebe que si f : A → B es un morfismo de anillos y A es un campo entonces f es inyectivo. En particular todo morfismo de campos es inyectivo. [174] Isomorfismos A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con juntos con una como tambi´en con dos operaciones binarias. As´ı que tenemos isomorfismos de grupos, de anillos y de campos. Para cada isomorfismo f existe una funci´on inversa f−1 . ¿Cuando ser´a f−1 un morfismo? La respuesta es que siempre. La inversa de un isomorfismo es un isomorfismo. Prueba. Sea f : (A, ◦) → (B, •) un isomorfismo. Sean b1 , b2 cualesquiera elementos de B. Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). Tenemos f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 ) que es lo que se requer´ıa demostrar. Si el isomorfismo involucra dos operaciones binarias entonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis. Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ◦) → (B, •) es un isomorfismo entonces de que • es conmutativa implica que ◦ es conmutativa y en conclusi´on ◦ es conmu tativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existencia de neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que ◦ tiene ex´actamente las mismas propiedades de •. Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Para convencernos de esto supongamos que conocemos la operaci´on ◦ y conocemos el isomorfis mo f pero no sabemos nada de la operaci´on •. ¿Podremos ¡ calcular b1 • b2¢? La respuesta es si, lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) . Rec´ıprocamen te, ◦ se define de forma u´ nica por la operaci´on • y el isomorfismo f mediante la identidad a1 • a2 = f−1 (f (a1 ) ◦ f (a2 )). En conclusion ambas operaciones se definen una a otra. Para que el lector comprenda mejor eso de que ◦ y ◦ u v • 1 −1 • son la misma operaci´on veamos un ejemplo. Sea A el u u v 1 1 −1 conjunto de letras {u, v} y B el conjunto de los n´umeros v v u −1 −1 1 {1, −1}. Definamos las operaciones ◦ y • mediante las tablas del recuadro a la derecha. El lector debe observar que la segunda tabla es la tabla usual de multiplicaci´on de enteros. Adem´as, para obtener la segunda tabla de la primera lo u´ nico que necesitamos es cambiar ◦ por • , u por 1 y v por −1. Esto lo que quiere decir, es que la funci´on u 7→ 1 , v 7→ −1 es un isomorfismo de (A, ◦) en (B, •). El lector puede ver que ambas tablas son en esencia la misma, solamente que las notaciones para los elementos y la operaci´on est´an cambiadas. Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se dice que ellos son isomorfos. Etimol´ogicamente, la palabra “isomorfo” significa que “tie
Secci´on 1.3
Morfismos
13
nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dos son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las operaciones. Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos se les llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos de un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se les llama automorfismos. En otras ramas de las matem´aticas tambi´en se definen morfismos e isomorfismos. Sin embargo no siempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo, en topolog´ıa los morfismos son las funciones continuas. Pero la inversa de una biyecci´on continua no siempre es continua. Por esto, un isomorfismo de espacios topol´ogicos hay que definirlo como una biyecci´on continua cuya inversa es continua.
Composici´on de morfismos Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funci´on g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composici´on de f con g. A partir de ahora el s´ımbolo ◦ solo lo utilizaremos para denotar la composici´on de funciones. Observese el orden en que escribimos las funciones ya que la composici´on de funciones no es conmutativa. La composici´on de funciones es asociativa. Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definici´on de composici´on para cualquier a ∈ A tenemos (h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a) que es lo que se quer´ıa probar Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g y g ◦ f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f ◦ g tambi´en lo es. Las composici´ones de morfismos son morfismos. Prueba. Denotemos las operaciones en A, B y C con el mismo s´ımbolo •. Como f y g son morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) • g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar.
Ejercicio 19 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o dos operaciones binarias es un grupo con respecto a la composici´on de funciones.
Cap´ıtulo 1. Campos
14
1.4 Campos de restos Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy conocidos por el lector. Es imprescindible, para dar una intuici´on saludable de lo que es un campo, introducir otros que no sean tan usuales. En esta secci´on presentaremos ciertos cam pos que tienen un n´umero finito de elementos. Para construirlos, usaremos las propiedades de los morfismos de la secci´on anterior. El anillo de los enteros m´odulo n Sea n un n´umero natural mayor que 1. Para un entero a la a ¢ b = (a + b) mod n notaci´on a mod n significa el resto de la divisi´on de a entre n. a ¡ b = (ab) mod n O sea, el menor natural k tal que existe un entero t para los cuales a = k + tn. Por definici´on a mod n ∈ Zn = {0, 1, ..., n − 1} por lo que en Zn hay naturalmente definidas dos operaci´ones binarias como se muestra en el recuadro.
Ejercicio 20 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 . (Zn , ¢, ¡) es un anillo conmutativo. Prueba. Probemos que la funci´on f : (Z, +, •) → (Zn , ¢, ¡) dada por f (a) = a mod n es un morfismo de anillos. Observemos que por definici´on a¢b = f (a + b) y a¡b = f (ab) . Para cualesquiera x, y ∈ Z por definici´on de f existen enteros p, q tales que x = f (x) + qn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x − y es multiplo de n. Tenemos que f (x) + f (y) = x + y − (q + p) n y por lo tanto (f (x) + f (y)) − (x + y) es m´ultiplo de n. Luego, f (x + y) = f (f (x) + f (y)) o lo que es lo mismo, f (x + y) = f (x) ¢ f (y) y esto prueba que f es morfismo para la suma. Por otro lado f (x) f (y) = (x − qn) (y − pn) = xy + (nqp − yq − xp) n y por lo tanto (f (x) f (y)) − (xy) es m´ultiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo mismo, f (xy) = f (x) ¡ f (y) y esto prueba que f es morfismo para el producto. Como f es sobre, (Z, +, •) es anillo conmutativo y los morfismos preservan las propie dades de las operaciones, concluimos que (Zn , ¢, ¡) es tambi´en un anillo conmutativo. Hemos denotado la suma y el producto en Zn con los s´ımbolos extra˜nos ¢ y ¡. El objetivo de esto fu´e el asegurarnos que en la demostraci´on del resultado anterior el lector no se confundiera con la suma y el producto habitual de n´ume ros enteros. De ahora en lo adelante no haremos m´as esto. La suma en Zn se denotar´a con el s´ımbolo + y el producto, con la ausencia de s´ımbolo alguno, o a lo m´as, con un punto. Para poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones. As´ı por ejemplo, 2 + 3 = 5 si la suma es la habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 .
Secci´on 1.4
Campos de restos
15
Dominios de integridad Despu´es de saber que (Zn , +, ·) es un anillo conmutativo, lo natural es preguntarnos si este es un campo, ya que lo u´ nico que le falta a un anillo conmutativo para ser campo, es la existencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aqu´ı tenemos 2·3 = 0. Que raro, el producto de dos n´umeros diferentes de cero es igual a cero. ¿Es posible eso en un campo? Veremos que no. Un anillo conmutativo se le llama dominio de integridad si el producto elementos dis tintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios de integridad. Tambi´en, ya vimos que Z6 no es dominio de integridad. Todo campo es un dominio de integridad. Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el inverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Luego, q = 0. Luego, Z6 no es un campo. Este ejemplo se generaliza f´acilmente. Sea n = pq una descomposici´on en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y q est´an en Zn y que pq = n = 0 mod n. Luego, si n es un n´umero compuesto (no primo) entonces, Zn no es un dominio de integridad y por lo tanto no es un campo. El campo de los enteros m´odulo p Y ¿que pasa cuando p es primo? Zp es un dominio de integridad. Prueba. Sean x, y ∈ {1, . . . , p − 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego, en Z tenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede ser ya que ambos son menores que p. Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios de integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado. Todo dominio de integridad finito es un campo. Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay que demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo de A. Denotemos por fa la funci´on A 3 x 7→ ax ∈ A. Esta funci´on es inyectiva ya que (ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y Como fa es una funci´on inyectiva de un conjunto finito en si mismo es tambi´en sobreyectiva. Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, esto demuestra que a tiene inverso.
Cap´ıtulo 1. Campos
16
Como Zp es finito, concluimos inmediatamente que Zp es un campo si y solo si p es un n´umero primo. Los campos Zp son los primeros ejemplos de campos que tienen un n´umero finito de elementos. A los campos finitos se les lama campos de Galois en honor al matem´atico franc´es Evariste Galois (18111832). Al resolver el problema de encontrar cuales ecuaciones poli nomiales son solubles en radicales y cuales no, Galois de facto invent´o la Teor´ıa de Grupos. Galois muri´o a los 20 a˜nos en un duelo provocado por asuntos amorosos y/o pol´ıticos. El apellido Galois se pronuncia en espa˜nol como “galu´a”
Ejercicio 21 Halle los inversos de los elementos no nulos de Z5 . [174] Ejercicio 22 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativo de un campo es isomorfo a (Zq , +) . En particular, (Zp \0, •) es isomorfo a (Zp−1 , +). [175] Ejercicio 23 Demuestre que Z211 con las operaciones (a, b) + (a0 , b0 ) = (a + a0 , b + b0 ) y (a, b) (a0 , b0 ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos. [176]
1.5 Campos primos. Caracter´ıstica Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que es campo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L ∀c ∈ L\{0} se tienen que cumplir las siguientes propiedades 1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo) 2. ab ∈ L, c−1 ∈ L, (L\{0} es un subgrupo multiplicativo) Rec´ıprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma, opuesto, producto e inverso est´an correctamente definidas dentro de L y el tiene que contener a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con m´as raz´on se cumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobar las propiedades 1 y 2. El ejemplo m´as sencillo de esto es Q, que es subcampo R, que a su vez es subcampo de C. El concepto de subcampo incluye las operaciones. Si por un lado podemos consi derar a Zp = {0, 1, ..., p − 1} como subconjunto de Q, por el otro, Zp NO es un subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto en Q). De la misma manera, ning´un Zp es subcampo de Zq para p 6= q. Campos primos Todo campo es subcampo de si mismo. A los campos que no tienen ning´un subcampo distinto de si mismo se les llama campos primos. Los campos primos son los m´as sencillos y deduciremos cuales todos ellos.
Secci´on 1.5
Campos primos. Caracter´ıstica
17
Todo campo K contiene un u´ nico subcampo primo que est´a contenido en cualquier subcampo de K. Prueba. La intersecci´on de una colecci´on arbitraria de subcampos de K es un subcampo. Para ver esto observamos que si a y b pertenecen a todos los subcampos de la colecci´on entonces a + b tambi´en. Por lo tanto, a + b est´a en la intersecci´on de ellos. Lo mismo ocurre para el producto, para los neutros y los inversos. En particular, si nos fijamos en la intersecci´on de todos los subcampos de K, vemos que esta es un subcampo que no contiene subcampos y que est´a contenida en cualquier subcampo de K. El campo Q de los n´umeros racionales es primo. Prueba. Sea K un subcampo de Q. Tenemos 1 ∈ K y por lo tanto todas las sumas 1 + ... + 1 y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros est´an en K. Tambi´en los inversos multiplicativos de los n´umeros enteros y sus productos tienen que estar todos en K. Luego, todos los racionales est´an en K. Los campos Zp de los restos m´odulo un n´umero primo son campos primos. Prueba. Sea K un subcampo de Zp . Tenemos 1 ∈ K y por lo tanto todas las sumas 1+...+1 est´an en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp ⊆ K. Teorema de Clasificaci´on de Campos Primos Los campos Zp y el campo Q son los u´ nicos campos primos. n veces
z }| { Prueba. Sea un K campo primo. Para un n´umero natural n denotemos por n = 1 + ... + 1 donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un ele mento del campo. Denotemos por P = {n ∈ K | n ∈ N} . Hay dos posibilidades excluyentes 1. La aplicaci´on n 7→ n es una biyecci´on de en N en P. 2. Existen dos naturales distintos n y m tales que n = m.
En el primer caso K contiene a los naturales. Como K es un campo tambi´en tiene que contener a los opuestos de los naturales, o sea a los enteros. Por la misma raz´on, K tiene que contener a los inversos de los enteros con lo que se prueba que los racionales son un subcampo de K. Como K es primo obtenemos que K = Q. En el segundo caso, sea p el natural m´as peque˜no para el cual existe n < p tal que n = p. Tenemos n = p ⇒ p − n = p − n = 0. Si n > 0 entonces, p − n < p y adem´as p − n = 0 lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.
Cap´ıtulo 1. Campos
18
Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturales a, k tales que x = a + kp y a < p. De aqu´ı kp veces
k veces
z }| { z }| { + · · · + 1 0 +···+0 = a x = a + kp = a + kp = a + 1 + · · · + 1 + · · · + 1 = a + | {z } | {z } p veces
p veces
lo que muestra que P es el anillo Zp de los restos m´odulo p. Si p no es primo entonces, en Zp ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no es posible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K es primo obtenemos que K = Zp . Caracter´ıstica Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice que un campo es de caracter´ıstica 0 si este contiene a Q. Se dice que un campo es de caracter´ıstica p si este contiene a Zp . La caracter´ıstica de un campo es un n´umero primo o es cero. La propiedad fundamental de la caracter´ıstica de un campo es la siguiente: Si K es un campo de caracter´ıstica t entonces, ta = 0 para cualquier a ∈ K. Prueba. Si t = 0 la afirmaci´on es trivial. Si t es primo entonces, el campo contiene a Zt y t veces z }| { tx = x + ... + x = 1x + ... + 1x = (t1) x Como 1 ∈ Zt entonces tambi´en t1 ∈ Zt . En Zt se tiene que t1 = 0. Luego tx = 0x = 0.
Ejercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad? [176] Ejercicio 25 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [176] 1.6 Aritm´etica de campos Los campos se comportan en la mayor´ıa de las cosas importantes como los n´umeros reales. Por m´as que tratemos construir un campo raro pero muy raro (lo que es posible) no lograremos que se dejen de cumplir todas las propiedades de la aritm´etica las cuales nos son familiares desde temprana edad. Pasemos a describir en toda su generalidad algunas consecuencias simples y otras un poco m´as complicadas de los axiomas de campo lo que nos convencer´a de lo afirmado.
Secci´on 1.6
Aritm´etica de campos
19
´ Multiplos y exponentes enteros En todo campo para cualquier n´umero entero n y cualquier elemento del campo a se usan las siguientes notaciones ⎧ ⎧ n veces n veces z }| { z }| { ⎪ ⎪ ⎨ a + a + ... + a si n > 0 ⎨ aa...a si n > 0 n na = = a 1 si n=0 0 si n = 0 ⎪ ⎪ ⎩ ⎩ 1 si n < 0 (−n) (−a) si n < 0 a− n
y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am . Asociatividad general
Recordemos nuevamente el uso del s´ımbolo de sumatoria Σ. Si A es un conjunto finito de elementos del campo entonces podemos escribir la expresi´on en el re ai cuadro a la izquierda para expresar que queremos sumar todos los elementos del i=1 conjunto A = {a1 , ..., an }. La asociatividad de la operaci´on de suma nos dice que esta expresi´on tiene sentido u´ nico ya que no es necesario explicitar las sumas hay que realizar primero y cuales despu´es. En realidad incluso esta notaci´on es redundante, m´as consisa es esta otra nota X ci´on en el recuadro a la derecha que podemos usar gracias a la conmutatividad de a la suma. O sea no importa si en la suma a1 est´a delante de a2 o al rev´ez. Solo es a∈A necesario especificar cual es el conjunto A de elementos que se est´an sumando. Como tenemos que el producto de elementos de un campo es tambi´en n Y Y asociativo y conmutativo podemos usar las expresiones equivalentes de ai = a la izquierda para denotar el producto de todos los elementos del conjunto i=1 a∈A A = {a1 , ..., an } . n X
Distributividad general Mucho m´as dif´ıcil es dar una forma general de la ley distributiva. Usando las leyes de los campos obtenemos (a + b) (c + d) = a (c + d) + à !à ! X X XX b (c + d) = ac + ad + bc + bd y el lector podr´a con a b = ab vencerse f´acilmente haciendo el c´alculo para conjuntos a∈A b∈B a∈A b∈B peque˜nos A y B que en general se cumple la f´ormula de la derecha. M´as general, para muchos factores tenemos à !à ! à ! X X X XX X a b ··· c = ... ab · · · c a∈A
b∈B
c∈C
a∈A b∈B
c∈C
A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas ocaciones en que la usaremos.
Cap´ıtulo 1. Campos
20 F´ormula multinomial
Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean iguales obtenemos la siguiente f´ormula: Ã !n X X X a = ... a1 · · · an (*) a∈A
a 1 ∈A
a n ∈A
Esta f´ormula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene (gracias a la asociatividad y conmutatividad del producto) una manera mucho m´as sencilla de expresarse como a4 b3 c3 . Para arreglar este defecto, d´emosle nombres a los elementos de A y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales entonces,P un monomio n1 nm x1 · · · xm aparece como sumando a la derecha en la f´ormula (*) si y solo si Pni = n (ya que los sumandos en (*) son productos de n elementos de A). Supongamos que ni = n. Si todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn1 1 · · · xnmm (ya que podemos ordenarlos de ese n´umero de maneras). Si digamos n7 es mayor que 1 en tonces tenemos que dividir por n7 ! ya que al permutar x7 ...x7 no obtenemos nuevos suman dos en (*). Lo mismo sucede con los otros ni . Como por definici´on 0! = 1! = 1, finalmente obtenemos la siguiente expresi´on conocida como f´ormula multinomial. Ã m !n X X n! xn1 1 · · · xnmm xi = n1 !...nm ! i=1 donde la suma aP la derecha de la igualdad recorre todas las soluciones en n´umeros naturales de la ecuaci´on ni = n. En el caso particular m = 2, haciendo el cambio de variable n1 = k obtenemos n
(x + y) =
X
n 1 +n 2
n! n 1 n 2 X n! x y = xk yn−k (n n !n ! k! − k) ! 1 2 =n k=0 n
que es la famosa f´ormula del binomio de Newton. Si bien las f´ormulas que hemos demostrado parecen ser complicadas los argumentos que llevan a ellas son muy sencillos. Es importante que el estudiante que desee estudiar el a´ lgebra lineal a profundidad se familiarize bien con estos argumentos ya que las formas multili neales y en particular los determinantes son muy parecidos a la parte derecha de la igualdad (*). Sir Isaac Newton (Inglaterra 16431727). Probablemente el cien t´ıfico m´as renombrado de todos los tiempos. Fundador de la mec´ani ca, la o´ ptica y el c´alculo diferencial. Sus tres leyes de la mec´anica fundaron la base de la ingenier´ıa que llev´o a la revoluci´on industrial.
Secci´on 1.6
Aritm´etica de campos
21
Ejercicio 26 Sea K un campo de caracter´ıstica p > 0. Demuestre que la funci´on K 3 x 7→ xp ∈ K es un morfismo de campos. Demuestre que si K es un campo finito entonces esta funci´on es un automorfismo de K. A este automorfismo se le llama automorfismo de Frobenius. [176] La expansi´on de ΠΣαij Ahora deduciremos otra consecuencia de la forma general de la ley distri Y X butiva que usaremos mucho m´as adelante. Supongamos que N es un conjunto αij finito de ´ındices y que para cada pareja de ´ındices (i, j) tenemos un elemento i∈N j∈N del campo K que denotaremos por αij . Nuestro objetivo es usar la ley distri butiva para expresar el elemento del campo del recuadro a la derecha como una suma de productos. Para esto lo m´as c´omodo es pensar que el conjunto N es {1, . . . , n} y expresar la forma general de la ley distributiva en nuestro caso de la siguiente manera ! Ã ! Ã X X X XY X α1j1 · · · αnjn = ... α1j1 · · · α1jn = αiji j1 ∈N
jn ∈N
j1 ∈N
jn ∈N
i∈N
donde la suma m´as a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn ) del producto cartesiano N × · · · × N de n copias de N o sea, Nn . Otra manera de pensar a (j1 , . . . , jn ) es que tenemos una funci´on f : N = {1, . . . , n} 3 i 7→ ji = f (i) ∈ N y en nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN de todas las funciones de N en N. Luego, en estas notaciones finalmente obtenemos XY YX αij = αif(i) i∈N j∈N
f∈N N i∈N
que es una f´ormula que ya no depende de cual es el conjunto N. Debemos recalcar una vez m´as que todo lo dicho en esta secci´on es v´alido para cual quier campo, sea este R, C, Q, Zp o cualquier otro campo que a´un no conoscamos. Esta es la ventaja intr´ınseca de la abstracci´on. No tenemos que demostrar el teorema de Pit´agoras para tri´angulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la misma manera el binomio de Newton no tiene nada que ver con que si los n´umeros son reales o complejos u otros. Solo basta que nuestros n´umeros formen un campo. Un lector atento, podr´ıa observar que en las pruebas de todas las f´ormulas en ning´un momento usa mos la existencia de inversos en el campo. Luego, estas son v´alidas en cualquier anillo conmutativo. A diferencia de las matem´aticas elementales en matem´aticas superiores, por aritm´etica se entiende el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritm´etica de campos es trivial ya que todo elemento se divide entre cualquier otro no nulo.
Cap´ıtulo 1. Campos
22
1.7 Polinomios sobre campos Hay muchas maneras de ver los polinomios. La manera m´as sencilla de ver n los es que un polinomio de grado n en la literal x es una expresi´on formal del X ai xi tipo en el recuadro a la derecha donde los coeficientes a0 , ..., an son elementos i=0 de cierto campo K y an 6= 0. Al coeficiente an se le llama coeficiente principal del polinomio. Suma y producto de polinomios Aunque el lector seguramente conoce las definiciones de suma y producto de polino mios, nos parece apropiado recordar P el porqu´e de las mismas. Si interpretamos a x como un elemento del campo K entonces, ai xi tambi´en es un del campo K. Esto quiere P elemento i decir que un polinomio define una funci´on K 3 x 7→ ai x ∈ K y en esta interpretaci´on x no es una literal sino una variable. Siendo esta interpretaci´on de los polinomios fundamental, necesitamos que la suma y producto de polinomios concuerde con la definici´on de suma y producto de funciones (f + g) (x) = f (x) + g (x), (fg) (x) = f (x) g (x). Por esto, tenemos n n n n X X X ¡ i ¢ X i i i ai x + bi x = (ai + bi ) xi ai x + bi x = i=0
i=0
i=0
i=0
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri butividad. O sea, interpretamos al polinomio como la imagen por la funci´on de evaluaci´on de la variable x que toma sus valores en el campo. Para el producto, usando la forma general de la ley distributiva tenemos ⎛ ⎞ Ã n !Ã m ! m´ın(n,k) n X n+m m X X X X X ⎝ ai xi bj xj = ai bj xi+j = ai bk−i ⎠ xk i=0
j=0
i=0 j=0
k=0
i=m´ax(0,k−m)
donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando aso ciatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomios sin saberse estas f´ormulas. Lo importante es saber aplicar sistem´aticamente asociatividad, conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos los polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x]. Divisi´on de polinomios Divisi´on con Resto de Polinomios Sean p y q dos polinomios. Existen polinomios c y r tales que 1. p = cq + r 2. El grado de r es estrictamente menor que el grado de q.
Secci´on 1.7
Polinomios sobre campos
23
P P Prueba. Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado m. Si n < m entonces poniendo c = 0 y r = p terminamos. Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer xn−m an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros. c1 = bm El grado de r1 es menor que el grado de n−1 m−1 P P p. Si el grado de r1 es menor que el grado r1 = ai xi − c1 bi xi de q entonces ya terminamos, si no entonces, haciendo los i=0 i=0 mismos c´alculos podemos escribir r1 = c2 q + r2 y vamos disminuyendo el grado de ri hasta que este sea menor que el grado de q. Luego, hay un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente menor que el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; al polinomio r = ri se le llama resto de p entre q. Factores y raices Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice que ´ q divide a p, o que q es un divisor de p, o que p es un multiplo de q. Obviamente, cualquier polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos). Diremos que q es un factor de p si q divide a p y el grado de q es al menos uno. P Sea p (x) = Pni=0 ai xi un polinomio en K [x] . Sea b un elemento arbitrario del cam po. Obviamente ni=0 ai bi es tambi´en un elemento del campo ya que la suma, la multi plicaci´onP y las potencias est´an bien definidas en un campo arbitrario. Es natural denotar p (b) = ni=0 ai bi . Esto nos da una funci´on K 3 b 7→ p (b) ∈ K llamada la funci´on de evaluaci´on del polinomio p. Los ceros de esta funci´on son las raices del polinomio p, o sea son los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo llamaremos nucleo de p y lo denotaremos por ker p (en ingl´es “nucleo” es “kernel”). Las raices y los factores de un polinomio est´an enlazados por el siguiente resultado: Para que b sea una ra´ız de p es necesario y suficiente que (x − b) sea un factor de p. Prueba. Dividamos con resto p entre (x − b). Sean c y r tales que p (x) = c (x) (x − b)+r. Como (x − b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos p (b) = c (b) (b − b) + r = r. Luego, si b es ra´ız entonces, r = 0 y rec´ıprocamente. Sea b una ra´ız del polinomio p. Si n ≥ 1 es el mayor natural tal que (x − b)n es factor de p entonces a n se le llama multiplicidad de la ra´ız b. Es muy inc´omodo trabajar con el concepto de multiplicidad. Por ejemplo, tomemos la afirmaci´on: “Si b1 y b2 son dos raices del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. Esta afirmaci´on es cierta no solo para cuando b1 6= b2 sino tambi´en cuando son iguales pero la ra´ız tiene multiplicidad mayor que 2.
Cap´ıtulo 1. Campos
24
Es mucho m´as c´omodo pensar que si una ra´ız tiene multiplicidad n entonces hay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguaje ser´a com´un en este libro y a partir de ahora no tendremos necesidad de usar continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradable tarea, de ajustar los hechos expuestos a un lenguaje m´as riguroso. Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “colecci´on” de elementos del campo en¢la cual puede haber elementos repetidos. As´ı por ejemplo tenemos ¡ Ker x3 − 6x2 + 9x − 4 = {1, 1, 4}. Ajustada nuestra terminolog´ıa, podemos establecer una importante consecuencia del resultado anterior. Un polinomio de grado n tiene a lo m´as n raices. Prueba. Si elQ polinomio p tiene como raices a b1 , . . . , bn+1 entonces p tiene, por 1.18, como factor a n+1 i=1 (x − bi ) que es un polinomio de grado n + 1. Esto contradice que p tiene grado n. Ideales de polinomios Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades: ¨ Si p, q ∈ I entonces p + q ∈ I. ¨ Si p ∈ I y r ∈ K [x] entonces rp ∈ I. En otras palabras, la suma es una operaci´on binaria dentro del ideal y cualquier m´ultiplo de un elemento del ideal tambi´en est´a en el ideal. Los ideales m´as sencillos son los que se forman tomando todos los m´ultiplos de un polinomio fijo p. Si qp y q0 p son dos tales m´ultiplos entonces qp + q0 p = (q + q0 ) p tambi´en es un m´ultiplo de p. Esto demuestra la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama ideales principales. Lo asombroso es que todo ideal es as´ı. Todo ideal de polinomios es principal. Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado m´ınimo tal que m ∈ I y denotemos por el conjunto de todos los m´ultiplo de m o sea, Im = {αm | α ∈ K [x]}. Por la propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entonces dividiendo g entre m obtenemos polinomios α, r tales que g = αm + r donde el grado de r es menor que el grado de m o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2 esto significa que r ∈ I. De la minimalidad del grado de m obtenemos r = 0. y por lo tanto g ∈ Im . Esto prueba que Im = I o sea, que I es principal.
Observese que facilmente podemos definir los ideales en cualquier anillo conmutativo. Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo, para el anillo de polinomios de dos variables K [x, y].
Secci´on 1.7
Polinomios sobre campos
25
Una primera consecuencia de 1.19 es el Teorema de Bezout, el cual tendremos much´ısi mas oportunidades para utilizarlo. Teorema de Bezout Sean p y q dos polinomios sin factores comunes. Existen polinomios α y β tales que αp + βq = 1. Prueba. Denotemos por Ipq = {αp + βq | α, β ∈ K [x]}. Probemos que Ipq es un ideal. Veamos primero que la suma de elementos de Ipq est´a en Ipq . Efectivamente, (αp + βq) + (α0 p + β0 q) = (α + α0 ) p + (β + β0 ) q = α00 p + β00 q donde α00 = (α + α0 ) y β00 = (β + β0 ). Ahora, comprobemos que los m´ultiplos de los elementos de Ipq est´an en Ipq . Tenemos, γ (αp + βq) = γαp + γβq = α0 p + β0 q donde α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal. Como todo ideal de polinomios es principal, existe m tal que Ipq = {αm | α ∈ K [x]}. Como p, q ∈ Ipq , existen polinomios α y β tales que p = αm y q = βm. Como p y q no tienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x]. En particular, 1 ∈ Ipq . Etienne Bezout (Francia, 17301783). Famoso en su e´ poca sobre todo por los seis vol´umenes de su libro de texto “Cours complet de math´ematiques a` l’usage de marine et de l’artillerie” que por muchos a˜nos fueron los libros ´ que estudiaban los que aspiraban a ingresar a la “Ecole Polytechnique”. Su investigaci´on matem´atica la dedic´o al estudio de los determinantes y de las soluciones de ecuaciones polinomiales.
Ejercicio 27 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores comunes. Entonces, existen dos enteros α y β tales que αp + βq = 1. [177] Unicidad de la factorizaci´on en irreducibles. Al descomponer un polinomio en factores causan muchos problemas de escritura los di visores que no son factores o sea, los polinomios de grado cero. Por esto es conveniente introducir la siguiente definici´on. Un polinomio se le llama m´onico si su coeficiente prin cipal es 1. La ventaja de trabajar con polinomios m´onicos es que cualquier polinomio p se descompone como αp0 donde α es su coeficiente principal y p0 es m´onico. Luego, para descomponer p en factores, solamente nos tenemos que fijar en los factores m´onicos de p0 . Diremos que un factor q es factor propio del polinomio m´onico p, si q es m´onico y p 6= q. Un polinomio se le llama irreducible si este es m´onico, tiene grado mayor que 1 y no tiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente en producto de dos factores. Cualquier polinomio p se puede descomponer como αp1 p2 . . . pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. La prueba de
Cap´ıtulo 1. Campos
26
esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dos factores. Si estos factores no son irreducibles puedo descomponer en factores cada uno de ellos y as´ı sucesivamente llegamos a factores irreducibles. Teorema de Factorizaci´on de Polinomios Cualquier polinomio p se descompone como αp1 p2 . . . pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. Esta descomposici´on es u´ nica salvo el orden de los factores. Prueba. Solamente debemos probar la unicidad. Adem´as, sacando como factor el coeficien te principal podemos suponer que p es m´onico. Si p es de grado 1 entonces no hay nada que probar ya que entonces p es irreducible y la u´ nica descomposici´on de p es el mismo. Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que k. Sea p m´onico de grado k que tiene dos descomposiciones en irreducibles p1 . . . pn = p01 . . . p0m . Como todos los polinomios involucrados son irreducibles tiene que existir un j tal que p0j = pn . Luego, para p/pn = p/p0j tenemos dos descomposiciones que por hip´otesis de inducci´on son iguales salvo orden.
Desarrollo de Taylor Brook Taylor (Inglaterra 16851731). Entre las contribuciones de este matem´atico, se destacan: La invenci´on de la rama de las matem´aticas que hoy en d´ıa se conoce como C´alculo en Diferencias, la invenci´on de la integraci´on por partes, y la f´ormula llamada por su nombre. En 1772 Lagrange proclam´o esta f´ormula como “el principio b´asico del c´alculo diferencial”. A esta f´ormula, enunciada en la siguiente proposici´on, se le llama Desarrollo de Taylor alrededor del punto x0 . Como el lector sabe de los cursos de c´alculo, este desarrollo es mucho m´as general y se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostraci´on es independiente del campo y puramente algebraica (no requiere del concepto de continuidad). Desarrollo de Taylor Para cualquier polinomio p (x) y cualquier elemento del campo x0 existen unos u´ nicos coeficientes α0 , α1 , . . . , αn tales que p (x) = α0 + α1 (x − x0 ) + · · · + αn (x − x0 )n . Prueba. Sea p (x) =
P
ak xk un polinomio de grado n. Si x0 = 0 entonces, αk = ak .
Secci´on 1.8
Polinomios complejos. Teorema de Gauss
27
Supongamos que x0 6= 0. Por el binomio de Newton tenemos à n µ ¶ ! j µ ¶ n n n X X X X X j j xk (−x0 )j−k = (−x0 )j−k αj xk αj (x − x0 )j = αj k k j=0 j=0 k=0 k=0 j=k
y para encontrar nuestros ¡coeficientes αj tenemos para k ∈ {0, . . . , n} las igualdades ak = ¢ Pn j−k j = k (−x0 ) . Observese que bkk = 1 por lo que despejando ob j=k bkj αj donde bkjP tenemos αk = ak − nj=k+1 bkj αj por lo que podemos hallar αn = an despu´es αn−1 y as´ı sucesivamente todos. ¡ ¢¡ ¢ (−1)j−k kj ij es igual a la funci´on delta de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [177] Ejercicio 29 Demuestre que los coeficientes α del Desarrollo de Taylor (1.22) del polino Pn ¡i¢ i−j j P k mio ak x son iguales a βj = i=j j ai x0 . [177]
Ejercicio 28 Demuestre que la expresi´on
Pi
j=k
Ejercicio 30 Pruebe que los coeficientes αj del Desarrollo de Taylor (1.22) del polinomio
p (x) son iguales a p(j) (x0 ) /j! donde p(j) (x) denota el polinomio derivado j veces. [177]
1.8 Polinomios complejos. Teorema de Gauss En esta secci´on demostraremos que el campo de los n´umeros complejos es algebraica mente cerrado. Como esta demostraci´on no es algebraica sino anal´ıtica necesitaremos in troducir algunos conceptos b´asicos de an´alisis complejo. Para esto, presupondremos que el lector conoce los correspondientes conceptos de an´alisis real. Si bi´en, el contenido de esta secci´on no es b´asico para la com prensi´on del a´ lgebra lineal, por otro lado, si es fundamental que el lector conosca a la perfecci´on el enunciado del teorema de Gauss: todo polinomio complejo de grado al menos 1 tiene una ra´ız. Johann Carl Friedrich Gauss (Alemania 19771855) fu´e el m´as grande matem´atico de su e´ poca. Este teorema que lleva su nombre fu´e demostrado por primera vez en su tesis doctoral (1799). Este teorema es tambi´en conocido como el “teorema fundamental del a´ lgebra”. En este libro tendremos ocaci´on de mencionar otros resultados de Gauss y cualquiera que se de dique a estudiar matem´aticas, estad´ısticas, f´ısica o astronom´ıa oir´a de este cient´ıfico en m´as de una ocasi´on.
Cap´ıtulo 1. Campos
28
Forma polar. Igualdad de Moivre Todo n´umero complejo z se puede representar en la forma polar → − z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector 0z en el plano complejo y ϕ es el a´ ngulo que forma dicho vector con el eje real de este plano (vease la figura). Al n´umero r se le llama m´odulo del n´umero complejo y es com´un que se denote por kzk. Al a´ ngulo ϕ se le llama argumento del n´umero complejo. La forma polar hace mucho m´as f´acil calcular el producto y las potencias de n´umeros complejos.
r
r sin ϕ
ϕ r cos ϕ
Para hallar el producto de dos n´umeros complejos hay que multiplicar sus m´odulos y sumar sus argumentos. Prueba. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Tenemos r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) = rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) = rρ (cos (ϕ + ψ) + i sin (ϕ + ψ)) que es lo que se necesitaba probar. Aplicando este resultado al caso de la potencia de n´umeros complejos obtenemos la igualdad mostrada en el recuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuen cias m´as importantes es el siguiente resultado. zn = rn (cos nϕ + i sin nϕ)
Los polinomios zn − a tienen exactamente n raices complejas. Prueba. Sea a = rn (cos√nϕ + i sin nϕ). Para k ∈ {0, 1, ..., n − 1} denotemos xk el n´ume n ro complejo con m´odulo r y argumento (ϕ + 2kπ) /n.¶Por la Igualdad de Moivre tenemos µ ¡ ¢ √ ϕ + 2kπ ϕ + 2kπ n xnk = n r cos n + i sin n = r (cos ϕ + i sin ϕ) = a n n que es lo que se necesitaba probar. Abraham de Moivre (Francia 16671754). Uno de los fundadores de la Geometr´ıa Anal´ıtica y de la Teor´ıa de las Probabilidades. A pesar de su exelencia cient´ıfica, nunca tuvo la oportunidad de tener un puesto en alguna universidad. Sus ingresos proven´ıan de dar clases privadas de Matematicas y muri´o en la pobreza. Moivre tambi´en es famoso por haber predicho el d´ıa de su muerte. Descubri´o que dorm´ıa 15 minutos m´as cada noche y suman do la progresi´on aritm´etica calcul´o que morir´ıa en el d´ıa que dormir´ıa 24 horas. ¡Tuvo raz´on!
Secci´on 1.8
Polinomios complejos. Teorema de Gauss
29
Ejercicio 31 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupo para el producto. ¿Que grupo es este? [177] Continuidad Una funci´on f : C → C es continua en el punto z0 si para todo real positivo ε existe otro real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). Una funci´on continua en todo punto del plano complejo se le llama continua. La funci´on m´odulo z 7→ kzk es continua.
Prueba. Veamos la desigualdad kz − z0 k ≥ kkzk − kz0 kk. Esta desigualdad es equivalente a la siguiente: “En un tri´angulo el valor absoluto de la diferencia de dos de sus lados siempre es menor o igual que el tercero”. La prueba de esta la dejaremos en calidad de ejercicio. Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si kz − z0 k < δ entonces, kkzk − kz0 kk ≤ kz − z0 k < ε y esto prueba nuestra tesis.
Ejercicio 32 Pruebe que en un tri´angulo el valor absoluto de la diferencia las longitudes de dos de sus lados siempre es menor o igual que la longitud del tercero. [177]
La suma y el producto de funciones continuas en un punto z0 son continuas en el punto z0 . Prueba. Sean f y g funciones continuas en z0 . Con el objetivo de ahorrar espacio denotemos fz = f (z), f0 = f (z0 ), gz = g (z) y g0 = g (z0 ). Para todo ε > 0 existen δ1 y δ2 tales que (kz − z0 k < δ1 ) ⇒ (kfz − f0 k < ε) (kz − z0 k < δ2 ) ⇒ (kgz − g0 k < ε) y en particular para el m´ınimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda des a la derecha. Sumando y aplicando la desigualdad del tri´angulo obtenemos: θ = 2ε > kfz − f0 k + kgz − g0 k ≥ kfz − f0 + gz − g0 k = k(f + g) (z) − (f + g) (z0 )k Luego, para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(f + g) (z) − (f + g) (z0 )| < θ con lo que se prueba que la suma de continuas es continua. Por otro lado, por la desigualdad del tri´angulo y 1.23 tenemos k(fg) (z) − (fg) (z0 )k = kfz gz − f0 g0 k = k(fz − f0 ) (gz − g0 ) + (fz − f0 ) g0 + (gz − g0 ) f0 k ≤ kfz − f0 k kgz − g0 k + kfz − f0 k kg0 k + kgz − g0 k kf0 k < < ε2 + ε |g0 | + ε |f0 | < (1 + |g0 | + |f0 |) ε = cε = θ donde la u´ ltima desigualdad se da para ε < 1. Como c es una constante que no depende de z
30
Cap´ıtulo 1. Campos
obtenemos que para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(fg) (z) − (fg) (z0 )| < θ lo que prueba que el producto de continuas es continua. Para cualquier polinomio complejo p la funci´on de evaluaci´on C 3 z 7→ p (z) ∈ C es continua.
Prueba. La funci´on de evaluaci´on de un polinomio se obtiene usando sumas y productos de funciones constantes y la funci´on identidad f (z) = z. Estas funciones son continuas y de 1.26 obtenemos la prueba. Sea g una funci´on continua en el punto z0 y f una funci´on continua en el punto g (z0 ) entonces, la composici´on f ◦ g es continua en el punto z0 . Prueba. Por la continuidad de f en g (z0 ) tenemos que ∀ε > 0 ∃δ (kz − g (z0 )k < δ) ⇒ kf (z) − f (g (z0 ))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kg (y) − g (z0 )k < δ. Componiendo estas dos propiedades obtenemos ∀ε > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kf (g (y)) − f (g (z0 ))k < ε que es lo que necesitabamos. El m´odulo de un polinomio es una funci´on continua.
Prueba. Por 1.28 y porque los polinomios y el m´odulo son funciones continuas. L´ımite de sucesiones complejas Una sucesi´on de n´umeros complejos {zj } = {aj + bj i} tiene l´ımite z = a + bi si las sucesiones reales {aj } y {bj } tienen l´ımites a a y b respectivamente. Esto es equivalente a que los m´odulos y los argumentos de la sucesi´on converjan al m´odulo y al argumento del l´ımite. Tambi´en, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Una sucesi´on es convergente si esta tiene l´ımite. Por una propiedad an´aloga para las sucesiones reales se tiene que toda subsucesi´on de una sucesi´on convergente es convergente y converge al mismo l´ımite. Una sucesi´on {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj } son acotadas. Esto es equivalente a que la sucesi´on real {kzj k} sea acotada. Es claro que una sucesi´on no acotada no puede tener l´ımite. Tambi´en, que toda sucesi´on acotada tiene una subsucesi´on convergente pues esta misma propiedad se cumple para sucesiones reales. Expongamos otras dos propiedades que son un poco m´as dif´ıciles de probar. Sea f una funci´on continua en z0 y {zk } una sucesi´on de n´umeros complejos que converge a z0 . Entonces, l´ım f (zk ) = f (l´ım zk ).
Secci´on 1.8
Polinomios complejos. Teorema de Gauss
31
Prueba. Como f es continua en z0 , por definici´on tenemos que ∀ε > 0 ∃δ (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). Supongamos que l´ım zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒ (kzk − z0 k < δ) .De transitividad de la implicaci´on obtenemos que ∀ε > 0 ∃N (k > N) ⇒ kf (zk ) − f (z0 )k < ε y esto quiere decir que l´ım f (zk ) = f (z0 ). Si {zk } es no acotada y p es un polinomio de grado al menos 1 entonces, la sucesi´on {kp (zk )k} es no acotada. Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos n n n−1 X X ° i° X i n ° ° kai k kzk = kan k kzk + kai k kzki ≥ kan k kzkn ai z = kp (z)k ≥ i=0
i=0
i=0
Como {zk } no es acotada, tampoco lo son {kan k kzk kn } y {kp (zk )k}. Teorema de Gauss
Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultado preliminar que hace la mayor´ıa del trabajo. Sea p un polinomio complejo de grado al menos 1. Si z0 no es una ra´ız de p entonces, existe z ∈ C tal que kp (z)k < kp (z0 )k. Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Tenemos n n X X j p (z) = αj (z − z0 ) = p (z0 ) + αj (z − z0 )j j=0
j=1
ya que α0 = p (z0 ) . Sea αk el primero de los {αj | j > 0} diferente de cero y escojamos z = z0 + tθ donde θ es una (ve´ease 1.24) de las raices de la ecuaci´on xk + p (z0 ) /αk = 0 y t es un real tal que 0 < t < 1 que definiremos despues. Por la definici´on de θ, z y k tenemos n n X X k k j j k p (z) − p (z0 ) = αk θ t + αj θ t = −p (z0 ) t + αj θj tj j=k+1
j=k+1
y por lo tanto, de la desigualdad del tri´angulo obtenemos: n X ° j° j ¢ ¡ k °αj θ ° t = kp (z0 )k + tk q (t) kp (z)k ≤ 1 − t kp (z0 )k + j=k+1
n X ° j ° j−k donde q (t) denota el polinomio (con coeficientes re °αj θ ° t (z )k − kp + 0 ales) del recuadro a la derecha. Observemos que se cum j=k+1 ple la desigualdad q (0) = − kp (z0 )k < 0. Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente peque˜no tal que q (t0 ) < 0. Luego, kp (z0 + t0 θ)k ≤ kp (z0 )k + tk0 q (t0 ) < kp (z0 )k.
Cap´ıtulo 1. Campos
32
Ejercicio 33 ¿Donde se usa en la demostraci´on anterior que t < 1? [177] Teorema de Gauss Todo polinomio de grado mayor que cero tiene al menos una ra´ız compleja. Prueba. Sea p un polinomio. Denotemos A = {kp (z)k : z ∈ C}. El conjunto A es un conjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema cl´asico de an´alisis matem´atico), A tiene un ´ınfimo que denotaremos por µ. Demostremos que µ es el m´ınimo o sea, que µ ∈ A. Como µ es ´ınfimo hay una sucesi´on {aj } de elementos de A que converge a µ y por lo tanto hay una sucesi´on de complejos {zj } tales que l´ım kp (zj )k = µ. Si la sucesi´on {zj } no estuviera acotada entonces, por 1.31 la sucesi´on {kp (zj )k} tampoco lo ser´ıa lo que contradice que esta sucesi´on converge a µ. Luego, {zj } es acotada y podemos escoger una subsucesi´on convergente que podemos suponer la misma. Denotemos y = l´ım zj . Como el m´odulo de un polinomio es una funci´on continua entonces, por 1.30 tenemos µ = l´ım kp (zj )k = kp (l´ım zj )k = kp (y)k. Luego, µ ∈ A. Si µ 6= 0 entonces, por 1.32 existir´ıa un y0 tal que kp (y0 )k < kp (y)k = µ lo que contradice que µ es el m´ınimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una ra´ız.
1.9 Factorizaci´on de polinomios complejos y reales En esta secci´on utilizaremos el teorema de Gauss para averiguar cuales son todos los polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi cientes reales. Esto nos dar´a la posibilidad de encontrar la descomposici´on en factores (´unica salvo orden de los factores) de los polinomios complejos y reales. Caso Complejo Clasificaci´on de los polinomios complejos irreducibles Los polinomios complejos irreducibles son exactamente los m´onicos de grado uno. Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno. Por el Teorema de Gauss (1.33) este polinomio tiene una ra´ız α. Por 1.17 el polinomio se divide entre (x − α) y esto contradice que el polinomio es irreducible.
Secci´on 1.9
Factorizaci´on de polinomios complejos y reales
33
Este resultado nos da la posibilidad de factorizar completamente los polinomios complejos. Por el Teorema de Factorizaci´on de Polinomios an (x − αj )n j (1.21) cada polinomio complejo p (x) se tiene que descomponer como j=1 en el recuadro a la izquierda. En esta f´ormula, an es el coeficiente prin cipal del polinomio. Los complejos P αj son las diferentes raices de p (x). El natural nj es la multiplicidad de la ra´ız αj y n = ni es el grado de p (x). Nuevamente, por el Teorema de Factorizaci´on de Polinomios (1.21) esta descomposici´on es u´ nica salvo orden de los factores. k Q
Caso real
Recordemos que si a + bi es un n´umero complejo entonces su complejo conjugado es a − bi. Denotaremos por zˉ el comple jo conjugado del n´umero complejo z. Es f´acil comprobar que la operaci´on de conjugaci´on cumple las propiedades del recuadro a la derecha.
1. z ∈ R ⇒ zˉ = z 2. z + u = zˉ + uˉ 3. zu = zˉ uˉ
Ejercicio 34 Demuestre estas propiedades de la conjugaci´on compleja. [177] Sea p un polinomio con coeficientes reales y α una ra´ız compleja de p. Entonces αˉ es tambi´en una ra´ız de p. P Prueba. Como α es ra´ız de p = ai xi y por las propiedades de la conjugaci´on tenemos X X X 0 = 0ˉ = ai αˉ i = ai αˉ i ai αi =
que es lo que se quer´ıa probar.
Clasificaci´on de los polinomios reales irreducibles Si p es un polinomio real irreducible entonces p es de la forma x − α o es de la forma (x − a)2 + b2 con b 6= 0. Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto n´umero real α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α para cierto α complejo. Si α fuera real esto contradecir´ıa que p es irreducible. Luego, α = a + bi con b 6= 0. Por la proposici´on anterior a − bi tambi´en es una ra´ız de p por lo que p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2 + b2 Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una ra´ız compleja α. Si α fuera real entonces x − α ser´ıa un factor de p. Si α = a + bi con b 6= 0 entonces (x − a)2 + b2 ser´ıa un factor de p. En ambos casos se contradice la suposici´on de que p es irreducible. Ahora, ya podemos descomponer completamente en factores los polinomios con coefi
Cap´ıtulo 1. Campos
34
cientes reales. Cada polinomio real p (x) se tiene que expresar como: p (x) = an
k Y j=1
k ³ ´m ` Y 2 2 (x − a` ) + b` (x − αj ) nj
`=1
En esta f´ormula, an es el coeficiente principal del polinomio. Los n´umeros reales αj son las diferentes raices reales de p (x). El n´umero natural nj es la multiplicidad de la ra´ız αj . Los n´umeros complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas de p (x). El n´umero natural P P m` es la multiplicidad de la ra´ız compleja (a` + b` i). Obviamente, n = ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema de Factorizaci´on de Polinomios (1.21) esta descomposici´on es u´ nica salvo orden de los factores. La diferencia fundamental entre los n´umeros reales y los n´umeros complejos se expresa de manera muy evidente en los resultados de esta secci´on. Esta diferencia har´a que poste riormente nos sea mucho m´as f´acil clasificar los operadores lineales en un espacio vectorial complejo que en un espacio vectorial real. En general, todo es m´as f´acil para los campos que cumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.
1.10 Campos de fracciones. Funciones racionales Sea (A, +, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el neutro multiplicativo respectivamente . Queremos construir un campo que contenga a A. Esta es una situaci´on an´aloga a cuando construimos el campo de los racionales Q para que contenga al anillo conmutativo Z . ¿Funcionar´a esta misma construcci´on en el caso general? Investiguemos para lograr una respuesta. Campos de fracciones Lo primero es definir las fracciones. Consideremos conjun ³ c´ a = ⇔ (ad = bc) to de todas las fracciones a/b donde a ∈ A y b ∈ A \ {0}. Dos b d fracciones las consideraremos iguales si se cumple la igualdad en el recuadro a la derecha.
Ejercicio 35 Pruebe que la igualdad de fracciones es una relaci´on de equivalencia. [178] Ahora, necesitamos definir las operaciones entre fracciones. Primero el pro ducto porque es el m´as f´acil. Definamos el producto por la f´ormula en el re cuadro a la izquierda. Nos tenemos que convencer primero de que esta defi nici´on es correcta. O sea que si las fracciones son iguales sus productos son iguales. M´as precisamente, necesitamos ver que se cumple lo siguiente: µ ¶ µ ¶ a a0 c c0 a0 c0 ac = 0 y = 0 ⇒ = b b d d bd b0 d0 ac ac = b d bd
Secci´on 1.10
Campos de fracciones. Funciones racionales
35
y efectivamente de las hip´otesis de esta implicaci´on tenemos ab0 = a0 b , cd0 = c0 d y multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd, lo que es equivalente a la tesis de la implicaci´on. Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los “numeradores” y en los “denominadores”. La fracci´on 1/1 es neutro para el producto y cual quier fracci´on a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por la conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones con numerador distinto de cero forman un grupo conmutativo. Definamos ahora la suma de fracciones por la f´ormula en el re a c ad + cb + = cuadro a la derecha. Para convencernos que la definici´on es correcta b d bd tenemos que probar que las sumas de fracciones iguales son iguales. µ ¶ µ ¶ O sea que: a a0 c ad + cb a0 d0 + c0 b0 c0 = 0 y = 0 ⇒ = b b d d bd b0 d0 y efectivamente haciendo algunos c´alculos inteligentes obtenemos ¶ µ ¶ µ ¶ µ 0 = (ab0 − a0 b) dd0 = (ad + cb) b0 d0 = ab0 = a0 b ⇒ ⇒ cd0 = c0 d = (c0 d − cd0 ) bb0 = 0 = (a0 d0 + c0 b0 ) bd que era lo que se necesitaba probar. La comprobaci´on de que esta suma es conmutativa es obvia. La asociatividad se com prueba calculando que a c u adv + cbv + ubd + + = b d v bdv independientemente del orden en que se haga la suma. La fracci´on 0/1 es neutro para la suma y cualquier fracci´on a/b tiene opuesto −a/b (para esto u´ ltimo es necesario observar que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupo abeliano respecto a la suma. Solo nos falta la distributividad para comprobar que las fracciones con las operaciones definidas forman un campo y esto se comprueba con los siguientes c´alculos: u ³ a c ´ uad + ucb uad ucb ua uc u a u c + = = + = + = + . v b d vbd vbd vbd vb vd vb vd Por u´ ltimo observemos que si identificamos al elemento a ∈ A con la fracci´on a/1 podemos pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto de estas fracciones coinciden con la suma y el producto dentro de A. Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deber´ıa anali zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de las operaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones as´ı de finidas se le llama el campo de fracciones del anillo conmutativo A. MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo. ¿Puede usted encontrar el error? Si cree que puede regrese arriba y b´usquelo, si no, siga leyendo.
Cap´ıtulo 1. Campos
36
El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y d distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no es cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 × 3 = 0. Si en el anillo hay tales elementos no podemos definir adecuadamente el producto de fracciones (tampoco la suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio de integridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemplo evidente de dominio de integridad es Z. Su campo de fracciones es Q. Funciones racionales El ejemplo por el cual hemos escrito esta secci´on es el siguiente: Todo anillo de polinomios con coeficientes en un campo es un dominio de integridad. Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife rente de cero (recuerdese que un polinomio cuando todos sus coeficientes son cero). P P es cero i Sean p (x) = ni=0 ai xi y q (x) = m b x dos polinomios cualesquiera de grados n i=0 i P n+m y m respectivamente. Denotemos p (x) q (x) = i=0 ci xi . Por la f´ormula del producto de polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio de integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0. Observese que en la demostraci´on no se us´o el hecho de que en el campo K hay inversos multipli cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho m´as fuerte: Los anillos de polinomios con coeficientes en un dominio de integridad son dominios de integridad.
Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de fracciones que se denota por K (x) . N´otese la diferencia entre K [x] y K (x). A los elementos de K (x) se les llama funciones racionales (en la variable x). Las funciones racionales son fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las que todos estamos acostumbrados.
Ejercicio 36 ¿Conoce usted un campo infinito de caracter´ıstica 2? [178] Ejercicio 37 ¿Que pasa si construimos el campo de fracciones de un campo? [178]
1.11 Anillos con divisi´on Si en los axiomas de campo eliminamos la condici´on de que el producto es conmutativo obtenemos el concepto de anillo con divisi´on (tambi´en se le llama cuerpo).
Secci´on 1.11
Anillos con divisi´on
AD1) (D, +) es un grupo abeliano AD2) (D\0, •) es un grupo AD3) • es distributivo con respecto a +
37
O sea, un anillo con divisi´on es un conjunto D con una suma y un producto tal que se cumplen los axiomas del recuadro a la izquierda. En par ticular, todo campo es anillo con divisi´on.
Ejercicio 38 Pruebe que si (D, +, •) es tal que (D, +) es un grupo, (D\ {0} , •) es un grupo
y el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otras palabras en los axiomas de anillo con divisi´on la conmutatividad de la suma es consecuencia del resto de los axiomas. [178] Quaterniones No es muy f´acil construir anillos con divisi´on que no sean campos. Para esto, supon gamos que en lugar de un solo n´umero imaginario i tenemos tres diferentes imaginarios i, j y k que cumplen que i2 = j2 = k2 = −1. Un quaterni´on es un n´umero de la forma a + bi + cj + dk donde a, b, c, d son n´umeros reales. El lector debe observar la analog´ıa con los n´umeros complejos. Podemos sumar quaterniones por coordenadas (a + bi + cj + dk) + (a0 + b0 i + c0 j + d0 k) = ((a + a0 ) + (b + b0 ) i + (c + c0 ) j + (d + d0 ) k) y es f´acil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano respecto a la suma. Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginario entonces ax = xa. Tambi´en postulamos que si x y y son dos imaginarios distintos entonces xy = −yx. Esto nos dice que nuestra multiplicaci´on de quaterniones no es conmutativa. Ahora, si a+bi+cj+dk y a0 +b0 i+c0 j+d0 k son dos quaterniones arbitrarios entonces los multiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usando los postulados obtenemos que su producto es igual a aa0 − bb0 − cc0 − dd0 + 0 0 + (ab + ba ) i + (ac0 + ca0 ) j + (da0 + ad0 ) k+ + (bc0 − cb0 ) ij + (cd0 − dc0 ) jk + (db0 − bd0 ) ki. Para poder concluir la definici´on de la multiplicaci´on a00 = aa0 − bb0 − cc0 − dd0 de quaterniones postulamos que ij = k, jk = i y ki = j. b00 = ab0 + ba0 + cd0 − dc0 As´ı definitivamente, obtenemos que el producto de nues c00 = ac0 + ca0 + db0 − bd0 tros quaterniones es (a00 + b00 i + c00 j + d00 k) donde los co d00 = da0 + ad0 + bc0 − cb0 eficientes a00 , b00 , c00 y d00 son los definidos en el recuadro a la derecha. O sea, el producto de quaterniones es un quaternion. No es dif´ıcil (pero si muy laborioso) probar directamente de la definici´on que este producto es asociativo tiene elemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma.
Cap´ıtulo 1. Campos
38
Para comprobar la existencia de inversos multiplicativos definimos para un quaternion no nulo x = a + bi + cj + dk su quaterni´on conjugado xˉ = a − bi − cj − dk. De la definici´on de producto de quaterniones tenemos que xˉx = xˉ x = a2 + b2 + c2 + d2 es un n´umero real que tiene inverso multiplicativo. De esto se deduce que xˉ (xˉx)−1 es el inverso multiplicativo de x. En resumen, el conjunto de los quaterniones H son un anillo con divisi´on pero no son un campo. Los quaterniones fueron descubiertos en 1843 por el f´ısico, ma tem´atico y astr´onomo irland´es Sir William Rowan Hamilton (1805 – 1865). De aqu´ı la notaci´on H para denotar el anillo de qua terniones. Los quaterniones jugaron un papel fundamental en la matem´atica y la f´ısica del siglo XIX. Por ejemplo, James Clerk Maxwell us´o los quaterniones para desarrollar sus equaciones del electromagnetismo. En la actualidad son importantes por ejemplo, para las aplicaciones en las cuales se requiere describir en forma eficiente rotaciones espaciales (rob´otica, control de naves espacia les, gr´aficos por computadoras, etc.).
Ejercicio 39 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuencia de las igualdades de Hamilton i2 = j2 = k2 = ijk = −1. [178] Ejercicio 40 Muestre que los quaterniones que son raices cuadradas de −1 forman natural mente una esfera en R3 . M´as precisamente (a + bi + cj + dk)2 = −1 si y solo si se cumple que b2 + c2 + d2 = 1. [178] Ejercicio 41 Constraste 1.18 con el hecho de que hay un infinito n´umero de quaterniones que son raices de −1 (ejercicio 40). ¿Que falla en la prueba de 1.18 para el caso de los quaterniones? Caso finito Los quaterniones son un anillo con divisi´on infinito y es natural preguntarse si se pueden construir anillos con divisi´on finitos que no sean campos. El siguiente teorema responde esta pregunta en forma negativa. Teorema de Wedderburn Todo anillo con divisi´on finito es un campo. La prueba de este teorema involucra un an´alisis del grupo multiplicativo del anillo y usa t´ecnicas de teor´ıa de grupos que se salen fuera de los objetivos de este libro.
Capítulo segundo
Espacios Vectoriales ste es el objeto central del a´ lgebra lineal. Motivaremos la introducci´on de este concep to en el ejemplo geom´etrico del plano cartesiano. Daremos las definici´on de espacio vectorial complementandola con los ejemplos m´as fundamentales. Profundizaremos en la estructura de estos estudiando sus subespacios, sus bases, su dimensi´on etc. lo que nos llevar´a a entender todos los espacios vectoriales (al menos los de dimensi´on finita). Finaliza remos este cap´ıtulo con el estudio de las operaciones entre subespacios y subespacios afines lo que nos llevar´a a entender los espacios cocientes.
2.1 El plano cartesiano Hubo alg´un tiempo, en que el a´ lgebra y la geometr´ıa eran dos cosas to talmente aparte. Los algebristas trabajaban con n´umeros, polinomios, raices, f´ormulas, etc. y los ge´ometras con puntos, lineas, pol´ıgonos, etc. Ren´e Descartes (Francia 15961650) fu´e el que tuvo la brillante idea de introducir los ejes de coordenadas. Tomamos dos rectas per pendiculares, a la horizontal se le llama “eje y de las equis” y a la vertical se le llama “eje de las yes”. Para cada punto del plano p tra p py zamos la perpendicular al eje x y al eje y y de esta manera obte nemos los puntos px en el eje x y py en el eje y. Por cuanto, el eje de las x lo podemos identificar (escogiendo una unidad de medida) con R donde el cero es el origen de coordenadas (la intersecci´on de los dos ejes) por tanto, px es simplemente un n´umero real. De la px x misma manera py es otro n´umero real. As´ı, a cada punto del plano p se le hace corresponder biun´ıvocamente una pareja de n´umeros reales (px , py ). Adem´as, es conveniente representar cada punto del plano como el segmento dirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementos de R (para diferenciarlos de los vectores) los llamaremos escalares. Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen cia de estos, los escalares se denotar´an por letras latinas y griegas normales.
40
Cap´ıtulo 2. Espacios vectoriales
a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos se define como a + b = (ax + bx , ay + by ) . La suma, geom´etricamen a te no es nada m´as que la diagonal del paralelogramo generado por a y b . Del hecho que (R, +) es un grupo abeliano se desprende f´acilmente b que nuestro plano cartesiano R2 es tambi´en un grupo con respecto a la x suma de vectores. Si a = (ax , ay ) es un vector y α un escalar el producto αa se define y 2a como (αax , αay ) . Geom´etricamente este producto es aumentar (o reducir) a en un factor α el vector a. Si el factor es negativo entonces el resultado apunta en la direcci´on opuesta. Si el factor es cero entonces el vector se x degenera al origen de coordenadas. El producto por escalares es distributivo con respecto a la suma α (a + b) = αa+αb de vectores y tambi´en con respecto a la suma de escalares o sea (α + β) a =αa+βa se cumplen las igualdades en el recuadro. Estas dos leyes distri butivas (¡son diferentes!) se cumplen porque son ciertas en cada coordenada. Adem´as, obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales. y
Ejercicio 42 Demuestre geom´etricamente que la diagonal del paralelogramo generado por a y b tiene coordenadas (ax + bx , ay + by ). [178] Ejercicio 43 ¿Es la multiplicaci´on de un escalar por un vector una operaci´on binaria? [178] Ejercicio 44 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [179] Ejercicio 45 ¿Que es la resta de dos vectores? ¿Cual es su interpretaci´on geom´etrica?
2.2 Definici´on y ejemplos La primera definici´on de espacio vectorial la dio Giuseppe Peano (Italia, 1858 1932), en su libro “C´alculo Geom´etrico” publicado en 1888. Pea no es m´as conocido por su axiom´atica de los n´umeros naturales, o por la “Curva de Peano” que es una inmersi´on continua sobreyectiva del inter valo en el cuadrado. Sea K un campo cuyos elementos los llamaremos escalares y (E, +) un grupo abeliano cuyos elementos los llamaremos vectores. Diremos que es un espacio vectorial sobre K si est´a definida una operaci´on de producto de escalares E1) α (a + b) = αa + αb (α + β) a =αa+βa por vectores K×E → E que cumple las propiedades E1 E3. A los axiomas E1 y E2 se les llama distributividad E2) α (βa) = (αβ) a y asociatividad respectivamente del producto por escala E3) 1a = a res. El 1 que aparece en el axioma E3 es el 1 del campo.
Secci´on 2.2
Definici´on y ejemplos
41
Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que deno taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalares tiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −α e inversos multiplicativos α−1 . Las relaciones que cumplen estos con respecto al producto por escalares nos las da el siguiente resultado b´asico. En todo espacio vectorial para cualquier vector a y cualquier escalar α se cumple que 0a = 0, (−1) a = −a y α0 = 0. Prueba. La demostraci´on se realiza mediante las siguentes tres cadenas de igualdades E3 E1 0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0 E3 E1 (−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a ¡ ¢ ¡ ¢ E2 E3 E1 E3 α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0 donde signos “=” est´an marcados con los axiomas por los que son v´alidos.
Ejercicio 46 Demuestre que αa = 0 ⇒ α = 0 o a = 0. [179] Ejercicio 47 ¿Cual es el m´ınimo n´umero de elementos que puede tener un espacio vecto rial? [179]
Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lector no se pierda en la cantidad de “ejemplos” que sigue. La mayor´ıa de ellos son fundamentales para entender este libro. En particular, introduciremos notaciones b´asicas que ser´an usadas constantemente. El espacio de nadas Kn Consideremos el producto cartesiano de n copias del Kn = {(a , a , ..., a ) | a ∈ K} 1 2 n i campo K. Este producto se denota por Kn y est´a forma do por todas las nadas (a1 , a2 , ..., an ). Al escalar ai se le llama la i´esima coordenada de la nada (a1 , a2 , ..., an ). Luego, una nada tiene n coordenadas. Los vectores ser´an las nadas, los escalares ser´an los elementos (a1 , ..., an ) de K. En Kn se introduce f´acilmente la suma por coordenadas co mo se muestra en el recuadro a la izquierda. Del hecho de que las (b1 , ..., bn ) (a1 + b1 , ..., an + bn ) propiedades necesarias se cumplen en cada coordenada se des prende que (Kn , +) es un grupo abeliano. La multiplicaci´on por escalares tambi´en se introduce por coor (a1 , ..., an ) denadas. El axioma E1 se reduce en cada coordenada a la distribu × α tividad del producto respecto a la suma en el campo K. El axioma E2 a la asociatividad del producto en K. Finalmente, el axioma E3 (αa1 , αa2 , ..., αan ) se reduce en cada coordenada a que 1 es el neutro para el producto en el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.
+
42
Cap´ıtulo 2. Espacios vectoriales
El espacio de polinomios K [x] Podemos sumar polinomios, esta suma se hace coefi ² ± n X ciente por coeficiente. Tambi´en sabemos multiplicar un a ∈ K ai xi | i elemento de K por un polinomio. Es muy conocido que K [x] = n∈N i=0 todos los axiomas de espacio vectorial se cumplen. En ciertoPsentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino mio ni=0 ai xi la (n + 1)ada (a0 , a1 , , ..., an ) y la multiplicaci´on por escalar es la misma que en Kn+1 . Para la suma podemos tener un problema de grados diferentes pero esto P si son i se resuelve agregando suficientes ceros o sea si m b x es otro polinomio con n > m i=0 i entonces podemos asociarle la nada (b0 , b1 , ..., bn , 0, ..., 0) con suficientes ceros para com pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . Aunque sepamos multiplicar polinomios, esto no tiene ning´un papel en el concepto de espacio vectorial. El espacio de sucesiones KN Dos sucesiones se suman por coordenadas como se muestra en el recuadro. La mutiplicaci´on un escalar es tambi´en por coordenadas. Los axiomas de espacio vectorial se comprue ban f´acilmente. El lector debe observar que los elementos de la sucesi´on pueden estar en un campo arbitrario y no ne cesariamente en R como estamos acostumbrados. La noci´on de convergencia de sucesiones no tiene nada que ver con el concepto de espacio vectorial. (a1 , a2 , ..., an , ...) (b1 , b2 , ..., bn , ...) (a1 + b1 , , ..., an + bn , ....)
+
El espacio de series K [[x]] Las series se suman coeficiente por coeficiente. Para ±∞ ² X multiplicar por un escalar se multiplican todos los coefi ai xi | ai ∈ K cientes por el escalar. Los axiomas de espacio vectorial K [[x]] = i=0 se cumplen porque se cumplen para cada coeficiente. De P i hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie ∞ i=0 ai x se determina un´ıvocamente por la sucesi´on (a0 , a2 , ..., an , ...) de sus coeficientes y no hay di ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con la multiplicaci´on por un escalar. Al igual que con los polinomios, el concepto de producto de series no juega ning´un papel en el hecho de que K [[x]] sea un espacio vectorial. El espacio de funciones KN Hay una biyecci´on natural entre las nadas (a1 , a2 , ..., an ) ∈ Kn y las funciones {1, ..., n} 3 i 7→ ai ∈ K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biun´ıvocamen te con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es un conjunto arbitrario (no necesitamos de operaci´on alguna en N) entonces el conjunto de to das las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la suma de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N. El producto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se
Secci´on 2.2
Definici´on y ejemplos
43
comprueban f´acilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular de este ejemplo cuando N es {1, ..., n} y N respectivamente. Adem´as, ya observamos que K [[x]] = KN . El espacio de Nadas KN En lo adelante una funci´on en KN se denotar´a por αN . M´as precisamente, αN es la funci´on que a cada i ∈ N le hace corresponder el escalar αi . Por ejemplo, si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ). La bondad de esta notaci´on es que podemos pensar los elementos de KN (funciones) como si fueran nadas. Para poder seguir pensando en αN como si fuera en una nada necesitamos las palabras adecuadas. A los elementos αN de KN los llamaremos Nadas. Al conjunto N lo llamaremos conjunto de ´ındices de αN y a los elementos de N los llamaremos ´ındices. Si i es un ´ındice, entonces diremos que αi es la i´esima coordenada de αN . En estas notaciones la suma de dos Nadas es por coordenadas. O sea, la i´esima coordenada de αN + βN es αi + βi . El producto por escalares tambi´en es por coordenadas. O sea, la i´esima coordenada de λαN es λαi . Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entre una Nada y una nada es que las coordenadas de la Nada no necesariamente est´an or denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no tienen un orden natural. Para poder identificar una Nada de estos con una 3ada, necesita mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero. Sin embargo, si al lector le cuesta trabajo pensar en las Nadas cuando N es un conjunto, le sugiero olvidarse de que N es un conjunto y pensar que N es un n´umero natural. El espacio de Nadas con soporte finito K{N} Sea αN ∈ KN una Nada. El soporte αN es por definici´on el conjunto de ´ındices i tales que αi 6= 0. Si el conjunto de ´ındices N es finito entonces, cualquier Nada tiene soporte finito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de ´ındices es infinito entonces habr´a Nadas con soporte infinito. Si sumamos dos Nadas de soporte finito el resultado ser´a una Nada de soporte finito (porque 0 + 0 = 0). Si multiplicamos una Nada de soporte finito por un elemento del campo el resultado ser´a una Nada de soporte finito (porque λ0 = 0). Los axiomas de espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera Nadas. Al espacio de Nadas con soporte finito se le denota por K{N} . Como de espacio de Nadas de soporte finito veamos el siguiente. Cada polino Pn ejemplo i mio i=0 ai x determina un´ıvocamente una Nada aN donde ai = 0 si i > n. Esta Nada es de soporte finito. Rec´ıprocamente, si aN es una Nada de soporte finito entonces, nece sariamente, hay un natural n tal P que ai = 0 para cualquier i > n. As´ı, le podemos hacer corresponder a aN el polinomio ni=0 ai xi . Esta correspondencia es biun´ıvoca y las opera
44
Cap´ıtulo 2. Espacios vectoriales
ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios es el espacio de Nadas con soporte finito. En otras palabras K{N} = K [x]. Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada Nada es de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn . Subcampos Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos una operaci´on binaria en K (la suma) y una multiplicaci´on por escalares L × K → K. En este caso, los axiomas de espacio vectorial se desprenden directamente de las definiciones de campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y el producto por un real son las mismas operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 . Otro ejemplo m´as es que R es un espacio vectorial sobre Q. Este caso es suficientemente complicado para que no digamos nada sobre e´ l. El espacio de Nadas de vectores EN Ahora, nos debemos preguntar, cual es el m´ınimo de condiciones que le debemos pedir a las coordenadas de una Nada, para poder definir un espacio vectorial. Ya vimos que, si las coordenadas est´an en un campo entonces, obtenemos un espacio vectorial. Pero esto es pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores. M´as precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN el conjunto de todas las Nadas de E. Si aN y bN son dos elementos de EN entonces, la i´esima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar los elementos de E. Ahora, si λ es un elemento de K entonces, la i´esima coordenada de λaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran f´acilmente debido a que se cumplen en cada coordenada. El espacio de NMmatrices KNM Un caso particular de Nadas de vectores es cuando estos vectores son Madas de esca ¡ ¢N lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos ¢N ¡ que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2ada (a1 , a2 ) de vectores y cada uno de ellos es una 3ada de escalares. Los dos vectores los po ¶ demos representar como en el recuadro a µ α a1 = (α11 , α12 , α13 ) 11 α12 α13 la izquierda y para simplificar nos queda a2 = (α21 , α22 , α23 ) α21 α22 α23 mos con la tabla que vemos a la derecha.
Secci´on 2.2
Definici´on y ejemplos
45
Esta tabla es un elemento del espacio de (N × M)adas KN×M , o sea, los ´ındices son ¡ ¢N parejas en el producto cartesiano N × M. Esto nos permite identificar KM con KN×M y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades ¡ ¢M ¡ M ¢N = KN×M = KM×N = KN K que el lector debe comparar con (ax )y = axy = ayx = (ay )x para n´umeros naturales a, x, y. Desde ahora, para simplificar la notaci´on, a una (N × M)ada cualquiera la llamaremos NMada. Tambi´en, en lugar de usar la notaci´on α(N×M) para denotar una NMada concreto, usaremos la notaci´on αNM . A una coordenada de esta NMada la denotaremos αij en lugar de usar la m´as complicada α(i,j) . En esta notaci´on, es m´as c´omodo pensar que hay dos con juntos de ´ındices (N y M) en lugar de uno solo (N × M). O sea, una NMada es un conjunto de elementos del campo indexado por dos conjuntos de ´ındices. Cuando N = {1, . . . , n} y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas. Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl´ıficos chinos), la diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de ´ındices por lo que no sabr´ıamos cual columna o rengl´on poner primero y cual despu´es. Como esta diferencia no es tan importante y para no formar confusi´on en la terminolog´ıa desde ahora, a las NMadas los llamaremos NMmatrices. Escribiremos KNM para denotar el espacio vectorial de todas las NMmatrices. Como ya sabemos, en este espacio las matrices se suman por coordenadas y se multiplican por escalares tambi´en por coordenadas. Sea αNM una NMmatriz. Es costumbre llamarle a las coordenadas αij de αNM entra das de la matriz. Si i ∈ N entonces la Mada αiM ∈ KM es el i´esimo rengl´on de la matriz αNM . Si j ∈ M entonces la Nada αNj ∈ KN es la j´esima columna. Al conjunto N se le llama conjunto de ´ındices de los renglones. An´alogamente, al conjunto M se le llama conjunto de ´ındices de las columnas. Si N0 , M0 son subconjuntos no vac´ıos de N y M respectivamente entonces a la matriz αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es una entrada. Un rengl´on es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz del tipo αNj . Una u´ ltima observaci´on acerca de las matrices, es que toda esta terminolog´ıa de “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimos una matriz concreta. El espacio de tensores Bueno, ¿y si tenemos m´as de dos conjuntos de ´ındices? Pues es lo mismo. Una NMLada es una (N × M × L)ada. Al igual que en las matrices denotaremos por αNML a una NML ada con tres conjuntos de ´ındices o sea un tensor de exponente 3. Las matrices son tensores de exponente 2 y las Nadas son tensores de exponente 1. Los tensores de exponente 0 son los elementos del campo.
Cap´ıtulo 2. Espacios vectoriales
46
Si bien podemos pensar un tensor de exponente 1, co mo una serie de elementos del campo uno al lado de otro y pensar los de exponente 2, como una tabla rectangular de elementos del campo, tambi´en podemos pensar los tensores de exponente 3, como un conjunto de elementos del campo dispuestos en un arreglo que llenan un cubo en el espacio. Para cada i ∈ N tenemos que αiML es un tensor de exponen te 2 o sea una matriz. Todo αNML nos lo podemos imaginar como muchas matrices puestas una encima de la otra. Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci´on no da para visualizar geom´etricamente un arreglo de los elementos del campo dispuestos en un cubo de dimensi´on grande. Es mucho m´as u´ til el manejo algebraico de estos, que tratar de visualizarlos. En este contexto, la terminolog´ıa de “renglones” y “columnas” se hace inutilizable. Como es l´ogico, los tensores con conjuntos de ´ındices fijos forman un espacio vectorial. La suma se hace por coordenadas y tambi´en la multiplicaci´on por un escalar.
2.3 Subespacios Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac´ıo de vectores que es un espacio vectorial para las mismas operaciones. Un conjunto de vectores F no vac´ıo es un subespacio si y solo si para cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa est´an en F. Prueba. Si F es un subespacio de E entonces, por definici´on a + b y λa est´an en F. Rec´ıprocamente, sea F un conjunto de vectores de E que cumple las hip´otesis. Como la suma de vectores es asociativa y conmutativa en E, tambi´en lo es en F. Sea a ∈ F (existe por ser F no vac´ıo). Tenemos 0a = 0 ∈ F. Adem´as ∀b ∈ F (−1) b = −b ∈ F. Con esto se comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F por ser este un subconjunto de E. Uni´on e intersecci´on de subespacios ¿Ser´an la intersecci´on (y la uni´on) de subespacios un subespacio? La uni´on de subespa cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano (veremos prontamente que son subespacios) sin embargo, la uni´on de los mismos no es un subespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la uni´on de los dos ejes. Por el contrario, la intersecci´on de subespacios si es un subespacio. La intersecci´on de un conjunto de subespacios es un subespacio.
Secci´on 2.3
Subespacios
47
Prueba. La intersecci´on de subespacios nunca es vac´ıa porque cada subespacio contiene al 0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a + b tambi´en est´a en cada uno de los subespacios del conjunto. Lo mismo sucede para αa. Combinaciones lineales Veamos unos ejemplos importantes de subespacios. Sea a un vector a no nulo en R2 . El conjunto hai = {αa | α ∈ R} de todos los m´ultiplos del vector a es un subespacio de R2 ya que αa + βa = (α + β) a, y α (βa) = (αβ) a. Geom´etricamente, teniendo en cuenta la identificaci´on de vectores con los puntos del plano cartesiano, podemos ver que los vectores en este hai espacio son los puntos de la recta por el origen que pasa por a. Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos el conjunto de vectores {αa + βb | α, β ∈ R}. Este conjunto de vectores se denota por ha, bi y es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) = λαa+λβb. Geom´etricamente, vemos que este conjunto contiene a la recta hai que pasa por a y a la l´ınea hbi que pasa por b. En R3 hay un solo plano que contiene estas dos rectas. ¿Ser´a es te plano el subespacio ha, bi? Pues, claro que si. Para cada a punto p de este plano dibujemos la paralela a la l´ınea hai que p pasa por p obteniendo un punto de intersecci´on con la recta b hbi el cual es βb para alg´un β ∈ R. An´alogamente, dibujan ha, bi do la paralela a hbi obtenemos el punto αa en la recta hai y vemos que p = αa + βb. Luego, p ∈ ha, bi. Estos ejemplos nos motivan a la siguiente definici´on. Sea N un conjunto de X vectores. Una combinaci´on lineal de N es cualquier vector de la forma que se αi i muestra en el recuadro a la derecha. A los escalares αi se les llama coeficientes i∈N de la combinaci´on lineal. Es posible que no se entienda esta notaci´on. El conjunto de ´ındices es el conjunto de vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. As´ı por ejemplo si N = {a, b, c, d} entonces una combinaci´ Pon lineal de N es un vector de la forma αa+βb + γc+δd. En otras palabras, la notaci´on i∈N αi i debe interpretarse as´ı: “t´omese los vectores de N, cada uno de ellos multipl´ıquese por un escalar y s´umese los resultados”. Todo esto est´a muy bien si el conjunto N es finito. Si N es infinito tenemos un problema. ¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire mos a los coeficientes αi que todos salvo un n´umero finito sean cero o sea, que la Nada αN cuyas coordenadas son los coeficientes de la combinaci´on lineal es de soporte finito. Como podemos despreciar los sumandos iguales a cero, tenemos que una combinaci´on lineal es siempre una suma de un n´umero finito de vectores. El conjunto de todas las combinaciones lineales de N es un subespacio.
Cap´ıtulo 2. Espacios vectoriales
48
P P Prueba. Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces, de la aso ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto por X X X escalares obtenemos: (αi + βi ) i αi i+ βi i = i∈N
i∈N
i∈N
que es una combinaci´on lineal de N ya¡P que todos¢los (α Pi + βi ) salvo un n´umero finito tienen que ser cero. Lo mismo ocurre con γ α i = i∈N i i∈N γαi i. Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales de N. Si F es un subespacio que contiene a N entonces, F contiene a hNi. Prueba. Si F contiene a N entonces, F contiene a todos los m´ultiplos de los vectores en N y a todas sus sumas finitas. Luego, cualquier combinaci´on lineal de N est´a en F. Los siguientes tres conjuntos de vectores coinciden 1. El conjunto de todas las combinaciones lineales de N. 2. La intersecci´on de todos los subespacios que contienen a N. 3. El subespacio m´as peque˜no que contiene a N. Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposici´on. Por definici´on F1 = hNi. Por la proposici´on 2.3 el conjunto F2 es un subespacio que contiene a N y de 2.5 obtenemos que F1 ⊆ F2 . Por definici´on de intersecci´on tenemos que F2 ⊆ F3 . Por definici´on, F3 est´a contenido en cualquier subespacio que contiene a N y en particular F3 ⊆ F1 . La prueba termina usando la transitividad de la inclusi´on de conjuntos. A cualquiera de los tres conjuntos (¡son iguales!) de la proposici´on anterior se le denota por hNi y se le llama cerradura lineal de N o tambi´en el subespacio generado por N. Propiedades de la cerradura lineal La cerradura lineal cumple las siguientes propiedades: ¨ N ⊆ hNi (incremento), ¨ N ⊆ M ⇒ hNi ⊆ hMi (monoton´ıa), ¨ hhNii = hNi (idempotencia). Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquier combinaci´on lineal de N es tambi´en combinaci´on lineal de M (haciendo cero todos los coeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio m´as peque˜no que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.
Secci´on 2.4
Bases
49
En matem´aticas las palabras “clausura”, “cerradura” y “envoltura” son sin´onimos. Por esto con el mismo e´ xito, otros autores le llaman “clausura lineal” o “envoltura lineal” a nuestro concepto de cerradura lineal. Adem´as, es bueno que el lector encuentre el parecido entre el concepto de cerradura lineal y el concepto de “cerradura” en an´alisis (la intersecci´on de todos los cerrados que contienen a un conjunto). En general una funci´on que a un conjunto N le hace corresponder otro conjunto hNi y que cumple las propiedades 13 se le llama operador de cerradura (clausura, envoltura). En este caso a los conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 13 es, en general, equivalente a que el operador de cerradura se defina como la intersecci´on de todos los cerrados que contienen al conjunto. En todas las ramas de las matem´aticas se encuentran operadores de cerradura.
Ejercicio 48 Demuestre que N es un subespacio si y solo si N = hNi. Ejercicio 49 Demuestre que (x ∈ hN ∪ yi \ hNi) ⇒ (y ∈ hN ∪ xi). [179] 2.4 Bases X
Observemos que la definici´on de combinaci´on lineal de N de termina la funci´on fN del recuadro a la izquierda que a ca i∈N da Nada de soporte finito αN le hace corresponder el vector P on no tiene porque que ser sobreyectiva ni inyectiva, depende del con i∈N αi i. Esta funci´ junto de vectores N. Por ejemplo, sea N = {x, y, z} donde x = (0, 0, 1), y = (0, 1, 0) y z = (0, 1, 1) son tres vectores en R3 . En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) por lo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen. En esta secci´on estableceremos que en todo espacio vectorial existen conjuntos N para los cuales la funci´on fN es biyectiva. Este hecho es fundamental, porque en este caso existe la {N} funci´on inversa f−1 que nos permitir´a introducir coordenadas en cualquier espa N : E →K cio vectorial. Es m´as, veremos que los conjuntos de vectores para los cuales fN es biyectiva tienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define por un cierto n´umero de elementos del campo (coordenadas) y que este n´umero es independiente del vector a definir. Solo depende del espacio. As´ı, en R2 nos hacen falta siempre dos reales para dar un vector y en R7 nos hacen falta siete. K{N} 3 αN 7→
αi i ∈ E
Conjuntos generadores Primero, lo m´as f´acil. La imagen de la funci´on fN es hNi , la cerradura de N. Diremos que N es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva. Los generadores son un filtro Todo sobreconjunto de un conjunto generador es generador.
50
Cap´ıtulo 2. Espacios vectoriales
Prueba. Supongamos M ⊇ N. Por monoton´ıa de la cerradura lineal tenemos hNi ⊆ hMi. Si hNi es todo el espacio entonces, necesariamente hMi tambi´en lo es. Conjuntos linealmente independientes Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje m´as descriptivo, un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado. Teorema de Caracterizaci´on de Conjuntos Linealmente Independientes Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes 1. Cualquier subconjunto propio de N genera un subespacio m´as peque˜no que todo N. 2. Cualquier vector en N no es combinaci´on lineal de los restantes. 3. Si dos combinaciones lineales de N son iguales entonces, todos sus coeficientes son iguales. 4. Si una combinaci´on lineal de N es cero entonces, todos sus coeficientes son cero. Prueba. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai pero entonces a ∈ hN\ai lo que contradice 2. Rec´ıprocamente, si 2 no es cierto entonces existe a ∈ N tal que a∈ hN\ai. Por incremento N\a ⊆ hN\ai y como adem´as a ∈ hN\ai entonces N ⊆ hN\ai. Por monoton´ ıa e idempotencia ⊆ hN\ai lo que contradice 1. ¡P ¢ hNi¡P ¢ P (3 ⇔ 4) Observese que as i∈N αi i = i∈N βi i ⇔ i∈N (αi − βi ) i = 0 y adem´ (αi = βi ) ⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con al gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales iguales a cero con algunos coeficientes no cero. (2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinaci´on lineal de N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinaci´on lineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Rec´ıproca mente, si no se cumple 4 entonces hay un vector a ∈ N y una combinaci´on lineal de N igual a cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hN\ai. Esto contradice 2.
Ejercicio 50 Busque en la prueba del Teorema de Caracterizaci´on de Conjuntos Linealmen te Independientes (2.9) donde se usan los inversos nultiplicativos. [179] Diremos que un conjunto de vectores N es linealmente independiente si se cumple alguna (y por lo tanto todas) las afirmaciones de la proposici´on anterior. Los conjuntos de vectores que no son linealmente independiente se les llama linealmente dependientes.
Secci´on 2.4
Bases
51
A partir de ahora para no repetir constantemente frases largas a los conjuntos de vectores linealmente independientes los llamaremos conjuntos LI. An´alo gamente a los conjuntos de vectores linealmente dependientes los llamaremos conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”. Los independientes son un ideal Todo subconjunto de un conjunto LI es LI. Prueba. Sea N ⊆ M tal que M es LI. Cualquier combinaci´on lineal de N es combinaci´on lineal de M. Luego toda combinaci´on lineal de N igual a cero tiene todos sus coeficientes iguales a cero Antes de pasar a la definici´on de base, demostremos un peque˜no resultado que usaremos repetidamente en lo adelante. Lema de Aumento de un Conjunto LI Si N es independiente y N∪ a es dependiente entonces a ∈ hNi. Prueba. Si N ∪ a es LD entonces, por la caracterizaci´on 2.9.4 de los conjuntos LI, hay una combinaci´on de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si el coeficiente en a fuera igual a cero obtendr´ıamos una contradicci´on con que N es LI. Luego, el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi. Bases La relaci´on entre los conjuntos generadores y los conjun tos LI la podemos ver intuitivamente en la figura a la derecha. Aqu´ı est´an representados los subconjuntos del espacio E que son generadores o que son LI. Mientras m´as arriba m´as gran de es el subconjunto. Nuestro inter´es ahora se va a concentrar en la franja del centro donde hay subconjuntos que a la vez son generadores y LI. La siguiente proposici´on nos dice que “esta franja no puede ser muy ancha”.
E Conjuntos generadores Conjuntos LI ∅
Teorema de Caracterizaci´on de Bases Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes 1. N es generador y N es LI, 2. N es LI y cualquier sobreconjunto propio de N es LD, 3. N es generador y cualquier subconjunto propio de N no es generador. Prueba. (1 ⇒ 2) Sea N independiente y generador. Sea a ∈ / N. Como N es generador
52
Cap´ıtulo 2. Espacios vectoriales
a ∈ hNi . De la caracterizaci´on 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luego todo sobreconjunto propio de N es LD. (2 ⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a ∈ / N entonces N ∪ a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego, N es generador. Si alg´un subconjunto propio de N fuera generador entonces existir´ıa a ∈ N tal que a ∈ hN\ai y por la caracterizaci´on 2.9.2 de los conjuntos LI esto contradice la suposici´on de que N es LI. (3 ⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizaci´on 2.9.1 de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N es generador entonces M tambi´en lo es. Esto contradice la suposici´on de que N es minimal. Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se le llama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base es equivalente a ser un conjunto LI lo m´as grande posible o ser un conjunto generador lo m´as chico posible. Tambi´en, el ser base es equivalente a que nuestra funci´on fN del principio de esta secci´on sea biyectiva. Lema de Incomparabilidad de las Bases Dos bases diferentes no est´an contenidas una dentro de la otra. Prueba. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de M y por el Teorema de Caracterizaci´on de Bases (2.12) esto es una contradicci´on. Teorema de Existencia de Bases Sea N un conjunto generador y L ⊆ N un conjunto LI. Entonces, existe una base M tal que L ⊆ M ⊆ N. Prueba. Sean L y N como en las hip´otesis del teorema. Sea M un conjunto LI tal que L ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD) entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M tambi´en lo es y por lo tanto M es una base. Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es f´acil si el conjunto N es finito. Primero ponemos M igual a L. Si M es maximal terminamos, si no, entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto M y repetimos este proceso. Como N es finito este proceso tiene que terminar.
Ejercicio 51 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema de Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LI esta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [179]
Secci´on 2.4
Bases
53
Dimensi´on Ahora lo que queremos ver es que todas las bases tienen el mismo n´umero de vectores. Para probar esto se necesita ver primero una propiedad cl´asica de las bases. Propiedad del Cambio de las Bases Si M y N son dos bases entonces, para cualquier a ∈ M existe b ∈ N tal que (M\a) ∪ b es base. Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemos Mb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces, por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N ser´ıa combinaci´on lineal de M\a. O sea, N ⊂ hM\ai y por monoton´ıa e idempotencia tendr´ıamos hNi ⊆ hM\ai . Como hNi es todo el espacio en particular tendr´ıamos a ∈ hM\ai lo que no es posible ya que M es LI. Hemos demostrado que existe b ∈ N\ (M\a) tal que Mb es LI. Demostremos que Mb es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son combinacio nes lineales de M o sea existen escalares X apropiados tales que X b = αa a + αx x v = λa a + λx x x∈M\a
x∈M\a
Como Mb es LI entonces, b no es una combinaci´on lineal de M\a y por lo tanto αa 6= 0. Luego, podemos despejar a de la primera ecuaci´on, substituirla en la segunda y as´ı obtener que v ∈ hMb i. Esto significa que Mb es generador. Equicardinalidad de las Bases Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal. Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases (2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 ∈ B. Observese que |A1 | = n ya que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra base A2 = {b1 , b2 , a3 , ..., an } tal que b2 ∈ B. Observese que |A2 | = n ya que en otro caso A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendo este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y adem´as An ⊆ B. Como B es base obtenemos An = B y por lo tanto B tambi´en tiene n vectores. Al cardinal de una base (cualquiera) se le llama dimensi´on del espacio vectorial. La di mensi´on de un espacio vectorial E se denotar´a por dim E. Los espacios vectoriales que tienen una base finita se les llama finito dimensionales o de dimensi´on finita. Por el contrario, si sus bases son infinitas entonces, el espacio vectorial es de dimensi´on infinita. La teor´ıa de los espacios vectoriales de dimensi´on finita es m´as sencilla pero m´as completa que la de los
Cap´ıtulo 2. Espacios vectoriales
54
espacios de dimensi´on infinita. Para darnos cuenta de que hay muchas cosas que se cumplen en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo el siguiente resultado que tendremos m´ultiples ocaciones para utilizarlo. Sea F un espacio vectorial finito dimensional y E un subespacio de F. Si dim E = dim F entonces E = F. Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una base M del espacio F que contiene a N. Como M es finita entonces, N tambi´en es finita. Como las dimensiones coinciden, el n´umero de vectores en N es igual al n´umero de vectores en M. Luego N = M y por lo tanto E = hNi = hMi = F. Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he cho solamente para el caso que el espacio tiene una base finita. Nuestra prueba del Teorema de Existencia de Bases (2.14) es solo para el caso que el con junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales que tienen un conjunto generador finito tienen base. Es importante que el lector sepa que estas tres afirmaciones son v´alidas en general. Sin embargo, las pruebas generales dependen de un conocimiento m´as profundo de la Teor´ıa de Conjuntos que no presuponemos que lo posea el lector. A los interesados en esto les recomiendo leer ahora la u´ ltima secci´on de este cap´ıtulo.
Ejercicio 52 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. [179] Ejercicio 53 Encuentre un ejemplo donde no se cumple 2.17. [179] Bases can´onicas Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una base sino muchas. Por esto es conveniente construir bases que son las m´as “sencillas” para los ejemplos de espacios vectoriales que construimos en la Secci´on 2.2. Comenzemos con R2 . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2 tiene una manera de expresarse como combinaci´on lineal de N = {e1 , e2 }. Efectivamente, tenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador. Por otro lado, si αe1 + βe2 = (α, β) = 0 = (0, 0) entonces, necesariamente, α y β son ambos cero. De aqu´ı obtenemos que conjunto N es una base que la llamamos base can´onica de R2 . Los vectores e1 y e2 se pueden visualizar geom´etricamente como los dos vectores de longitud 1 en ambos ejes de coordenadas. Luego, la dimensi´on de R2 es 2. Pasemos ahora a Kn . Para cada i en el conjunto de ´ındices {1, . . . , n} denotemos por ei el vector cuya iesima coordenada es 1 y todas las dem´as son cero (recuerde que todo cam po tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1 , . . . , αn ) = P n n ´ nica como combina i=1 αi ei y esto significa que cada vector en K se expresa de forma u
Secci´on 2.5
Clasificaci´on de espacios vectoriales
55
ci´on lineal de N. O sea, N es generador y por la caracterizaci´on 2.9.3 de los conjuntos LI el conjunto N es LI. A la base N se le llama base can´onica de Kn . ©La dimensi´ on de Kn es n. ª Veamos el espacio de polinomios K [x]. Sea N el conjunto xi | i ∈ N . Es claro que todo polinomio se puede escribir de forma u´ nica como combinaci´on lineal finita de N. A la base N se le llama base can´onica de K [x]. Luego, K [x] es de dimensi´on infinita contable. Desafortunadamente, para el espacio de series no se puede dar explicitamente una base. Para el espacio K{M} de todas las Madas de soporte finito ya hicimos casi todo el trabajo (v´ease Kn ). Para cada i en el conjunto de ´ındices M denotemos por ei el vector cuya iesima coordenada P es 1 y las dem´as son cero. Sea N el conjunto de todos esos vectores. Tenemos αN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjunto finito de indices. Luego, N es una base de este espacio la cual es su base can´onica. La dimensi´on de K{M} es el cardinal de N ya que hay una biyecci´on entre N y M. Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto M es infinito. Si el conjunto de ´ındices es finito entonces estamos hablando de todas las Madas o sea de KM . Luego, en el caso de que M es finito K{M} = KM y la base can´onica de KM es la construida en el p´arrafo anterior. En el caso de que el conjunto M sea infinito entonces el espacio KM no tiene una base can´onica. El campo de los n´umeros complejos como espacio vectorial sobre los reales tienen como base can´onica al conjunto {1, i} y por lo tanto tiene dimensi´on 2. Los reales como espacio vectorial sobre los racionales no tienen una base can´onica. Todos los espacios que hemos visto que no tienen base can´onica son de dimensi´on infi nita. Sin embargo, no todos los espacios de dimensi´on finita tienen una base can´onica. El ejemplo m´as sencillo de esto es tomar un subespacio de un espacio de dimensi´on finita. Si este subespacio es suficientemente general, entonces no hay manera de construir una base can´onica del mismo incluso en el caso de que todo el espacio tenga una base can´onica.
Ejercicio 54 Demuestre que el conjunto {(x − x0 )i | i ∈ N} es una base de K [x]. [179] Ejercicio 55 ¿Cual es la base can´onica del espacio de las NMmatrices? [179]
2.5 Clasificaci´on de espacios vectoriales En esta secci´on veremos que todo espacio vectorial es isomorfo a un espacio de N adas de soporte finito. Para el caso finito dimensional esto quiere decir que el u´ nico (salvo isomorfismos) espacio vectorial de dimensi´on n sobre un campo K que existe es el espacio de las nadas Kn . Isomorfismos lineales En el Cap´ıtulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos. Para los espacios vectoriales es igual, la u´ nica diferencia es que en ellos hay definida una
Cap´ıtulo 2. Espacios vectoriales
56
operaci´on que no es interna del espacio: el producto de un escalar por un vector. Sin embargo, esto no presenta mayores dificultades. Sean E y F dos espacios vectoriales sobre el mismo campo f (a + b) = f (a) + f (b) K. Una funci´on f : E → F se le llama morfismo de espacios f (αa) = αf (a) vectoriales si para cualesquiera a, b ∈ E y cualquier α ∈ K se cumplen las propiedades del recuadro. A los morfismos de espacios vectoriales tambi´en se les llama transformaciones lineales. Esta u´ ltima expresi´on ser´a la que usemos porque tiene dos importantes ventajas. Primero, es m´as corta que la primera. Segundo es mucho m´as antigua, hay mucha m´as cantidad de personas que la conoce y por lo tanto facilita la comunicaci´on con ingenieros y cient´ıficos de diversas areas.
Ejercicio 56 Demuestre que la composici´on de morfismos es un morfismo. [179] El estudio de las transformaciones lineales lo pospondremos hasta el siguiente cap´ıtulo. Aqu´ı estaremos interesados en los isomorfismos de espacios vectoriales. Una transformaci´on lineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es biyectiva. An´alogamente al caso de operaciones binarias tenemos el siguiente resultado: La inversa de cualquier isomorfismo lineal es un isomorfismo lineal. Prueba. Sea α ∈ K y x, y ∈ F. Como f es una biyecci´on existen a, b ∈ E tales que f (a) = x , f (b) = y. Como f es isomorfismo tenemos f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y) f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x) que es lo que se quer´ıa demostrar. Ya observamos, que los isomorfismos son nada m´as que un cambio de los nombres de los elementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarse al aplicar un isomorfismo. La siguiente proposici´on es un ejemplo de esta afirmaci´on. Un isomorfismo transforma conjuntos LI en conjuntos LI, con juntos generadores en conjuntos generadores y bases en bases. Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemos N = f (M) ⊆ F.ÃSean adem´as!x ∈ E Ã, y = f (x) ∈ F.!Como Ãf es isomorfismo ! tenemos X X X αi i = x ⇔ αi f (i) = y ⇔ αj j = y i∈M
i∈M
j∈N
donde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}. Si M es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinaci´on
Secci´on 2.5
Clasificaci´on de espacios vectoriales
57
lineal de M y por la equivalencia anterior el vector y es combinaci´on lineal de N. Luego, si M es generador entonces N tambi´en lo es. Supongamos que M es LI Ã entonces, poniendo ! Ã x = 0 obtenemos ! X X αi i = 0 ⇔ αj j = 0 i∈M
j∈N
luego, cualquier combinaci´on lineal de N que es nula tambi´en es combinaci´on lineal nula de M y por lo tanto todos sus coeficientes son cero. Luego, N es LI.
Ejercicio 57 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal y que trasforman subespacios en subespacios de la misma dimensi´on. Coordinatizaci´on Sea N un conjunto de vectores del espacio vectorial F. Al principio de la secci´on ante rior introducimos la funci´on fN que a cada Nada de soporte finito le hace corresponder la combinaci´on lineal cuyos coeficientes son dicha Nada. Esta funci´on es siempre una trans formaci´on lineal ya que X X X fN (αN + βN ) = (αi + βi ) i = αi i + βi i = fN (αN ) + fN (βN ) i∈N i∈N i∈N X X fN (λαN ) = (λαi ) i = λ αi i = λfN (αN ) . i∈N
i∈N
Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN es inyectiva si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. En el caso {N} de que N sea una base, la funci´on inversa f−1 es un isomorfismo lineal llamado N : F → K coordinatizaci´on de F mediante la base N. En otras palabras, si N es unaPbase de F, y x es un vector de F entonces, existe una u´ nica Nada αN ∈ K{N} tal que x = i∈N αi i. En este caso, a los coeficientes αi se les llama coordenadas de x en la base N. Clasificaci´on
Se dice que dos espacios son isomorfos si existe una funci´on que es un isomorfismo entre ellos. No hay ninguna raz´on (por ahora) para que deseemos distinguir dos espacios vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de los vectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos es que estos tengan la misma dimensi´on. Dos espacios vectoriales sobre el mismo campo son isomorfos si y solo si tienen la misma dimensi´on. Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 un isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por
Cap´ıtulo 2. Espacios vectoriales
58
lo que tienen la misma dimensi´on. Rec´ıprocamente, sean N y M bases de E y F respecti vamente. Mediante los isomorfismos de coordinatizaci´on podemos pensar que E = K{N} y F = K{M} . Si los dos tienen la misma dimensi´on entonces, hay una biyecci´on f : M → N. Sea g : K{N} 3 αN 7→ βM ∈ K{M} la funci´on tal que βi = αf(i) . La funci´on g la po demos pensar como la que simplemente le cambia el nombre a los ´ındices de una Nada. Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de Nadas es por coordenadas y lo mismo con el producto por un escalar). Esta proposici´on nos permite saber como son TODOS los espacios vectoriales. Ya vimos (mediante la base can´onica) que el espacio vectorial de todas las Nadas (funciones) de soporte finito tiene dimensi´on |N|. Escogiendo el conjunto N adecuadamente obtenemos todas las dimensiones posibles. En el caso de que N sea finito con n elementos , este espacio es Kn por lo que es v´alido el siguiente teorema. Teorema de Clasificaci´on de Espacios Vectoriales Todo espacio vectorial es isomorfo a un espacio de Nadas de soporte finito. Todo espacio vectorial finito dimensional es isomorfo a Kn . Campos de Galois Una aplicaci´on sencilla del Teorema de Clasificaci´on de Espacios Vectoriales (2.21) es la siguiente. Sea E un espacio vectorial finito dimendional sobre el campo K. Tenemos para cierto natural n un isomorfismo E ←→ Kn y si el campo K es finito entonces en E hay exactamente |K|n vectores. El n´umero de elementos en un campo finito es potencia de un n´umero primo. Prueba. Ya vimos que siempre que se tenga un subcampo L del campo K entonces, K es un espacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementos de K) y podemos multiplicar escalares (los elementos de L) por vectores. Si K es finito entonces su caracter´ıstica no puede ser 0 y por lo tanto es igual a un n´umero primo p. Esto quiere decir que K contiene como subcampo Zp . La dimensi´on de K sobre Zp tiene que ser finita ya que si no, entonces K ser´ıa infinito. Luego, K es isomorfo a Znp que tiene exactamente pn elementos. Como pensar en espacios vectoriales A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificaci´on de Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensar en R2 y R3 . La interpretaci´on geom´etrica de estos dos espacios como los segmentos dirigidos con origen en el cero da una intuici´on saludable acerca de lo que es cierto y lo que no.
Secci´on 2.6
Suma de subespacios
59
En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo prefiere, el n´umero n puede ser un n´umero fijo suficientemente grande digamos n = 11. Ya en este caso, para entender es necesario usar varios m´etodos: las analog´ıas geom´etricas en dimensiones peque˜nas, el c´alculo algebraico con s´ımbolos y los razonamientos l´ogicos. Casi todo lo que se puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso particular de Rn con la misma complejidad. Las demostraciones de muchos hechos v´alidos en Rn se copian tal cual para espacios vectoriales de dimensi´on finita sobre cualquier campo. En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente impor tante dentro de las matem´aticas y la f´ısica. Adem´as, el hecho de que C es algebraicamente cerrado hace que para Cn algunos problemas sean m´as f´aciles que en Rn . Hay una manera de pensar en Cn que ayuda un poco para tener intuici´on geom´etrica. Como ya vimos {1, i} es una base de C como espacio vectorial sobre R. De la misma manera Cn es un espacio vectorial sobre R de dimensi´on 2n o sea, hay una biyecci´on natural entre Cn y R2n (la bi yecci´on es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7→ (a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo esta biyecci´on no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne cesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar (no rigurosamente) a Cn como un R2n en el que hay menos subespacios. Los que se interesan en las ciencias de la computaci´on deben tambi´en pensar en Znp y en general en cualquier Kn donde K es un campo finito. Las aplicaciones m´as relevantes incluyen la codificaci´on de informaci´on con recuperaci´on de errores y la criptograf´ıa, que es la ciencia de cifrar mensajes. Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de este libro) entonces, lo m´as f´acil es pensar en Kn . Esto tiene una gran ventaja en el sentido de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo. Sin embargo, en el caso infinito dimensional la situaci´on es m´as fea. Nuestros teoremas nos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (ni conocer´a nunca) una base de este espacio, as´ı que realmente, estos teoremas no dicen mucho para espacios vectoriales de dimensi´on mayor que el cardinal de los naturales ℵ0 .
2.6 Suma de subespacios En esta secci´on introduciremos las operaciones m´as b´asicas entre subespacios. Pero an tes, es saludable dar una interpretaci´on geom´etrica de los subespacios para que el lector pueda comparar el caso general con el caso de los espacios R2 y R3 . Subespacios de Rn ¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificaci´on de Espacios Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0, 1, . . . , n} seg´un sea su dimensi´on. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos
60
Cap´ıtulo 2. Espacios vectoriales
interesantes son los que 0 < i < n. Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que hai es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego, los subespacios de dimensi´on 1 de Rn son las rectas que pasan por el origen. Para R2 este an´alisis termina con todas las posibilidades. Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base {a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere decir que b no es un m´ultiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b y el origen de coordenadas no est´an alineados. En este caso hay un u´ nico plano (R2 ) que pasa por estos tres puntos y tambi´en ya vimos que este plano es ha, bi. Luego, los subespacios de dimensi´on 2 de Rn son los planos que pasan por el origen. Para R3 este an´alisis termina con todas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos por el origen y todo el espacio. Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la intuici´on y la terminolog´ıa geom´etrica. Por esto, pasemos al caso general. Un subespacio de dimensi´on i en Rn esta generado por una base {a1 , . . . , ai } de i vectores LI. Que sean LI lo que quiere decir es que sus puntos y el origen no est´an contenidos en un subespacio de dimensi´on menor que i. Si este es el caso entonces hay un u´ nico Ri que contiene a todos estos puntos y este es el subespacio ha1 , . . . , ai i. Suma de conjuntos y subespacios Sean E y F dos subespacios sobre un campo K. En la proposici´on 2.3 vimos que E ∩ F es un subespacio. Por definici´on de intersecci´on E ∩ F es el subespacio m´as grande contenido en E y F. Ya observamos adem´as que E ∪ F no es un subespacio. Sin embargo, hay un subespacio que es el m´as peque˜no que contiene a los dos y este es hE ∪ Fi. El subespacio hE ∪ Fi tiene una estructura muy simple: hE ∪ Fi = {a + b | a ∈ E, b ∈ F} X Prueba. Todo a + b es una combinaci´on lineal de E ∪ F. Rec´ıpro X α x + βy y x camente, toda combinaci´on lineal de E ∪ F se puede escribir como x∈E y∈F en el recuadro a la derecha. Como E y F son subespacios entonces, el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decir que todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F.
Dados dos conjuntos cualesquiera de vectores A y B definimos la suma de estos como en el recuadro a la izquierda. Despu´es de esta definici´on el resultado 2.23 se puede reformular como hE ∪ Fi = E + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y F y desde ahora se le denotar´a por E + F. A + B = {a + b | a ∈ A, b ∈ B}
Secci´on 2.6
Suma de subespacios
61
La igualdad modular Sean E y F dos subespacios. Ahora trataremos de calcular la dimensi´on de E + F. Para esto necesitaremos primero encontrar bases de E ∩ F y E + F. Existen E una base de E y F una base de F tales que E ∩ F es base de E ∩ F y E ∪ F es base de E + F. Prueba. Sea N una base de E∩F . Como N es LI y est´a contenida en E entonces, por el Teo rema de Existencia de Bases (2.14) existe una base E de E que contiene a N. An´alogamente, existe una base F de F que contiene a N. Demostremos primero que E ∩ F = N. Efectivamente, por la forma en que contruimos E y F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusi´on sea a ∈ E ∩ F. Como N ∪ a ⊆ E entonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases son los conjuntos LI m´as grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N. Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquier a + b ∈ E + F es combinaci´on lineal de E ∪ F por lo que E ∪ F es generador de E + F. Necesitamos probar que E ∪X F es LI. Para esto supongamos que X X X 0= αi i = αi i+ αi i+ αi i i∈E∪F
i∈E\N
i∈N
i∈F\N
y demostremos que todos los αi son cero. Sean x, y, z el primer, segundo y tercer sumando respectivamente en la igualdad anterior. Por construcci´on, tenemos x ∈ E, y ∈ E ∩ F y z ∈ F. Adem´as, como z = − (y + x) y E es un subespacio, obtenemos z ∈ E ∩ F.P Como N es una base de E∩F el vector z es combinaci´on lineal de N, o sea z = i∈N λi i para ciertos coeficientes λi . De aqu´ı obtenemos X que X (αi + λi ) i αi i+ 0=x+y+z= i∈E\N
i∈N
Como E es LI, todos los coeficientes de esta combinaci´on lineal son cero. En particular, αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos X X 0=y+z= αi i+ αi i i∈N
i∈F\N
y como F es LI deducimos que los restantes coeficientes tambi´en son cero. Igualdad modular Si E y F son dos subespacios entonces, dim E + dim F = dim (E + F) + dim (E ∩ F).
Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ F es base de E ∩ F. Luego, la f´ormula se reduce a la conocida igualdad entre cardinales de conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|.
Cap´ıtulo 2. Espacios vectoriales
62
Ejercicio 58 Use la igualdad modular para cons truir ejemplos de subespacios reales E y F tales que ellos y E + F tienen las dimensiones definidas en la tabla del recuadro a la derecha. ¿Puede tener E + F dimensi´on diferente a las de la tabla?
E 1 1 1
F 1 1 2
(E + F) 1 2 2
E 1 2 2
F 2 2 2
(E + F) 3 3 4
Suma directa Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobre un mismo campo K definiremos la suma directa de ellos como el espacio vectorial ¡ E0 ⊕ 0F¢ = ¡{(a, b) 0| a ∈ E,0 ¢b ∈ F} (a, b) + a , b = a + a ,b + b λ (a, b) = (λa, λb) Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. La diferencia est´a en que la suma directa ya trae en su definici´on las operaciones de suma de vectores y multiplicaci´on por un escalar. Deber´ıamos probar que la suma directa es efectiva mente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos esta prueba por ser trivial y aburrida. Mejor nos concentraremos en algo m´as interesante. dim (E ⊕ F) = dim E + dim F. Prueba. Sea E0 = {(a, 0) | a ∈ E} y F0 = {(0, b) | b ∈ F}. Es claro que los espacios E y E0 son isomorfos y por lo tanto tienen la misma dimensi´on. Otro tanto ocurre con F y F0 . Por definici´on de suma de subespacios tenemos que E0 + F0 = E ⊕ F . De la Igualdad modular (2.25) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) = dim E + dim F. Isomorfismo can´onico entre la suma y la suma directa. De esta u´ ltima proposici´on y de la igualdad modular se deduce que si dos subespacios E y F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es isomorfo a E + F. A continuaci´on probaremos solo un poquito m´as. Sin embargo, este poquito nos llevar´a a profundas reexiones. Isomorfismo Can´onico entre la Suma y la Suma directa Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´on E ⊕ F 3 (a, b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales.
Secci´on 2.6
Suma de subespacios
63
Prueba. Sea f la funci´on definida en el enunciado. Tenemos f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b) f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y) por lo que solo queda demostrar que f es biyectiva. Por definici´on de suma de subespacios f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces, a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces y − b ∈ F. Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y. Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base alguna en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposici´on se construye ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependen de escoger alguna base juegan un papel importante en el a´ lgebra lineal y se les llama iso morfismos can´onicos. Decimos que dos espacios vectoriales son can´onicamente isomorfos si existe un isomorfismo can´onico entre ellos. As´ı por ejemplo todo espacio vectorial E de dimensi´on 3 es isomorfo a K3 pero no es can´onicamente isomorfo a K3 porque no se pue de construir de cualquier espacio vectorial de dimensi´on 3 un isomorfismo con K3 que no dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay fuertes razones para que diferenciemos las bases. Los isomorfismos no can´onicos no ne cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismos can´onicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales a dos espacios vectoriales isomorfos por el otro, los espacios can´onicamente isomorfos no se diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.
Ejercicio 59 1. Demuestre que E ⊕ F y F ⊕ E son can´onicamente isomorfos.
2. ¿Como se debe llamar esta propiedad de la suma directa de espacios? 3. Demuestre que la suma directa de espacios es asociativa. 4. ¿Tiene la suma directa elemento neutro? [179]
Subespacios complementarios Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es complementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo Can´onico entre la Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E ∩ F = {0}. En R2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y una recta no contenida en el plano (ambos por el origen) son complementarios uno a otro. Todo subespacio tiene complementario. Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A. Como C es generador de S, todo elemento en S es combinaci´on lineal de C y en particular todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego S = E + F.
Cap´ıtulo 2. Espacios vectoriales
64
Por otro lado, lineales tales que à si x ∈ E ∩ F entonces, tienen ! Ãque existir combinaciones ! X X X X x= αa a = αa a ⇒ αa a − αa a = 0 . a∈A
a∈B
a∈A
a∈B
Como C es LI entonces, por la caracterizaci´on 2.9.4 de los conjuntos LI la u´ ltima combina ci´on lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}. Si E y F son dos subespacios complementarios entonces cada vector x se expresa de forma u´ nica como x = a + b donde a ∈ E y b ∈ F. Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todo vector es de la forma a + b. Si a + b = a0 + b0 entonces a − a0 = b0 − b ∈ E ∩ F = {0} por lo que la descomposici´on x = a + b es u´ nica.
Ejercicio 60 Demuestre el rec´ıproco de 2.29: Si cada vector se expresa de forma u´ nica como x = a + b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [180] Ejercicio 61 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E se expresa de forma u´ nica como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.29, el ejercicio anterior y la asociatividad de la suma directa para aplicar inducci´on en el n´umero de sumandos n. Espacios vectoriales versus conjuntos Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor´ıa de Conjuntos y siempre es saludable establecer analog´ıas con resultados ya conocidos. Para acentuar m´as esta similitud hagamos un diccionario de traducci´on Conjunto ←→ Espacio vectorial Subconjunto ←→ Subespacio vectorial Cardinal ←→ Dimensi´on Intersecci´on de subconjuntos ←→ Intersecci´on de subespacios Uni´on de subconjuntos ←→ Suma de subespacios Uni´on disjunta ←→ Suma directa Complemento ←→ Subespacio complementario Biyecciones ←→ Isomorfismos Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa cios vectoriales tienen su contraparte v´alida para conjuntos usando el diccionario que hemos construido. Probablemente, el ejemplo m´as notable de esto son las igualdades modulares para conjuntos y para espacios vectoriales. Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los espacios vectoriales. Por ejemplo, el complemento de un subconjunto es u´ nico y no siempre hay un u´ nico subespacio complementario. Otro ejemplo, un poco m´as substancial, es que la
Secci´on 2.7
Espacios cocientes
65
intersecci´on de conjuntos distribuye con la uni´on o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) . Por otro lado la intersecci´on de subespacios en general no distribuye con la suma o sea, la igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto t´omese en R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.
Ejercicio 62 Si A y B son dos conjuntos entonces la diferencia sim´etrica de los mismos es el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de un conjunto cualquiera U forman un espacio vectorial de dimensi´on |U| sobre el campo Z2 para la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionario de traducci´on se aplican a este caso en forma directa.
2.7 Espacios cocientes Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay una manera can´onica de escoger alguno de ellos. En esta secci´on nos dedicaremos a cons truir can´onicamente el espacio cociente F/E que es el espacio de todos los subespacios afines paralelos a E y que es isomorfo a cualquier subespacio complementario de E. Subespacios afines Ya vimos que en el plano cartesiano R2 los subespacios son el origen {0}, todo R2 y las rectas que pasan por el origen. Sin embargo, hay otras 2 `0 R rectas en el plano que no pasan por el origen. Para obtener una de estas rectas lo que tenemos que hacer es trasladar una recta por el origen ` x ` mediante un vector x (v´ease la figura). De esta manera, obtenemos la recta `0 que se obtiene sumandole x a cada vector en la l´ınea `. Observese que si x 6= 0 entonces las rectas ` y `0 no se intersectan. Esto nos motiva a la siguiente definici´on. Sea A un conjunto de vectores y x un vector. Al conjunto A + x = {a + x | a ∈ A} se le llama la traslaci´on de A con el vector x. El lector debe observar que la operaci´on de trasladar es un caso particular (cuando uno de los sumandos solo contiene a un solo vector) de la operaci´on de suma de conjuntos de vectores introducida en la secci´on anterior. Un subespacio af´ın es el trasladado de un subespacio. En otras palabras, un conjunto de vectores E es un subespacio af´ın si existen un subespacio E y un vector x tales que E = E+x. Observese que los subespacios son tambi´en subespacios afines. Basta trasladar con el vector cero. Esto causa una confusi´on lingu´ıstica: el adjetivo “af´ın” se usa para hacer el concepto de “subespacio” m´as general, no m´as espec´ıfico. Por esto, cuando se habla de subespacios afines es com´un referirse a los subespacios como subespacios vectoriales.
66
Cap´ıtulo 2. Espacios vectoriales
Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamen tal: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mis mo subespacio af´ın. M´as precisamente: Si a ∈ E + x entonces, E + x = E + a.
x
E+x=E+a a
0
E
Prueba. Probemos primero el caso que x = 0. Tenemos y ∈ E ⇔ y−a ∈ E ⇔ y ∈ E+a. Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z. Luego, E + x = E + z + x = E + a. Ahora observemos, que un trasladado de un subespacio af´ın es a su vez un subespacio af´ın ya que (E + x) + y = E + (x + y). Dos subespacios afines se le llaman paralelos si uno es un trasladado del otro. La relaci´on de paralelismo entre subespacios afines es de equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto significa que el conjunto de los subespacios afines se parte en clases de paralelismo y dos subespacios son paralelos si y solo si est´an en la misma clase de paralelismo. Ahora veremos que en cada clase de paralelismo hay un solo subespacio af´ın que pasa por el origen. Todo subespacio af´ın es paralelo a un solo subespacio vectorial. Prueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al cero entonces, x − y ∈ F. Como F es un subespacio, y − x ∈ F y 2.30 nos da F = F + y − x.
Este resultado nos permite definir la dimensi´on de un subespacio af´ın. Cada uno de ellos es paralelo a un u´ nico subespacio y su dimensi´on es la dimensi´on de ese subespacio. En otras palabras, si E = E + x entonces dim E = dim E. Es com´un utilizar la terminolog´ıa geom´etrica para hablar de los subespacios afines de dimensi´on peque˜na. As´ı, un punto es un subespacio af´ın de dimensi´on cero, una recta es un subespacio af´ın de dimensi´on uno, un plano es un subespacio af´ın de dimensi´on dos. Dos subespacios afines paralelos o son el mismo o no se intersectan.
Prueba. Si y ∈ (E + x) ∩ (E + x0 ) entonces, por 2.30, E + x = E + y = E + x0 . Es un error com´un (debido al caso de rectas en el plano) pensar que es equivalente que dos subespacios sean paralelos a que estos no se intersecten. Para convencerse de que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3 .
Secci´on 2.7
Espacios cocientes
67
El espacio cociente Sea D un espacio vectorial y E un subespacio vectorial de D. Si x + x0 E = E+x y F = E+y son dos subespacios afines paralelos entonces R2 x E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y) x0 lo que muestra que E + F est´a en la misma clase de paralelismo y0 y + y0 que E y F. En otras palabras (v´ease la figura a la derecha) la suma 0 y de cualquier vector en E con cualquier otro en F esta en un mismo espacio paralelo a E y F. Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos a E. Esta observaci´on nos dice que la suma de subespacios afines es una operaci´on binaria dentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operaci´on y el opuesto de E + x es E − x. Luego, D/E es un grupo abeliano para la suma. Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea λA = {λa | a ∈ A} A un conjunto arbitrario de vectores y λ un escalar. Definiremos λA como en el recuadro a la izquierda. Sean E = E + x un subespacio af´ın paralelo a E y λ un escalar. Tenemos 2 2x λE = λ (E + x) = λE + λx = E + λx lo que muestra que λE est´a en la misma R x clase de paralelismo que E. En otras palabras (v´ease la figura a la derecha) el 2y producto de un escalar por todos los vectores en E resulta en espacio paralelo 0 y a E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D por E.
Ejercicio 63 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E. Ejercicio 64 ¿Cual es el espacio cociente de R3 por el plano xy? Ejercicio 65 ¿Que pasa si sumamos dos espacios afines no paralelos? [180] El isomorfismo con los complementarios Sea F un subespacio complementario a E. Entonces, cualquier subespacio af´ın paralelo a E intersecta a F en un y solo un vector.
R2 F
E
Prueba. Sea E = E + x cualquier subespacio af´ın paralelo a E. Como D = E ⊕ F existen unos u´ nicos vectores y ∈ E y z ∈ F tales que x = y+z. Luego por 2.30 E+x = E+y+z = E + z y por lo tanto z ∈ E + x o sea, z ∈ E ∩ F. Si z0 es otro vector en E ∩ F entonces, existe a ∈ E tal que z0 = a + x. De aqu´ı x = −a + z0 y por la unicidad de la descomposici´on de un vector en suma de vectores de espacios complementarios, y = −a y z = z0 .
68
Cap´ıtulo 2. Espacios vectoriales Sea F un subespacio complementario a E. Entonces, f : F 3 x 7→ (E + x) ∈ D/E es un isomorfismo de espacios vectoriales.
Prueba. Por 2.33 la aplicaci´on f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada E + x ∈ D/E le hace corresponder el u´ nico vector en (E + x) ∩ F). Luego, f es biyectiva. Adem´as, f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y) f (λx) = E + (λx) = λ (E + x) = λf (x) por lo que f es un isomorfismo. Observese que el isomorfismo f es can´onico. Luego, cualquier subespacio complemen tario a E es can´onicamente isomorfo a D/E. Esta proposici´on tambi´en nos dice que la di mensi´on de D/E es la misma que la de un complementario a E o sea, es dim D − dim E. Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el a´ lgebra lineal sin la introducci´on de los espacios cocientes. Si embargo, es m´as c´omodo hacerlo con ellos. Adem´as es importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras algebraicas m´as generales, no siempre existen estructuras “complementarias” (por ejemplo en la teor´ıa de grupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cociente por cualquier subgrupo normal.
2.8 El espacio af´ın Recordemos de la secci´on anterior que un subespacio af´ın del espacio vectorial F es el trasladado E + x de un subespacio vectorial E de F. La dimensi´on de E + x es por definici´on la dimensi´on de E. Los subespacios afines de dimensi´on peque˜na reciben nombres especiales seg´un la tradi ci´on geom´etrica. Los de dimensi´on 0 se le llaman puntos. Los de dimensi´on 1 se le llaman rectas y los de dimensi´on 2 se le llaman planos. Un punto es, en otras palabras, un subespacio af´ın E + x donde E es de dimensi´on cero. Pero el u´ nico subespacio vectorial de dimensi´on cero es {0} . Luego, un punto es un conjunto de la forma {0} + x = {x}. Esto nos da una biyecci´on obvia {x} 7→ x entre los puntos del espacio af´ın y los vectores del espacio vectorial. Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio af´ın de F. Pero como, dir´a el lector, si la diferencia entre {x} y x es puramente formal entonces, ¿cual es la diferencia entre el espacio af´ın y el espacio vectorial? La respuesta es ambivalente pues es la misma pregunta que ¿que diferencia hay entre geometr´ıa y a´ lgebra? Antes de Descartes eran dos cosas completamente distintas, despues de e´ l, son cosas muy parecidas. Intuitivamente, un espacio af´ın es lo mismo que el espacio vectorial pero sin coordenadas. El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometr´ıa m´as cl´asica y elemental: congruencia de tri´angulos, teorema de Pit´agoras, etc. Los resultados de esta geometr´ıa no dependen de cual es el origen de coordenadas. Dos tri´angulos son congruentes
Secci´on 2.8
El espacio af´ın
69
o no independientemente de en que lugar del plano se encuentran. A un nivel m´as alto, podemos pensar el espacio af´ın de un espacio vectorial como una estructura matem´atica adecuada para poder estudiar las propiedades de los espacios vecto riales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de un lugar a otro en el espacio. La regla del paralelogramo La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generaliza a todas las dimensiones y sobre cualquier campo. Postularemos que el conjunto vac´ıo es un subespacio af´ın de dimensi´on −1. Eso nos evitar´a muchos problemas en la formulaci´on de nuestros resultados. La intersecci´on de subespacios afines es un subespacio af´ın. Prueba. Sea x un punto en la intersecci´on. Cada uno de los subespacios afines, es E+x para cierto subespacio E del espacio vectorial. Si F es la intersecci´on de todos estos subespacios entonces F + x es la intersecci´on de los subespacios afines. Regla del paralelogramo Si a y b son vectores LI de un espacio vectorial entonces, a + b es la intersecci´on de los subespacios afines hai + b y hbi + a. Prueba. Obviamente a+b ∈ (hai + b)∩(hbi + a). Por otro lado, ambos hai+b y hbi+a tienen dimensi´on 1 y por lo tanto su intersecci´on tiene dimensi´on 0 o 1. Si esta dimensi´on es cero entonces terminamos. Si esta dimensi´on es uno entonces hai + b = hbi + a y por lo tanto a ∈ hai + b. Por 2.30 tenemos que hai + b = hai + a = hai, Por lo tanto b ∈ hai y esto contradice que {a, b} es LI. Cerradura af´ın Para un conjunto A de puntos en el espacio af´ın, la cerradura af´ın de A es la intersecci´on de todos los subespacios afines que contienen a A. A la cerradura af´ın de A la denotaremos por [A]. Esto la diferencia claramente de la cerradura lineal hAi. Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal. [A] es el subespacio afin m´as peque˜no que contiene a A. Prueba. [A] es un subespacio afin. Si B es un subespacio af´ın que contiene a A entonces [A] ⊆ B pues para hallar [A] tuvimos que intersectar con B.
Cap´ıtulo 2. Espacios vectoriales
70
La cerradura af´ın cumple las siguientes propiedades: 1. A ⊆ [A] (incremento) 2. A ⊆ B ⇒ [A] ⊆ [B] (monoton´ıa) 3. [[A]] = [A] (idempotencia). Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal. Generadores e independencia Un conjunto de puntos A es generador af´ın si [A] es todo el espacio af´ın. Los conjuntos afinmente independientes los definiremos con el siguiente resultado. Definici´on de conjuntos afinmente independientes Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes 1. Cualquier subconjunto propio de A genera un subespacio af´ın m´as pe que˜no que todo A. 2. Cualquier punto en A no est´a en la cerradura af´ın de los restantes. Prueba. Es an´aloga a la prueba (1 ⇔ 2) de la caracterizaci´on de conjuntos LI.
Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmente dependientes. Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente inde pendientes los llamaremos conjuntos AI y a los conjuntos afinmente depen dientes los llamaremos conjuntos AD. Todo sobreconjunto de un generador afin es un generador afin. Todo subconjunto de un conjunto AI es AI. Prueba. Sea A un generador af´ın y B ⊇ A. Tenemos [A] ⊆ [B] y como [A] es todo el espacio afin entonces [B] tambi´en lo es. Sea A que es AI y B ⊆ A. Si B fuera AD entonces existir´ıa b ∈ B tal que b ∈ [B\b] ⊆ [A\b] y esto no puede ser pues A es AI. Bases afines Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamos seguir por el mismo camino demostrando que las bases afines son los generadores afines m´as peque˜nos o los AI m´as grandes. Despues, el teorema de existencia de base, el lema del cambio para las bases afines, la prueba de que dos bases afines tienen el mismo cardinal, etc.
Secci´on 2.8
El espacio af´ın
71
Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera es que a´un no hemos definido combinaciones afines y estas se necesitan para probar todo esto. La segunda, y m´as obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relaci´on que enlaza las bases afines con las bases del espacio vectorial y esto nos ahorrar´a mucho trabajo. Sea A = {x0 , x1, . . . , xn } un conjunto de puntos. Defina mos A0 = {x1 − x0 , . . . , xn − x0 }. Entonces, A es una ba se af´ın si y solo si A0 es una base del espacio vectorial. Prueba. Veamos que [A] = hA0 i + x0 . Efectivamente, hA0 i + x0 es un subespacio af´ın que contiene a A y por lo tanto [A] ⊆ hA0 i + x0 . Por otro lado [A] − x0 es un subespacio por el origen que contiene a A0 y por lo tanto [A] − x0 ⊇ hA0 i. De aqu´ı inmediatamente obtenemos que A es generador af´ın si y solo si A0 es un genera dor. Luego, podemos suponer por el resto de la prueba que tanto A como A0 son generadores. Nos queda probar que A es AI si y solo si A0 es LI. Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0 . Como al principio de la prueba B = {x0 }∪(B0 + x0 ) es un generador af´ın del espacio. Como B0 6= A0 entonces, B 6= A y por lo tanto A es AD. Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que genera al espacio. Sea y ∈ B Como al principio de la prueba B0 = {xi − y | xi ∈ B \ {y}} es un generador lineal del espacio. Luego la dimensi´on del espacio es estrictamente menor que n y por lo tanto A0 no puede ser LI. Ahora podemos traspasar todos los resultados probados para las bases del espacio vecto rial a las bases afines. En particular, es cierto que: 1. Las bases afines son los conjuntos generadores afines minimales por inclusi´on. 2. Las bases afines son los conjuntos AI maximales por inclusi´on. 3. Si A es un conjunto AI y B es un conjunto generador af´ın tal que A ⊆ B entonces hay una base af´ın C tal que A ⊆ C ⊆ B. 4. Dos bases afines cualequiera tienen el mismo n´umero de puntos (uno m´as que la di mensi´on). Las demostraciones de estos resultados son obvias dada la correspondencia entre las bases afines y las bases del espacio vectorial.
Ejercicio 66 Formule el lema del cambio para las bases afines. El siguiente resultado es el an´alogo del lema Lema de Aumento de un Conjunto LI (2.11) para el caso af´ın y es consecuencia directa de la correspondencia entre las bases afines y las bases del espacio vectorial.
Cap´ıtulo 2. Espacios vectoriales
72
Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A].
2.9 El caso de dimensi´on infinita En la Secci´on 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tiene dimensi´on finita. En esta secci´on demostramos estos resultados para los casos faltantes. Por que siempre aparece un curioso que quiere saber. Como estas demostraciones dependen de resultados de Teor´ıa de Conjuntos y una expo sici´on de esta nos llevar´ıa a escribir otro libro, lo haremos todo en forma minimalista: Antes de cada una de las dos pruebas daremos las definiciones y resultados exclusivamente que necesitamos. Los resultados complicados de Teor´ıa de Conjuntos no los demostraremos. El Lema de Zorn Un conjunto ordenado es un conjunto con una relaci´on de orden, o sea una relaci´on reexiva antisim´etrica y transitiva (v´ease el glosario). Sea P un conjunto ordenado y A un subconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ A se cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquier y ∈ A se cumple que x y. Se dice que A es una cadena si para cualesquiera x, y ∈ A se cumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ y cualquier cadena contenida en A tiene una cota superior que est´a en A. El siguiente resultado es cl´asico en teor´ıa de conjuntos. Lema de Zorn Cualquier conjunto inductivamente ordenado tiene un elemento maximal. Existencia de bases Teorema de Existencia de Bases (caso general) Sea N un conjunto generador y L ⊆ N un conjunto LI. Entonces, existe una base M tal que L ⊆ M ⊆ N. Prueba. Sean L y N como en las hip´otesis. Denotemos T = {M | M es linealmente independiente y L ⊆ M ⊆ N} . El conjunto T est´a naturalmente ordenado por inclusi´on. Sea M un elemento maximal de T. Entonces ∀x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de un Conjunto LI
Secci´on 2.9
El caso de dimensi´on infinita
73
(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M tambi´en lo es y por lo tanto M es una base. Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto T est´a inductivamente ordenado. Efectivamente, S T es no vac´ıo ya que L ∈ T. Sea {Bi }i∈I una cadena arbitraria en T y denotemos B = i∈I Bi . El conjunto B es una cota superior de la cadena {Bi }i∈I y tenemos que convencernos que B est´a en T. Como para cualquier i tenemos Bi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existe un subconjunto finito B0 de B y una combinaci´on lineal de B0 igual a cero tal que todos sus coeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y {Bi }i∈I es una cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, T est´a inductivamente ordenado y por el Lema de Zorn (2.43) el conjunto T tiene un elemento maximal. Cardinales Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyecci´on de A en B. La relaci´on A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relaci´on de equivalencia entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llama cardinal del conjunto A y se denota por |A|. Los cardinales est´an ordenados por la relaci´on de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinito m´as peque˜no es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto hebreo y se llama “´alef”). La suma de cardinales se define como el cardinal de la uni´on de dos conjuntos disjuntos. El producto de cardinales se define como el cardinal del producto cartesiano de conjuntos. Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy sencillo y daremos una demostraci´on para e´ l. Si ∀i |Ai | ≤ t entonces,
P
i∈I
|Ai | ≤ t |I|.
Prueba. Podemos pensar que los Ai son disjuntos.SSea T un conjunto de cardinal t. Por hip´otesis existen inyecciones fi : Ai 7→ T . Sea ϕ : i∈I Ai → T × I definida por ϕ (a) = (fi (a) , i) si a ∈ Ai . Por definici´on de ϕ si ϕ (a) = ϕ (b) entonces, a y b est´an en el mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva. El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teor´ıa de Conjuntos (v´ease por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. p´agina 121). Nosotros omitiremos la prueba. Si |A| es infinito entonces, ℵ0 |A| = |A|.
74
Cap´ıtulo 2. Espacios vectoriales
Equicardinalidad de las bases Equicardinalidad de las Bases (caso infinito) Dos bases cualesquiera tienen el mismo cardinal. Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita. Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitud de las combinaciones lineales entonces ∀a ∈ A el m´ınimo subconjunto Ba ⊆ B tal que a ∈ hBa i existe y es finito. Construyamos la relaci´on R ⊆ A × B de manera que (a, b) ∈ R si y solo si b ∈ Ba . Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ning´un elemento de A entonces, A ⊆ hB\b0 i y como A es base obtendr´ıamos que B\b0 es generador lo que contradice que B es base. Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.45 y 2.46 obtenemos X |B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| . a∈A
Luego |B| ≤ |A| y por simetr´ıa de nuestros razonamientos|A| ≤ |B|.
Capítulo tercero
Transformaciones Lineales as transformaciones lineales son uno de los objetos m´as estudiados y m´as importan tes en las matem´aticas. El objetivo de este cap´ıtulo es familiarizar al lector con el concepto de transformaci´on lineal y sus propiedades b´asicas. Introduciremos las ma trices y estudiaremos la relaci´on de las mismas con las transformaciones lineales. Veremos el concepto de nucleo e imagen de una transformaci´on lineal etc...
3.1 Definici´on y ejemplos Sean E y F dos espacios vectoriales sobre K. Una funci´on f : E → F se le llama transformaci´on lineal de E en F si para f (a + b) = f (a) + f (b) cualesquiera vectores a y b y cualquier escalar λ se cumplen f (λa) = λf (a) las propiedades del recuadro a la derecha. Nuevamente, para no reescribir constantemente frases largas, en lugar de decir que f es una transformaci´on lineal, diremos que f es una TL. En plural escribi remos TLs. Imagenes de subespacios Toda TL transforma subespacios en subespacios. Prueba. Sea f : E → F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la imagen de E0 . Sean a y b vectores en F0 . Por definici´on existen vectores x,y tales que f (x) = a y f (y) = b. Tenemos, f (x + y) = a + b por lo que a + b ∈ F0 . Sea ahora λ un escalar. Tenemos f (λx) = λa por lo que λa ∈ F0 . Luego, F0 es un subespacio de F. Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco conjuntos generadores en conjuntos generadores.
76
Cap´ıtulo 3. Transformaciones lineales
El rec´ıproco de la proposici´on anterior NO es cierto. Hay funciones que transforman subespacios en subespacios y no son TLs. Un ejemplo sencillo es la funci´on R 3 x 7→ x3 ∈ R. Esta manda el cero en el cero y a R en R. Sin embargo no es lineal. Para obtener una funci´on contraejemplo en Rn basta usar coordenadas esf´ericas, dejar fijos los a´ ngulos y elevar al cubo el m´odulo del vector.
Homotecias Veamos el ejemplo m´as simple de TL. Si a cada vector x de un espacio E le hacemos corresponder el vector 2x obtenemos la funci´on h2 : E 3 x 7→ 2x ∈ E . Esta funci´on es una TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b) h2 (λa) = 2λa = λ2a = λ = λh2 (a) Observese que en la segunda recta usamos la conmutatividad del producto de escalares. Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias. Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces obtenemos la funci´on identidad x 7→ x. A esta funci´on se la denotar´a por Id. Si α = 0 entonces obtenemos la funci´on nula tambi´en llamada funci´on constante cero x 7→ 0. En el caso del campo R las homotecias tienen una interpretaci´on geom´etrica muy clara. Si α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que est´a en la misma recta por el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decir que hα es la dilataci´on de raz´on α. Si 0 < α < 1 entonces hα es realmente una contracci´on pero interpretaremos las contracciones como dilataciones con raz´on m´as peque˜na que 1. En la figura de la derecha observamos la dilataci´on x 7→ 2x en el plano cartesiano R2 . La curva interior (que es la gr´afica de la funci´on R2 5 + sin 5θ en coordenadas polares) se transforma en la misma curva pero del doble de tama˜no (10 + 2 sin 5θ). Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama funci´on antipodal. El nombre viene de la siguiente interpretaci´on. Si v 7→ 2v trazamos una recta que pase por el centro de la Tierra intersectaremos la superficie en dos puntos. Estos puntos se dicen que son ant´ıpodas o sea, nuestros ant´ıpodas son la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros ant´ıpodas se obtienen multiplicando por −1. En la figura de la izquierda est´a representada la funci´on ant´ıpodal en 2 R2 . En ella hay dos curvas cerradas de cinco p´etalos. La primera es R la misma que la de la figura anterior (10 + 2 sin 5θ). La segunda es la ant´ıpoda de la primera (−10 − 2 sin 5θ). La figura es expresamente complicada para que el lector tenga la oportunidad de pensar un poco en que punto se va a transformar cada punto. Cualquier homotecia hα v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puede interpretar geom´etricamente como una dilataci´on seguida de la funci´on ant´ıpodal. A pesar de su simplicidad las homotecias juegan un papel fundamental en la comprensi´on de las TL y este papel se debe a que ellas son todas las TL en dimensi´on 1.
Secci´on 3.1
Definici´on y ejemplos
77
Si dim E = 1 entonces toda TL de E en E es una homotecia. Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existir un escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f es lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f es una homotecia. Inmersiones Hasta ahora las TL que hemos visto (las homotecias) est´an definidas de un espacio en si mismo. Las inmersiones son la TL m´as simples que est´an definidas de un espacio en otro distinto. Sea E un subespacio de F. A la funci´on i : E 3 x 7→ x ∈ F se le llama inmersi´on de E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la funci´on identidad. No hay mucho que decir de las inmersiones excepto de que hay una para cada subespacio. Proyecciones Ahora supongamos al rev´es (de las inmersiones) que F es subespacio de E . ¿Habr´a algu na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario de F (existe por 2.28) De esta manera E = F ⊕ G y por 2.29 tenemos que cada vector x ∈ E se descompone de manera u´ nica como a + b donde a es un vector en F y b es un vector en G . As´ı para cada x ∈ E tenemos un u´ nico a ∈ F y esto nos da una funci´on que denotaremos por πF y la llamaremos proyecci´on de E en F a lo largo de G . Cualquier proyecci´on πF restringida a F es la identidad por lo que necesariamente es sobreyectiva. La notaci´on πF sugiere erroneamente que esta funci´on solo depende del subespa cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple mentarios diferentes y la proyecci´on depende del subespacio complementario que escojamos. Las proyecciones son transformaciones lineales. Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es una funci´on fija y bien definida. Si x, y son dos vectores entonces hay descomposiciones u´ nicas x = πF (x) + πG (x) y y = πF (y) + πG (y) . Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primer sumando de la derecha est´a en F y el segundo en G . Por la unicidad de la descomposici´on necesariamente tenemos πF (x + y) = πF (x) + πF (y) . Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) . Nuevamente, el primer sumando de la derecha est´a en F y el segundo en G y por la unicidad de la descomposici´on necesariamente tenemos πF (λx) = λπF (x) .
78
Cap´ıtulo 3. Transformaciones lineales
¿Como son geom´etricamente las proyecciones? En esencia el problema es el siguiente. Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otro en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadas cartesianas en R2 . Dado un vector a trazamos la recta paralela al eje y que pasa por a y la intersecci´on del eje x con esta recta es un vector πx (a) . De manera an´aloga obtenemos πy (a) y sabemos que a = πx (a) + πy (a). En el caso general es exactamente igual. Esta construc ci´on se ilustra en la figura de la derecha. Tenemos que F es un subespacio de dimensi´on k y uno de sus complemen tarios G es de dimensi´on n − k. Hay un solo subespacio af´ın paralelo a F que pasa por a y este es F + a. La in tersecci´on (F + a) ∩ G es un solo punto y este punto es el vector πG (a) . An´alogamente se observa que πF (a) = (G + a)∩F. Como es l´ogico, no pudimos dibujar el espacio Rn as´ı que el lector deber´a contentarse con el caso n = 3, k = 2 y con la prueba general. Si F y G son complementarios entonces, para cualquier vector a se cumple a = ((G + a) ∩ F)+((F + a) ∩ G). Prueba. Como F y G son complementarios (G + a) ∩ F es un solo punto que denotaremos x. Sea −y ∈ G tal que x = −y + a. Tenemos que F + a = F + x + y = F + y y por lo tanto y ∈ (F + a) . Luego y = (F + a) ∩ G.
3.2 Operaciones entre transformaciones lineales Ahora, veremos que operaciones se definen naturalmente entre las TLs. El espacio vectorial de las transformaciones lineales Sea f una TL y λ un escalar. Denotaremos por λf a la funci´on a 7→ λf (a). A esta operaci´on se le llama producto de un escalar por una TL. El producto de un escalar por una TL es una TL. Prueba. Efectivamente, tenemos (λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b) (λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a) lo que significa que λf es una TL. Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funci´on
Secci´on 3.2
Operaciones entre transformaciones lineales
79
a 7→ f (a) + g (a). A esta operaci´on se le llama suma de TLs. La suma de dos TLs es una TL.
Prueba. Denotemos h = f + g. Tenemos h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a) h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b) lo que significa que h es una TL. Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones. Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su ma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) = (λf + λg) (a). Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por Mor (E, F). Esta notaci´on es debido que a las transformaciones lineales tambi´en se les llama morfismos de espacios vectoriales. Debido a todo lo dicho es v´alido el siguiente resultado: Mor (E, F) es un espacio vectorial. Composici´on de transformaciones lineales Sean f ∈ Mor (E, F) y g ∈ Mor (F, G) dos TLs. La composici´on h = g ◦ f se define como la funci´on E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g ◦ f ∈ Mor (E, G) o sea, que h es una TL. La composici´on de TLs es una TL. Prueba. Sea h = g ◦ f la composici´on de dos TLs. Tenemos h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b) h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a) que es lo que se quer´ıa demostrar. La composici´on de TLs cumple las siguientes propiedades: 1. f ◦ (g ◦ h) = (f ◦ g) ◦ h (asociatividad) 2. f ◦ (g + h) = f ◦ g + f ◦ h (distributividad a la izquierda) 3. (f + g) ◦ h = f ◦ h + g ◦ h (distributividad a la derecha) 4. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares) Prueba. Como (f ◦ (g ◦ h)) (a) = f (g (h (a))) = ((f ◦ g) ◦ h) (a), la composici´on es
80
Cap´ıtulo 3. Transformaciones lineales
asociativa. Con (f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) = = f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a) probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos las igualdades ((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) = = (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a) Finalmente para probar que la composici´on conmuta con el producto por escalares tenemos (f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) = = λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) . El lector debe ya debe poder encontrar por si mismo el porqu´e de la validez de cada una de las igualdades utilizadas en esta prueba. El a´ lgebra de operadores lineales A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente, usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (como veremos m´as adelante) un papel muy importante en el estudio de las TLs y por esto es que merecen un nombre especial. El conjunto de todos los OLs de E se denotar´a por End E. Lo hacemos as´ı porque a los OLs tambi´en se les llama endomorfismos de un espacio vectorial. Por definici´on tenemos End E = Mor (E, E). La principal diferencia entre las TLs y los OLs es que la operaci´on de composici´on es una operaci´on interna en espacio vectorial End E. O sea, si componemos dos OLs, obtenemos otro OL. Si un espacio vectorial cualquiera (el cual ya trae definidos la suma y el pro Alg1) ∗ es asociativa ducto por escalares) tiene otra operaci´on Alg2) ∗ es distributiva con respecto a + binaria ∗ que cumple los axiomas en el Alg3) ∗ tiene elemento neutro recuadro a la derecha entonces, se le lla Alg4) ∗ conmuta con el producto por escalares ma a´ lgebra . Observese que los primeros tres axiomas los podemos resumir en uno: la suma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo que quiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple que λa ∗ b = a ∗ λb = λ (a ∗ b). Ya vimos (3.9 ) que la operaci´on de composici´on de OLs cumple los axiomas Alg1, Alg2 y Alg4. Para ver que End E es un a´ lgebra solo nos queda comprobar que la composici´on tiene elemento neutro. Pero esto es obvio ya que la funci´on identidad cumple que f ◦ I = I ◦ f = f. O sea, es el neutro para la composici´on. Hemos demostrado el siguiente resultado El espacio vectorial End E en un a´ lgebra con respecto a la composici´on. Hay otras dos a´ lgebras importantes que deben ser muy conocidas por el lector. Primero, el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R, pero adem´as sabemos multiplicar polinomios. Este producto cumple todos los axiomas de Alg1Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo
Secci´on 3.3
Extensiones lineales
81
ejemplo son los n´umeros complejos. Estos son un espacio vectorial de dimensi´on dos so bre los reales pero adem´as sabemos multiplicar n´umeros complejos. La multiplicaci´on de complejos tambi´en cumple todos los axiomas Alg1Alg4. Un a´ lgebra se le llama conmutativa si el producto de vectores es conmutativo. El a´ lgebra de los n´umeros complejos y el a´ lgebra de polinomios sobre un campo son conmutativas. Las a´ lgebras End E casi nunca son conmutativas (salvo en dimensi´on 1). Por ejemplo en el plano cartesiano R2 la rotaci´on f en 45◦ y la reecci´on g en el eje y son (como veremos despu´es) OLs. Sin embargo, (g ◦ f) (1, 0) = (−1, 1) 6= (−1, −1) = (f ◦ g) (1, 0).
El grupo general lineal Una funci´on cualquiera es biyectiva si y solo si esta tiene inversa. En el cap´ıtulo anterior, cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in versa entonces esta inversa tambi´en es una TL. En particular, la funci´on inversa de un OL es un operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el caso contrario se le llama no singular. A los OLs no singulares tambi´en se les llama automor fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismos biyectivos. Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funci´on nula cumple que 0 = f − f. Sin embargo, la composici´on de OLs no singulares es siempre un OL no singular. Luego, la composici´on es una operaci´on binaria en GL (E) que ya sabemos que es asociativa y tiene elemento neutro. Adem´as, cada elemento tiene inverso ya que f ◦ f−1 = f−1 ◦ f = I. Luego, GL (E) es un grupo para la composici´on al cual se llama grupo general lineal del espacio vectorial E.
3.3 Extensiones lineales Estudiaremos en esta secci´on una manera universal de construir TLs. Pero antes, veamos algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios. Extensiones y restricciones Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funci´on f : A → B tambi´en se tiene una funci´on f0 : A0 → B definida por f0 (a) = f (a) para cualquier a ∈ A0 . A la funci´on f0 se le llama restricci´on de f a A0 y la denotaremos por fA 0 . Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 . Si h y g son dos funciones tales que h es una restricci´on de g entonces se dice que g es una extensi´on de h. Si est´a dada una funci´on g : A0 → B y A es un sobreconjunto de A0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escoger arbitrariamente los valores de h (x) para todos los x ∈ A\A0 . Es un problema frecuente en matem´aticas el encontrar extensiones que cumplan ciertas propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos
82
Cap´ıtulo 3. Transformaciones lineales
nuestro problema m´as precisamente. Sean E y F dos espacios vectoriales sobre K y N un conjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tanto tenemos la restricci´on hN : N → F. ¿Ser´a posible para cualquier funci´on g : N → F encontrar una extensi´on h : E → F de g que sea TL? ¿Ser´a u´ nica tal extensi´on? Veremos que ambas preguntas tienen respuesta positiva si N es una base. Para demostrar la existencia de la extensi´on debemos construirla. Sea N una base de E y g : N → F una funci´on arbitraria de N P en F. Cualquier x ∈ E se expresa de forma u´ nica como combinaci´on lineal de N o sea x = i∈N αi i. A la funci´on h del X αi g (i) recuadro a la derecha se le llama extensi´on lineal de g. Observese que x 7→ i∈N (como debe ser) la restricci´on de h a N es igual a g ya que si x ∈ N entonces, la descomposici´on de x en la base N tiene coeficientes αi = 0 para i 6= x y αi = 1 para i = x. Las extensiones lineales son transformaciones lineales. Prueba. Tenemos X X X h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y) i∈N i∈N i∈N X X h (λx) = λαi g (i) = λ αi g (i) = λh (x) y esto prueba que h es una TL.
i∈N
i∈N
Para demostrar la unicidad de la extensi´on debemos convencernos de que dos TLs dis tintas no pueden coincidir en una base. Las TLs est´an predeterminadas por sus valores en una base. Prueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i) para cualquier iP∈ N. Cualquier x ∈ E se expresa de forma u´ nica como combinaci´on lineal de N o sea x = i∈N αi i. Luego ! Ã ! Ã X X X X αi i = αi f (i) = αi g (i) = g αi i = g (x) f (x) = f i∈N
i∈N
y por lo tanto las TLs f y g son iguales.
i∈N
i∈N
El isomorfismo entre FN y Mor (E, F) Recordemos ahora de la Secci´on 2.2 que el conjunto de todas las funciones de N en F es el conjunto de las Nadas de vectores de F, que este es un espacio vectorial para la suma y el producto por escalares definidos por coordenadas y que se denota por FN . Si N es una base de E entonces, hemos construido una correspondencia biun´ıvoca entre N F y Mor (E, F). A cada Nada hN ∈ FN le corresponde su extensi´on lineal h ∈ Mor (E, F)
Secci´on 3.3
Extensiones lineales
83
y a cada TL h ∈ Mor (E, F) le corresponde hN su restricci´on a N (que es una Nada). Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales. Si N es una base de E entonces, la biyecci´on r : Mor (E, F) 3 h 7→ hN ∈ FN es un isomorfismo de espacios vectoriales.
Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E, F) y λ un escalar. Tenemos r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 ) r (λh) = (λh)N = λhN = λr (h) que se cumplen por las definiciones de suma y producto por escalares de las Nadas. Un criterio de isomorfismo Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las Nadas de vectores. En este caso queremos hacer la traduci´on de la propiedad de una TL de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el cap´ıtulo anterior que un isomorfismo transforma una base del dominio en una base del codominio. ¿Ser´a esta propiedad suficiente para comprobar que una TL es un isomorfismo?. La (1, 0, 0) 7→ (1, 0) respuesta es NO. Por ejemplo, la extensi´on lineal de la funci´on definida (0, 1, 0) 7→ (0, 1) en la base can´onica de R3 como en el recuadro a la derecha transforma a (0, 0, 1) 7→ (0, 1) esta base en la base can´onica de R2 y sin embargo no es inyectiva. Nos falta la propiedad evidentemente necesaria de que la restricci´on de la TL debe ser inyectiva. Una TL es un isomorfismo si y solo si su restricci´on a una base es inyectiva y la imagen de esta restricci´on es una base. Prueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E y hN ∈ FN una Nada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. Probemos que P la extensi´ o n lineal h : E → F de h es un isomorfismo. Efectivamente, si x = α N i∈N i i y P y = i∈N βi i son dos vectores cualesquiera en E y h (x) = h (y) entonces, X X αi h (i) = βi h (i) i∈N
i∈N
y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales de la base M. Por la caracterizaci´on 2.9.3 de los conjuntos LI los coeficientes de estas combi naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva. Para ver que h es sobreyectiva sea z vector en F. Como M es una base P de F existen P coeficientes γi tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i.
84
Cap´ıtulo 3. Transformaciones lineales
3.4 Coordinatizaci´on de transformaciones lineales Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre los cuales est´a definida la TL. Sean N y M bases de E y F respectivamente. Tenemos los isomorfismos de coordinatizaci´on E ↔ K{N} y F ↔ K{M} . Para cada f ∈ Mor (E, F) tenemos ¡ ¢ f la composici´on g : K{N} → E → F → K{M} que es una TL en Mor K{N} , K{M} . ¢ ¡ Rec´ıprocamente para cada g ∈ Mor K{N} , K{M} tenemos la g f composici´on f : E → K{N} → K{M} → F que es una TL en E −→ F Mor (E, F). Es f´acil ver y es intuitivamente claro que l l ¡ ¢ esta corres pondencia biun´ıvoca Mor (E, F) ↔ Mor K{N} , K{M} es un isomor K{N} −→ K{M} g fismo de espacios vectoriales.
Ejercicio 67 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya un isomorfismo Mor (E, F) ↔ Mor (E0 , F0 ).
Podemos pensar a N como la base can´onica de K{N} . Luego, aplicando 3.13 obtenemos ¢ ¡ ¢N ¡ = K{M}×N que es el conjunto de las MN el isomorfismo Mor K{N} , K{M} ↔ K{M} matrices tales que cada columna es de soporte finito. Para el caso que m´as nos interesa en ¡ ¢N que N y M son bases finitas obtenemos Mor (E, F) ↔ KM = KMN . Sea f ∈ Mor (E, F). A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llama matriz de la TL f en las bases M y N. Los resultados de la secci´on anterior nos dicen como construir αMN dada f. Para P cada i ∈ N la columna αMi es el vector f (i) coordinatizado en la base M. O sea f (i) = a∈M αai a. P ai xi 7→ ni=0 ai (x + 1)i ∈ K [x] es un isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de esta TL en la base can´onica del espacio de polinomios. Demuestre que las entradas de esta matriz est´an definidas por la ecuaci´on recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condiciones de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.
Ejercicio 68 Pruebe que la funci´on K [x] 3
Pn
i=0
P La f´ormula f (i) = en como construir f dada αMN . Las a∈M αai a nos dice tambi´ imagenes de los i ∈ N las calculamos por la f´ o rmula y a f la construimos por extensi´on P lineal. O sea, si E 3 x = i∈N βi i entonces, Ã ! X X X X X βi f (i) = βi αai a = αai βi a F 3 f (x) =
a∈M a∈M i∈N i∈N i∈N P La expresi´on i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las coordenadas de una Mada. A esta Mada se le llama producto de la matriz αMN por el vector βN y se denota por αMN βN .
Secci´on 3.4 X
Coordinatizaci´on de transformaciones lineales
85
Observese que este producto lo podemos escribir como en el re cuadro a la izquierda. Esto quiere decir que este producto se obtie i∈N ne multiplicando las columnas de αMN por las correspondientes coordenadas de βN y sumando los resultados. En otras palabras αMN βN es la combinaci´on lineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN . En esta secci´on estudiaremos m´as sistem´aticamente el isomorfismo entre las TLs y las matrices repitiendo m´as detalladamente todo lo dicho en esta introducci´on. Si el lector no entendi´o muy bien, le recomiendo seguir adelante y despu´es releer esta introducci´on. αMN βN =
αMi βi
El producto escalar can´onico X Sean αN y βN dos Nadas. El producto escalar de estas Nadas αN βN = αi βi es el escalar del recuadro a la derecha. De esta manera, el producto i∈N escalar de dos vectores es un elemento del campo. No se debe confundir el “producto por un escalar” con el “producto escalar”. El primero es un producto de un escalar por un vector y el segundo es un produc to de dos vectores. M´as adelante veremos que hay otros productos definidos en cualquier espacio vectorial. Por esto a este producto lo llamaremos can´onico y solamente est´a definido en el espacio vectorial de las Nadas para cierto conjunto finito de ´ındices N. El producto escalar cumple las siguientes propiedades: 1. xy = yx (conmutatividad) 2. x (y + z) = xy + xz (distributividad a la izquierda) 3. (y + z) x = yx + zx (distributividad a la derecha) 4. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares)
Ejercicio 69 Pruebe las principales propiedades del producto de Nadas (3.15). Ejercicio 70 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). [180] Ejercicio 71 Pruebe que ∀αN ∈ RN se cumple que α2N = αN αN ≥ 0. El producto de matrices Sean αMN y βNL dos matrices. Observese que el conjunto de ´ındices de las columnas de la primera, coincide con el conjunto de ´ındices de los renglones de la segunda. As´ı, tanto un rengl´on αiN como una columna βNj son vectores del espacio KN de Nadas y podemos formar su producto αiN βNj . Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ L obtenemos una MLmatriz formada por todos estos productos. A esta matriz se le llama el producto de las matrices αMN y βNL y se denotar´a por αMN βNL . Resumiendo, si γML = αMN βNL entonces γij = αiN βNj . Por ejemplo, si los conjuntos de ´ındices son M = {1, 2},
86
Cap´ıtulo 3. Transformaciones lineales
N = {1, 2, 3} y L = {1, 2} entonces, en forma gr´afica tenemos ⎞ ⎛ µ ¶ β11 β12 ¶ µ α11 α12 α13 ⎝ β α β α 1N 1N N1 N2 β21 β22 ⎠ = α21 α22 α23 α2N βN1 α2N βN2 β31 β32 y por definici´on de producto escalar de vectores tenemos µ ¶ µ P3 ¶ P3 α1N βN1 α1N βN2 α β α β 1i 1i i1 i2 Pi=1 = Pi=1 . 3 3 α2N βN1 α2N βN2 α β 2i i1 i=1 i=1 α2i βi2 Productos de matrices y vectores
Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento en tonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1 y diremos que βN1 es un vector columna o una Nada columna. Obviamente, podemos pensar que βN1 es una Nada βN . En este caso podemos hacer el producto de matrices αMN βN1 = αMN βN y este es el producto de una matriz por un vector definido al princi pio de esta secci´on. An´alogamente se define el producto por el otro lado. Si el conjunto de indices M tiene un solo elemento entonces la matriz αMN tiene un solo rengl´on. En este caso podemos escribir αMN = α1N y diremos que α1N es un vector rengl´on o Nada rengl´on. Obviamente, podemos pensar que α1N es una Nada αN . En este caso podemos hacer el producto de matrices α1N βNL = αN βNL y esta es la definici´on del producto de un vector por una matriz. En este libro, no haremos distinciones entre Nadas, Nadas columna y Nadas rengl´on o sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por un vector y al rev´es. Intuitivamente, el lector debe pensar que cuando aparesca un vector en un producto de matrices este se convierte en vector fila o columna seg´un sea conveniente. Claro, este abuso de la notaci´on aunque es muy c´omodo puede llevar (si nos pone mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos Nadas pero no podemos sumar una Nada columna con una Nada rengl´on. Observese que, no solo el producto de matrices por vectores y al rev´es son casos particu lares del producto de matrices, sino tambi´en el producto escalar de dos vectores al constatar que αN βN = α1N βN1 .
Ejercicio 72 Tome dos matrices con entradas enteras y multipl´ıquelas. Repita este ejercicio hasta que usted comprenda muy bien el concepto de producto de matrices. La transformaci´on lineal de una matriz Sea αMN una MNmatriz. Esta matriz define una funci´on KN 3 βN → αMN βN ∈ KM . Esta ¡funci´on es¢una TL como ya vimos al principio de esta secci´on utilizando el isomorfismo Mor KN , KM ↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.
Secci´on 3.4
Coordinatizaci´on de transformaciones lineales
87
El multiplicar una matriz fija por Nadas es una TL. Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y que αiN (λβN ) = λ (αiN βN ). Esto significa que son v´alidas las igualdades αMN (βN + γN ) = αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ). La matriz de una transformaci´on lineal En la proposici´on anterior vimos que al mutiplicar MNmatrices por Nadas obtenemos ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, que cualquier TL de KN en KM se obtiene multiplicando por una MNmatriz. En¡realidad, ¢esto ya lo probamos al principio de esta secci´on al construir el isomorfismo Mor KN , KM ↔ KMN . Sin embargo, aqu´ı es m´as simple ya que tenemos bases can´onicas de KN y KM . Sea E = {ei : i ∈ N} la base can´onica de KN . Recordemos que ei es la Nada con coordenadas δji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei ) ∈ KM . A la matriz αMN cuyas columnas son las imagenes de la base can´onica mediante la TL f la llamaremos matriz de la TL f. Sea f : KN → KM una TL y αMN su matriz. Entonces, pa ra cualquier βN ∈ KN se cumple que f (βN ) = αMN βN .
Prueba. Sea f0 : βN 7→ αMN βN . Sabemos que f y α e = P α δ = α MN i Mi j∈N Mj ji f0 son TLs. Si i ∈ N entonces, por definici´on de la base can´onica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luego f y f0 coinciden en la base can´onica y por extensi´on lineal ambas son la misma funci´on.
Ejercicio 73 Halle la matriz de la rotaci´on con a´ ngulo α en R2 . [180] Composici´on de TLs y producto de matrices La matriz de la composici´on de dos TLs es igual al producto de las matrices de las TLs. ¢ ¡ ¢ ¡ Prueba. Sean f ∈ Mor KN , KM y g ∈ Mor KM , KL dos TLs. Sean αMN y βLM las matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos X X X βij (αjN γN ) = βij αjk γk = βiM (αMN γN ) = j∈M
j∈M
k∈N
Cap´ıtulo 3. Transformaciones lineales
88 =
XX
βij αjk γk =
k∈N j∈M
X
(βiM αMk ) γk = (βiM αMN ) γN
k∈N
y por lo tanto βLM (αMN γN ) = (βLM αMN ) γN . Como γN 7→ βLM (αMN γN ) es la TL g ◦ f entonces, tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se quer´ıa probar. El producto de matrices es asociativo, distribuye por ambos lados con la suma de matrices y conmuta con el producto por un escalar. Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. La matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). Co mo la composici´on de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto (γKL βLM ) αMN = γKL (βLM αMN ). Esto prueba la asociatividad. Las dem´as propiedades se prueban exactamente igual o sea, se desprenden de las respec tivas propiedades de las TLs y de la proposici´on 3.18.
Ejercicio 74 Pruebe la asociatividad del producto de matrices directamente de la definici´on de producto o sea, sin usar TLs. [180]
El espacio de todas las NNmatrices ¡ ¢ es un a´ lgebra isomorfa a End KN .
Prueba. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto de una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesario para mostrar que KNN es un a´ lgebra. Solo falta el neutro para el producto que es la matriz de la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker) y que la llamaremos matriz identidad. Adem´as, ya sabemos que la aplicaci´on que a un OL en KN le hace corresponder su matriz es un isomorfismo de espacios vectoriales. La proposici´on 3.18 completa la tarea de demostrar que esta aplicaci´on es un isomorfismo de a´ lgebras. Matrices inversas ¡ ¢ Sea f ∈ Mor KN , KM y αMN¡ la matriz si, ¢ −1de f. La ¡funci´ ¢on f es biyectiva si y solo −1 −1 N M −1 existe la TL f tal que f ◦ f = I K y f ◦ f = I K . A la matriz de la TL f se on 3.18 obtenemos le llama matriz inversa de αMN y se denota por α−1 MN . De la proposici´ −1 −1 que la matriz inversa cumple que αMN αMN = INN y αMN αMN = IMM . Observese que el conjunto de ´ındices de las columnas de α−1 alogamente, el conjunto de MN es M y no N. An´ ´ındices de los renglones de α−1 es N y no M. MN De la definici´on es inmediato que una matriz tiene inversa si y solo si su TL es un iso morfismo de espacios vectoriales. En particular los conjuntos de ´ındices N y M tienen que
Secci´on 3.5
Cambios de base
89
tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducir nuestro criterio de isomorfismo 3.14 al lenguaje de matrices. Una matriz cuadrada αMN tiene inversa si y solo si sus columnas son todas diferentes y son una base de KM . ¡ ¢ Prueba. Sea αMN una matriz cuadrada y f ∈ Mor KN , KM su TL. La resticci´on de f a la base can´onica de KN es la Nada de las columnas de la matriz αMN . Por 3.14 para que f tenga funci´on inversa es necesario y suficiente que esta restricci´on sea inyectiva (las columnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM . Es posible probar un criterio an´alogo al anterior substituyendo las columnas por los ren glones. Sin embargo, su prueba aqu´ı se nos har´ıa innecesariamente complicada. Mejor lo dejaremos para el pr´oximo cap´ıtulo donde esto ser´a una f´acil consecuencia de un resultado mucho m´as importante.
Ejercicio 75 Sean f y g las rotaciones del plano R2 en los a´ ngulos α y β respectivamente.
Use el ejercicio 73 para hallar las matrices en la base can´onica de f, g y f ◦ g. Use 3.18 para hallar f´ormulas para el seno y el coseno de la suma de dos a´ ngulos. [180]
3.5 Cambios de base Es usual en las aplicaciones que sea conveniente realizar ciertos c´alculos en un sistema de coordenadas y despu´es realizar otros c´alculos en otro sistema de coordenadas. En el a´ lgebra lineal estos cambios de coordenadas son lineales o sea, la transformaci´on que lleva unas coordenadas a otras es una TL. Cambios de base en un espacio vectorial Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizaci´on K ↔ E ↔ KN . Nuestro problema ahora es: dado una Vada βV que son las coordenadas del vector x en la base V como hallar las coordenadas γN de x en la base N. En este caso las letras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”. Sea αNV la matriz cuyas columnas son los vectores de la base V expre X sados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos la v = αiv i f´ormula en el recuadro a la derecha. A la matriz αNV se le llama matriz de i∈N cambio de base (de V a N). Esta matriz no es otra cosa que la matriz del isomorfismo KV → E → KN . V
90
Cap´ıtulo 3. Transformaciones lineales Si βV es la Vada de las coordenadas de un vector en la base V entonces, αNV βV es la Nada de las coordenadas del mismo vector en la base N.
P P Prueba. Descompongamos xÃ∈ E en las à Tenemos, ! x = v∈V βv v = i∈N γi i ! dos bases. X X y por lo tanto X X X x= βv αiv i = αiv βv i = γi i v∈V
i∈N
i∈N
v∈V
i∈N
De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad P v∈V αiv βv = γi que es la que se necesitaba demostrar.
Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la base N = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadas de u en la base can´onica. Luego, V = {e1 , e2 } es la base can´onica y para construir la matriz αNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es m´as sencillo usar la siguiente argumentaci´on. Como un cambio de base es un isomorfismo entonces la matriz αNV tiene inversa que es la matriz de cambio de la base N a la base V. Las columnas de esta matriz ya las tenemos, son a1 y a2 . Luego, denotando p y q las coordenadas que buscamos, o sea, u = pa1 + qa2 tenemos: µ ¶ µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶ p 2 1 x 2 −1 x 2x − y = = = . q 3 2 y −3 2 y 2y − 3x y en estos c´alculos lo u´ nico que no conoce el lector es como calcular la matriz inversa. Pero, esto lo pospondremos hasta el pr´oximo cap´ıtulo. Cambios de base en el espacio de transformaciones lineales Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N dos bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos de coordinatizaci´on KWV ↔ Mor (E, F) ↔ KMN . El problema ahora es: dada una WVmatriz αWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de f en las bases N y M. Nuevamente, V, W son las bases “viejas” y M, N son las bases nuevas. X Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la v = γiv i matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V i∈N X y cualquier w ∈ W tenemos las f´ormulas en el recuadro a la derecha. λjw j w = Estas matrices no son otra cosa que las matrices de los isomorfismos de j∈M V N W M coordinatizaci´on K → E → K y K → F → K . Si αWV es la matriz de f en las bases V y W entonces, λMW αWV γ−1 NV es la matriz de f en las bases N y M.
Secci´on 3.5
Cambios de base
91
X Prueba. Las columnas de αWV son las imagenes por f de la base f (v) = αwv w V expresadas en la base W o sea, ∀v ∈ V se cumple la f´ormula w∈W del recuadro a la derecha. Denotemos por βMN la matriz de f en las X bases N, M. Las columnas de βMN son las imagenes por f de la base f (i) = βji j N expresadas en la base M. O sea, para cualquier i ∈ N se cumple la j∈M f´ormula del recuadro a la izquierda. Substituyendo en la f´ormula de la derecha à las f´ormulas que ! definen las matrices λMW y γNV obtenemos X X X γiv f (i) = λjw αwv j i∈N
j∈M
w∈W
y en esta igualdad substituimos à f (i) por!la f´ormulaÃde la izquierda !para obtener X X X X βji γiv j = λjw αwv j. j∈M
i∈N
j∈M
w∈W
De la unicidad de la representaci´on de cualquier base M obtenemos que para P vector en laP cualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo tanto βMN γNV = λMW αWV . Como γNV es la matriz de un isomorfismo entonces, γNV tiene inversa por lo que podemos despejar βMN . La proposici´on anterior la podemos interpretar gr´aficamen te de la siguiente manera. Las matrices αWV , βMN , γNV , y λMW son las matrices de TLs entre espacios como se muestra −→ en el diagrama a la izquierda. Se dice que un diagrama de βMN funciones es conmutativo si cualesquiera dos caminos di rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que el diagrama a la izquierda sea conmutativo lo quiere decir es que βMN γNV = λMW αWV . KV γNV ↓ KN
αWV −→
KW ↓ λMW KM
Cambios de base en el espacio de operadores lineales Si f ∈ End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases diferen tes para el dominio y el codominio ya que estos son iguales. Sean V, N dos bases de E. El problema ahora es: dada una VVmatriz αVV que es la matriz del OL f en la base V, hallar la matriz βNN de f en la base N. Sea γNV la matriz de cambio de αVV KV −→ KV base de V a N en E. En este caso, el diagrama es el de la dere ↓ γNV cha. Ya no hay que probar la conmutatividad de este ya que e´ l, γNV ↓ N K −→ KN es un caso particular del anterior. Luego, βNN γNV = γNV αVV βNN y despejando obtenemos que βNN = γNV αVV γ−1 NV . ¶ Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro a µ cos α − sin α la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). sin α cos α ¿Cual ser´a la matriz de f en la base can´onica? La matriz de cambio de base a la base can´onica es la que tiene como columnas a los vectores a1 y a2 . Luego, la matriz de f en la base can´onica es ¶−1 µ ¶µ ¶µ ¶ µ 2 1 cos α − sin α 2 1 cos α + 8 sin α −5 sin α = 3 2 sin α cos α 3 2 13 sin α cos α − 8 sin α
92
Cap´ıtulo 3. Transformaciones lineales
y esto es una advertencia de que un operador lineal puede tener en una base una matriz que es igual a la de la rotaci´on en la base can´onica y sin embargo no es una rotaci´on. La transformaci´on lineal tanspuesta Las f´ormulas de cambios de base nos permiten definir propiedades de las transforma ciones lineales que est´an definidas solo para las matrices. La idea es la siguiente: para una transformaci´on lineal f se encuentra su matriz A en ciertas bases se define la “propiedad” para la matriz A y definimos a esta como “propiedad” de f. Finalmente, se prueba que si B es matriz de f en otras bases entonces, la “propiedad” de la matriz A es tambi´en “propiedad” de la matriz B. Con esto logramos que nuestra definici´on de “propiedad” de f sea correcta o sea, no depende de las bases en las cuales se defini´o. Ahora seguiremos esta idea para definir la transformaci´on lineal transpuesta. Sea A = αNM una matriz. A la matriz B = βMN definida por βij = αji se le llama la matriz transpuesta de A y se denotar´a por AT . Un ejemplo de matrices transpuestas es el ⎛ ⎞ siguiente µ ¶T 1 6 1 2 3 =⎝ 2 5 ⎠ 6 5 4 3 4 T o sea, los renglones de A son las columnas de A y viceversa. Es comodo pensar en la transpuesta como la operaci´on de transposici´on que a una matriz le hace corresponder su transpuesta. Las principales propiedades de la transposici´on son las que se muestran en el recuadro a la derecha.
¡ ¢T 1) AT 2) (AB)T ¡ ¢T 3) A−1
= A = BT AT ¡ ¢−1 = AT
Prueba. La propiedad 1 es consecuencia trivial de la definici´on. Para convencernos de la propiedad 2 sean A = αNM , B = βML y γNL = αNM βML = AB. Denotemos AT = α0MN , BT = β0LM y (AB)T = γ0LN . Tenemos que ∀i ∈ N y ∀j ∈ M X X αik βkj = β0jk α0ki = β0jM α0Mi γ0ji = αiM βMj = k∈M
k∈M
y esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad 2 tenemos ¡ −1 ¢T T ¡ ¢T A A = AA−1 = IT = I y la prueba concluye por la unicidad de los inversos.
Ahora, sea f : E → F una TL y A la matriz de f en ciertas bases. Definamos la TL transpuesta fT : F → E como la TL de la matriz transpuesta AT . Tenemos que comprobar que esta definici´on no depende de como escogimos las bases. Si B es la matriz de f en otras bases entonces existen matrices invertibles C y D tales que B = CAD y por la propiedad 2 tenemos BT = DT AT CT . Por la propiedad 3 las matrices DT y CT son invertibles y esto significa que BT es la matriz de fT en las nuevas bases.
Secci´on 3.6 El nucleo y la imagen de una transformaci´on lineal
93
La transpuesta de una inmersi´on es una proyecci´on y rec´ıprocamente. ⎞ Prueba. Sea F un subespacio de E y f : F → E la inmersi´on ⎛ 1 ··· 0 correspondiente. Sea A una base de F. Por el Teorema de Existencia ⎜ ··· ··· ··· ⎟ ⎟ de Bases existe una base B de E que contiene a A. El conjunto de ⎜ ⎜ 0 ··· 1 ⎟ ⎟ vectores C = B\A es una base de cierto subespacio complementario ⎜ ⎜ 0 ··· 0 ⎟ ⎟ G de tal manera que E = F ⊕ G. Si coordinatizamos a F con la ⎜ ⎝ ··· ··· ··· ⎠ base A y a E con la base B entonces, en estas bases, la matriz de 0 ··· 0 f se ve como en el recuadro a la derecha. O sea, en los renglones correspondientes a A tenemos la matriz identidad y en los renglones correspondientes a C tenemos una matriz nula. Si transponemos esta matriz entonces fT es la TL que a un vector a + b con a ∈ F y b ∈ G le hace corresponder a. Luego fT es la proyecci´on de E a F a lo largo de G. El ¡ ¢T “rec´ıprocamente” se obtiene de la propiedad 1 de la transposici´on ( AT = A).
3.6 El nucleo y la imagen de una transformaci´on lineal En esta secci´on queremos ver que para describir todas las transformaciones lineales nos es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despu´es, vere mos interesantes consecuencias de este resultado. Definiciones Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F una TL. Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. La imagen de f se denotar´a por Im f. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL. El nucleo de f se denotar´a por ker f. Esta notaci´on es debido a que en ingl´es nucleo es “kernel”. Descrip tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0. La imagen y el nucleo de una TL son subespacios. Prueba. Sean x, y vectores en Im f y λ ∈ K. Por definici´on existen a, b tales que f (a) = x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y adem´as f (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio. Sean a, b vectores en ker f y λ ∈ K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 y f (λa) = λf (a) = λ0 = 0. Esto quiere decir que ker f es un subespacio.
94
Cap´ıtulo 3. Transformaciones lineales
El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f : E → F entonces ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OL o sea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sin embargo, como veremos m´as adelante, en este caso pasan cosas raras ya que, aunque estos subespacios tienen dimensiones complementarias ellos NO son complementarios en general. Transformaciones lineales con nucleo trivial Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cero siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que f tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la preimagen de cualquier vector es u´ nica. Lo importante es que el rec´ıproco tambi´en es cierto. Una TL es inyectiva si y solo si su nucleo es trivial. Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos (f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ ker f) y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente a la existencia de un vector no nulo en el nucleo de la TL. Descomposici´on de transformaciones lineales Ahora, demostraremos el resultado prometido al principio de la secci´on. Sea f : E → F una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK la restricci´on de f al subespacio K. Denotemos i : Im f /→ F la inmersi´on del subespacio Im f en F. Por u´ ltimo, denotemos πK : E ³ K la proyecci´on de E a K a lo largo del ker f. Teorema de Descomposici´on de una TL f = i ◦ fK ◦ πK y fK es un isomorfismo. Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (p´agina 64) existen unos u´ nicos vectores a ∈ K, b ∈ ker f tales que x = a + b. De aqu´ı obtenemos (i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x) y con esto queda probado que f = i ◦ fK ◦ πK . Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.29 existen unos u´ nicos vectores a ∈ K, b ∈ ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) = f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a − b) = 0. Como (a − b) ∈ K ∩ ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva. Este teorema lo podemos visualizar m´as f´acilmente si observa f E −→ F mos el diagrama de la derecha. La primera afirmaci´on del Teorema ↑i de Descomposici´on de una TL (3.28) lo que dice es que este dia πK ↓ K −→ Im f grama es conmutativo. fK
Secci´on 3.6 El nucleo y la imagen de una transformaci´on lineal
95
Para cualquier transformaci´on lineal f : E → F, dim E = dim ker f + dim Im f.
Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f. La descomposici´on de la transpuesta Veamos una primera aplicaci´on del Teorema de Descomposici´on de una TL (3.28). Como veremos en el pr´oximo cap´ıtulo, este resultado es clave para poder encontrar el conjunto de todas las soluciones de un sistema de ecuaciones lineales. Para cualquier transformaci´on lineal f : E → F se cumple que dim Im f = dim Im fT y que dim ker f = dim ker fT . Prueba. Por 3.29 es suficiente demostrar la primera igualdad. Descompongamos f = i◦g◦π donde i es una inmersi´on, g un isomorfismo y π una proyecci´on. O sea, f es la composici´on g π i E −→ K −→ Im f −→ F Por 3.24.2 tenemos que fT = πT ◦ gT ◦ iT . M´as detalladamente, fT es la composici´on gT πT iT F −→ Im f −→ K −→ E De 3.24.3 obtenemos que gT es un isomorfismo y de 3.25 obtenemos que πT es una inmersi´on y que iT es una proyecci´on. Como gT ◦ iT es sobreyectiva Im fT = Im πT y como πT es una inmersi´on Im πT = K. El hecho de que K y Im f son isomorfos termina nuestra prueba. Un criterio de isomorfismo Veamos otra aplicaci´on. Recordemos un sencillo resultado de teor´ıa de conjuntos: toda funci´on inyectiva de un conjunto finito en otro con el mismo n´umero de elementos es biyec tiva. De hecho, esto lo usamos en el primer cap´ıtulo para probar que Zp es un campo para p primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero muy u´ til) se cumple para espacios vectoriales de dimensi´on finita. Esto es una consecuencia del Teorema de Descomposici´on de una TL (3.28). Sean E y F dos espacios de dimensiones finitas e iguales. Una TL f : E → F es inyectiva si y solo si es sobreyectiva.
Prueba. Por 3.29 tenemos dim ker f = dim E − dim Im f. Si f es sobreyectiva entonces, F = Im f. Por hip´otesis dim F = dim E. De aqu´ı, debido a que todas las dimensiones son finitas, dim ker f = 0 y por lo tanto ker f = {0}. De 3.27 concluimos que f es inyectiva. Si f es inyectiva entonces, la funci´on f : E → Im f es un isomorfismo y por lo tanto dim E = dim Im f. Por hip´otesis dim F = dim E. Como Im f es un subespacio de F entonces,
96
Cap´ıtulo 3. Transformaciones lineales
aplicando 2.17 (p´agina 54) obtenemos F = Im f. Como consecuencia de este resultado probaremos que para comprobar que dos opera dores lineales f y g en un espacio de dimensi´on finita son el inverso uno del otro, solo es necesario comprobar una de las dos igualdades g ◦ f = I o f ◦ g = I. Sean f, g : E → E dos OLs de un espacio finito dimen sional. Entonces, f ◦ g = I si y solo si g ◦ f = I.
Prueba. La funci´on identidad es sobreyectiva. Luego, si f◦g = I entonces, f es sobreyectiva. Por 3.31 f es inyectiva y por lo tanto tiene inversa f−1 . Componiendo con f−1 obtenemos f−1 ◦ f ◦ g = f−1 ◦ I y por lo tanto g = f−1 . Descomposici´on can´onica de transformaciones lineales Para aplicar el Teorema de Descomposici´on de una TL (3.28) necesitamos escoger (ya que hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (v´ease 2.34) que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K por E/ ker f en el Teorema de Descomposici´on de una TL (3.28) para as´ı obtener otra versi´on del mismo que no dependa de escoger nada, o sea que sea can´onico. En el Teorema de Descomposici´on de una TL (3.28) est´an f involucradas tres funciones: la proyecci´on πK (que es sobreyec E −→ F tiva), la restricci´on fK (que es biyectiva) y la inmersi´on i (que es ?↓ ↑i inyectiva). Esta u´ ltima no depende de K y podemos quedarnos E/ ker f ←→ Im f ? con ella. As´ı que todas nuestras incognitas est´an representadas en el diagrama de la derecha. ¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va riantes. El espacio cociente E/ ker f est´a formado por todos los subespacios afines ker f + x. El espacio Im f est´a formado por todas las imagenes f (x). Luego, la x 7→ ker f + x u´ nica posible respuesta a nuestra pregunta son las funciones definidas f (x) 7→ ker f + x en el recuadro a la izquierda. La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama funci´on natural y se denota por “nat”. La funci´on natural es una TL ya que nat (x + y) = ker f + x + y = ker f + x + ker f + y = nat (x) + nat (y) nat (λx) = ker f + λx = λ ker f + λx = λ (ker f + x) = λ nat (x) y adem´as es evidentemente sobreyectiva. La segunda de estas funciones es nuestra preocupaci´on fundamental ya que tenemos que probar que es un isomorfismo. Esta funci´on tiene dominio Im f, codominio E/ ker f y la denotaremos por g. La funci´on g es una TL ya que g (f (x) + f (y)) = g (f (x + y)) = ker f + x + y = g (f (x)) + g (f (y)) g (λf (x)) = g (f (λx)) = ker f + λx =λ (ker f + x) = λg (f (x)) y es tambi´en evidentemente sobreyectiva.
Secci´on 3.7
Trasformaciones semilineales y coalineaciones
97
¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines ker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio af´ın E paralelo al ker f se cumple que (E = ker f + x) ⇔ (x ∈ E) entonces, la inyectividad de g es equivalente a que la funci´on f sea constante en cualquier subespacio af´ın paralelo al ker f. La cadena de equivalencias (y ∈ ker f + x) ⇔ (∃a ∈ ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x)) nos convence de que g es inyectiva independientemente de quien sea f. Los subespacios afines paralelos a ker f son precisamente los conjuntos de vectores en que la funci´on f es constante. Luego, g es un isomorfismo y por lo tanto tiene un isomor fismo inverso que denotaremos por f0 . El isomorfismo f0 es el que a un subespacio af´ın ker f + x le hace corresponder f (x). As´ı completamos nuestro diagrama como en el recuadro a la derecha. Solo nos falta demostrar que este es conmutativo. Sin embargo esto es muy f´acil porque la composici´on de funciones nat
f0
f E −→ F nat ↓ ↑i E/ ker f −→ Im f f0
i
x 7−→ ker f + x 7−→ f (x) 7−→ f (x) es evidentemente igual a la funci´on f.
3.7 Trasformaciones semilineales y coalineaciones Una funci´on f : E → F de espacios vectoriales sobre K se le llama transformaci´on semilineal si existe un automorfismo f(a + b) = f(a) + f(b) ˉ (a) λ 7→ λˉ del campo K tal que para cualesquiera vectores a, b y f (λa) = λf cualquier escalar λ se cumplen las propiedades del recuadro. Observese que las trasformaciones lineales son semilineales usando como automorfismo del campo la funci´on identidad. Para construir otras trasformaciones semilineales necesita mos automorfismos del campo que no sean la identidad. El ejemplo m´as importante es la conjugaci´on a + bi 7→ a − bi en el campo de los n´umeros complejos (v´ease el ejercicio 34).
Ejercicio 76 Pruebe que para una transformaci´on semilineal no nula f el correspondiente
automorfismo del campo es u´ nico. [180] Trasformaciones semilineales reales En el caso del campo de los n´umeros reales no hay trasformaciones semilineales que no sean lineales debido al siguiente resultado:
98
Cap´ıtulo 3. Transformaciones lineales El u´ nico automorfismo de R es la identidad.
√ Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y = x entonces, f (x) = f(y2 ) = f (y)2 > 0. En particular si x = b − a > 0 entonces f (b − a) = f (b) − f (a) > 0. En otras palabras, f es mon´otona b > a ⇒ f (b) > f (a). Como f−1 tambi´en es mon´otona entonces, f conmuta con el supremo y el ´ınfimo (v´ease el ejercicio 77). Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidad en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea x un irracional y denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x = sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.
Ejercicio 77 Sea R un conjunto ordenado y f : R → R una isoton´ıa (biyecci´on tal que f y f−1 son mon´otonas). Pruebe que si sup A existe entonces, f (sup A) = sup f (A). [180] Ejercicio 78 Sea f 6= I un automorfismo de C. Las siguientes afirmaciones son equivalen tes: 1. f es la conjugaci´on compleja. 2. f es continua. 3. f es la identidad en R. [181] Propiedades de las transformaciones semilineales Al igual que las TL las transformaciones semilineales preservan subespacios. Toda trasformaci´on semilineal trans forma subespacios en subespacios. Prueba. Sea f : E → F una trasformaci´on semilineal y F un subespacio de E. Sean a, b ∈ F y α ∈ K. Tenemos f(a + b) = f(a) + f(b) por lo que f (F) es cerrado para la suma. Sea ˉ (a) = f (λa) o sea f (E) es cerrado para el λ ∈ K tal que λˉ = α. Tenemos αf (a) = λf producto por escalares. Toda trasformaci´on semilineal transforma subespacios afines en subespacios afines. Prueba. Sea f : E → F una trasformaci´on semilineal y F un subespacio de E. Si F + x es un subespacio af´ın entonces, f (F + x) = f (F) + f (x) que es tambi´en un subespacio af´ın puesto que por el resultado anterior f (F) es un subespacio. Automorfismos semilineales. A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial. Esto es debido a que si λ 7→ λ y λ 7→ e λ son dos automorfismos del campo entonces λ 7→ λ+e λ
Secci´on 3.7
Trasformaciones semilineales y coalineaciones
99
no necesariamente es un automorfismo. A las transformaciones semilineales f : E → E biyectivas las llamaremos automorfismos semilineales. La composici´on de automorfismos semi lineales es un automorfismo semilineal. Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para los operadores lineales se prueba que (f ◦ g) (a + b) = (f ◦ g) (a) + (f ◦ g) (b). Sean λ 7→ λ˜ y λ 7→ λˉ los automorfismos del campo correspondientes a f y g respectivamente. Tenemos ¡ ¢ ˉ ˉ y la prueba termina al observar que λ 7→ e que (f ◦ g) (λa) = f λa = e λa λˉ siendo una composici´on de automorfismos del campo es automorfismo del campo.
Ejercicio 79 Sea λ 7→ λˉ un automorfismo del campo K. Pruebe que la transformaci´on Kn 3
(x1 , . . . , xn ) 7→ (x1 , . . . , xn ) ∈ Kn es un automorfismo semilineal. A tales automorfismos semilineales los llamaremos estandar. Pruebe que toda transformaci´on semilineal de Kn en Kn es la composici´on de un automorfismo semilineal estandar con una TL. [181]
La inversa de un automorfismo semi lineal es un automorfismo semilineal.. Prueba. Sea f : E → E una automorfismo semilineal. Sean λ ∈ K y x, y ∈ E. Sean a, b ∈ E tales que f (a) = x , f (b) = y. Tenemos f−1 (x + y) = f−1 f¡(b)) =¢f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y) ¡ (f¢(a) + −1 ˉ −1 ˉ f λx = f λf (a) = f−1 (f (λa)) = λa =λf−1 (x) que es lo que se quer´ıa demostrar puesto que la funci´on λˉ 7→ λ es un automorfismo de K.
Estos dos u´ ltimos resultados significan que el conjunto de todos los automorfismos se milineales forman un grupo respecto a la composici´on de funciones. Coalineaciones
Una biyecci´on f : E → E en un espacio vectorial sobre un campo le llama coalineaci´on si la imagen de cualquier subespacio af´ın es un subespacio af´ın y la preimagen de cualquier subespacio af´ın es un subespacio af´ın de E. En otras palabras, tanto f como f−1 transforman subespacios afines en subespacios afines. Obviamente, si f es una coalineaci´on entonces f−1 tambi´en lo es. El siguiente resultado nos dice que la definici´on de coalineaci´on es posible hacerla de diversas maneras.
100
Cap´ıtulo 3. Transformaciones lineales Sea f : E → F una biyecci´on entre dos espacios afines. Entonces, las siguientes afirmaciones son equivalentes: 1. f y f−1 transforman subespacios afines en subespacios afines. 2. f y f−1 transforman generadores afines en generadores afines. 3. f y f−1 transforman bases afines en bases afines. 4. f y f−1 transforman conjuntos AI en conjuntos AI. 5. f y f−1 conmutan con la cerradura af´ın.
Prueba. (1 ⇒ 2) Sea A un conjunto generador af´ın de E y B = f (A). Sea C = f−1 [B] que es un subespacio af´ın por ser la preimagen de un subespacio. Tenemos, B ⊆ [B] y por lo tanto A = f−1 (B) ⊆ f−1 [B] = C. Luego E = [A] ⊆ C y por lo tanto C = E. De aqu´ı f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetr´ıa, si B es generador entonces f−1 (B) tambi´en lo es. (2 ⇒ 3) Sea ahora A una base af´ın de E y B = f (A). Sabemos que B es generador af´ın. Si B no fuera AI entonces existir´ıa b tal que B\b es generador y por lo tanto, tendr´ıamos que f−1 (B\b) = A\f−1 (b) es generador af´ın. Esto contradecir´ıa que A es una base af´ın. Por simetr´ıa, si B es una base af´ın entonces f−1 (B) tambi´en lo es. (3 ⇒ 4) Sea ahora A un conjunto AI. Sea A0 una base af´ın que lo contiene. Sabemos que f (A0 ) es una base af´ın. Como f (A) ⊆ f (A0 ) tenemos que f (A) es AI. Por simetr´ıa, si B es AI entonces f−1 (B) tambi´en lo es. (4 ⇒ 1) Sea A una base af´ın del subespacio af´ın [A]. Como A es AI entonces B = f (A) tambi´en lo es. Si b ∈ [A] entonces A∪b es AD y por lo tanto B∪f (b) tambi´en lo es. Luego, por el corolario 2.42, tenemos f (b) ∈ [B] y por lo tanto f [A] ⊆ [B]. Si b ∈ [B] entonces B ∪ b es AD y por lo tanto A ∪ f−1 (b) tambi´en lo es. Luego, por el corolario 2.42, tenemos f−1 (b) ∈ [A] y por lo tanto [B] ⊆ f [A]. Esto significa que f transforma el subespacio [A] en el subespacio [B]. Por simetr´ıa, f−1 tambi´en transforma subespacios en subespacios. (5 ⇒ 1) Si f [A] = [f (A)] entonces la imagen del subespacio af´ın [A] es el subespa cio af´ın [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetr´ıa, f−1 tambi´en transforma subespacios en subespacios. (1 ⇒ 5) Sea f una coalineaci´on. Sea A un conjunto de puntos. Como f transforma subes pacios afines en subespacios afines la restricci´on de f a [A] es una coalineaci´on del espacio afin [A] en el espacio afin f [A]. Como esta restricci´on transforma generadores en generado res tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para probar de que f−1 conmuta con la cerradura af´ın usamos que f−1 es una coalineaci´on.
Ejercicio 80 Sea A un conjunto con un operador de cerradura y f : A → A una biyecci´on.
Si f y f−1 conmutan con el operador de cerradura entonces f es una isoton´ıa del conjunto ordenado de cerrados.
Secci´on 3.7
Trasformaciones semilineales y coalineaciones
101
Estructura de las coalineaciones La composici´on de coalineaciones de un espacio af´ın en si mismo es una coalineaci´on. Lo mismo sucede con la inversa de una coalineaci´on. Luego el conjunto de todas las coali neaciones de un espacio af´ın F es un grupo respecto a la composici´on de funciones. Si dim E = 1 entonces cualquier biyecci´on de E en E es una coalineaci´on ya que en este caso todos los subepacios afines son puntos y la condici´on de preservar puntos no es ninguna restricci´on. Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de la forma ta : F 3 x 7→ x + a ∈ F y de estas hay una para cada vector a en el espacio vectorial F. Como ta ◦ tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupo aditivo del espacio vectorial F. Sea f una coalineaci´on en E. Denotemos a = f (0) y ta la traslaci´on x 7→ x + a. Obser vemos que la coalineaci´on f0 = t−a ◦ f es tal que f0 (0) = 0. Luego, cualquier coalineaci´on es la composici´on f = ta ◦ f0 de una coalineaci´on que preserva 0 seguida de una traslaci´on. Si f es un automorfismo semilineal entonces f transforma subespacios afines en subes pacios afines y por lo tanto es una coalineaci´on que preserva 0. Ahora, comenzaremos a probar el resultado principal de esta secci´on: que en dimensi´on al menos 2 toda coalineaci´on que preserva 0 es semilineal. En todo lo que sigue, E es un espacio vectorial de dimensi´on al menos 2 sobre el campo K. Toda coalineacion en E preserva el paralelismo de rectas. Prueba. Sea f una coalineaci´on y `, `0 dos rectas paralelas diferentes. Como f es un au tomorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0 ] = dim f [` ∪ `0 ] = dim [f (`) ∪ f (`0 )] y por lo tanto f (`) y f (`0 ) son coplanares. Tambi´en dim [` ∩ `0 ] = dim f [` ∩ `0 ] = dim [f (`) ∩ f (`0 )] y por lo tanto f (`) y f (`0 ) no se intersectan. Toda coalineacion en E que preserva 0 es un automorfismo del grupo aditivo de vectores. Prueba. Sea f una coalineaci´on de E que preserva 0. Recordemos que para cualquier vector x el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemos f hxi = hf (x)i o sea, f tambi´en conmuta con la cerradura lineal. Sean a, b ∈ E dos vectores. Tenemos que probar que f (a + b) = f (a) + f (b). Esto es trivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamos primero que {a, b} es LI. Por la regla del paralelogramo sabemos que a + b = (hai + b) ∩ (hbi + a) , f (a) + f (b) = (hf (a)i + f (b)) ∩ (hf (b)i + f (a)) .
102
Cap´ıtulo 3. Transformaciones lineales
Como f preserva el paralelismo f (hai + b) es una recta paralela a f (hai) = hf (a)i que pasa por f (b) , o sea f (hai + b) = hf (a)i + f (b). An´alogamente, f (hbi + a) = hf (b)i + f (a). Como f conmuta con la intersecci´on (el ´ınfimo) tenemos f (a + b) = f (hai + b)∩f (hbi + a) = (hf (a)i + f (b))∩(hf (b)i + f (a)) = f (a)+f (b) y esto concluye el caso de que {a, b} es LI. Es claro que si {a, b} es LI entonces, tambi´en lo es {a − b, b} y por lo tanto f (a) = f (a − b + b) = f (a − b) + f (b) . Luego, si {a, b} es LI entonces, f (a − b) = f (a) − f (b). Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dim E > 1 existe c ∈ / hai tal que los conjuntos {a, c}, {b, c} son LI. Si b 6= −a entonces, {a + c, b − c} es LI y por el caso anterior tenemos que f (a + b) = f (a + c + b − c) = f (a + c) + f (b − c) = f (a) + f (b) y en particular cuando b = a obtenemos f (2a) = 2f (a). Si b = −a entonces, {a + c, b + c} es LI y tenemos que 2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a) + f (b) + 2f (c) y por lo tanto f (a) + f (b) = 0 = f (0) = f (a + b).
Ejercicio 81 Complete la demostraci´on del resultado anterior mostrando que si {a, c} es LI, b = ρa y ρ 6= −1 entonces {a + c, b − c} es un conjunto LI. [181]
Si f es una coalineaci´on en E que preserva 0 entonces, existe un automorfis ˉ (a) para todo vector a ∈ E. mo λ 7→ λˉ del campo K tal que f (λa) = λf
Prueba. Sea a ∈ E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos que αa ∈ hai y por lo tanto f (αa) ∈ hf (a)i. Como en hf (a)i est´an precisamente los m´ultiplos de f (a) existe un escalar que denotaremos αa tal que f (αa) = αa f (a). De esta manera est´a definida una funci´on K 3 α 7→ αa ∈ K que es biyectiva pues f es una biyecci´on de hai en hf (a)i. Queremos probar que αa no depende de a. O sea que para cualesquiera a, b ∈ E\0 tenemos que αa = αb . Supongamos que {a, b} es LI. Usando 3.41 obtenemos que αa f (a) + αb f (b) = f (αa) + f (αb) = f (αa + αb) = = f (α (a + b)) = αa+b f (a + b) = αa+b f (a) + αa+b f (b) y como {f (a) , f (b)} es LI obtenemos αa = αa+b = αb . Supongamos que {a, b} es LD entonces, como dim E > 1 existe c tal que {a, c} y {c, b} son dos conjuntos LI. Por el caso anterior αa = αc = αb . Como αa no depende de a denotaremos αˉ = αa . Sabemos que para cualquier vector ˉ (a). Solo falta probar que α 7→ αˉ es un automorfismo de K. a ∈ E tenemos f (αa) = αf
Secci´on 3.7
Trasformaciones semilineales y coalineaciones
103
Sea a un vector no nulo. Usando 3.41 obtenemos que ¡ ¢ ˉ f (a) (α + β)f (a) = f ((α + β) a) = f (αa + βa) = f (αa) + f (βa) = αˉ + β ˉ (a) ˉ (βa) = αˉ βf (αβ)f (a) = f (αβa) = αf ˉ y como f (a) es no nulo obtenemos α + β = αˉ + βˉ y αβ = αˉ β. Resumiendo los dos u´ ltimos resultados obtenemos: Caracterizaci´on de las coalineaciones Si dim E ≥ 2 entonces, cualquier coalineaci´on en E que preseva 0 es un automorfismo semilineal. Combinando esto con 3.34 vemos que el caso de los reales es m´as sencillo. Toda coalineaci´on en un espacio vectorial real de dimensi´on dos o m´as es un automorfismo lineal seguido por una traslaci´on.
104
Capítulo cuarto
Determinantes os determinantes son una funci´on que a cada matriz cuadrada le hace corresponder un elemento del campo. Todo lo que se digamos acerca de la importancia de los de terminantes en las matem´aticas es poco. Este es uno de los conceptos sin los cuales realmente no se puede entender nada en las matem´aticas superiores. En este cap´ıtulo dare mos la definici´on de los determinantes, estudiaremos sus propiedades, m´etodos de c´alculo y seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de forma general.
4.1 Permutaciones La definici´on de determinante de una matriz pasa inevitablemente por la definici´on del signo de una permutaci´on. El lector debe entender bien esta secci´on para poder pasar al estudio de los determinantes. El grupo sim´etrico Sea N un conjunto finito. Una permutaci´on de N es una biyecci´on de N en N. Al conjunto de todas las permutaciones de N lo denotaremos por SN . La composici´on de biyec ciones es una biyecci´on y toda biyecci´on tiene inversa, por lo tanto, SN es un grupo respecto a la composici´on. Al grupo (SN , ◦) se le llama el grupo sim´etrico de N. Denotaremos por IN a la funci´on identidad que es el neutro de SN . Es importante recordar nuestra notaci´on de la composici´on (σ ◦ ω) (a) = σ (ω (a)) ya que la composici´on no es conmutativa. Si |M| = |N| entonces los grupos SM y SN son isomorfos. Prueba. Sean M y N son dos conjuntos del mismo cardi σ M −→ M nal. Si ω : M → N es una biyecci´on entonces fij´andonos en ↑ ω−1 el diagrama conmutativo del recuadro a la derecha obtenemos ω ↓ N −→ N una funci´on ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que −1 ωσω ∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM . Adem´as, ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto, ∆ es un isomorfismo de los grupos SM y SN .
Cap´ıtulo 4. Determinantes
106
El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle el nombre a los elementos de M mediante la biyecci´on δ : M → N y obteniendo el grupo SN . En particular, el n´umero de elementos de SN solo depende del n´umero de elementos en N. El n´umero de permutaciones de un conjunto con n elementos es n!. Prueba. Para la prueba es m´as claro encontrar ρ (n) el n´umero de biyecciones f : M → N donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos inducci´on en n. Si i ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas seg´un cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i → N\j y por hip´otesis de inducci´on este n´umero es (n − 1) !. Luego, ρ (n) = n (n − 1) ! = n!. Ciclos
¯ Sea M = {x0 , . . . , xn−1 } ⊆ N. A la permutaci´on xi+1 mod n si y = xi σ mostrada en el recuadro a la derecha se le llama ci σ (y) = y si y ∈ /M clo de orden n. A esta permutaci´on se le denotar´a por (x0 , . . . , xn−1 ). . Dos ciclos (x0 , . . . , xn−1 ) y (y0 , . . . , ym−1 ) se les llama disjuntos si ning´un xi es igual a alg´un yj . Es importante notar que la composici´on de ciclos disjuntos es conmutativa pero la com posici´on de ciclos en general no lo es. Tambi´en debemos notar que debido a las propiedades de la funci´on mod n se tiene que (a, . . . , b, c) es la misma permutaci´on que (c, a, . . . , b) en otras palabras, siempre podemos escoger el principio del ciclo. Sea σ ∈ SN una permutaci´on. La relaci´on en N definida por ∃n ∈ Z tal que a = σn (b) es de equivalencia. Prueba. Tenemos a = σ1 (a) y por lo tanto es reexiva. Si a = σn (b) y b = σm (c) entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a) por lo que la relaci´on es sim´etrica. A las clases de equivalencia de esta relaci´on se le llaman o´ rbitas de la permutaci´on. La restricci´on de una permutaci´on a una o´ rbita es un ciclo. Prueba. Supongamos que M es una o´ rbita. Sea a ∈ M. Tenemos M = {σn (a) | n ∈ Z}. El conjunto M no puede ser infinito por lo que existe un natural p m´as peque˜no tal que σp (b) ya apareci´o antes en la sucesi´on a, σ (a) , . . .. Observemos que σp (a) = a porque si no, habr´ıa un n´umero k mayor que cero y menor que p tal que σp (a) = σk (a) o sea, σk (a) tendr´ıa dos preimagenes diferentes σk−1 (a) 6= σp−1 (a) y esto no puede ser ya que σ es una biyecci´on. Dividiendo con resto cualquier entero n entre p tenemos que n = kp + r con
Secci´on 4.1
Permutaciones
107
¢ ¡ r 0 ≤ r < p. Luego, σn (a) = σr σkp (a) = {σn (a)¢ | n ∈ Zp }. Esto quiere ¡ σ (a) y M = p−1 decir que la restricci´on de σ a M es el ciclo a, σ (a) , . . . , σ¡ (a) . ¢ Supongamos que la restricci´on de σ a M es el ciclo a, σ (a) , . . . σp−1 (a) . Como σ (M) = M tenemos que σp (a) ∈ M y de la misma manera que antes vemos que σp (a) = a y que M = {σn (a) | n ∈ Z} es una o´ rbita. Toda permutaci´on es composici´on de ciclos disjuntos. Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las o´ rbitas y compo nerlos en cualquier orden. Observese que la descomposici´on en ciclos disjuntos de una permutaci´on es u´ nica salvo el orden de la composici´on. El grupo alternante Una permutaci´on se le llama par si en su descomposici´on en ciclos disjuntos hay un n´umero par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de orden 2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquier transposici´on es ella misma. La composici´on de una permutaci´on con una trans posici´on cambia la paridad de la permutaci´on. Prueba. Sea σ una permutaci´on y τ = (a, b) una transposici´on. Distingamos dos casos: que a y b est´an en una misma o´ rbita de σ o que no. Si est´an en la misma o´ rbita M entonces escogiendo el principio del ciclo en M y renu merando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la restricci´on de σ a M es (1, 2, . . . , n) con n ≥ k. Como τ (σ (k − 1)) = 1 y τ (σ (n)) = k, obtenemos (1, k) ◦ (1, 2, . . . n) = (1, . . . , k − 1) ◦ (k, . . . , n) . Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridad de σ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por lo que la paridad de σ cambia. Si est´an en diferentes o´ rbitas M1 y M2 entonces escogiendo los principios de los ciclos en M1 , M2 y renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la restricci´on de σ a M1 es (1, . . . , k − 1) y la restricci´on de σ a M2 es (k, . . . , n). Como τ (σ (k − 1)) = k y τ (σ (n)) = 1, obtenemos que (1, k) ◦ (1, . . . , k − 1) ◦ (k, . . . , n) = (1, 2, . . . n) y ya vimos que (1, . . . , k − 1) ◦ (k, . . . , n) tiene paridad diferente que (1, 2, . . . n). Con esto hemos demostrado que la paridad de τ◦σ es diferente a la de σ. La demostraci´on de que a paridad de σ ◦ τ es diferente a la de σ es an´aloga.
108
Cap´ıtulo 4. Determinantes Toda permutaci´on es composici´on de transposiciones.
Prueba. Se comprueba f´acilmente que (x0 , . . . , xn−1 ) = (xn−1 , x0 )◦. . .◦(x2 , x0 )◦(x1 , x0 ) y esto demuestra que todo ciclo se descompone en composici´on de transposiciones. La prueba se completa porque toda permutaci´on es composici´on de ciclos. Una consecuencia directa de 4.6 y 4.7 es que una permutaci´on es par si y solo si es composici´on de un n´umero par de transposiciones. Al conjunto de todas las permutaciones pares de N se le denotar´a por AN . La composici´on de dos permutaciones pares es par y la inversa de una permutaci´on par es tambi´en par. Luego AN es un grupo para la composici´on y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos por A− N y lo llamaremos la clase lateral de las permutaciones impares. Observese que AN y A− N tienen la misma cantidad de permutaciones e igual a n!/2 ya que el componer con una transposici´on fija es una biyecci´on entre AN y A− N. El signo de una permutaci´on En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro para el producto y el segundo es el opuesto para la suma del primero. Observese que estos dos elementos son diferentes si y solo si la caracter´ıstica del campo es diferente de 2. El signo de una permutaci´on es la funci´on sgn : SN → K que es 1 si la permutaci´on es par y es −1 si la permutaci´on es impar. ¨ sgn (π ◦ ρ) = sgn π sgn ρ ¨ sgn π−1 = sgn π Prueba. La composici´on de dos permutaciones de la misma paridad es una permutaci´on par. La composici´on de dos permutaciones de diferente paridad es impar. Las o´ rbitas de una permutaci´on no cambian al tomar la inversa. La funci´on sgn jugar´a un papel vital en todo lo que sigue. En particular, en la definici´on de determinante de una matriz los signos de los sumandos est´an definidos precisamente mediante la funci´on sgn. Por esto, el lector debe familiarizarse muy bien con la definici´on de esta funci´on y sus propiedades. ¡
¢
¡
¢
¡
¢
Ejercicio 82 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π . El resultado 4.8 lo que quiere decir es que la funci´on sgn : SN → K es un morfismo del grupo SN al grupo multiplicativo del campo. Su im´agen es {1, −1} y su nucleo es AN si el campo es de caracter´ıstica diferente de dos.
Secci´on 4.2
Propiedades b´asicas de los determinantes
109
4.2 Propiedades b´asicas de los determinantes ¯
Resolvamos el sistema de ecuaciones lineales de la iz quierda. Denotemos ∆ = ad − bc. Despejando x en x = d − b ∆ la primera ecuaci´on y substituyendo en la segunda ob a−c tenemos y. Substituyendo este y en alguna de las ecuaciones obtendremos y = ∆ x. Esta soluci´on es la del recuadro a la derecha. Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2 y u + v como se muestra en la figura a la izquierda. Estos dos vectores v q definen un paralelogramo cuyos v´ertices son 0, u, u + v, v. Que R2 remos calcular el area de este paralelogramo. Para esto, sea q el punto de intersecci´on de la recta u, u + v con la recta paralela al u eje x que pasa por v. Sea p el punto de intersecci´on de la recta 0 p x u, u + v con el eje x. Es f´acil ver que el tri´angulo v, q, u + v es igual al tri´angulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene a´ rea igual a la del paralelogramo 0, v, q, p. En la figura a la derecha los tri´angulos R2 q p, a, u y 0, v,d tienen dos a´ ngulos iguales o sea son congruentes. y v d De esto, por el Teorema de Tales obtenemos ax + by = 1 cx + dy = 1
(b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb) u Sabemos que, pd es el a´ rea (base por altura) del paralelogramo b 0, v, q, p. Luego, hemos demostrado que el area del paralelogra 0 c pa x mo 0, u, u + v, v es igual a ∆ = ad − bc. Estos dos ejemplos nos dan una idea de la importancia del n´umero ∆ = ad − bc para la soluci´on de sistemas de dos ecuaciones lineales y para el c´alculo de areas en R2 . Los determinantes son la generalizaci´on de este n´umero a dimensiones arbitrarias. Definici´on de los determinantes Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio nes de N. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutaci´on σ, o sea σi es una forma corta de escribir σ (i). Recordemos tambi´en que el signo de una permutaci´on sgn σ es 1 si σ es par y es −1 si σ es impar. El determinante de una matriz αNN es por definici´on X Y el elemento del campo definido por la f´ormula en el re det αNN = sgn σ αiσ i cuadro de la derecha. A esta f´ormula se la conoce como σ∈ SN i∈N f´ormula de Leibniz. Recalquemos que los determinantes est´an definidos solo cuando los conjuntos de ´ındices de renglones y columnas coinciden y es un conjunto finito. Por este motivo en este cap´ıtulo todos los espacios ser´an finito dimensionales y todos los conjuntos de ´ındices ser´an finitos.
110
Cap´ıtulo 4. Determinantes
˜ Determinantes de matrices pequenas Interpretemos esta definici´on para conjuntos N con pocos elementos. Si |N| = 1 entonces la matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada. µ ¶ Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que son α11 α12 – I y (1, 2). A la primera le corresponde el sumando α11 α12 y a la segunda α21 α22 + el sumando −α12 α21 . Gr´aficamente, cuando N = {1, 2} un determinante es la suma de los dos productos que se muestran en el recuadro a la izquierda. Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3), (1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden con ⎞ los tres sumandos α11 α22 α33 , α12 α23 α31 y α13 α21 α32 . Gr´aficamente, ⎛ α11 α12 α13 estos tres sumandos se pueden representar por la diagonal principal ⎝ α21 α22 α23 ⎠ de la matriz y los dos “tri´angulos” con lados paralelos a esta diagonal α31 α32 α33 como se muestra en el recuadro de la derecha. Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos ⎛ ⎞ −α11 α23 α32 , −α12 α21 α33 y −α13 α22 α31 . Gr´aficamente, estos tres α11 α12 α13 ⎝α21 α22 α23 ⎠ sumandos se pueden representar por la diagonal alterna de la matriz y los dos “tri´angulos” con lados paralelos a esta diagonal como se α31 α32 α33 muestra en el recuadro de la izquierda. El n´umero de sumandos en la definici´on del determinante es SN = |N| !. Este n´umero crece r´apidamente con |N| como se ve en la siguiente tabla 5 6 7 8 9 10 n 1 2 3 4 n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800 Por esto, calcular determinantes con el uso directo de su definici´on es muy ineficiente para matrices de m´as de tres renglones y columnas. El determinante de la identidad Ya vimos que el conjunto de matrices αNN es un a´ lgebra respecto al producto y suma de matrices y multiplicaci´on por elementos del campo. El elemento neutro para el producto ¯ lo llamamos matriz identidad, denotamos INN y es la matriz cu 1 si i = j yas entradas son iguales al delta de Kronecker δij definido en el δij = 0 si i 6= j recuadro a la derecha. Cuando el conjunto de ´ındices est´a ordena ¶ do, la matriz identidad se puede representar gr´aficamente como una que tiene µ 1 0 unos en la diagonal y ceros en todas las dem´as entradas como se muestra en el 0 1 recuadro a la izquierda para una matriz de dos renglones y columnas. El determinante de la matriz identidad es 1.
det INN = 1
Prueba. Si laQ permutaci´on σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σi y por lo tanto i∈N δiσ i = 0. Luego,
Secci´on 4.2
Propiedades b´asicas de los determinantes det INN =
X
sgn σ
σ∈ SN
Y
δiσ i = sgn (IN )
i∈N
Y
111
δii = 1.
i∈N
Matrices con filas nulas Si una matriz tiene una columna o un ren gl´on nulo entonces, su determinante es cero. Q Prueba. Cada sumando de los determinantes i∈N αiσ i contiene como factor una entrada de cada rengl´on. Si un rengl´on es nulo entonces, todos estos sumandos tienen un factor cero y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas. El determinante de la transpuesta Recordemos del cap´ıtulo anterior que dada una matriz ⎛ ⎞ αMN su transpuesta se define como la matriz βNM = α11 α12 α13 α14 αTMN tal que βij = αji . Gr´aficamente la operaci´on de ⎜α21 α22 α23 α24 ⎟ ⎜ ⎟ transponer una matriz es hacer una reexi´on con respecto ⎝α31 α32 α33 α34 ⎠ a la diagonal de la matriz. Observese que el conjunto de α41 α42 α43 α44 ´ındices de los renglones de la matriz αTNM es M y no N como se podr´ıa pensar de los sub´ındices. La notaci´on es as´ı porque pensamos la transpuesta como la aplicaci´on de la operaci´on de transposici´on.
T
El determinante no se altera al transponer una matriz.
det A = det AT
Prueba. Tenemos que demostrar que det αNN = det αTNN . Efectivamente, por la definici´on ¸ ∙ X X Y Y cambio de variable T = sgn σ ασ i i = sgn ω αω − 1 (i)i = det αNN = ω = σ−1 σ∈ S ω∈ S i∈N i∈N N ∙ N ¸ Y X cambio de variable sgn ω αjω j = det αNN . = = j = ω−1 (i) ω∈ SN
j∈N
Matrices con filas iguales Si una matriz tiene dos columnas o dos renglo nes iguales entonces su determinante es cero. Prueba. Supongamos que para αNN se tiene que αjM = αkM o sea, las columnas j y k son iguales. Todo sumando del determinante depende exactamente de una entrada en la columna
Cap´ıtulo 4. Determinantes
112
j y de otra en la columna j. Luego, podemos escribir X Y αjσ j αkσ k sgn σ αiσ i . det αNN = σ∈ SN
i∈N\{j,k}
Denotemos ρ la transposici´on (j, k). La funci´on Φ : SN 3 σ 7→ σ ◦ ρ ∈ SN es una biyecci´on y el sumando correspondiente a σ ◦ ρ es igual a Y αjσk αkσ j sgn (σ ◦ ρ) αiσ i i∈N\{j,k}
pero como αjM = αkM entonces, αjσ k αkσ j sgn (σ ◦ ρ) = −αjσ j αkσ k sgn σ. Esto signifi ca que Φ es una biyecci´on que transforma a un sumando en su negativo y por lo tanto el determinante es cero. La prueba para los renglones se obtiene transponiendo la matriz. Permutaciones de columnas y renglones
Dada una matriz αMN y una permutaci´on ω ∈ SN definimos la operaci´on de permu tar las columnas de αMN mediante la permutaci´on ω como la que resulta en la matriz αMω(N) cuyas columnas son αMω − 1 (i) (¡observese el uso de la permutaci´on inversa ω−1 !). Gr´aficamente esta operaci´on resulta en cambiar el orden de las ⎛ ⎞ columnas. As´ı por ejemplo, el aplicar el ciclo (1, 2, 4) resulta en α11 α12 α13 α14 ⎜α21 α22 α23 α24 ⎟ el intercambio de columnas representado en el recuadro a la iz ⎜ ⎟ ⎝α31 α32 α33 α34 ⎠ quierda. An´alogamente se define la operaci´on de permutar los renglones, para una permutaci´on ρ ∈ SM la matriz αρ(M)N es α41 α42 α43 α44 aquella cuyos renglones son αρ− 1 (j)N . det αNω(N) = sgn ω det αNN
Al permutar las columnas o los renglones de una matriz con la permutaci´on ω el determi nante se altera por un factor igual a sgn ω.
Prueba. Sea ω ∈ SN una permutaci´on. Hay que demostrar det αNω(N) = sgn ω det αNN . Efectivamente, por la definici´on tenemos ∙ ¸ X Y cambio de variable det αNω(N) = sgn σ αiω − 1 (σi ) = = ρ = ω−1 ◦ σ σ∈ S i∈N N Y X Y X sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN = ρ∈ SN
i∈N
ρ∈ SN
i∈N
Con esto demostramos la proposici´on para las columnas. La demostraci´on para los renglones se obtiene transponiendo la matriz. El determinante del producto
La u´ ltima propiedad b´asica de los determinantes es probablemente la m´as importante para el a´ lgebra lineal. Como la demostraci´on de esta propiedad es complicada, le recomiendo al lector omitirla en una primera lectura. La complejidad de esta demostraci´on es el precio que tenemos que pagar por dar una definici´on directa del determinante.
Secci´on 4.2
Propiedades b´asicas de los determinantes
El determinante del producto de dos matrices es igual al producto de los determinantes de las dos matrices.
113
det AB = det A det B
Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostraci´on denotemos por FN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Denotemos adem´as TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N. Por la definici´on de determinante y de producto de matrices tenemos YX X sgn σ αij βjσ i det AB = σ∈ SN
Q
P
P
i∈N j∈N
Q
y usando la f´ormula i∈N j∈N γij = ω∈ FN i∈N γiω i (Sec. 1.6, p´ag. 21) obtenemos X Y X X Y X sgn σ αiω i βω i σ i + sgn σ αiω i βω i σ i det AB = σ∈ SN
ω∈ TN i∈N
σ∈ SN
ω∈ SN i∈N
Denotando por ∇ el primer sumando nuestro determinante se convierte en ∙ ¸ X Y X cambio de variable sgn σ αiω i βω i σ i = = =∇+ σ=ρ◦ω σ∈ SN ω∈ SN i∈N ∙ ¸ Y Y X X cambio de var = sgn (ρ ◦ ω) αiω i βω j ρ(ω j ) = =∇+ k = ωj ρ∈ S ω∈ S i∈N j∈N N !Ã ! Ã N X Y Y X sgn ω αiω i sgn ρ βkρk = ∇ + det A det B =∇+ ω∈ SN
i∈N
ρ∈ SN
k∈N
O sea, para completar la demostraci´on tenemos que probar que ∇ = 0. Para esto recordemos que AN es el subgrupo de las permutaciones pares e A− N es la clase lateral de todas las permutaciones impares. Si observamos detenidamente la definici´on de ∇ X X Y ∇= sgn σ αiω i βω i σ i ω∈ TN σ∈ SN
i∈N
vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyecci´on f : AN → A− N tal que si θ = f (σ) entonces, Y Y αiω i βω i σi = αiω i βω i θi i∈N
i∈N
Esto nos garantizar´a que cada sumando positivo se cancele con otro negativo. Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyecci´on existen j, k ∈ N tales que ω (j) = ω (k) . Sea t ∈ A− on que intercambia j y k. Sea f : AN 3 σ 7→ N la transposici´ σ ◦ t ∈ A− . La funci´ o n f es biyectiva ya que su inversa es θ 7→ θ ◦ t. Adem´as, tenemos N Y Y Y αiω i βω i (σ◦t)i = αjω j βω j σ k αkω k βω k σ j αiω i βω i σi = αiω i βω i σi i∈N
i∈N\{j,k}
donde la u´ ltima igualdad es v´alida porque ωj = ωk .
i∈N
Cap´ıtulo 4. Determinantes
114 Matrices de permutaciones
Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena disculpa para introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se le han permutado las columnas con la permutaci´on ω ∈ SN . A INω(N) se le llama matriz de la permutaci´on ω. Lo interesante de las matrices de permutaciones es que al multiplicar por ellas se permutan renglones o columnas. El resultado del producto αMN INω(N) (de IMω(M) αMN ) es la matriz αMN a la que se le han permutado las columnas (los renglones) usando la permutaci´on ω (la permutaci´on ω−1 ). P Prueba. Sea γMN = αMN INω(N) . Tenemos γij = k∈N αik δkω − 1 (j) . Cada sumando es cero a no ser que ω−1 (j) = k. Luego γij = αiω − 1 (j) lo que prueba la proposici´on para las columnas. La demostraci´on para los renglones es igual. Observemos determinante Qque det INω(N) = sgn ω. Efectivamente, en la definici´on de Q cada producto i∈N δiω − 1 (σ i ) es cero para cada ω 6= σ. Para ω = σ tenemos i∈N δii = 1 que est´a multiplicado por sgn ω. De aqu´ı, 4.14 y 4.15 dan una nueva prueba de 4.13.
Ejercicio 83
⎛ ⎞ Haga la mutiplicaci´on de matrices del µ ¶ 0 0 1 11 12 13 ⎝ recuadro a la derecha. ¿La matriz de que permutaci´on es 1 0 0 ⎠ 21 22 23 la de m´as a la derecha? ¿Concuerdan o no sus c´alculos 0 1 0 con el resultado 4.15? Denotemos M (ω) = IN ω (N ) . No es dif´ıcil probar que M (σ ◦ ω) = M (σ) M (ω) y que ¡ cualquier ¢ matriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL KN es un morfismo ¡ ¢de grupos que es inyectivo. Esto significa que las matrices de permutaciones son un subgrupo de GL KN que es isomorfo a SN . Esto es v´alido para cualquier campo K.
4.3 Expansi´on de Laplace En esta secci´on encontraremos una descomposici´on de los determinantes como una com binaci´on lineal de determinantes de matrices m´as peque˜nas. Despu´es veremos dos importan tes consecuencias de esta expansi´on: que los determinantes son funcionales multilineales y que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero. Cambios de ´ındices Sea αMN y φ : N → L una biyecci´on. Podemos construir una matriz βML = αMφ(N) por la f´ormula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). A esta operaci´on la llamaremos cambio de ´ındices de las columnas de la matriz αMN mediante la biyecci´on
Secci´on 4.3
Expansi´on de Laplace
115
φ. De la misma manera se definen los cambios de ´ındices de los renglones. Observese que las permutaciones de las columnas y los renglones son un caso particular de los cambios de ´ındices ya que una permutaci´on no es m´as que una biyecci´on de un conjunto en si mismo. Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci den. A este n´umero com´un se le llama orden de la matriz. Necesitaremos los cambios de ´ındices para definir los determinantes de las matrices cuadradas. As´ı, si φ : N → M es una biyecci´on entonces, podr´ıamos definir det αMN = det αMφ(N) . El u´ nico “pero” es que, en principio, esta definici´on no solo depende de la matriz αNM sino tambi´en de la biyecci´on φ. El cuanto depende esta definici´on de φ lo responde la siguiente proposici´on. Si φ y ϕ son dos biyecciones N¢en M enton ¡ de −1 ces, det αMφ(N) = sgn φ ◦ ϕ det αMϕ(N) .
Prueba. Observese que θ = φ ◦ ϕ−1 es una permutaci´on de M y que las matrices αMφ(N) y αMϕ(N) solo se diferencian en la permutaci´on de las columnas θ. Apl´ıquese 4.13. No podemos poner la conclusi´on de este resultado como sgn φ det αMφ(N) = sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de las dos tiene signo. Como el signo de cualquier permutaci´on es o 1 o −1 esto quiere decir que el determi nante det αNM est´a definido “salvo signo” o sea, que hay un elemento a ∈ K tal que el determinante es a o es −a. En un campo de caracter´ıstica dos esto es irrelevante ya que en este caso 1 = −1. Sin embargo en los casos m´as importantes (R y C) de que el campo sea de caracter´ıstica diferente de dos tenemos una ambig¨uedad al definir el determinante det αNM . Esta ambig¨uedad se resuelve en diferentes casos de varias maneras. En muchos casos no nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN = 0. Si este es el caso entonces, en realidad no nos importa que biyecci´on se escogi´o para calcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular si det αMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o no singular NO depende de la biyecci´on escogida para definir det αMN . Otro ejemplo, es que si una matriz tiene una columna o rengl´on nulo entonces su determinante es cero. En otros casos lo importante no es el valor de alg´un determinante sino una igualdad entre estos. Al cambiar los ´ındices en ambos lados de la igualdad los determinantes cambian en el mismo signo y la igualdad es cierta independientemente de los cambios de ´ındices escogidos. Por ejemplo, las igualdades det αMN = det αTMN y det (αLM βMN ) = det αLM det βMN son v´alidas independientemente de los cambios de ´ındices usados para definir los determinantes. ¡
¢
Ejercicio 84 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω, θ. [181] En otros casos hay una biyecci´on natural que nos dice cual debe ser el valor de det αMN .
Cap´ıtulo 4. Determinantes
116
Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso podemos siempre escoger la u´ nica biyecci´on que conserva el orden. Por ejemplo si N = {2, 3, 7} y M = {1, 4, 5} entonces la biyecci´on adecuada es 2 → 1, 3 → 4, 7 → 5.
¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero? Primero, a veces se necesita el valor del signo del determinante y segundo ¿que quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en el campo est´a dada una relaci´on de orden. Este es el caso de R pero no el de Zp ni el de C.
En muchos de los textos de a´ lgebra lineal esta ambig¨uedad se resuelve postulando que los conjuntos de ´ındices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino que tambi´en hace la exposici´on m´as compleja y conceptualmente menos clara. Por ejemplo, las matrices de cambio de bases est´an naturalmente indexadas por conjuntos de vectores que no poseen un orden natural. M´as a´un, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar los renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeraci´on.
Complementos algebraicos Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo es m´as f´acil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de la matriz αNN eliminando el rengl´on i y la columna j. ¿Habr´a una manera natural de definir el determinante de αN\i N\j ?. Veremos que si. Sea ϕ : N\j → N\i. una biyecci´on cualquiera. Podemos definir ϕ (j) = i y de esta manera ϕ se convierte en una permutaci´on de N. Definamos el de sgn ϕ det αN\i ϕ(N\j) terminante det αN\i N\j con la expresi´on del recuadro a la derecha. Parecer´ıa que no hemos hecho nada ya que en principio esta definici´on depende de ϕ. La expresi´on sgn ϕ det αN\i ϕ(N\j) no depende de ϕ. Prueba. Sea ω otra permutaci´on de N tal que ω (j) = i. Aqu´ı hay que tener cuida do. Por un lado ω es una biyecci´on de N\j en N\i y por otro es una permutaci´on de N. Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones de N las denotaremos en esta on por ω ^ yϕ ^ respectivamente. Por 4.16 tenemos que det αN\i ω(N\j) = ¡ demostraci´ ¢ sgn ω ◦ ϕ−1 det αN\i ϕ(N\j) . Observese que ω◦ϕ−1 es una permutaci´on de N\i. ¿Que pasa de ¢N\i coincide con ω◦ϕ−1 y adem´as ω◦ ^ ϕ ^ −1 (i) = i. con ω◦ ^ ϕ ^ −1¡? Pues, en¢ todo elemento ¡ Luego sgn ω ◦ ϕ−1 = sgn ω ^ ◦ϕ ^ −1 y por las propiedades de la funci´on signo se tiene ¡ ¢ −1 que sgn ω ^ ◦ϕ ^ ^ sgn ϕ ^ det αN\i ϕ(N\j) y = sgn ω ^ sgn ϕ. ^ Luego det αN\i ω(N\j) = sgn ω pasando sgn ω ^ al otro lado de la igualdad terminamos la prueba. Ahora, podemos dar la siguiente definici´on. Si αij es una entrada de la matriz A = αNN entonces el complemento algebraico de αij es α∗ij = sgn ω det αN\i ω(N\j) donde ω es cualquier permutaci´on de N tal que ω (j) = i. A los complementos algebraicos tambi´en se les llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij es la matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .
Secci´on 4.3
Expansi´on de Laplace
117
La expansi´on de un determinante por sus renglones Teorema de Expansi´on de Laplace Sea αiN un rengl´on arbitrario de la matriz αNN . El determinante de αNN es igual a la suma de las entradas del rengl´on por sus cofactores.
det αNN = αiN α∗iN =
i→ j σ∈ SN
αij α∗ij
j∈N
Prueba. Si i ∈ N entonces tenemos la partici´on del grupo sim´etrico en el recuadro a la derecha donde Si→j = {σ ∈ SN | σ (i) = j} . Luego, aplicando la N definici´on de determinante y sacandoX factor com´ Y Xun obtenemos det αNN = αij sgn σ αnσ n j∈N
X
[
Si→j N
j∈N
n∈N\i
Sea ω una permutaci´on de N tal que ω (j) = i. Hagamos el cambio de variable ρ = ω◦σ en la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i = SN\i . Luego, X X Y N X αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ij det αNN = j∈N
ρ∈ SN \ i
n∈N\i
j∈N
donde la u´ ltima igualdad se obtiene por la definici´on de α∗ij . Como es natural hay un teorema exactamente igual a este correspondiente a las columnas. La expansi´on de Laplace en forma gr´afica
El Teorema de expansi´on de Laplace es la primera herramienta (aparte de la definici´on) de que disponemos para calcular determinantes. Este reduce el problema a calcular varios determinantes de matrices m´as peque˜nas. Es especialmente u´ til cuando hay renglones (o columnas) con muchos ceros. Sin embargo, todav´ıa debemos precisar el como calcular los cofactores en forma gr´afica. Si bien, la definici´on de estos es sencilla necesitamos encontrar una biyecci´on simple de N\i en N\j que facilite los c´alculos cuando N est´a ordenado o sea N = {1, ..., n}. Sea por ejemplo i = 2 y j = 7. En este caso la biyec 1 3 4 5 6 7 8 ... n ci´on natural de N\2 en N\7 es la que se muestra en el ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ recuadro a la izquierda y la llamaremos ϕ. Tenemos que 1 2 3 4 5 6 8 ... n definir ϕ (2) = 7 para completar una permutaci´on de N. Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos los dem´as elementos de N. Luego, ϕ es un ciclo de longitud j − i + 1 (si i > j entonces es un ciclo de longitud i − j + 1). ⎞ Como todo ciclo de longitud par tiene signo negativo y todo de ⎛ + − + − i+j longitud impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜ − + − + ⎟ ⎟ que es muy sencillo ya que es la “regla del tablero de ajedrez”. A ⎜ ⎝ + − + − ⎠ la derecha se muestra el sgn ϕ para una matriz con 4 renglones y − + − + columnas. Observese el parecido con el tablero.
118
Cap´ıtulo 4. Determinantes
Con estas permutaciones, los complementos algebraicos tienen una interpretaci´on gr´afi ca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces t´achese el ⎛ ⎞ rengl´on i, t´achese la columna j, s´aquese el determinan te de la matriz que queda y finalmente multipl´ıquese α11 α12 α13 α14 ⎜ α21 α22 α23 α24 ⎟ por el signo de la regla del tablero de ajedrez. As´ı por ⎟ − det ⎜ ⎝ α31 α32 α33 α34 ⎠ ejemplo, en el recuadro a la izquierda se muestra una matriz de orden cuatro en la cual estamos calculando el α41 α42 α43 α44 complemento algebraico de α23 . Al matem´atico y f´ısico PierreSimon Laplace (Francia 17491827) se le conoce fundamentalmente por sus trabajos en mec´anica celeste, ecuacio nes diferenciales y teor´ıa de las probabilidades. El public´o la demostraci´on del Teorema de Expansi´on de Laplace (4.18) en 1772 en un art´ıculo donde estudiaba las o´ rbitas de los planetas interiores del sistema solar. En este art´ıculo, Laplace analiz´o el problema de soluci´on de sistemas de ecuacio nes lineales mediante el uso de determinantes.
Ejercicio 85 T´ome una matriz y calcule su determinante usando el teorema de descompo sici´on de Laplace. Repita hasta que usted est´e satisfecho. Ejercicio 86 Demuestre que el determinante de la matriz αij = xi−1 j es igual a la expresi´on en el recuadro a la derecha. A este determinante se le conoce como determinante de Vandermonde. [181]
Y
(xj − xi )
1≤i
La expansi´on de Laplace reduce el c´alculo del determinante de una matriz al c´alculo de determi nantes de matrices m´as peque˜nas. Por esto es tambi´en usada para dar la definici´on de determinante mediante inducci´on. En este caso, la f´ormula de Leibniz es una consecuencia de esta definici´on.
Multinearidad de los determinantes El determinante se puede ver como una funci´on del espacio de matrices en el cam ¶ po. ¿Ser´a el determinante una TL? ¿Se cumplir´a que det (A + B) = µ 1 0 A= det A+det B? La respuesta es NO. Para probar que no, basta ver un ejem µ 0 0 ¶ plo. Consideremos las matrices A y B definidas a la izquierda. Tenemos 0 0 det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes B= 0 1 cumplen una propiedad bastante parecida. Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio nales lineales del espacio E. En esta terminolog´ıa vemos que la propiedad det (A + B) 6= det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es pacio vectorial de las matrices. Pasemos a considerar una funci´on f con valor en K de dos variables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7→ f (x, y) ∈ K. Como E2 es un espacio vectorial sobre K entonces podr´ıa suceder que f sea un funcional lineal.
Secci´on 4.3
Expansi´on de Laplace
119
Sin embargo, hay una propiedad un poco m´as sutil que podr´ıa cumplir la funci´on f y es que sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple que f (a + b, y) = f (a, y) + f (b, y) y f (λa, y) = λf (a, y). An´alogamente, se define la propiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variables entonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables). Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso nos referiremos a los funcionales multilineales. M´as rigurosamente, sea f : EN → K una funci´on donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensar a f como una funci´on de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la funci´on E 3 x 7→ f (y, x) ∈ K es un funcional lineal entonces, diremos que f es lineal en la variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables. Por ejemplo, la funci´on f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La funci´on g : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x + x0 ) yz = xyz + x0 yz y tambi´en para las otras variables. Observese que f no es multilineal y que g no es lineal. Ahora queremos ver que los determinantes son funcionales multilineales. El espacio de ¡ ¢N matrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz le hace corresponder la Nada de sus renglones. Luego, podemos pensar el determinante como un funcional cuyas variables son los renglones y que toma valores en el campo. El determinante es un funcional multilineal de los renglones. Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cada variable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz tal que su i´esimo rengl´on es la suma de dos Nadas xN y yN . Sea B la misma matriz que A excepto que su i´esimo rengl´on es xN . Sea C la misma matriz que A excepto que su i´esimo rengl´on es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende porqu´e entonces, debe regresar al principio de esta secci´on y volver a pensar la definici´on de funcional multilineal y el porqu´e el determinante es un funcional de los renglones.) Usando la descomposici´on de Laplace por el rengl´on i obtenemos det αNN = αiN α∗iN = (xN + yN ) α∗iN = xN α∗iN + yN α∗iN = det B + det C donde la u´ ltima igualdad se cumple porque los cofactores de las matrices B y C de las entradas del rengl´on i son los mismos que los de la matriz αNN . Sea ahora A = αNN una matriz tal que su i´esimo rengl´on es λxN . Sea B la misma matriz que A excepto que su i´esimo rengl´on es xN . Usando la descomposici´on de Laplace por el rengl´on i obtenemos det αNN = αiN α∗iN = λxN α∗iN = λ det B. Por transposici´on el determinante es tambi´en un funcional multilineal de las columnas. Los determinantes son los u´ nicos funcionales multilineales de los renglones que son iguales a 1 en la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones con la permutaci´on θ. Esto permite dar una definici´on alternativa de los determinantes. El primer problema aqu´ı es demostrar la existencia del determinante.
Cap´ıtulo 4. Determinantes
120 La inversa de una matriz
Recordemos que, dada una matriz αMN decimos que βNM = α−1 MN es la matriz inversa −1 −1 de αMN si se cumple que αMN αMN = IMM y αMN αMN = INN . Mediante el isomorfismo de las matrices con las TLs concluimos que αMN y α−1 MN son la matrices de dos TLs una la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversa entonces, ella es cuadrada. Sea ϕ : N → M cualquier biyecci´on. Es f´acil ver usando la definici´on de cambio de −1 ´ındices que βNM = α−1 MN si y solo si βϕ(N)M = αMϕ(N) . O sea, cualquier cambio de ´ındices apropiado reduce el c´alculo de matrices inversas al caso en que el conjunto de columnas coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ´ındices para poder enunciar m´as f´acilmente nuestros resultados. La siguiente proposici´on nos dice que para probar que una matriz es inversa de otra es suficiente comprobar una de las dos igualdades involucradas en la definici´on. Aqu´ı, la clave es que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios de la misma dimensi´on finita. Si AB = I entonces, BA = I. Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Mediante el isomorfismo de las matrices con las TLs concluimos que f ◦ g = I. De 3.32 (p´agina 96) obtenemos que g ◦ f = I y por lo tanto BA = I. Si una matriz tiene inversa entonces ella es no singular. Adem´as, det A−1 = (det A)−1 . ¡ ¢ Prueba. Por definici´on de matriz inversa tenemos 1 = det I = det AA−1 = det A det A−1 y por lo tanto det A 6= 0 y det A−1 = (det A)−1 . Para probar que el rec´ıproco de esta afirmaci´on tambi´en es cierto, lo que haremos es construir la matriz inversa en el caso de que el determinante sea diferente de cero. Si A es una matriz no singular entonces, su inversa es la transpuesta de la matriz de sus cofactores dividida por el determinante de A.
A−1 =
A∗T det A
Prueba. Para hacer la demostraci´on lo que hay que hacer es multiplicar. Sea αMM = A y B = βMM = (det A)−1 A∗T . Tenemos βMj = (det A)−1 α∗jM y de la definici´on de pro ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj = (det A)−1 αiM α∗jM . Si i = j entonces αiM α∗jM es la expansi´on de Laplace del det A por el rengl´on i de lo que obtenemos que αiM βMj = 1.
Secci´on 4.4
La expansi´on generalizada de Laplace
121
Solo queda probar que αiM α∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que esta es la expansi´on de Laplace por el rengl´on j del determinante de la matriz C obtenida de la matriz A substituyendo el rengl´on j por el rengl´on i. Como la matriz C tiene dos renglones iguales entonces, su determinante es cero y necesariamente αiM α∗jM = 0. El determinante de un operador lineal Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f tiene por coordenadas una matriz A. Podr´ıamos definir det f = det A. Sin embargo, no nos queda claro si esta definici´on depende o no de como hallamos escogido la base. Si A y B son las matrices de f ∈ End E en dos bases entonces, det A = det B. Prueba. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente. Por la f´ormula del cambio de bases para matrices (3.23) tenemos B = γNM Aγ−1 NM donde γNM es la matriz de cambio de la base M a la base N. Tenemos ¡ ¢ −1 det βNN = det γNM αMM γ−1 NM = det γNM det αMM det γNM = det αMM ya que por 4.21 la igualdad det γNM (det γNM )−1 = 1 es cierta e independiente del cambio de ´ındices que se utilize para definir el determinante de γNM . Luego, el determinante del OL f es por definici´on del determinante de su matriz en alguna base y esto no depende de la base escogida.
4.4 La expansi´on generalizada de Laplace Ahora generalizaremos dram´aticamente el teorema de expansi´on de Laplace. Sea αNN una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos mucha escritu ra, denotemos I0 = N\I y J0 = N\J. Adem´as, denotemos por ∇IJ = det αIJ el determinante de la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de terminante est´a definido solo salvo signo. De los signos no nos preocuparemos ahora sino solo m´as adelante. Por otro lado, denotemos por ∆IJ = det αI0 J0 el determinante de la matriz cuyas columnas son las que no est´an en J y cuyos renglones son los que no est´an en I (no nos preocupemos por los signos). En estas notaciones, un sumando del Teorema de expansi´on de Laplace es de la forma ∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustar´ıa tener un teorema de expansi´on donde los subconjuntos sean de un cardinal fijo pero arbitrario. Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente ¯ proposici´on nos dice que esto realmente no es un proble φ1 (x) si x ∈ J 0 0 ma. Sean φ1 : J → I y φ2 : J → I dos biyecciones. φ (x) = φ2 (x) si x ∈ L Denotemos φ = φ1 ∪ φ2 la permutaci´on de N definida en el recuadro a la derecha.
Cap´ıtulo 4. Determinantes
122
La expresi´on sgn φ det αIφ 1 (J) det αI0 φ 2 (J0 ) no depende de las biyecciones φ1 y φ2 . Prueba. Sean ¢ϕ1 y ϕ2 otras dos biyecciones y ϕ ¡ ¡ = ϕ1 ∪ϕ ¢2 . Por 4.16 tenemos det αIφ 1 (J) = −1 0 0 sgn φ1 ◦ ϕ−1 y det α = sgn φ ◦ ϕ det α det αI0 ϕ 2 (J0 ) . Multiplicando estas Iϕ 1 (J) I φ 2 (J ) 2 1 2 dos igualdades vemos que que ¡ solo nos ¢queda¡ probar−1 ¢ ¡ ¢ −1 sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ2 = sgn φ ◦ ϕ−1 . −1 −1 Para esto, denotemos θ1 = φ1 ◦ ϕ−1 1 , θ2 = φ2 ◦ ϕ2 y θ = φ ◦ ϕ . De las definiciones es 0 inmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I . Como θ1 ∈ SI , θ2 ∈ SI0 , θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 ◦ θ2 = θ2 ◦ θ1 y esto implica la igualdad de los signos que necesitabamos. Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇ = det α IJ Iφ(J) las f´ormulas de la derecha donde φ denota una permutaci´on (ar ∆ = sgn φ det α 0 0 IJ I φ(J ) bitraria pero la misma para las dos definiciones) tal que φ (J) = I (y en consecuencia φ (J0 ) = I0 ). Esta definici´on no es correcta en el sentido de que ambos ∇IJ y ∆IJ dependen de φ. Sin embargo ∇IJ ∆IJ no depende de φ y esto es lo importante. Expansi´on Generalizada de Laplace Si I un conjunto dePp renglones de la matriz αNN en tonces, det αNN = ∇IJ ∆IJ donde la suma recorre to dos los subconjuntos de columnas J de cardinalidad p.
det αNN =
|J|=p
Prueba. Si I ⊆ N y |I| = p entonces, tenemos la partici´on del grupo sim´etrico a la derecha donde SI→J = {σ ∈ SN | σ (I) = J}. Aplicando la definici´on de N X X Y determinante obtenemos det αNN = sgn σ αnσ n |J|=p σ∈ SI → J N
X
∇IJ ∆IJ
[
SI→J N
|J|=p
n∈N
Sea φ una permutaci´on de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ ◦ σ. X X Y Entonces, det αNN = sgn φ sgn ρ αiφ − 1 (ρn ) I→I ρ∈ SN
|J|=p 0
n∈N
Como ρ (I) = I entonces, ρ (I ) = I . Luego ρ se puede descomponer en la composici´on de dos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ◦ ω la suma se convierte en suma doble y si sacamos factores comunes⎛ obtendremos: ⎞ ! Ã X X Y Y X det αNN = sgn φ sgn θ αiφ − 1 (θn ) ⎝ sgn ω αiφ − 1 (ω n ) ⎠ 0
|J|=p
θ∈ SI
n∈I
ω∈ SI 0
n∈I0
Lo contenido en el primer par´entesis es det αIφ(J) = ∇IJ . Lo contenido en el segundo par´entesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ . Como ya es costumbre tediosa, hagamos la observaci´on de que tambi´en es v´alida la Expansi´on Generalizada de Laplace cuando la hacemos por un conjunto de columnas.
Secci´on 4.4
La expansi´on generalizada de Laplace
123
Matrices diagonales y triangulares por bloques Sea αMM una matriz. Supongamos que existe una partici´on M1 ∪ · · · ∪ Mt = M y que αij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonal por bloques. Si cada Mi contiene un solo ´ındice entonces decimos que αMM es diagonal. Supongamos ahora que, para la partici´on M1 ∪ · · · ∪ Mt = M se cumple que si i ∈ Mp , j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular por bloques. Si cada Mi tiene un solo ´ındice entonces decimos que αMM es triangular. Es claro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. En particular, toda matriz diagonal es triangular. Si αMM es una matriz triangular por bloques entonces, Q det αMM = ti=1 det αM i M i .
Prueba. Haremos la prueba por inducci´on en el n´umero de bloques t. Para t = 1 la propo sici´on es trivial. Denotemos M0 = M\M1 . Aplicando la expansi´ on generalizada de Laplace P al conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ . Si J 6= I entonces, en αIJ hay una columna j ∈ / M1 y por lo tanto j ∈ Mq con 1 < q. Luego, por definici´on de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, la columna j es cero en αIJ e independientemente de la biyecci´on que se escoja para calcu lar el deteminante tenemos ∇IJ = 0. Luego, det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 . La matriz M0Q es triangular por bloques con un bloque menos y por hip´otesis de inducci´on det αM 0 M 0 = ti=2 det αM i M i .
Ejercicio 87 ¿Cuales ⎛ de las siguentes ⎞ ⎛matrices son ⎞ triangulares? ⎛
⎞ a 0 0 a 1 1 a 1 1 A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ 1 1 c 0 0 c 0 1 c
[182]
Ejercicio 88 Sean M = {1, . . . , 5} y αMM una matriz triangular por los bloques M1 =
{1, 2}, M2 = {3} y M3 = {4, 5}. ¿Cual es el aspecto de αMM en forma gr´afica? [182] La expansi´on generalizada de Laplace en forma gr´afica
Ahora, precisaremos los signos de las biyecciones en la expansi´on generalizada de La place cuando la matriz est´a dada en forma gr´afica. Como esto es u´ til solo para calcular el determinante de matrices concretas y hacerlo as´ı es por lo general extremadamente inefi ciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta secci´on. Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismo cardinal hay una biyecci´on natural que conserva el orden. Para esto, introduscamos la nota ci´on {m1 , m2 , . . . , mt }< para se˜nalar que ∀p ∈ {2, . . . , t} se tiene que ip−1 < ip . Ahora, si I = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyecci´on es φ1 : I 3 ip 7→ jp ∈ J. Tam
Cap´ıtulo 4. Determinantes
124
bi´en, tenemos una biyecci´on natural entre los complementos de I y J. Para esto sean K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< y definamos φ2 : K 3 kp 7→ `p ∈ L. Luego, para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutaci´on φJI = φ1 ∪ φ2 cumple lo necesario para calcular el signo de un sumando de la expansi´on generalizada de Laplace, o sea φJI (I) = J y φJI (N\I) = N\J. Observese, que la biyecci´on φ1 es la natural de renglones a columnas que se obtiene si en una matriz αNN tachamos todos los renglones con ´ındices en K y todas las columnas con ´ındices en L. De la misma manera φ2 es la biyecci´on de renglones a columnas si tachamos todos los renglones con ´ındices en I y todas las columnas con ´ındices en J. Calculemos el signo de φJI . Al estudiar la expansi´on (normal) de Laplace en forma gr´afica vimos que si I = {i} y J = {j} entonces, φJI = φji es (j, j − 1, · · · , i + 1, i) si j > i el ciclo que se muestra a la derecha y por lo tanto (j, j + 1, · · · , i − 1, i) si j < i sgn φji = (−1)i+j (la regla del “tablero de ajedrez”). J\j
sgn φJI = sgn φji11 sgn φI\i11 . ¡ ¢−1 J\j Prueba. Sea θ = φJI ◦ φI\i11 . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . Para esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el menor ´ındice tal que i1 < kp y sea q el menor ´ındice tal que j1 < `q (es admisible que p = s+1 y/o q = s + 1). Usando la definici´on de θ calculamos (kp , kp+1 , · · · , kq−1 , i1 ) si p < q que esta permutaci´on es igual a la del recuadro a la (kp−1 , kp−2 , · · · , kq , i1 ) si p > q izquierda. Luego, θ es siempre un ciclo de longitud I si p = q |p − q| + 1 y por lo tanto sgn θ = (−1)p+q . Como i1 y j1 son los elementos m´as peque˜nos de I y J respectivamente entonces, tenemos que {k1 , . . . , kp−1 , i1 }< = {1, . . . , p − 1, p} y {`1 , . . . , `q−1 , j1 }< = {1, . . . , q − 1, q} y de aqu´ı finalmente, p = i1 y q = j1 . Iterando este resultado obtenemos sgn φJI = sgn φji11 sgn φji22 · · · sgn φjitt . Observese que αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgn φJI lo que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez P de los elementos P en la diagonal de αIJ . Tambi´en se puede hacer, calculando la paridad de i∈I i + j∈J j. ⎛
4 ⎜ 1 ⎜ ⎝ 4 1
5 2 5 2
1 3 2 3
⎞ 1 2 ⎟ ⎟ 3 ⎠ 4
Ejemplo. Calculemos el determinante de una matriz αNN del recuadro a la izquierda haciendo la expansi´on generalizada de Laplace por el con junto I del segundo y cuarto renglones. Tenemos que recorrer todos los subconjuntos J de dos columnas.
Observese, que si la columna 4 no est´a en J entonces la matriz αIJ tiene dos renglones iguales por lo que todos los sumandos correspondientes en la expansi´on ser´an cero. Adem´as, para J = {3, 4} la matriz αN\I N\J tiene dos renglones iguales por lo que tambi´en el corres pondiente sumando es cero.
Secci´on 4.5
El rango de una matriz
125
Solo nos quedan dos sumandos cuando J = {1, 4} y cuan J = {1, 4} J = {2, 4} do J = {2, 4}. Para ellos podemos extraer del tablero de aje µ − + ¶ µ + + ¶ drez las submatrices del recuadro a la derecha y multiplican − + + + {1,4} do los signos en las diagonales obtenemos sgn φI = −1 y {2,4} sgn φI = 1. Luego, por la expansi´on generalizada de Laplace el determinante de nuestra matriz es igual a ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯ ¯ ¯¯ ¯−¯ ¯¯ ¯ ¯ 2 4 ¯¯ 4 2 ¯ ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6 donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.
4.5 El rango de una matriz En esta secci´on definiremos las bases de una matriz como las submatrices m´as grandes con determinante diferente de cero. Probaremos que las bases de una matriz definen y est´an definidas por las bases de los espacios de columnas y renglones. Esto es el fundamento de los diversos m´etodos de solucion de los sistemas de ecuaciones lineales. Matrices no singulares Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares. Caracterizaci´on de Matrices No Singulares Para cualquier matriz cuadrada A las siguientes afirmaciones son equivalentes: 1. A tiene inversa, 3. los renglones de A son LI, 2. A es no singular, 4. las columnas de A son LI. Prueba. La implicaci´on 1⇒2 es el resultado 4.21. La implicaci´on 2⇒1 es el resultado 4.22. La equivalencia 1⇔4 es el resultado 3.21 (p´agina 89). De aqu´ı, 2⇔4 y como los determi nantes no cambian por transposici´on obtenemos 2⇔3. Espacios de columnas y renglones Al subespacio de KN generado por los renglones de la matriz αMN se le llama espacio de renglones de la matriz. Aqu´ı tenemos un peque˜no problema: es posible que halla renglones iguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjunto de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de la matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de renglones lo llamaremos base de los renglones de αMN . An´alogamente se define el espacio de columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas. Reformulemos el resultado 3.30 (p´agina 95) en el lenguaje de matrices.
Cap´ıtulo 4. Determinantes
126
Las dimensiones del espacio de columnas y del espacio de renglones de una matriz coinciden. Prueba. Sea αMN una matriz. Observemos que la TL de esta matriz definida por f : KN 3 βN 7→ αMN βN ∈ KM tiene como imagen al espacio de columnas de la matriz αMN ya que f evaluada en los vectores de la base can´onica de KN resulta en las columnas de αMN . Por lo mismo, la TL transpuesta fT tiene como imagen al espacio de renglones de αMN . Por 3.30 las dimensiones de estos espacios coinciden. A la dimensi´on de los espacios de renglones y columnas se le llama rango de la matriz. Lema de aumento de matrices no singulares El siguiente lema es parte importante de las demostraciones de los que siguen. Su de mostraci´on es cl´asica e ingeniosa. Este lema es en cierta manera an´alogo al lema de aumento de conjuntos LI que vimos en el Cap´ıtulo 2. Lema de Aumento de Submatrices No Singulares Sea αIJ una submatriz cuadrada no singular de αMN . Sea m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es LI. Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular. Prueba. Denotemos Bn = αI∪m J∪n . Al absurdo, supongamos que ∀n ∈ N\J se cumple que det Bn = 0.. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artifi cialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y por lo tanto tambi´en det Bn = 0. Para cualquier n, podemos pensar la matriz Bn gr´aficamente ¶ µ como se muestra en el recuadro. Sean Bin los cofactores de las αIJ αIn entradas de la u´ ltima columna en la matriz Bn . Observemos que Bn = αmJ αmn en la definici´on de los Bin no est´an involucradas las entradas de la u´ ltima columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De la expansi´on de Laplace por la u´ ltima columna Bn obtenemos: X en la matriz X αin Bin = αin βi . 0 = det Bn = i∈M
i∈M
Como esto es v´alido ∀n ∈ N concluimos que βM αMN = 0N . Como βm = det αIJ 6= 0 esto significa que los renglones de αMN est´an en una combinaci´on lineal nula con coeficientes no todos nulos. Esto contradice la hip´otesis de que sus renglones son LI. Bases de una matriz
Sea αMN una matriz. Entre las submatrices cuadradas no singulares de αMN tenemos la relaci´on de contenci´on (αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J) Una base de αMN es una submatriz no singular maximal por contenci´on.
Secci´on 4.5
El rango de una matriz
127
Caracterizaci´on de las Bases de una Matriz Una submatriz αIJ es una base de una matriz si y solo si el con junto de renglones indexado por I es una base de los renglones y el conjunto de columnas indexado por J es una base de las columnas. ¶ µ Prueba. Sea αIJ una submatriz de αMN . Es conveniente deno αIJ αIY tar X = M \ I y Y = N \ J y pensar que αMN es de la forma en αMN = αXJ αXY el recuadro a la derecha. Supongamos que αIJ es cuadrada y que es una base de αMN . Entonces, por la Caracterizaci´on de Matrices No Singulares (4.28) los renglones y las columnas de αIJ son LI y con m´as raz´on los renglones de αIN y las columnas de αMJ son LI . Si estos renglones de αIN no son una base de los renglones de αMN entonces, existe otro rengl´on indexado por m ∈ X tal que el conjunto de renglones indexado por I ∪ m es LI y por el Lema de Aumento de Submatrices No Singulares (4.30) existe n ∈ Y tal que αI∪m J∪n es no singular y esto contradice la suposici´on de que αIJ es una base. Luego, los renglones de αIN son una base de los renglones y por 4.29 las columnas de αMJ son una base del espacio de columnas. Rec´ıprocamente, supongamos que los renglones de αIN y las columnas αMJ son bases de los renglones y las columnas de αMN respectivamente. Por 4.29, la submatriz αIJ es cuadrada. Sabemos que los renglones de αIN son LI. Las columnas de αMJ es un generador del espacio de columnas de αMN y con m´as raz´on las columnas de αIJ son un generador del espacio de columnas de αIN . Aplicando 4.29 a la matriz αIN obtenemos que las columnas de αIJ son un generador con la misma cantidad de vectores que la dimensi´on del espacio y por lo tanto son LI. Por la Caracterizaci´on de Matrices No Singulares (4.28) la matriz αIJ es no singular. Si hubiera una submatriz αI∪m J∪n no singular entonces por la Caracterizaci´on de Matri ces No Singulares (4.28) sus renglones ser´ıan LI y con m´as raz´on los renglones de αI∪m N ser´ıan LI. Esto contradice que los renglones de αIN es una base de los renglones de αMN . Luego, αIJ es una base de la matriz αMN . Una consecuencia importante de la Caracterizaci´on de las Bases de una Matriz (4.31) es que todas las bases de una matriz tienen orden igual al rango de la matriz.
Ejercicio 89 Sean E = F ⊕ G espacios vectoriales y xi = (yi , zi ) vectores donde xi ∈ E,
yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si los xi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba de la Caracterizaci´on de las Bases de una Matriz (4.31) cada vez que se usa la frase “con m´as raz´on”.
Cap´ıtulo 4. Determinantes
128
4.6 Sistemas de ecuaciones lineales Sea A = αNM una matriz y xM = xM1 una columna. El producto X de estas matrices es nuevamente una columna αNM xM1 = bN1 = bN . Si αij xj = bi desarrollamos este producto por la definici´on de producto de matrices en j∈M tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha. Como ya es usual podemos interpretar la columna xM como un vector x en el espacio vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se escribe en una forma m´as simple Ax = b. Supongamos que A es una matriz fija. Si hacemos variar x en KN entonces esta igualdad la podemos pensar como una TL de KM en KN . Como es l´ogico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax. M´as dif´ıcil es el problema inverso, si se conoce b entonces, ¿como hallar x tal que Ax = b? A una igualdad de la forma Ax = b donde A y b son conocidos y x es inc´ognita se le llama sistema de ecuaciones lineales. ¡Oh, gran confusi´on! ¿porqu´e sistema? ¿por qu´e ecuaciones en plural si nada m´as tenemos UNA?. La respuesta a estas preguntas no es gran misterio, es un problema hist´orico. Cuando sobre la faz de la Tierra a´un no viv´ıan las matrices y los vectores, los humanos P necesitaban encontrar unos numeritos xj tales que para cualquier i ∈ N se cumpla que j∈M αij xj = bi . Obs´ervese que se necesitan encontrar |M| numeritos. En el caso de que |N| = 1 se dec´ıa que tenemos que resolver una ecuaci´on lineal. Para el caso |N| > 1 los numeritos xj deber´ıan de cumplir todas y cada una de las ecuacio nes (para cada i ∈ N) y entonces, se dec´ıa que se necesitaba resolver un sistema (conjunto, colecci´on, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho, para acercarnos m´as a la verdad, debemos substituir en todo lo dicho los “se dec´ıa” por “se dice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales: ¨ Tenemos que encontrar |M| elementos del Pcampo xj tales que para cualquier i, se cumple la igualdad j∈M αij xj = bi , ¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.
Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que encontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma hace que nuestra manera de pensarlo sea mucho m´as simple y sistem´atica (a costo de aprender sobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entonces multiplicando por A−1 a la izquierda obtenemos Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 b y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluci´on del sistema de ecuaciones lineales est´a a la mano. Esto no significa que ya sepamos resolver todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se necesita primero que sea cuadrada y que adem´as el determinante sea diferente de cero. Regla de Cramer Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz del sistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos por A (j) la
Secci´on 4.6
Sistemas de ecuaciones lineales
129
matriz obtenida de la matriz del sistema substituyendo la j´esima columna por el vector de coeficientes libres. Un ejemplo de esta substituci´on es el siguiente ¶ µ ¶ µ ¶ µ 1 7 3 7 1 2 3 . , A (2) = , b= A= 4 8 6 8 4 5 6 Regla de Cramer Si la matriz A es no singular entonces, la j´esima coordenada xj del vector x es igual al determi nante de A (j) dividido entre el determinante de A.
xj =
det A (j) det A
Prueba. Sea αNM es una matriz no singular. Ya observamos que en este caso necesariamente −1 x = α−1 NM b. Denotemos por βij las entradas de αNM entonces, tenemos xj = βjN bN . Por 4.22 tenemos que βjN = α∗Nj / det αNM y de aqu´ı xj det αNM = bN α∗Nj . Para terminar la demostraci´on basta observar que la expresi´on a la derecha de la igualdad es la expansi´on de Laplace de A (j) por la columna j. Gabriel Cramer (Suiza 17041752) public´o su famosa regla en el art´ıcu lo “Introducci´on al an´alisis de las curvas algebraicas” (1750). Esta sur gi´o del deseo de Cramer de encontrar la ecuaci´on de una curva plana que pasa por un conjunto de puntos dado. El escribe su regla en un ap´endice del art´ıculo y no da prueba alguna para ella. Este es uno de los or´ıgenes hist´oricos del concepto de determinante. Es curioso (y educativo) ver con que palabras Cramer formula su regla: “Uno encuentra el valor de cada indeterminada formando n fracciones el com´un denominador de las cuales tiene tantos t´erminos como las permutaciones de n cosas.” Cramer contin´ua explicando como se calculan estos t´erminos como productos de ciertos coeficientes de las ecuaciones y como se determina el signo. El tambi´en se˜nala como los numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los denominadores por los coeficientes libres del sistema. Para nosotros, con m´as de dos siglos de ventaja, es mucho m´as f´acil. Las “n fracciones” son det A (j) / det A y el “com´un denominador” es det A (que tiene tantos sumandos como las permutaciones de n cosas). La Regla de Cramer (4.32) tiene fundamentalmente un inter´es hist´orico por ser uno de los or´ıgenes del concepto de determinante. Es necesario recalcar que esta regla solo funciona para el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistema no es nulo.
Cap´ıtulo 4. Determinantes
130 Existencia de soluciones
Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas: ¨ ¿Existe una soluci´on? ¨ ¿Como encontrar una soluci´on en el caso de que exista? ¨ ¿Como encontrar TODAS las soluciones? La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no singular: la soluci´on existe, es u´ nica y se halla por la Regla de Cramer. Ahora responderemos en general la primera pregunta. Primero, una definici´on. Si Ax = b es un sistema de ecuaciones lineales entonces la matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matriz del sistema a˜nadiendo el vector columna de coeficientes libres b. Teorema de Existencia de Soluciones El sistema Ax = b tiene una soluci´on si y solo si el rango de la matriz del sistema coincide con el rango de la matriz ampliada. Prueba. Por definici´on de rango de una matriz siempre se tiene que rank A ≤ rank (A|b) . Que coincidan es equivalente por la Caracterizaci´on de las Bases de una Matriz (4.31) a que b sea combinaci´on lineal de las columnas de A. El que b sea combinaci´on lineal de las columnas de A es equivalente a la existencia de escalares xj tales que αiN xN = bi o sea a que Ax = b tenga al menos una soluci´on. Eliminaci´on de ecuaciones dependientes Lema de Eliminaci´on de Ecuaciones Dependientes Sea I el conjunto de ´ındices de una base de renglones de la ma triz ampliada (αMN |bM ). Entonces, el conjunto de soluciones de αMN xN = bM es exactamente el mismo que el de αIN xN = bI . Prueba. Como αMN xN = bM tiene m´as ecuaciones que αIN xN = bI entonces cada solu ci´on de αMN xN = bM es soluci´on de αIN xN = bI . Rec´ıprocamente, sea xN tal que αIN xN = bI y m ∈ M\I. El rengl´on (αmN |bm ) es com binaci´on lineal de los indexados por I. Luego existen escalares λi tales que αmN = λI αIN se cumplen las igualdades a la derecha. Multiplicando la primera igualdad bm = λI bI por xN y usando la definici´on de xN obtenemos αmN xN = λI αIN xN = λI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN . Otra manera, m´as algor´ıtmica, de ver este lema es que si tenemos un sistema de ecua ciones αMN xN = bM y un rengl´on de este sistema es combinaci´on lineal de los dem´as
Secci´on 4.6
Sistemas de ecuaciones lineales
131
entonces, debemos eliminar la ecuaci´on correspondiente a este rengl´on. El Lema de Eli minaci´on de Ecuaciones Dependientes (4.34) nos garantiza que esta operaci´on no altera el conjunto de soluciones. Repitiendo esta operaci´on una cierta cantidad de veces, obtenemos una matriz ampliada con renglones LI. El nucleo y la imagen de una matriz Sea αMN una MNmatriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈ KM . Luego, podemos definir la imagen de la matriz αMN como Im αMN = Im f y el nucleo de la matriz αMN como ker αMN = ker f. Pasemos ahora a analizar la imagen. Por definici´on de imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. O sea, Im αMN es el conjunto de vectores βM tales que el sistema P de ecuaciones lineales αMN xN = βM tiene al menos una soluci´on. Tenemos αMN xN = i∈N αMi xi que es una combinaci´on lineal de las columnas. Luego, Im αMN es el subespacio generado por las columnas de la matriz αMN . Adem´as, si γN es una soluci´on de αMN xN = βM entonces, 3.33 (p´agina 97) nos dice que el conjunto de todas sus soluciones es el subespacio af´ın γN + ker αMN . Resumamos todo lo dicho en 4.35 para referencias futuras. ¨ El subespacio ker αMN es el conjunto de soluciones de αMN xN = 0M . ¨ El subespacio Im αMN es el generado por las columnas de αMN . ¨ Si γN es una soluci´on de αMN xN = βM entonces, el conjunto de todas sus soluciones es el subespacio af´ın γN + ker αMN . Bases del subespacio af´ın de soluciones Ahora daremos la soluci´on general de los sistemas de ecuaciones lineales. Sea αMN xN = bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema αMN tiene el mismo rango que la matriz ampliada [αMN |bM ] porque si no entonces, el conjunto de soluciones es vac´ıo. Segundo, podemos suponer que la matriz ampliada [αMN |bM ] tiene renglones linealmente independientes porque si no, entonces podemos descartar aquellos que son combinaci´on lineal de otros. Luego existe un conjunto de columnas J ⊆ M tal que αMJ es una base de la matriz ampliada [αMN |bM ]. Denotando por Y al conjunto de columnas que no est´an en la base po αMJ xJ + αMY xY = bM demos representar nuestro sistema de ecuaciones lineales como se muestra en el recuadro a la izquierda. Aqu´ı las inc´ognitas xJ y xY son aquellas que se corresponden con las columnas en J y Y respectivamente. Por ejemplo, en el sistema de ecuaciones 2x1 + 1x2 + 1x3 + 0x4 = 5 3x1 + 2x2 + 0x3 + 1x4 = 5 podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y
Cap´ıtulo 4. Determinantes
132
cuarta columnas. Luego a este sistema lo podemos escribir como µ ¶µ ¶ µ ¶µ ¶ µ ¶ 2 1 x1 1 0 x3 5 + 0 1 = 5 . 3 2 x x 2
4
Ahora, como la matriz αMJ tiene inversa, lo que hacemos es simplemente despejar xJ y bM − α−1 αMY xY . En nuestro ejemplo obtenemos obtenemos xJ = α−1 µMJ ¶ µ MJ¶ µ ¶µ ¶ µ ¶ x1 5 2 −1 x3 2x3 − x4 + 5 = −5 + −3 2 = −3x + 2x − 5 x x 2
4
3
4
Esto describe en forma ¡par´am´etrica el conjunto de¢todas las soluciones, para cualquier −1 vector xY hay una soluci´on α−1 MJ bM − αMJ αMY xY , xY del sistema. Otra manera de descri bir el conjunto soluci´on es ponerlo en la forma descrita en 4.35. Para encontrar una soluci´on ponemos xY = 0 y en nuestro ejemplo el vector soluci´on es (5, −5, 0, 0). Para encontrar el nucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del nucleo recorremos con xY a la base can´onica de KY . En nuestro ejemplo (x3 , x4 ) = (1, 0) ⇒ (x1 , x2 ) = (7, −8) (x3 , x4 ) = (0, 1) ⇒ (x1 , x2 ) = (4, −3) y finalmente obtenemos que el conjunto de soluciones (x1 , x2 , x3 , x4 ) es el subespacio af´ın (5, −5, 0, 0) + ρ (1, 0, 7, −8) + τ (0, 1, 4, −3) donde ρ y τ son escalares cualesquiera.
4.7 M´etodo de eliminaci´on de Gauss La idea del m´etodo de eliminaci´on de Gauss es realizar ciertas transformaciones de las matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras con muchas entradas iguales a cero. Este es el m´etodo m´as universal y eficiente (al menos manualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas, etc. Aqu´ı, estudiaremos brevemente este m´etodo. Transformaciones elementales Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el rengl´on αjN por la Nada βjN . A la operaci´on que dados αMN , i, j y λ obtenemos βMN se le llama transformaci´on elemental de los renglones. Otra manera u´ til de pensar las transformacio nes elementales de los renglones es que en la matriz αMN al rengl´on αjN le sumamos el rengl´on αiN multiplicado por λ. De forma an´aloga, se definen las transformaciones ele mentales de las columnas. Una transformaci´on elemental es de renglones o de columnas. Las transformaciones elementales no cambian los determinantes. Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el rengl´on indexado
Secci´on 4.7
M´etodo de eliminaci´on de Gauss
133
por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante es un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como la matriz γMM tiene dos renglones iguales entonces, det βMM = det αMM . La prueba termina al recordar que el determinante no cambia por transposici´on de la matriz. Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus submatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacio af´ın soluci´on de un sistema de ecuaciones lineales. Para las transformaciones elementales de los renglones la situaci´on es diferente. Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af´ın soluci´on de un sistema de ecuaciones lineales. Prueba. Sea αMN xN = bM un sistema de ecuaciones lineales. Sea βMN xN = cM otro sistema que se diferencia solo en la ecuaci´on j para la cual se tiene βjN = λαiN + αjN y cj = λbi + bj . Si γN es una soluci´on del primer sistema entonces, βjN γN = λαiN γN + αjN γN = λbi + bj = cj por lo que γN es una soluci´on del segundo sistema. Si γN es una soluci´on del segundo sistema entonces, αjN γN = βjN γN − λαiN γN = cj − λbi = bj por lo que γN es una soluci´on del primer sistema. Ejemplo El m´etodo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmo programable en una computadora. Pero como tratamos de ense˜nar a humanos y no a compu tadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y a la imitaci´on de ejemplos el como aplicar las transformaciones elementales. La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuaciones lineales. Despues de las 4 transformaciones elementales de los renglones que se muestran obtenemos la matriz de abajo a la derecha. La soluci´on del sistema de esta u´ ltima es obvia. Ã
1 1 0 2 3 4 3 3 1
¯ ! ¯ 3 ¯ 2 ¯ ¯ 1
r 2 :=r 2 −2r 1
Ã
1 1 0 0 1 4 3 3 1
r 2 :=r 2 −4r 3
Ã
1 1 0 0 1 0 0 0 1
−→ −→
¯ ! ¯ 3 ¯ −4 ¯ ¯ 1 ¯ ! ¯ 3 ¯ 28 ¯ ¯ −8
r 3 :=r 3 −3r 1
−→
r 1 :=r 1 −r 2
−→
Ã
1 1 0 0 1 4 0 0 1
Ã
1 0 0 0 1 0 0 0 1
¯ ! ¯ 3 ¯ −4 ¯ ¯ −8
¯ ! ¯ −25 ¯ 28 ¯ ¯ −8
Aqu´ı las transformaciones elementales realizadas est´an marcadas en las echas. Por ejemplo, la primera es r2 := r2 − 2r1 lo que significa que al segundo rengl´on le sumamos el primero multiplicado por −2. Observese que despu´es de dos transformaciones ya vemos que el de terminante de la matriz del sistema es 1 porque en una matriz triangular el determinante es el producto de las entradas diagonales.
Cap´ıtulo 4. Determinantes
134 El caso general
Para el c´alculo de los determinantes no hay mucho m´as que decir. Podemos utilizar trans formaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada en matriz triangular. Si en el proceso nos aparece un rengl´on o columna cero entonces el deter minante es cero. Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y so lo podemos realizar transformaciones elementales de los renglones. Podemos adem´as multi plicar un rengl´on por un escalar porque esto no afecta la ecuaci´on correspondiente al rengl´on. Si nos aparece un rengl´on cero podemos descartarlo como combinaci´on lineal de los otros. Si nos aparece un rengl´on que es cero en la matriz del sistema pero su coeficiente libre no es cero entonces el sistema no tiene soluci´on porque el rango de la matriz ampliada es mayor que el rango de la matriz del sistema. Finalmente, si en alg´un momento nos aparece una configuraci´on del tipo ¯ ⎛ ⎞ a ∗ ··· ∗ ∗ ∗ ¯¯ ∗ ⎜ 0 b ··· ∗ ∗ ∗ ¯ ∗ ⎟ ⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠ ¯ 0 0 ··· c ∗ ∗ ¯ ∗ donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base de la matriz y tenemos m´as inc´ognitas que ecuaciones. En este caso debemos seguir diagonali zando la parte correspondiente a las primeras columnas hasta obtener ¯ ⎞ ⎛ 1 0 ··· 0 ∗ ∗ ¯¯ ∗ 1 ··· 0 ∗ ∗ ¯ ∗ ⎟ ⎜ 0 ⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠. ¯ 0 0 ··· 1 ∗ ∗ ¯ ∗
Para este sistema procedemos como en la secci´on anterior y pasamos restando las inc´ognitas que sobran como par´ametros hacia la parte derecha del sistema de ecuaciones. Tomemos el mismo ejemplo de la secci´on anterior µ
2 1 1 0 3 2 0 1
¯ ¶ ¯ ¯ ¶ ¶ µ µ r −r ¯ 5 r2 :=3r2 −2r1 r 1 := 1 2 2 2 1 1 0 ¯¯ 5 1 0 2 −1 ¯¯ 5 ¯ −→ −→ ¯ 5 0 1 −3 2 ¯ −5 0 1 −3 2 ¯ −5
y por lo tanto la soluci´on de este sistema es x1 = 5 − 2x3 + x4 y x2 = −5 + 3x3 − 2x4 donde x3 y x4 pueden tomar cualquier valor. Aqu´ı es cuando el lector se preguntar´a ¿Para qu´e diagonalizar la primera y segunda co lumna si ya la tercera y cuarta est´an en forma diagonal? Pues tiene toda la raz´on, simplemente est´a escogiendo otra base de la matriz. La soluci´on del sistema se obtiene directamente de la matriz ampliada original en la forma x3 = 5 − 2x1 − x2 y x4 = 5 − 3x1 − 2x2 donde x1 y x2 pueden tomar cualquier valor. Que es mejor es cuesti´on de gustos u otras necesidades. Por ejemplo, si se necesita substituir x1 y x2 en otras f´ormulas entonces, la mejor soluci´on es la primera. Si por el contrario se necesita substituir x3 y x4 en otras f´ormulas entonces, la mejor soluci´on es la segunda.
Secci´on 4.7
M´etodo de eliminaci´on de Gauss
135
Soluci´on de ecuaciones matriciales, matriz inversa Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 , . . . , αMN xN` = bM` todos con la misma matriz del sistema αMN entonces, podemos denotar L = {1, . . . , `} y escribirlos todos en la forma αMN xNL = bML . Esta ecuaci´on matricial tiene la matriz ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminaci´on de Gauss para resolver todos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminaci´on de Gauss no se reordenan columnas y solo se aplican transformaciones elementales a los renglones, as´ı que no nos importa cuantas columnas halla despu´es de la barra vertical. En particular, si M = N entonces, la u´ nica soluci´on posible (si existe) a la ecuaci´on matricial αMM xMM = IMM ser´ıa xMM = α−1 etodo de MM . Esta es la forma en que con el m´ eliminaci´on de Gauss se calculan las matrices inversas. Por ejemplo: ¯ ! ¯ 1 0 0 ¯ 0 1 0 ¯ ¯ 0 0 1 ¯ Ã ! 1 1 0 ¯ 1 0 0 ¯ 0 1 0 ¯ 10 1 −4 0 0 1 ¯ −3 0 1
Ã
1 1 0 2 3 4 3 3 1
y por lo tanto
Ã
1 1 0 2 3 4 3 3 1
r 2 :=r 2 −2r 1
−→
r 3 :=r 3 −3r 1
r 1 :=r 1 −r 2
!Ã
−→
Ã
1 1 0 0 1 4 0 0 1
Ã
1 0 0 0 1 0 0 0 1
−9 −1 4 10 1 −4 −3 0 1
!
=
¯ ! ¯ 1 0 0 ¯ −2 1 0 ¯ ¯ −3 0 1
r 2 :=r 2 −4r 3
−→
¯ ! ¯ −9 −1 4 ¯ 10 1 −4 ¯ ¯ −3 0 1
Ã
1 0 0 0 1 0 0 0 1
!
.
Ejercicio 90 Tome un sistema de ecuaciones lineales y resuelvalo por el m´etodo de elimi naci´on de Gauss. Rep´ıta cuantas veces le sea necesario. No est´a de m´as recalcar aqu´ı que el m´etodo de eliminaci´on de Gauss funciona en espacios vectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hay que realizar las operaciones de suma, producto y divisi´on como est´an definidas en el campo en particular.
136
Capítulo quinto
Descomposición de Operadores Lineales ay dos teoremas que son muy conocidos por el lector y que son muy parecidos. El primero es que todo n´umero natural se descompone de forma u´ nica salvo orden de los factores en producto de n´umeros primos. El segundo es que todo polinomio se des compone de forma u´ nica salvo orden de los factores en producto de polinomios irreducibles. Para los operadores lineales hay un teorema parecido todo operador lineal se descompone en suma directa de OLs irreducibles, el “tipo” de tal descomposici´on es u´ nico. En este cap´ıtulo daremos la demostraci´on de este teorema y lo que es m´as importante, encontraremos cuales son todos los OLs irreducibles de un espacio vectorial de dimensi´on finita.
5.1 Suma directa de operadores lineales Recordemos que el acr´onimo OL significa para nosotros un operador lineal, o sea una transformaci´on lineal de un espacio en si mismo. Con otras palabras, un endomorfismo del espacio. Usaremos sistem´aticamente este acr´onimo. Sin embargo, al conjunto de todos los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que el conjunto End (E) es un a´ lgebra para la suma de funciones, la multiplicaci´on por escalares y la compo sici´on de OLs. El conjunto End (E) contiene el neutro para la suma que es el operador lineal O que a cualquier vector le hace corresponder el vector 0. Tambi´en contiene al neutro para la composici´on de funciones I que es la identidad I (a) = a. En este cap´ıtulo todos los espacios vectoriales ser´an de dimensi´on finita. Si f : E → E y g : F → F son dos OLs entonces, a la funci´on f ⊕ g : E ⊕ F 3 (a, b) 7→ (f (a) , g (b)) ∈ E ⊕ F se le llama suma directa de los OLs f y g. Es f´acil comprobar que la suma directa de dos OLs es un OL.
Ejercicio 91 Pruebe que la suma directa de OLs es siempre un OL. [182]
138
Cap´ıtulo 5. Descomposici´on de operadores lineales El lector no debe confundir la suma directa de OLs con la habitual suma de fun ciones. Si f : E → E y g : E → E son dos OLs entonces su suma se define como (f + g) (a) = f (a) + g (a).
Veamos ahora un ejemplo. Sea f : R2 → R2 la rotaci´on en el [f ⊕ g] [a, b, c] a´ ngulo α en contra de las manecillas del reloj o en otras palabras 2c (1, 0) 7→ (cos α, sin α) y (0, 1) 7→ (− sin α, cos α). Sea g : R → R c f [a, b] la dilataci´on de factor 2 o sea z 7→ 2z. El espacio R2 ⊕R lo podemos [a, b, c] 3 pensar como R en el cual el primer sumando es el plano x, y y α el segundo es el eje z. Sabemos como transforma f el plano x, y [a, b] (rotando) y como transforma g el eje z (dilatando). Vease la figura a la derecha. Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b) en el plano xy obteniendo (a cos α − b sin α, b cos α + a sin α) y dilatar c en el eje z obtenien do 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace corresponder (a cos α − b sin α, b cos α + a sin α, 2c) . Este OL es precisamente f ⊕ g.
Ejercicio 92 Dado f ⊕ g ∈ End (E ⊕ F) podemos definir a f0 = f ⊕ I y g0 = I ⊕ g. Pruebe
que f ⊕ g = f0 ◦ g0 = g0 ◦ f0 . Esto significa que podemos pensar la suma directa como la composici´on de dos OLs que conmutan. [182] Subespacios invariantes, componentes irreducibles
A partir de ahora y en todo este cap´ıtulo la funci´on h : E → E es un OL del espacio vectorial finito dimensional E. La dimensi´on de h es por definici´on la dimensi´on de E. La simplicidad de la operaci´on de suma directa de OLs nos lleva a querer descomponer h en suma directa de otros OLs. La pregunta es: ¿Dado h ser´a posible encontrar OLs f y g tales que h = f ⊕ g?. Detallemos un poco m´as el problema. Si F y G son subespacios complementarios de E entonces, por el isomorfismo can´onico entre la suma de subespacios complementarios y la suma directa de subespacios tenemos E = F+G = F⊕G. La pregunta es ¿cuando existen OLs f : F → F y g : G → G tales que h = f ⊕ g? Supongamos que efectivamente h = f ⊕ g y sea a un vector en F. Por definici´on de f ⊕ g para calcular h (a) tenemos que expresar a como suma de un vector en F y otro en G. Esta descomposici´on es u´ nica y en este caso es a = a + 0 por lo que h (a) = f (a) + g (0) = f (a) + 0 = f (a). De aqu´ı deducimos que h (a) ∈ F y como esto se hizo para un vector arbitrario en F obtenemos que h (F) = {h (a) | a ∈ F} ⊆ F. De la misma manera se demuestra que h (G) ⊆ G. Esto nos lleva a la siguiente definici´on. Diremos que F ⊆ E es un subespacio invariante de h (o que F es hinvariante) si se cumple que h (F) ⊆ F.
Secci´on 5.1
Suma directa de operadores lineales
139
Un OL se descompone como suma directa de dos OLs si y solo si e´ l tiene dos subespacios invariantes complementarios. Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto supongamos que h : E → E tiene dos subespacios invariantes complementarios F y G. Tenemos E = F ⊕ G, h (F) ⊆ F y h (G) ⊆ G. Sean f : F → F y g : G → G las restricciones de la funci´on h a los subespacios F y G respectivamente. Obviamente f y g son OLs. Sea x un vector arbitrario en E. Existen unos u´ nicos a ∈ F, b ∈ G tales que x = a + b y por linearidad tenemos h (x) = h (a + b) = h (a) + h (b) = f (a) + g (b) por lo que h = f ⊕ g.
Acabamos de traducir nuestro problema original al de la existencia de subespacios inva riantes complementarios pero hay un caso degenerado que no nos facilita en nada las cosas. Todo el espacio E es invariante pues obviamente h (E) ⊆ E. Igualmente el subespacio {0} formado solo por el origen es invariante ya que h (0) = 0. Adem´as, los subespacios {0} y E son complementarios y en este caso h se descompone como la suma directa de f : 0 7→ 0 y g = h. Tal descomposici´on siempre existe pero no nos da nada pues g = h. Un subespacio se le llama no trivial si el no es todo el espacio y no es el origen. Un OL se le llama reducible si el tiene dos subespacios invariantes complementarios no triviales y en otro caso se le llama irreducible. A la restriccion de h a un subespacio invariante no trivial que tiene un complementario invariante se le llama componente de h. En otras palabras, f es una componente de h si existe g tal que h = f ⊕ g y esta descomposici´on es no trivial. Los OLs irreducibles son exactamente aquellos cuya u´ nica descomposici´on como suma directa de dos es la trivial o sea, aquellos que no tienen componentes. Si un OL es reducible entonces, este se descompone como suma directa de dos componentes. Si alguno de las componentes es reducible entonces podemos descomponerla. Asi, vemos que cualquier OL es suma directa de componentes irreducibles. Ejemplos en dimensi´on 2 Todo OL de dimensi´on 1 es irreducible pues los u´ nicos subespacios posibles son los triviales. Veamos el caso de dimensi´on 2. Supongamos que E es de dimensi´on 2. Si h es reducible entonces, E = F ⊕ G y necesariamente F y G son subespacios hinvariantes de dimensi´on 1. Por la proposici´on 3.2 las restricciones f y g de h a F y G respectivamente son homotecias, o sea, existen escalares α y β tales que f es la multiplicaci´on por α y g es la multiplicaci´on por β. ¶ Si {x} es una base de F y {y} es una base de G en µ y α 0 tonces la matriz de h en la base {x, y} es la del re R2 0 β cuadro a la izquierda, o sea es diagonal. Hemos de x mostrado que cualquier operador lineal reducible de dimensi´on 2 cumple que existe una base en la cual su matriz es dia gonal. En la figura de la derecha est´a representada el OL de este x 7→ 3x y 7→ 2y tipo cuando E = R2 , {x, y} es la base can´onica, α = 3 y β = 2.
Cap´ıtulo 5. Descomposici´on de operadores lineales
140
Una rotaci´on de R2 en un a´ ngulo α en contra de las manecillas del reloj es obviamente irreducible para α ∈ / {0◦ , 180◦ } ya que en este caso, ninguna recta por el origen se queda en su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales. Otro ejemplo es el que surge si a un cuadrado le aplicamos µ ¶ λ 1 dos fuerzas en sentido contrario a dos de sus lados opues 0 λ tos. M´as precisamente, al OL que tiene como matriz en la x base can´onica de R2 la del recuadro a la derecha la llama remos λdeslizamiento. La figura de la izquierda muestra intuitivamente como se mueven los puntos de R2 al aplicar un 1deslizamiento. De esta figura, se ve que la u´ nica recta por el origen que es invariante es el eje x. Luego un λdeslizamiento es irreducible (λ 6= 0) ya que el eje x no tiene complementario invariante. R2
y
Las matrices y los subespacios invariantes
Sea F es un subespacio invariante del OL h : E → E. Sea G un subespacio complemen tario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A ∪ B es una base de todo el espacio. Sea x un vector en la base A. Podemos hallar las coordenadas de h (x) X X en la base A ∪ B h (x) = αa a + βb b a∈A
b∈B
y como h (x) ∈ hAi entonces, todas las coordenadas βb son iguales a cero.
Estas coordenadas forman una columna de la matriz de h en la base A ∪ B y por lo tanto despues de ordenar las bases, esta matriz tiene que verse como en el recuadro a la izquierda. La matriz M es la de la restricci´on de h a F. El 0 representa una submatriz con entradas cero con |A| columnas y |B| renglones. Finalmente, los “*” representan submatrices de las dimensiones apropiadas. Resumiendo para futuras referencias: µ
M ∗ 0 ∗
¶
Si F es un subespacio invariante de h y A es una base de todo el espacio que contiene a una base B de F entonces, la matriz de h en la base A es triangular por bloques y el bloque superior izquierdo es la matriz de la restricci´on de h a F en la base B.
Si adem´as, G es h invariante entonces, el mismo razonamiento nos hace µ ¶ M 0 ver que el “*” superior derecho es una submatriz con entradas cero con 0 M0 |B| columnas y |A| renglones. En este caso la matriz tiene que verse como en el recuadro a la derecha. La matriz M0 es la de la restricci´on de h a G. Resumiendo para futuras referencias:
Secci´on 5.2
Polinomios de operadores lineales
141
Si F y G son un subespacios invariantes complementarios de h y los conjuntos A y B son bases de F y G respectivamente en tonces, la matriz de h en la base A ∪ B es diagonal por bloques y los bloques diagonales son las matrices de las restricci´ones de h a F en la base A y de h a G en la base B respectivamente.
5.2 Polinomios de operadores lineales En esta secci´on introduciremos una herramienta para el c´alculo de los subespacios inva riantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea (o vuelva a leer) la secci´on 1.7 en la cual se introducen los ideales de polinomios y se demuestra que todo ideal de K [x] es principal. El morfismo de K [x] en End (E) Para cualquier n´umero natural n el operador hn se ⎧ n veces ⎨ z }| { define como en el recuadro a la derecha. De aqu´ı, como n h ◦ ... ◦ h si n > 0 h = sabemos sumar OLs y multiplicar por escalares a los OLs, ⎩ I 2 1 si n = 0 vemos que una expresi´on como por ejemplo h −2h +5I es un OL que conocemos si tan solo conocemos a h Pn i polinomio arbitrario con coeficientes En general si p (x) = i=0 αi x ∈ K [x] es unP en el campo del espacio vectorial E, entonces ph = ni=0 αi hi es un OL bien definido. Al proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio p (x) en el OL ph se le llama evaluaci´on de p en h. Recordemos de la secci´on 3.2 que un a´ lgebra es un espacio vectorial con un producto de vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto por escalares. Ya vimos, que el espacio vectorial End (E) es un a´ lgebra para la composici´on de OL. Tambi´en vimos que el espacio vectorial de todos los polinomios K [x] es un a´ lgebra para el producto de polinomios. Una subalgebra es un subconjunto de una a´ lgebra que es a´ lgebra para las operaciones inducidas en el subconjunto. Un subconjunto de una algebra es sub´algebra cuando es subes pacio del espacio vectorial, es cerrado para el producto y contiene el 1. Una transformaci´on lineal entre dos a´ lgebras es un morfismo de a´ lgebras si esta con muta con el producto y preserva el 1. La funci´on de evaluaci´on de polinomios en un operador lineal es un morfismo de a´ lgebras. Prueba. La funci´on de evaluaci´on K [x] 3 p (x) 7→ ph ∈ End (E) es una funci´on cu
142
Cap´ıtulo 5. Descomposici´on de operadores lineales
yo dominio y codominio son a´ lgebras. Sean α0 , ..., αn y β0 , ..., βn los coeficientes de dos polinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes en ambos polinomios ya que siempre podemos agregar suficientes ceros. Sea λ un escalar. Tenemos n n P P λαi hi = λ αi hi = λph (λp)h = (p + q)h =
n P
i=0
i
(αi + βi ) h =
i=0
n P
i=0
i=0
αi hi +
n P
βi hi = ph + qh
i=0
lo que muestra que la evaluaci´on en h es una TL. Por definici´onà de producto de polinomios, tenemos ! n P n P n P n n n ¡ ¢ P P P (pq)h = αi βj xi+j = αi βj hi+j = αi βj hi ◦ hj = i=0 j=0 n ¡ n P P
=
y finalmente, con
h
i=0 j=0
i=0 j=0
n n ¢ P P αi hi ◦ βj hj = ph ◦ qh αi hi ◦ βj hj =
i=0 j=0 ¡ ¢ 1h = x0 h
i=0
j=0
= h = I terminamos la prueba. 0
La sub´algebra K [h]
El morfismo de evaluaci´on en h tiene como im´agen el conjunto de todos los OL que son la evaluaci´on en h de alg´un polinomio de K [x]. Este conjunto de OLs se denotar´a por K [h]. Esto reeja que en la evaluaci´on lo que hacemos es substituir la variable x por el OL h. K [h] es una sub´algebra conmutativa del a´ lgebra de operadores lineales. Prueba. Como la im´agen de una transformaci´on lineal es un subespacio, obtenemos que K [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I ∈ K [h]. Como ph ◦ qh = (pq)h obtenemos que K [h] es cerrado para la composici´on. La conmutatividad se sigue de la conmutatividad del producto de polinomios. Efectivamente, ph ◦ qh = (pq)h = (qp)h = qh ◦ ph y por lo tanto, los OLs en K [h] conmutan entre ellos. La conmutatividad de K [h] es un hecho trivial pero muy notable. Los operadores lineales en general no son conmutativos para la composici´on. Sin embargo los que est´an en K [h] si conmutan entre ellos. Esto va a jugar un papel importante en todo lo que sigue. Cada vez que se tiene un morfismo de a´ lgebras, la im´agen de este morfismo es una sub´algebra del codominio del morfismo. Si el dominio del morfismo es un a´ lgebra conmutativa entonces la imagen es una sub´algebra conmutativa.
El polinomio m´ınimo El morfismo de evaluaci´on en h (recordemos que este morfismo es una transformaci´on lineal) tiene como nucleo el conjunto de todos los polinomios p tales que ph = O.
Secci´on 5.2
Polinomios de operadores lineales
143
El nucleo del morfismo de evaluaci´on en h es un ideal de K [x]. Prueba. El nucleo de una transformaci´on lineal es un subespacio y por lo tanto si ph = qh = O entonces (p + q)h = O. Sea r (x) cualquier polinomio. Necesitamos mostrar que (rq)h = O. Para cualquier a ∈ E tenemos (rq)h (a) = (rh ◦ qh ) (a) = rh (qh (a)) = rh (0) = 0 y esto es todo lo que quer´ıamos probar. Por 1.19 todo ideal de K [x] es principal y por lo tanto existe un u´ nico polinomio h (n´otese la letra g´otica) de coeficiente principal 1 (o sea, m´onico) tal que si ph = O entonces, p es un m´ultiplo de h. En s´ımbolos matem´aticos {p (x) ∈ K [x] | ph = O} = {qh | q ∈ K [x]}. Al polinomio h se le llama polinomio m´ınimo de h. El polinomio m´ınimo de h es el polinomio m´onico de grado m´as peque˜no que al evaluarlo en h se obtiene el OL nulo O . Por ahora, no sabemos mucho del polinomio m´ınimo de h, solo sabemos que existe y que es u´ nico. Otra manera m´as descriptiva de ver el polinomio m´ınimo es la siguiente. Consideremos la sucesi´on infinita de operadores I, h, h2 , . . .. Todos los elementos de esta sucesi´on no pueden ser LI en el espacio vectorial End (E) porque este espacio es de dimensi´on finita e igual a (dim E)2 . Esto quiere decir que hay un primer natural n y unos coeficientes escalares αi tales que hn = α0 h0 + α1 h1 + · · · + αr−1 hn−1 . Denotando p (x) = xn − αr−1 xn−1 − · · · − α1 x1 − α0 x0 vemos que ph = O y que este es el u´ nico polinomio m´onico de grado m´as peque˜no que cumple esto. Luego, p es el polinomio m´ınimo de h. El per´ıodo de un vector Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen por ph de a se le denotar´a por ph (a). Luego, ph (a) se obtiene en dos pasos: primero tomamos el polinomio p lo evaluamos en h y as´ı obtenemos ph ; segundo la funci´on ph la evaluamos en a y as´ı obtenemos ph (a). Para cualquier vector a, el conjunto de todos los polinomios p tales que ph (a) = 0, es un ideal. Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces (p + q)h (a) = (ph + qh ) (a) = ph (a) + qh (a) = 0 (rp)h (a) = rh (ph (a)) = rh (0) = 0 y esto es todo lo que se requer´ıa probar. Nuevamente, como todo ideal de polinomios es principal entonces, existe un u´ nico poli nomio m´onico q tal que el conjunto {p ∈ K [x] | ph (a) = 0} es exactamente el conjunto de todos polinomios que son m´ultiplos de q. Al polinomio q se le llama el hper´ıodo del vector a o sencillamente el per´ıodo de a si est´a impl´ıcito cual es el operador h. En otras palabras, el per´ıodo de a es el polinomio q m´onico de grado m´as peque˜no tal que qh (a) = 0. M´as descriptivamente, en la sucesi´on infinita de vectores a, h (a) , h2 (a) , . . . todos los
Cap´ıtulo 5. Descomposici´on de operadores lineales
144
elementos no pueden ser LI porque el espacio E es de dimensi´on finita. Esto quiere decir que hay un primer natural n y unos coeficientes escalares αi tales que hn = α0 h0 (a) + · · · + αr−1 hn−1 (a). Denotando p (x) = xn − αn−1 xn−1 − · · · − α1 x1 − α0 x0 vemos que ph (a) = 0 y que este es el u´ nico polinomio m´onico de grado m´as peque˜no que cumple esto. Luego, p (x) es el per´ıodo de a.
Ejercicio 93 Pruebe que el vector 0 es el u´ nico vector cuyo per´ıodo es de grado cero. Ejercicio 94 Pruebe que los vectores cuyo per´ıodo es el polinomio x son exactamente aque llos que est´an en el nucleo de h. Anuladores Sea ahora A ⊆ E un conjunto arbitrario de vectores. El hanulador de A es el conjunto de polinomios {p ∈ K [x] | ∀a ∈ A ph (a) = 0}. Previamente ya hab´ıamos considerado vis to dos anuladores. En el caso de que A es todo el espacio entonces el anulador es el ideal usado para definir el polinomio m´ınimo. En el caso de que A es un solo vector entonces el anulador es el ideal usado para definir el per´ıodo del vector. An´alogamente a las pruebas de 5.6 y 5.7 podemos probar que cualquier anulador es un ideal. Esto nos permite definir el hper´ıodo de un conjunto de vectores como el polinomio generador de su anulador. El anulador de un conjunto de vectores es el conjunto de polinomios que son m´ultiplos de su per´ıodo. De aqu´ı en lo adelante denotaremos por perh (A) al hper´ıodo de un conjunto de vectores A. As´ı, perh (a) es el per´ıodo del vector a y perh (E) es el h per´ıodo de todo el espacio o sea, el polinomio m´ınimo de h. monoton´ıa del per´ıodo Si A ⊆ B entonces, perh (A) es un divisor de perh (B). Prueba. Sea A0 el hanulador de A. Si p es el per´ıodo de B entonces ph (b) = 0 para cualquier b ∈ B y por lo tanto ph (a) = 0 para cualquier a ∈ A. Luego p ∈ A0 y por lo tanto es un m´ultiplo del per´ıodo de A. Nucleos de polinomios de operadores lineales Los nucleos de los polinomios evaluados en un OL son un objeto importante para la descomposici´on de ese OL en componentes irreducibles. Su importancia est´a dada por el siguiente resultado.
Secci´on 5.2
Polinomios de operadores lineales
145
invariancia de los nucleos El nucleo de cualquier operador en K [h] es un subespacio hinvariante. Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos la inva riancia. Sea a ∈ ker ph entonces ph (a) = 0. Por la conmutatividad de los OL en K [h] tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea, h (a) ∈ ker ph . monoton´ıa de los nucleos Si p es un divisor de q entonces Ker ph ⊆ Ker qh . Prueba. Sea q = p0 p. Si x ∈ Ker ph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y por lo tanto x ∈ Ker qh . Conjuntos de vectores y polinomios Los conjuntos de vectores est´an ordenados naturalmente por Conjuntos de vectores inclusi´on, y los polinomios m´onicos est´an ordenados natural perh ↓ ↑ ker mente por divisibilidad. Hemos establecido dos funciones mo Polinomios m´onicos n´otonas entre estos dos conjuntos ordenados (v´ease el recuadro a la derecha). Sin embargo, estas funciones NO son una la inversa de la otra. La relacion entre ellas es un poco m´as compleja y est´a dada por el siguiente resultado. perh (A) divide a p si y solo si A ⊆ ker ph . Prueba. Denotemos por q el per´ıodo de A. Si q divide p entonces, p est´a en el anulador de A y por lo tanto para cualquier vector a en A se cumple que ph (a) = 0. Luego, A ⊆ ker ph . Rec´ıprocamente, si A ⊆ ker ph entonces p est´a en el anulador de A y por lo tanto q es un divisor de p. perh (ker ph ) divide a p. Prueba. Pongase A = ker ph en 5.11. perh (A) es el m´ınimo com´un m´ultiplo de los per´ıodos de los vectores en A. Prueba. Sea p = perh (A) y p0 el m´ınimo com´un m´ultiplo de los per´ıodos de los vectores en A. Para cualquier vector a en A tenemos que ph (a) = p0 (a) = 0.
146
Cap´ıtulo 5. Descomposici´on de operadores lineales
Como p est´a en el anulador de todos los vectores en A entonces es un multiplo com´un de sus hper´ıodos y por lo tanto p es un m´ultiplo de p0 . Como p0 est´a en el anulador de A entonces p0 es un m´ultiplo de p. El polinomio m´ınimo de h es el m´ınimo com´un m´ultiplo de los per´ıodos de todos los vectores. Prueba. Pongase A igual a todo el espacio en 5.13 Sean A y B dos conjuntos ordenados. A una pareja de funciones mon´otonas f∗ : A → B y f∗ : B → A se les llama conexi´on de Galois si (f∗ (a) ≤ b) ⇔ (a ≤ f∗ (b)). El resultado 5.11 nos muestra que si tomamos f∗ el per´ıodo y f∗ el nucleo entonces tenemos una conexi´on de Galois. En toda conexi´on de Galois se tiene que f∗ (f∗ (x)) ≤ x, en nuestro caso, el resultado 5.12. En toda conexi´on de Galois se tiene que f∗ preserva los supremos y el resultado 5.13 es un caso particular de esto. Las conexiones de Galois aparecen muy frecuentemente en las matem´aticas.
5.3 Subespacios radicales En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin facto res comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero, les daremos un nuevo nombre m´as corto. Dos polinomios p y q se les llama coprimos si cualquier factor com´un a ambos es de grado 0. O sea, no tienen factores comunes no triviales. Dos polinomios p y q son coprimos si y solo si los factores irreducibles de p son diferentes a los factores irreducibles de q. El siguiente resultado que usaremos m´as adelante es f´acil consecuencia del teorema de descomposici´on de polinomios en factores irreducibles. Si al lector no le parece que este resultado es obvio entonces, debe hacer un esfuerzo por demostrarlo. Lema de igualdad de polinomios Si p, q, p0 y q0 son m´o⎫ nicos entonces, p0 divide a p ⎪ ⎪ ¯ 0 ⎬ p =p q0 divide a q ⇒ . pq divide a p0 q0 q0 = q ⎪ ⎪ ⎭ p y q son coprimos
Ejercicio 95 Demuestre Lema de igualdad de polinomios (5.15). [182] Ahora estamos listos para empezar a descomponer los operadores lineales.
Secci´on 5.3
Subespacios radicales
147
Lema de Descomposici´on de Nucleos Si p y q son polinomios coprimos entonces, ker (pq)h = ker ph ⊕ ker qh . Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar es que ker ph ∩ ker qh = {0} y que ker (pq)h = ker ph + ker qh . O sea, es una suma directa. Por el Teorema de Bezout existen polinomios r, s tales que rp + sq = 1. Sea x ∈ ker ph ∩ ker qh . Tenemos que x = 1h (x) = (rp + sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0 lo que prueba que ker ph ∩ ker qh = {0}. Sea x ∈ ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1 tenemos z + y = x. Adem´as, por la conmutatividad tenemos que ph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0 qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0 o sea, y ∈ ker ph y z ∈ ker qh . Luego ker (pq)h ⊆ ker ph + ker qh . Para probar la otra inclusi´on sean a ∈ ker p (h) y b ∈ ker q (h). Tenemos que (pq)h (a + b) = ph (qh (a + b)) = ph (qh (a) + qh (b)) = = ph (qh (a)) = qh (ph (a)) = qh (0) = 0 y por lo tanto ker ph + ker qh ⊆ ker (pq)h . Lema de los Per´ıodos de los Nucleos Si p y q son polinomios m´onicos ¯ coprimos entonces, p = perh (ker ph ) pq = perh (ker (pq)h ) ⇐⇒ q = perh (ker qh ) Prueba. (=⇒) Denotemos por p0 = perh (ker ph ) y q0 = perh (ker qh ). Usando 5.12 obte nemos que p0 divide a p y que q0 divide a q. Por el Lema de Descomposici´on de Nucleos (5.16) tenemos ker (pq)h = ker ph +ker qh . Sean a ∈ ker ph y b ∈ ker qh dos vectores. Por conmutatividad tenemos que (p0 q0 )h (a + b) = q0h (p0h (a)) + p0h (q0h (a)) = 0 + 0 = 0 Luego p0 q0 es un m´ultiplo com´un de los per´ıodos de todos los vectores en ker ph + ker qh = ker (pq)h . Como el pq = perh (ker (pq)h ) es el m´ınimo de estos m´ultiplos comunes obte nemos que pq divide a p0 q0 . Usando el Lema de igualdad de polinomios (5.15) obtenemos p = p0 y q = q0 . (⇐=) Supongamos que los polinomios m´onicos coprimos p y q cumplen que p = perh (ker ph ) y q = perh (ker qh ). Denotemos r = perh (ker (pq)h ) Usando 5.12 obtene mos que r divide a pq. Como ker ph ⊆ ker (pq)h entonces usando la monoton´ıa del per´ıodo (5.8) obtenemos que p divide a r. Por la misma raz´on q divide a r. Como p y q son coprimos entonces pq divide a r y por lo tanto r = pq
148
Cap´ıtulo 5. Descomposici´on de operadores lineales
Operadores lineales radicales Por la invariancia de los nucleos (5.9) y el Lema de Descomposici´on de Nucleos (5.16) si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes comple mentarios ker ph y ker qh y podr´ıamos tener (si la descomposici´on es no trivial) que h es reducible. El candidato que tenemos para el polinomio pq es el polinomio m´ınimo de h. Un polinomio p se descompone en producto de dos factores coprimos si y solo si p tiene al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definici´on. Diremos que h es radical de tipo p si el polinomio m´ınimo de h tiene un solo factor irreducible e igual a p. Equivalentemente, h es radical si el per´ıodo de cualquier vector es de la forma pm donde p es un polinomio m´onico sin factores no triviales. Si h es irreducible entonces, es radical. Prueba. Si h no es radical entonces el polinomio m´ınimo h de h se descompone no trivial mente como un producto h = pq donde p y q son coprimos. Por el Lema de Descomposici´on de Nucleos (5.16) tenemos E = ker (pq)h = ker ph ⊕ker qh siendo ker ph y ker qh subespa cios invariantes de h (por la invariancia de los nucleos (5.9)). Como p es un factor propio de h que es el m´ınimo com´un m´ultiplo de los per´ıodos de todos los vectores entonces, ker ph 6= E y por la misma raz´on ker qh 6= E. Esto quiere decir que la descomposici´on ker ph ⊕ ker qh es no trivial y por lo tanto h es reducible. Este resultado no alcanza para caracterizar a los operadores lineales irreducibles. Por ejemplo la identidad en R2 tiene polinomio m´ınimo x − 1 o sea es radical y sin embargo es evidentemente la suma directa de la identidad en el eje x y la identidad en el eje y, o sea, es reducible. Componentes radicales Un vector se le llama radical de tipo p si su per´ıodo es igual a pm y p es irreducible. Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales de tipo p o equivalentemente si su per´ıodo es igual a pm . Recordemos que la multiplicidad de un factor es el n´umero de veces que podemos dividir sin resto por dicho factor. Si p es factor irreducible de multiplicidad m del polinomio m´ınimo de h entonces, ker pm h es el conjunto de todos los vectores radicales de tipo p. Prueba. Sea a un vector de per´ıodo pk . Si k > m entonces pk = perh (a) no divide al polinomio m´ınimo y esto no puede ser. Luego k ≤ m. De la monoton´ıa de los nucleos (5.10) m m obtenemos ker pkh ⊆ ker pm h y por lo tanto a ∈ ker ph . Rec´ıprocamente, si a ∈ ker ph m entonces pm h (a) = 0 y por lo tanto perh (a) es un divisor de p . Como p es irreducible, k necesariamente perh (a) es igual a p para cierto k ≤ m.
Secci´on 5.3
Subespacios radicales
149
Por el teorema de descomposici´on deQ un polinomio en factores irreducibles el polino mio m´ınimo de h es igual a un producto p∈P pm p donde P es el conjunto de sus factores irreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resultado anterior, m los espacios ker ph p son los subespacios radicales maximales de h. De la invariancia de los nucleos (5.9) sabemos que los subespacios radicales maximales son invariantes. A la restricci´on de h a un subespacio radical maximal se le llama componente radical de h. Teorema de Descomposici´on en Componentes Radicales Todo operador lineal es la suma directa de sus componentes radicales. Q Prueba. Sea h = p∈P pm p el polinomio m´ınimo de h. Si en P hay un solo polinomio irre ducible entonces h es radical y no hay nada que probar. Hagamos inducci´on en el n´umero de polinomios irreducibles Q en P. Sea r un polinomio irreducible fijo pero arbitrario en P. Deno mr 0 temos q = r y q = p∈P\r pm p . Tenemos que h = qq0 y que q, q0 son coprimos. Del Lema de Descomposici´on de Nucleos (5.16) obtenemos la descomposici´on en subespacios invariantes complementarios E = F ⊕ G donde F = ker qh y G = ker q0h . Sean f y g las restricciones de h a F y G respectivamente. Sean f y g los polinomios m´ınimos de f y g respectivamente. Del Lema de los Per´ıodos de los Nucleos (5.17) f = q y g = q0 . Luego, todas las componentes radicales de g son componentes radicales de h. Aplicando la hip´otesis de inducci´on g es suma directa de sus componentes radicales. Como f es una componente radical de h entonces, h = f ⊕ g es suma directa de sus componentes radicales. Como la descomposici´on de un polinomio en polinomios irreducibles es u´ nica salvo orden de los factores entonces, la descomposici´on de un operador lineal en componentes radicales es u´ nica salvo orden de los sumandos. Existencia de un vector de per´ıodo m´aximo La descomposici´on en componentes radicales nos permite limitarnos a considerar el caso en que el operador lineal h es radical. Esto simplifica mucho las cosas por la simplicidad de la relaci´on de divisibilidad entre los divisores de los polinomios tipo pn cuando p es irreducible. Esta relaci´on orden es total. Por ejemplo, si A es un conjunto de divisores de pn entonces se cumple que el m´ınimo com´un multiplo de A es un polinomio en A. Para cualquier operador lineal h existe un vector tal que su per´ıodo es igual al polinomio m´ınimo de h. Prueba. Sea h el polinomio m´ınimo de h : E → E. Primero para el caso de que h es radical o sea cuando h = pk con p irreducible. El polinomio h es el m´ınimo com´un m´ultiplo de los per´ıodos de todos los vectores y estos son divisores de pk . Por la observaci´on que precede a este resultado tiene que ocurrir que uno de esos per´ıodos es pk .
150
Cap´ıtulo 5. Descomposici´on de operadores lineales
El caso general por inducci´on en el n´umero de componentes radicales. Descomponga mos h = f ⊕ g donde f es una componente radical. Esta descomposici´on se corresponde con la descomposici´on E = F ⊕ G en subespacios invariantes. Los operadores f y g son las restricciones de h a F y G respectivamente. Los polinomios m´ınimos f y g de f y g respecti vamente son coprimos y cumplen que h = fg. Por hip´otesis de inducci´on existen vectores a y b en F y G respectivamente tales que f = perh (a) y g = perh (b). Denotemos p = perh (a − b). El polinomio p es un divisor de fg = h al ser este u´ ltimo un com´un m´ultiplo de los per´ıodos de todos los vectores. Tenemos (ph (a − b) = 0) ⇒ (ph (a) = ph (b)). Como F y G son invariantes F 3 ph (a) = ph (b) ∈ G. Como F y G son complementarios ph (a) = ph (b) = 0. Entonces, p es un multiplo de f = perh (a) y es un m´ultiplo de g = perh (b). Como f y g son coprimos entonces, p es un m´ultiplo de fg = h.
5.4 El espacio cociente por un subespacio invariante Los λdeslizamientos nos muestran que no todo subespacio invariante tiene complemen tario invariante. Por esto, los espacios cocientes juegan aqu´ı un papel fundamental. En reali dad, en este cap´ıtulo no estamos interesados en los espacios cocientes per se. Por el contrario, solo los necesitamos como una herramienta para probar los resultados en los que si estamos interesados: la descomposici´on de OLs. Necesitamos por lo tanto aprender a manejar esta herramienta. Sea h : E → E un OL y F un subespacio hinvariante o sea h (F) ⊆ F. El espacio cociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo que queremos ver es que si los vectores a y b est´an en un mismo subespacio af´ın paralelo a F entonces h (a) y h (b) cumplen exactamente lo mismo. Efectivamente, si a y b est´an en un mismo subespacio af´ın paralelo a F entonces a−b ∈ F. Como F es hinvariante entonces h (a) − h (b) = h (a − b) ∈ F y por lo tanto h (a) y h (b) est´an en un mismo subespacio af´ın paralelo a F. N´otese que aqu´ı el argumento crucial es que F es hinvariante. e en el espacio cociente con la igualdad h e (a + F) = Esto nos permite definir la funci´on h h (a) + F. La observaci´on precedente nos dice que esta funci´on est´a bien definida, o sea si e es un OL en E/F ya que a + F = b + F entonces, h (a) + F = h (b) + F. Observese que h e (a + F + b + F) = h e (a + b + F) = h (a + b) + F = h e (a + F) + h e (b + F) = h (a) + F + h (b) + F = h y tambi´en e (λ (a + F)) = h e (λa + F) = h (λa) + F =λh (a) + F = λ (h (a) + F) = λh e (a + F) . h
Secci´on 5.4
El espacio cociente por un subespacio invariante
151
e ¿Acaso no se cumple que h (a + F) = h (a) + F? Pues no, esto se cumple ¿Para que definir h? solo cuando h es biyectiva. Inclusive si arbitrariamente pidieramos que h sea biyectiva esto no nos fh y los ph tienen nucleos grandes. dar´ıa nada pues necesitaremos p
Necesitaremos conocer mejor los OLs del espacio cociente End (E/F). El conjunto EndF (E) de todos los operadores lineales que dejan invariante F es una sub´algebra de End (E).
Prueba. Sean f y g dos operadores en EndF (E). Sea λ un escalar. Para cualquier vector a ∈ F tenemos f (a) ∈ F y g (a) ∈ F y por lo tanto (g + f) (a) = g (a) + f (a) ∈ F ; I (a) ∈ F ; (g ◦ f) (a) = g (f (a)) ∈ F ; (λf) (a) = λf (a) ∈ F. F Luego, End (E) es una subalgebra. e ∈ End (E/F) es un morfismo de a´ lgebras. La funci´on EndF (E) 3 h 7→ h
e es morfismo para la composici´on Prueba. Probaremos que h 7→ h e fg ◦ g (a + F) = (f ◦ g) (a) + F = f (g (a)) + F = ³ f (g (a) ´ + F) = e (a + F) ; = fe(g (a) + F) = fe(e g (a + F)) = fe ◦ g y para la suma f] + g (a + F) = (f + g) (a) + F = f (a) +³F + g´(a) + F = e (a + F) = fe + g e (a + F) ; = fe(a + F) + g y para el producto por escalares e (a + F) = (λf) (a) + F = f (λa) + F = fe(λa + F) = λf ³ ´ = fe(λ (a + F)) = λfe (a + F) ; y que preserva la identidad eI (a + F) = I (a) + F = a + F = I (a + F) .
Ejercicio 96 Muestre que el morfismo h 7→ he es sobreyectivo y su nucleo est´a formado por aquellos operadores lineales cuya imagen es F. [182] Polinomios y el espacio cociente e en E/F a saber Sea F ⊆ E un subespacio hinvariante. Ya vimos como se define h e h (a + F) = h (a) + F y comprobamos que esta definici´on es correcta debido a la h fh (a + F) = ph (a) + F necesitamos que F sea ph invariancia de F. Para poder definir p invariante. Por suerte, esto se cumple autom´aticamente.
Cap´ıtulo 5. Descomposici´on de operadores lineales
152
Sea p un polinomio. Si F es hinvariante entonces tambi´en es ph invariante. Prueba. Como el conjunto de los operadores que preservan F es una sub´algebra del algebra de todos los operadores entonces todos los hn estan ah´ı, tambi´en todas las combinaciones lineales de estos o sea, todos los polinomios evaluados en h. fh es un OL bien definido en el espacio cociente. Por otro lado, si evaluamos el Luego, p e obtendremos ph que es otro OL bien definido en el espacio polinomio p en el operador h h cociente. fh = phh p
Prueba. Sea p (x) = Σαi xi . Como la funci´on h 7→ hn es un morfismo de a´ lgebras, tenemos ³ ´i Xn Xn Xn X^ n i e αg αi hi = αi hei = αi h ih = i=0 i=0 i=0 i=0 y esto es lo que se necesitaba probar.
Esto es muy c´omodo, ya que para calcular perhh (a + F) en el cociente tenemos la f´ormula phh (a + F) = ph (a) + F. perhh (a + F) es un divisor de perh (a).
Prueba. Si p = perh (a) entonces phh (a + F) = ph (a) + F = 0 + F = F y por lo tanto p es un m´ultiplo de perhh (a + F). e es un divisor del polinomio m´ınimo de h. El polinomio m´ınimo de h
e respectivamente. Para cualquier vector Prueba. Sean h y e h los polinomios m´ınimos de h y h a tenemos que hhh (a + F) = hh (a) + F = 0 + F = F. Luego, h es un m´ultiplo de e h.
Ejercicio 97 Pruebe que si a es un vector tal que haih ∩ F = {0} y perh (a) es un m´ultiplo de perh (F) entonces, perhh (a + F) = perh (a). [183]
Secci´on 5.5
Subespacios c´ıclicos
153
5.5 Subespacios c´ıclicos Sea h : E → E un operador lineal. Sea V = {v1 , . . . , vn } ⊆ E un conjunto de vectores. Una hcombinaci´on de V es un vector de la forma ph (v1 ) + qh (v2 ) + · · · + rh (vn ) donde los coeficientes p, q, ..., r son polinomios arbitrarios en K [x]. Le dejamos al lector hacer la definici´on para el caso de que V es infinito. En este caso hay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito. Las hcombinaciones son combinaciones lineales en el caso de que los coeficientes sean polinomios de grado cero. Esto se ve de que si λ es un escalar entonces, λh (v) = λh0 (v) = λI (v) = λv. Recordemos que hVi denota el conjunto de todas las combinaciones lineales de V. Denotemos hVih el conjunto de todas las hcombinaci´ones de V. La observaci´on anterior significa que hVi ⊆ hVih .
Ejercicio 98 Pruebe que hVi = hVih si y solo si h es una homotecia (h (x) = λx). Conjuntos hgeneradores
El conjunto de todas las hcombinaciones de V es un subespacio invariante. Prueba. Sea λ un escalar. Sean a = ph (v1 ) + · · · + qh (vn ) y b = rh (v1 ) + · · · + sh (vn ) dos hcombinaciones de V. Entonces, a + b = p0h (v1 ) + · · · + q0h (vn ) donde p0 = p + r, . . . , q0 = q + s, λa = p0h (v1 ) + · · · + q0h (vn ) donde p0 = λp, . . . , q0 = λq, h (a) = p0h (v1 ) + · · · + q0h (vn ) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) . Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es inva riante. Ya es la tercera vez que nos tropezamos con una situaci´on similar. Las anteriores fueron la cerradura lineal y la cerradura af´ın. Los siguientes tres resultados muestran que la funci´on V 7→ hVih es un operador de cerradura que llamaremos hcerradura. La intersecci´on de subespacios invariantes es invariante.
hVih es la intersecci´on de todos los sub espacios invariantes que contienen a V.
154
Cap´ıtulo 5. Descomposici´on de operadores lineales La hcerradura cumple las siguientes propiedades: (incremento), ¨ V ⊆ hVih ¨ V 0 ⊆ V ⇒ hV 0 ih ⊆ hVih (monoton´ıa), ¨ hhVih ih = hVih (idempotencia).
Ejercicio 99 Pruebe estos tres resultados. A hVih le llamaremos el subespacio invariante hgenerado por V. Si hVih es todo el espacio diremos que V es un hgenerador. Obviamente los sobreconjuntos de hgeneradores y los conjuntos generadores (sin la h) son hgeneradores. perh hVih = perh V. Prueba. Tenemos V ⊆ hVih y por la monoton´ıa del per´ıodo (5.8) sabemos que perh V es un divisor de perh hVih . Denotemos q = perh V. Si x ∈ hVih entonces x es una hcombinaci´on de V x = ph (v1 ) + · · · + rh (vn ) donde {v1 , . . . , vn } ⊆ V y por lo tanto qh (x) = qh (ph (v1 )) + · · · + qh (rh (vn )) = ph (qh (v1 )) + · · · + rh (qh (vn )) = 0. Luego, q = perh V est´a en el anulador de hVih y por lo tanto es un m´ultiplo de perh hVih .
Un subespacio invariante se le llama hc´ıclico si este est´a hgenerado por un solo vector. Los subespacios c´ıclicos son los han´alogos de las rectas por el origen que est´an generadas (sin la h) por un solo vector. Al operador h se le llama c´ıclico si todo el espacio es hc´ıclico. Conjuntos hindependientes
Un conjunto de vectores {v1 , . . . , vn } no nulos se le llama hindependiente si (ph (v1 ) + · · · + qh (vn ) = 0) ⇒ (ph (v1 ) = · · · = qh (vn ) = 0) Esto es equivalente a que si una hcombinaci´on de ellos es cero entonces, para todo i el coeficiente de vi es un m´ultiplo del per´ıodo de vi . Al considerar coeficientes de grado ce ro vemos que los conjuntos hindependientes siempre son linealmente independientes. En particular, el n´umero de elementos en un conjunto hindependiente no puede sobrepasar la dimensi´on del espacio. Si V = {v1 , . . . , vn } es hindependiente entonces hVih = hv1 ih ⊕ · · · ⊕ hvn ih . Prueba. Por inducci´on en el natural n. Si n = 1 el resultado es obvio. Denotemos V 0 = {v2 , . . . , vn }. Tenemos que probar que hVih = hv1 ih + hV 0 ih y que hv1 ih ∩ hV 0 ih = 0.
Secci´on 5.5
Subespacios c´ıclicos
155
Si a ∈ hVih entonces existen coeficientes polinomiales tales que a = ph (v1 )+qh (v2 )+ · · · + rh (vn ). Obviamente, a0 = ph (v1 ) ∈ hv1 ih , a00 = qh (v2 ) + · · · + rh (vn ) ∈ hV 0 ih y a = a0 + a00 . Luego, hVih ⊆ hv1 ih + hV 0 ih . La otra inclusi´on se demuestra igual. Supongamos que a ∈ hv1 ih ∩ hV 0 ih . Entonces, existen polinomios tales que ph (v1 ) = a = qh (v2 ) + · · · + rh (vn ) por lo tanto ph (v1 ) − qh (v2 ) − · · · − rh (vn ) = 0. Como V es hindependiente entonces, a = ph (v1 ) = 0. hbases El resultado anterior es formidable. Si solo V adem´as de hindependiente fuera hgene rador, obtendr´ıamos una descomposici´on de todo el espacio en suma directa de subespacios invariantes hgenerados por un solo vector o sea c´ıclicos. Una hbase es un conjunto de vectores que es hindependiente y hgenerador. El u´ nico problema es que no sabemos si existen o no las hbases. Veremos en la siguiente secci´on que si existen sin embargo, el problema no es tan sencillo como en el caso de las bases ordinarias (sin la h). Hay que ir poco a poco. Si p = xn − αn−1 xn−1 − · · · − α1 x − α0 es un polinomio m´onico arbitrario entonces a la matriz ⎛ ⎞ 0 0 ... 0 α0 ⎜ 1 0 ... 0 α1 ⎟ ⎜ ⎟ ⎜ ... ... ... ... ... ⎟ ⎜ ⎟ ⎝ 0 0 ... 0 αn−2 ⎠ 0 0 ... 1 αn−1
se le llama matriz acompa˜nante del polinomio p.
Sea h un OL c´ıclico con polinomio©m´ınimo p de grado n. Sea ª a un vector h n−1 generador. El conjunto de vectores a, h (a) , . . . , h (a) es una base del espacio vectorial y la matriz de h en esta base es la matriz acompa˜nante de p. © ª Prueba. Denotemos B = a, h (a) , . . . , hn−1 (a) y probaremos que B es una base del espacio. Si hubiera una combinaci´on lineal β0 a + β1 h (a) + · · · + βn−1 hn−1 (a) = 0 con no todos sus coeficientes nulos entonces, el polinomio no nulo q (x) = β0 + β1 x + · · · + βn−1 xn−1 ser´ıa tal que qh (a) = 0 y esto contradice (q tiene grado menor que el grado de p) que los polinomios en el anulador de a son los multiplos de p. Luego, A es LI. Por otro lado, como a es hgenerador entonces para cualquier vector x existe un polino mio q tal que x = qh (a). Efectuando la divisi´on con resto obtenemos q = cp + r donde
156
Cap´ıtulo 5. Descomposici´on de operadores lineales
el grado de r es estrictamente menor que el grado de p. Luego, rh (a) es una combinaci´on lineal de B y rh (a) = (q − cp)h (a) = qh (a) − ch (ph (a)) = qh (a) = x. Esto significa que A es un conjunto generador y por lo tanto es una base. Veamos como transforma h a los vectores en la base B. Denotemos vk = hk (a), Luego, B = {v0 , . . . , vk−1 } Tenemos que para k ∈ {0, . . . , n − 2} se cumple que h (vk ) = vk+1 lo que justifica las n − 1 primeras columnas de la matriz acompa˜nante. Por otro lado si p = xn − αn−1 xn−1 − · · · − α1 x − α0 es el polinomio m´ınimo de h. entonces n−1 n−1 X X n i h (vn−1 ) = h (a) = ph (a) + αi h (a) = 0 + αi vi i=0
y esto justifica la u´ ltima columna de la matriz acompa˜nante.
i=0
Si A es una hbase entonces, la dimensi´on del espacio es igual a la suma de los grados de los hper´ıodos de los vectores en A. Prueba. Como la dimensi´on de la suma directa es la suma de las dimensiones de los suman dos entonces, usando 5.33 vemos que es suficiente probarlo para cuando A contiene un solo vector a. Sea p = perh (a) y n el grado de p. Por 5.32 p = perh (haih ). Como haih es por hip´otesis todo el espacio entonces p es el polinomio m´ınimo de h. Usando 5.34 vemos que la dimensi´on del espacio es n. Si A es una hbase entonces, el polinomio m´ınimo de h es igual al m´ınimo com´un multiplo de los hper´ıodos de los vectores en A. Prueba. Sea p el m´ınimo com´un multiplo de los hper´ıodos de los vectores en A. De 5.13 sabemos que p = perh A. Sea h polinomio m´ınimo de h. Como h es el per´ıodo de todo el espacio E y hAih = E entonces, de 5.32 obtenemos p = perh A = perh hAih = h.
5.6 Descomposici´on en subespacios c´ıclicos radicales. Entre todos los subespacios hc´ıclicos los m´as grandes son aquellos que est´an hgenerados por vectores de per´ıodo igual al polinomio m´ınimo. A estos les llamaremos les llamaremos maximales. Por 5.21 siempre existe alg´un subespacio hc´ıclico maximal. La estrategia para deshacernos del problema de que no cualquier subespacio invariante tiene complementario invariante es limitarnos a los operadores radicales, fijarnos solamente en los subespacios invariantes maximales y construir un complementario que si es invariante. El siguiente resultado es la clave para lograr esto.
Secci´on 5.6 Descomposici´on en subespacios c´ıclicos radicales.
157
Lema del Per´ıodo Sea h ∈ End (E) radical y F un subespacio hc´ıclico maximal. Para cual quier v + F ∈ E/F existe b ∈ v + F tal que perh (b) = perhh (v + F).
Prueba. Sea a un hgenerador de F. Sea pn (con p irreducible) el polinomio m´ınimo de h. Por 5.26 el perhh (v + F) es un divisor com´un a todos los hper´ıodos de los vectores en v + F. Existe un natural ` tal que p` = perhh (v + F). Queremos encontar un vector b en v + F tal que perh (b) no solo es m´ultiplo de p` sino que es igual a p` . Tenemos p`h (v) ∈ F = haih y por lo tanto existe un polinomio q coprimo con p y un natural k tales que ¡ ¢ p`h (v) = pk q h (a) . ¡ ¢ Si k ≥ n entonces, p`h (v) = pk q h (a) = 0 por lo que perh (v) es un divisor de p` y podemos tomar b = v. ¢ ¢ ¡¡ Supongamos que k < n. Como perh (a) = pn , tenemos que perh pk q h (a) = pn−k y por lo tanto perh (v) = pn−k+` . Como pn es el polinomio m´ınimo entonces (n − k + ` ≤ n) ⇒ (` ≤ k) . Denotemos ¢ ¡ b = v − pk−` q h (a) ¡ ¢ Sabemos que pk−` q h (a) ∈ haih = F y por lo tanto b ∈ v + F. Adem´as ¢ ¢ ¡ ¢ ¡ ¡ p`h (b) = p`h v − pk−` q h (a) = p`h (v) − pk q h (a) = 0 por lo que perh (b) es un divisor de p` . Esto significa que perh (b) = perhh (v + F). Lema del Cociente
Sea h : E → E un operador radical y F = haih un subespacio hc´ıclico e del espacio cociente maximal. Si {v1 + F , . . . , vm + F} es una hbase E/F entonces, existen vectores b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que {a, b1 , . . . , bm } es una hbase de E. Prueba. Sea a un hgenerador de F. Aplicando el Lema del Per´ıodo (5.37) a v1 +F, . . . , vm + e F, obtenemos b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que el hper´ıodo de bi es igual al h per´ıodo de v1 + F, i ∈ {1, . . . , m}. Denotemos B = {a, b1 , . . . , bm }. Observese que B r a = {b1 + F, . . . , bm + F} = {v1 + F, . . . , vm + F} e de E/F. Probemos que B es hgenerador de E. Si x ∈ E entonces x + F ∈ ® es una hbase B r a hh , o sea, existen coeficientes polinomiales tales que x + F = qhh (b1 + F) + · · · + rhh (bm + F) = qh (b1 ) + · · · + rh (bm ) + F o lo que es lo mismo x − qh (b1 ) − · · · − rh (bm ) ∈ F = haih . Luego, existe otro polinomio s tal que x − qh (b1 ) − · · · − rh (bm ) = sh (a) y por lo tanto x = sh (a) + qh (b1 ) + · · · + rh (bm ) ∈ hBih .
158
Cap´ıtulo 5. Descomposici´on de operadores lineales
Para probar que B es hindependiente supongamos que existen polinomios tales que 0 = sh (a) + qh (b1 ) + · · · + rh (bm ) . (*) Pasando al cociente (sumando F) obtenemos 0 + F = sh (a) + F + qh (b1 ) + F + · · · + rh (bm ) + F = = qhh (b1 + F) + · · · + rhh (bm + F) y como B r a es independiente obtenemos que qhh (b1 + F) = · · · = rhh (bm + F) = 0 + F. Como el hper´ıodo de bi es igual al de bi + F concluimos que qh (b1 ) = · · · = rh (bm ) = 0. Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.
Ejercicio 100 Compruebe que si eliminamos la condici´on de que F es m´aximal entonces el Lema del Cociente (5.38) no se cumple. Teorema de Existencia de hbases Cualquier operador lineal radical h tiene una hbase. Prueba. Sea h : E → E un operador radical y F = haih subespacio hc´ıclico maximal. Hagamos inducci´on en dim h. Si dim h = 1 entonces F = E y por lo tanto {a} es una hbase. Supongamos dim h > 1. Si F = E entonces otra vez {a} es una hbase. Si no, entonces e E/F es no trivial y dim E/F < dim h. Por hip´otesis de inducci´on E/F tiene una hbase y por el Lema del Cociente (5.38) existe una hbase de E.
Ejercicio 101 Demuestre la siguente afirmaci´on. Sean h : E → E un OL y E = F ⊕ G una descomposici´on de E en subespacios hinvariantes. Si A es una hbase de E y B es una hbase de G entonces A ∪ B es una hbase de E. [183] Ejercicio 102 Use el ejercicio anterior, el Teorema de Descomposici´on en Componentes Radicales (5.20) y el Teorema de Existencia de hbases (5.39) para probar todo operador lineal h tiene una hbase. Teorema de Descomposici´on en Componentes Radicales C´ıclicas Todo operador lineal es suma directa de componentes radicales c´ıclicas. Prueba. Sea h : E → E un OL. Si h es radical entonces E tiene una hbase {a1 , . . . , an }. Por 5.33 E = ha1 ih ⊕ · · · ⊕ han ih . Por 5.28 todos los ha1 ih son subespacios invariantes. Denotando por fi la restricci´on de h a hai ih obtenemos h = f1 ⊕ · · · ⊕ fn . Si h no es
Secci´on 5.6 Descomposici´on en subespacios c´ıclicos radicales.
159
radical entonces usando el Teorema de Descomposici´on en Componentes Radicales (5.20) lo descomponemos en componentes radicales y posteriormente cada componente radical la descomponemos en componentes c´ıclicas. A diferencia de la descomposici´on en componentes radicales una descomposici´on en componentes radicales c´ıclicas no es u´ nica. Esto sucede porque hbases pueden haber mu chas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por el origen forman una descomposici´on en subespacios invariantes radicales c´ıclicos. Sin embargo, lo que si es u´ nico es el “tipo” de la descomposici´on. Si h = f1 ⊕ · · · ⊕ fn es una descomposici´on entonces, a la sucesi´on p, q, . . . , r de los polinomios m´ınimos de las componentes se le llama el tipo de la descomposici´on. Dos tipos se consideran iguales si uno se puede obtener del otro reordenando la sucesi´on. Teorema de Unicidad del Tipo Dos descomposiciones cualesquiera en compo nentes radicales c´ıclicas tienen el mismo tipo. Prueba. De la definici´on del tipo y de la unicidad de la descomposici´on en componentes radicales queda claro que es suficiente demostrar el teorema para OLs radicales h cuyo polinomio m´ınimo es una potencia de un polinomio irreducible que denotaremos por p. Lema 1. El subespacio F = ph (E) es invariante y dim F < dim E. Para cualquier vector x denotaremos x = ph (x) Lema 2. Para cualquier vector x se tiene que perh x = p × perh x. Para cualquier conjunto de vectores X denotaremos X = {x | x ∈ X y x 6= 0}. Lema 3. Si X es una hbase de E entonces X es una hbase de F = ph (E). Las pruebas de estos lemas no son dif´ıciles y las pospondremos hasta el final para no perder el hilo de la prueba del teorema. Sean E = ha1 ih ⊕ · · · ⊕ han ih = hb1 ih ⊕ · · · ⊕ hbm ih dos descomposiciones en subespacios c´ıclicos. Como h es radical los per´ıodos de todos sus vectores son potencias de un polinomio irreducible p. Sean pn i los per´ıodos de los ai y pm i los per´ıodos de los bi . Los tipos de estas dos descomposiciones son pn1 , . . . , pnn y pm 1 , . . . , pm m respectivamente. Reordenando los sumandos podemos suponer que n1 ≥ · · · ≥ nn y que m1 ≥ · · · ≥ mm . Tambi´en podemos suponer que n ≥ m. Tenemos que probar que n = m y que los ni son iguales a los mi . Hagamos la prueba del teorema por induccci´on en dim h. Si dim h = 1 entonces, nece sariamente n = m = 1 y n1 = m1 . Los conjuntos A = {a1 , . . . , an } y B = {b1 , . . . , bm } son dos hbases de E. Por el Lema 3 tenemos que A y B son bases de F = ph (E). Sea k tal que (i > k) ⇒ (ni =©1 o i > n).ª An´alogamente se define ` para los mi . Por el definici´on A = {a1 , . . . , ak } y B = b1 , . . . , b` . ® ® Luego, F = ha1 ih ⊕ · · · ⊕ hak ih = b1 h ⊕ · · · ⊕ b` h son dos descomposicio nes de F y por el Lema 2 los tipos de estas descomposiciones son pn 1 −1 , . . . , pnk −1 y
160
Cap´ıtulo 5. Descomposici´on de operadores lineales
pm 1 −1 , . . . , pm ` −1 . Como por el Lema 1 dim F < dim E, podemos aplicar hip´otesis de in ducci´on y as´ı obtenemos que k = `, n1 − 1 = m1 − 1, · · · , nk − 1 = mk − 1. O sea, todos los ni son iguales a los mi desde i = 1 hasta k = `. Sea ∇ el grado de p. De 5.35 obtenemos que (n1 + · · · + nn ) ∇ = dim E = (m1 + · · · + mm ) ∇ y por lo tanto nk+1 + · · · + nn = mk+1 + · · · + mm . Todos los ni y los mi para i > k son iguales a 1 y por lo tanto n = m. Con esto, para todo i el natural ni es igual a mi y termina la prueba en la suposici´on que nuestros tres lemas sean verdaderos. Prueba del Lema 1. El conjunto de vectores F = ph (E) es un subespacio ya que es la imagen del OL x 7→ ph (x). Es invariante ya que h (ph (x)) = ph (h (x)). Sea x un vector no nulo de per´ıodo pk (claramente estamos asumiendo que E 6= {0}). Si k = 1 entonces, x ∈ ker ph . Si k > 1 entonces, el vector no nulo y = pk−1 (x) es tal que ph (y) = 0. De h aqu´ı, el OL ph tiene nucleo no trivial y por lo tanto F 6= E. Luego, dim F < dim E. ¥ Prueba del Lema 2. Como p es irreducible, el per´ıodo de cualquier vector es un m´ultiplo de p. Si qp = perh (x) entonces, los polinomios r en el anulador de x son los m´ultiplos de pq y por lo tanto (rh (x) = 0) = ((r0 qp)h (x) = (r0 q)h (x) = 0) . Luego, r est´a en el anulador de x si y solo si r/p est´a en el anulador de x. Esto quiere decir que q = perh (x). ¥ Prueba del Lema 3. Sea X = {x1 , . . . , xk } es una hbase de E. Comprobaremos que X = {x | x ∈ X y x 6= 0} es una hbase de F. Efectivamente, si y ∈ F entonces, existen coeficientes polinomiales tales que y = (q1 )h (x1 ) + · · · + (qn )h (xn ) = (q1 )h (x1 ) + · · · + (qn )h (xn ) . Es claro que en la suma de ® la derecha podemos descartar aquellos sumandos para los cuales ai = 0. Luego, F ⊆ X h o sea, X es un hgenerador de F. Supongamos que para ciertos polinomios q1 , . . . , qn se tiene que 0 = (q1 )h (x1 ) + · · · + (qn )h (xn ) = (q1 p)h (x1 ) + · · · + (qn p)h (xn ) . Como X es hindependiente, entonces 0 = (q1 p)h (x1 ) = (q1 )h (x1 ) = · · · = (qn p)h (xn ) = (qn )h (xn ) y por lo tanto X es hindependiente. Luego, X es una hbase de F. ¥ Una consecuencia de estos Teoremas es que ya sabemos cuales son los OLs irreducibles. Teorema de Caracterizaci´on de los OLs irreducibles Un operador lineal es irreducible si y solo si es c´ıclico y radical. Prueba. Sea h un OL. Si h no es c´ıclico radical entonces por el Teorema de Descompo sici´on en Componentes Radicales C´ıclicas (5.40) este se descompone no trivialmente. Si
Secci´on 5.7
Estructura de los operadores c´ıclicos radicales
161
h es c´ıclico radical y se descompone no trivialmente entonces habr´ıan dos descomposicio nes en componentes c´ıclicas radicales con tipos diferentes. Esto contradecir´ıa el Teorema de Unicidad del Tipo (5.41).
Ejercicio 103 El tipo de un OL es el tipo de cualquiera de sus descomposiciones en compo nentes irreducibles. Se dice que dos OL f y g son conjugados si existe un OL invertible h tal que f = h ◦ g ◦ h−1 . Demuestre que dos OL tienen el mismo tipo si y solo si son conjugados. Ejercicio 104 Sean p = perh (a) y q = perh (b) los per´ıodos de dos vectores. Demuestre que si p y q son coprimos entonces haih ∩hbih = {0} y el subespacio haih +hbih es c´ıclico. Ejercicio 105 Use el ejercicio anterior y el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (5.40) para probar que para cualquier OL tiene una descomposici´on en OL c´ıclicos f1 ⊕ · · · ⊕ fn en la cual el polinomio m´ınimo de cada fi divide al polinomio m´ınimo del siguiente. Ejercicio 106 Usando el Teorema de Unicidad del Tipo (5.41) demuestre que el tipo de las descomposiciones introducidas en el ejercicio anterior es u´ nico.
5.7 Estructura de los operadores c´ıclicos radicales En esta secci´on el acr´onimo OLCR significar´a operador lineal c´ıclico radical. Subespacios invariantes Teniendo en cuenta el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (5.40), observamos que todos los subespacios invariantes de cualquier OL est´an determina dos a priori por los subespacios invariantes de sus componentes c´ıclico radicales. Como los OLCR son irreducibles estos no tienen subespacios invariantes complementa rios. Sin embargo, si pueden tener subespacios invariantes no triviales. Queremos ver cuales son todos los subespacios invariantes de los OLCR. Sea h : E → E un OLCR con polinomio m´ınimo pm . Denotemos por ∇ el grado del polinomio p. Los espacios Ek = ker pkh tienen las siguientes propiedades 1. {0} = E0 ⊆ E1 ⊆ · · · ⊆ Em = E 2. Ek = ph (Ek+1 ) 3. (Ek = hxih ) ⇒ (Ek−1 = hph (x)ih ) 4. dim Ek = k∇ 5. son los u´ nicos subespacios invariantes de h. Prueba. Como h es c´ıclico existe un vector a de per´ıodo pm tal que E = haih . Propiedad 1. Las igualdades {0} = E0 y Em = E son obvias. Sea x ∈ Ek entonces pkh (x) = 0 y por lo tanto pk+1 (x) = ph (0) = 0. Esto muestra que Ek ⊆ Ek+1 . h
162
Cap´ıtulo 5. Descomposici´on de operadores lineales
Propiedad 2. Sea x ∈ Ek entonces, pk−1 (ph (x)) = 0 o sea, ph (x) ∈ Ek−1 . Comprobe h mos que los OLs ∂k : Ek 3 x 7→ ph (x) ∈ Ek−1 son ¢sobreyectivos. Sea qh (a) cualquier ¡ k−1 k−1 vector en Ek−1 . Sabemos que ph (qh (a)) = p q h (a) = 0. Como el perh (a) = pm entonces, pk−1 q es un m´ultiplo de pm . Luego, q es un multiplo de pm−k+1 . Como k ≤ m entonces, p es un factor de q. Sea r un polinomio tal que rp = q. Tenemos pkh (rh (a)) = pk−1 (qh (a)) = 0 y por lo tanto rh (a) ∈ Ei+1 . Adem´as ∂i (rh (a)) = ph (rh (a)) = qh (a) h y esto nos dice que ∂k es sobreyectiva. Propiedad 3. Sea x tal que Ek = hxih . Por la propiedad 2 tenemos que ph (x) ∈ Ek−1 y por la invariancia de los nucleos (5.9) hph (x)i ⊆ Ek−1 . Sea y ∈ Ek−1 . Por la propiedad 2 existe z ∈ Ek tal que y = ph (z). Como Ek = hxih obtenemos que existe un polinomio q tal que z = qh (x) y por conmutatividad y = qh (ph (x)). Luego, hph (x)i = Ek−1 . ® Propiedad 4. Por la definici´on de a iterando la propiedad 3 obtenemos Ek = pm−k (a) . h h m−k m k Como el per´ıodo¡de ¢a es p entonces el per´ıodo de ph (a) es p . Por 5.35 tenemos que dim Ek = grado pk = k∇. Propiedad 5. Sea F cualquier subespacio hinvariante de E. Como p es irreducible, entonces el orden de F es igual a pk con k ≤ m y de aqu´ı F ⊆ ker pkh = Ek . Por 5.21 existe un vector x ∈ F de per´ıodo pk . Como F es invariante hxih ⊆ F. Por 5.35 y la propiedad 4 tenemos que dim hxih = k∇ = dim Ek . Luego, las inclusiones hxih ⊆ F ⊆ Ek son en realidad una igualdad. Formas can´onicas Un OL h siempre se descompone en suma directa de sus componentes radicales c´ıclicas. Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es diagonal por bloques. Los bloques son matrices de las componentes de h que son OLCRs. Nuestra tarea ahora es encontrar bases en las cuales la matriz de un OLCR es lo m´as “simple” posible. Sea h un OLCR con polinomio m´ınimo pm y p de grado ∇. No podemos aspirar a encontrar una base en la cual la matriz de h sea diagonal por bloques ya que h es irreducible. Lo m´as que podemos hacer es encontrar una base en la cual la matriz de h sea triangular por bloques. Por 5.43.5, esta triangulaci´on se tiene que hacer escogiendo en cada conjunto ker pkh \ ker pk−1 un conjunto de vectores Ak que sea LI maximal. En este caso el conjunto h Bk = A1 ∪ · · · ∪ Ak es una base de Ek = ker pkh y en particular Bm es una base de todo el espacio. Haciendo un razonamiento an´alogo al de 5.2 vemos que ⎛ ⎞ T11 T12 · · · T1m la matriz de h en la base Bm tiene la forma que se muestra en ⎜ 0 T22 · · · T2m ⎟ ⎟ el recuadro a la derecha. Observemos que por 5.43.4 se tiene ⎜ ⎝ ··· ··· ··· ··· ⎠ que |A1 | = |A2 | = · · · = |Am | = ∇ y esto nos simplifica 0 0 0 Tm m mucho nuestra im´agen de la matriz ya que todos los bloques Tij son cuadrados de orden ∇. Veamos cuales son los OLs de las matrices Tij Denotemos Fk = hAk i. El subespacio Fk es complementario a Ek−1 en Ek o sea Ek = Ek−1 ⊕ Fk o globalmente tenemos E = F1 ⊕ · · · ⊕ Fm . Luego tenemos proyecciones πk : E → Fk . Con ellas definimos τij : Fj → Fi
Secci´on 5.7
Estructura de los operadores c´ıclicos radicales
163
como la restricci´on a Fj de πi ◦ h. Verbalmente, τij se obtiene tomando un vector en Fj hallandole su imagen por h y proyectando el resultado a Fi . El bloque Tij es la matriz de τij en las bases Aj de Fj y Aj de Fj . No tiene sentido dar argumentos a favor de esto. Simplemente hay que entender bien que es la matriz de una transformaci´on lineal. Observese que si i > i entonces h (Fj ) ⊆ Ej y πi (Ej ) = {0} y por lo tanto τij es nulo. De aqu´ı los ceros debajo de la diagonal. Si no le ponemos m´as restricciones a los Ak entonces no hay nada m´as que decir. Una condici´on que es natural (por 5.43.2) pedirle a los Ak es que est´en relacionados por las igualdades Ak = ph (Ak+1 ). En este caso obtenemos por extensi´on lineal que las funciones Fi+k 3 x 7→ pkh (x) ∈ Fi son isomorfismos de espacios vectoriales al transformar uno a uno ¡ ¢−1 la base Ai+k en la base Ai . En este caso se cumple que τi+k,j+k = pkh ◦ τij ◦ pkh . La prueba de esto la dejaremos en calidad de ejercicio. En el lenguaje de matrices esto quiere decir que Ti+k,j+k = Tij . M´as verbalmente, que los bloques en la diagonal y en cada paralela a la diagonal coinciden. ¡
¢
Ejercicio 107 Pruebe que τi+k,j+k = pkh ◦ τij ◦ pkh −1 . [183] Ejercicio 108 Sean E,E0 ,F y F0 , espacios vectoriales; i, j isomorfismos de espacios vectoriales y f, g transformaciones lineales que hacen con mutativo el diagrama del recuadro. Pruebe que si A y B son bases de E y F respectivamente y M es la matriz de f en las bases A y B entonces, la misma M es la matriz de g en las bases j (A) y i (B).
i
F ←→ F0 f↑ ↑g E ←→ E0 j
Para continuar simplificando nuestra matriz necesitamos hacer un aparte para explorar una idea acerca de los polinomios. No es dif´ıcil probar que cualquier sucesi´on de polinomios r0 , r1 , . . . , ri , . . . que cumpla que el grado de ri es igual a i forma una base del espacio de polinomios. En nuestro caso, estamos interesados en la base 1, x, . . . , x∇−1 , p, xp, . . . , x∇−1 p, p2 , xp2 , . . . , x∇−1 p2 , p3 , xp3 , . . . donde ∇ es el grado de nuestro polinomio irreducible p. Si expresamos un polinomio ar bitrario q en esta base entonces, sacando factores com´unes, vemos que existen unos u´ nicos polinomios r, s, . . . , t de grado menor que ∇ tales que q = rp0 + sp1 + · · · + tpn . A esta representaci´on de q la llamaremos expansi´on de q en potencias de p. Continuemos con nuestr´a construcci´on de una matriz para el OL h. Recordemos que h es c´ıclico o sea, el espacio tiene un vector a que es hgenerador. Luego, nuestro conjunto in dependiente Am (que contiene ∇ vectores) lo podemos escribir Am = {rh (a) , . . . , sh (a)} donde r, . . . , s son ciertos polinomios. Escribamos rh (a) seg´un la expansi´on de r en poten ¡ ¡ ¢ ¢ cias de p rh (a) = r0 p0 h (a) + r1 p1 h (a) + · · · + (rn pn )h (a) . ©¡ ¡ ª ¢ ¢ (Am ) entonces A1 = rpm−1 h (a) , . . . , spm−1 h (a) y la corres Como A1 = pm−1 h
164
Cap´ıtulo 5. Descomposici´on de operadores lineales
¡ ¢ pondiente expansi´on de rpm−1 h (a) en potencias de p es ¡ m−1 ¢ ¡ m−1 ¢ (a) = r0 p (a) + (r1 pm )h (a) + · · · + (rn pm+n )h (a) . rp h h Observese que como a tiene hper´ıodo igual a pm entonces, todos los ¡ ¢ sumandos en la ex presi´on anterior excepto el primero son iguales a cero. O sea, rpm−1 h (a) no depende de cuales son los polinomios son r1 , . . . , rn . Como T11 depende exclusivamente de quien es A1 entonces, si cambiamos algunos de los polinomios r1 , . . . , rn no cambiaremos T11 y por lo tanto ningun bloque Tii de la diagonal (todos son iguales). Pongamos r1 = . . . = rn = 0. Esto obviamente cambia nuestra matriz pero no la diagonal. Este razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s que definen a Am . Por esto, postularemos que estos polinomios son todos de grado menor que ∇ y esto no afecta a cua les pueden ser nuestros bloques en la diagonal. Veamos como esto afecta a los otros bloques. Los polinomios r, . . . , s, rp, . . . sp son LI porque de αr + · · · + βs + γrp + · · · + δsp = 0 obtenemos α (r)h (a) + · · · + β (s)h (a) + γ (rp)h (a) + · · · + δ (sp)h (a) = 0 y como Am ∪ Am−1 es LI, obtenemos que los coeficientes son cero. El espacio vectorial de todos los polinomios de grado menor que 2∇ tiene dimensi´on 2∇. Como r, . . . , s, rp, . . . sp son 2∇ polinomios LI de grado menor que 2∇ entonces, esta es una base de este espacio. El grado del polinomio xr es ∇ < 2∇. Luego, existen escalares tales que h (rh (a)) = (xr)h (a) = αrh (a) + · · · + βsh (a) + γ (rp)h (a) + · · · + δ (sp)h (a) o en otras palabras h (rh (a)) = am + am−1 donde am ∈ hAm i = Fm y am−1 ∈ hAm−1 i = Fm−1 . Esto quiere decir que la proyecci´on de h (rh (a)) a Fm es am , la proyecci´on de h (rh (a)) a Fm−1 es am−1 y todas las dem´as proyecciones son cero. Este razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s que definen a Am . Luego, las funciones τim : Fm → Fi son nulas para i ≥ m − 2 y ⎛ ⎞ por lo tanto los bloques T1m , . . . , Tm−2,m y los bloques P M ··· 0 0 en las paralelas a la diagonal correspondientes son todos ⎜ 0 ⎟ P · · · 0 0 ⎜ ⎟ nulos. Esto simplifica mucho la forma de nuestra matriz. ⎜ ··· ··· ··· ··· ··· ⎟ ⎜ ⎟ que ahora tiene solamente la diagonal y la paralela m´as ⎝ 0 0 ··· P M ⎠ cercana diferentes de cero. Y en definitiva, se ve ahora 0 0 ··· 0 P como en el recuadro a la izquierda. Esta forma nos permite simplificar mucho ciertas cosas. La m´as obvia es que para calcu lar P podemos pensar que nuestro OCLR tiene polinomio m´ınimo p o sea, m = 1. Y para calcular P y M podemos limitarnos a un OCLR con polinomio m´ınimo p2 o sea, m = 2. La segunda, menos obvia, es que el c´alculo de P y M no depende del operador lineal sino del polinomio p. M´as detalladamente, debemos escoger una base q1 , . . . , q∇ del espacio de polinomios de grado menor que ∇ y ver como se descompone el polinomio xqi somo combinaci´on lineal de los polinomios q1 , . . . , q∇ , q1 p, . . . , q∇ p. Los coeficientes de esta combinaci´on lineal son las entradas de la i´esima columna de P y M. Ahora, veremos tres casos particulares: ∇ = 1, p es cuadr´atico en R [x] y finalmente es
Secci´on 5.7
Estructura de los operadores c´ıclicos radicales
165
tudiaremos que ocurre cuando tomamos q1 , . . . , q∇ igual a la base can´onica 1, x, . . . , x∇−1 . ∇=1
Si ∇ = 1 entonces hay que escoger un polinomio de grado ⎛ ⎞ λ 1 ··· 0 0. Obviamente escogeremos q = 1. Como p es m´onico de grado ⎜ 0 λ ··· 0 ⎟ ⎟ 1 lo podemos escribir en la forma p = x − λ. Tenemos xq = ⎜ ⎜ ··· ··· ··· ··· ⎟ ⎟ ⎜ x = λ + (x − λ) = λq + 1qp. Luego, P = λ y M = 1 y nuestra ⎝ 0 0 ··· 1 ⎠ matriz se ve como en el recuadro a la derecha. A las matrices de 0 0 ··· λ este tipo las llamaremos celdas de Jord´an. El caso ∇ = 1 nos parece ya muy sencillo pero es probablamente, el m´as importante. Si nuestro campo es el de los n´umeros complejos entonces, por el Teorema de Gauss todo polinomio irreducible es de grado 1. Luego, ∇ = 1 es el caso general si los escalares son los complejos. Combinando el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (5.40) con las celdas de Jord´an obtenemos el siguiente. Forma normal de Jord´an Si h es un operador lineal en un espacio vectorial finito dimensional sobre el campo de los n´umeros complejos entonces, existe una base del espacio vectorial en la cual la matriz del operador es diagonal por bloques y los bloques son celdas de Jord´an. Camille Jordan (Lyon 1838 Par´ıs 1922) Matem´atico e ingeniero. Co nocido tanto por su trabajo sobre la teor´ıa de los grupos como por su inuyente libro “Cours d’analyse”. Su libro “Trait´e des substitutions et des e´ quations alg´ebriques” publicado en 1870 contiene su descubri miento de las ahora conocidas como formas normales de Jord´an. Fu´e el primer matem´atico que realmente entendi´o a Galois despues de la pu blicaci´on p´ostuma de los trabajos de Galois en 1846 y contribuy´o nota blemente a que la Teor´ıa de Grupos y la Teor´ıa de Galois fueran parte de la corriente principal de las matem´aticas. ∇=2
¶ Nos interesaremos en los polinomios irreducibles de grado 2 con coefi µ a −b 2 cientes reales. Sabemos que son de la forma (x − a) + b2 con b 6= 0. Una b a matriz cuyo polinomio m´ınimo es de esta forma es la del recuadro a la derecha. Como no hay un candidato m´as simple para nuestros bloques diagonales aqu´ı haremos µ ¶ las cosas al revez. Buscaremos nuestros polinomios para que P sea igual a esta y u matriz y veremos que matriz M podemos obtener. Denotemos las entradas de z v la matriz M como se muestra a la izquierda. Denotemos p = (x − a)2 + b2 . Necesitamos dos polinomios de grado 1 para formar la base q = αx + β y r = γx + δ.
166
Cap´ıtulo 5. Descomposici´on de operadores lineales
Nuestra inc´ognitas α, β, γ, δ, y, z, u y v deben cumplir dos ecuaciones polinomiales xq = aq + br + ypq + zpr . xr = ar − bq + upq + vpr Igualando los coeficientes en las potencias de x obtenemos 8 ecuaciones. De estas, hay 2 que son combinaci´on lineal de las dem´as por lo que tenemos 6 ecuaciones y 8 inc´ognitas. Por esto, tomaremos α y γ como par´ametros. Resolviendo el sistema, obtenemos una u´ nica soluci´on: αγ γ2 β = bγ − aα , y = , u = b (α2 + γ2 ) b (α2 + γ2 ) 2 −α −αγ −δ = aγ + bα , z = , v= . 2 2 b (α + γ ) b (α2 + γ2 )
⎛ ⎜ ⎜ ⎝
Aqu´ı tenemos la libertad de escoger α y γ y para cada una de ellas obtendr´ıamos matri ⎞ ces M diferentes. Tomemos α = 0 y γ = 1 y obtenemos q = b, a −b 0 1/b r = x − a, u = 1/b y las otras tres entradas de M son cero. b a 0 0 ⎟ ⎟ Luego, si h : R4 → R4 es un OLCR con polinomio m´ınimo ´2 0 0 a −b ⎠ ³ 0 0 b a (x − a)2 + b2 tal que b 6= 0 entonces hay una base de R4 en la cual su matriz es igual a la del recuadro de la izquierda.
Lo que no nos gusta es el 1/b en la esquina superior derecha. ¿Podemos cambiarlo por 1? La respuesta es si, pero para esto necesitamos cambiar la base de una manera no prevista en la teor´ıa general que desarrollamos. Nuestra base del espacio de polinomios es b, x − a, bp, (x − a) p y si la cambiamos por bp p b, x − a, , (x − a) b b todo permanece igual excepto que el 1/b se convierte en 1. La clave del porqu´e esto funcionar´a en general es que en nuestra teor´ıa nunca realmente se us´o que p fuera m´onico. Por esto, si cambiamos en la base p por p/b entonces en nuestra matriz todo lo que est´a por arriba de los bloques en la diagonal se multipli car´a por b. Luego, si h : R2m ³ → R2m es un ´ OLCR m 2 tal con polinomio m´ınimo (x − a) + b2
que b 6= 0 entonces hay una base de R2m en la cual su matriz es igual a la del recuadro. A las matrices de este tipo las llamaremos celdas cuadr´aticas.
⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝
a b 0 0 ··· 0 0 0 0
−b a 0 0 ··· 0 0 0 0
0 0 a b ··· 0 0 0 0
1 0 −b a ··· 0 0 0 0
··· ··· ··· ··· ··· ··· ··· ··· ···
0 0 0 0 ··· 0 0 a b
0 0 0 0 ··· 1 0 −b a
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
Como en los reales tenemos polinomios irreducibles de dos tipos: lineales y cuadr´aticos entonces la forma normal es un poco m´as complicada.
Secci´on 5.7
Estructura de los operadores c´ıclicos radicales
167
Forma normal real Si h es un operador lineal en un espacio vectorial finito dimensional sobre el campo de los n´umeros reales entonces, existe una base del espacio vecto rial en la cual la matriz del operador es diagonal por bloques y los bloques son celdas de Jord´an o celdas cuadr´aticas.
Usando la base can´onica
Ahora©regresemos al ªcaso general. Sea p irreducible de grado ∇. El conjunto de po linomios 1, x, . . . , x∇−1 es una base del espacio de polinomios de grado menor que ∇. Denotemos qi = xi a los elementos de esa base. Para k ≤ ∇ − 2 tenemos que xqi = qi+1 . Si p = x∇ − α∇−1 x∇ − · · · − α1 x − α0 entonces, xq∇−1 = x∇ = α0 q0 + α1 q1 + · · · + α∇−1 q∇−1 + 1q0 p lo que quiere decir que nuestra matriz P es la matriz acompa˜nante del polinomio p y nuestra matriz M es la que tiene un 1 en la esquina superior derecha y todas sus dem´as entradas son cero. O sea, nuestro OL (para m = 2) se puede representar con la siguiente matriz ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝
0 1 ... 0
... ... ... ...
0 0 ... 1
0
α0 α1 ... α∇−1
0 0 ... 0 0 1 ... 0
... ... ... ... ... ... ... ...
0 0 ... 0 0 0 ... 1
1 0 ... 0 α0 α1 ... α∇−1
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
Debe ser claro el tipo de la matriz para m m´as grandes. A una matriz de este tipo la llamaremos celda can´onica. Observese que las celdas can´onicas para ∇ = 1 son celdas de Jord´an. Sin embargo, para ∇ = 2 las celdas can´onicas y las celdas cuadr´aticas son diferentes. Efectivamente, supongamos m = 2. Como p = (x − a)2 + b2 = x2 − 2ax + c donde c = a2 + b2 entonces, en la desigualdad ⎛ ⎞ ⎛ ⎞ 0 −c 0
1
a −b 0 1 a 0 0 0 a −b 0 0 b a
⎜ 1 2a 0 0 ⎟ ⎜ b 6 ⎝ 0 ⎝ 0 0 0 −c ⎠ = 0
0
1
2a
⎟ ⎠
la celda can´onica es la de la izquierda y la celda cuadr´atica es la de la derecha. La ventaja de las celdas cuadr´aticas es que son m´as f´aciles de intuir geom´etricamente mediante rotaciones. La ventaja de las celdas can´onicas es que siempre funcionan.
168
Cap´ıtulo 5. Descomposici´on de operadores lineales
Forma normal can´onica Si h es un operador lineal en un espacio vectorial finito dimensional sobre cualquier campo entonces, existe una base en la cual la matriz del operador es diagonal por bloques y los bloques son celdas can´onicas.
5.8 Polinomio caracter´ıstico Rectas invariantes Los subespacios invariantes no triviales m´as sencillos que nos podemos imaginar son los de dimensi´on 1 o sea las rectas por el origen. Si h : E → E es un OL y F es invariante de dimensi´on 1 entonces la restricci´on de h a F es una homotecia. Sea {a} una base de F. Entonces, existe un escalar λ (la raz´on de la homotecia) tal que h (a) = λa. Rec´ıprocamente, supongamos que existen un escalar λ y un vector no nulo a tales que h (a) = λa entonces, al vector a se le llama vector propio del operador h y al escalar λ se le llama valor propio de h. Tambi´en decimos que λ es el valor propio correspondiente al vector propio a. Observese que el valor propio correspondiente a un vector es u´ nico pues de λa = λ0 a obtenemos (λ − λ0 ) a = 0 y como a 6= 0 esto implica que λ = λ0 . La recta hai es hinvariante si y solo si a es un vector propio de h. Prueba. Ya vimos la parte “solo si”. Supongamos que a es un vector propio. Sea λ su correspondiente valor propio. Por linearidad de h, para cualquier escalar α se cumple que h (αa) = αh (a) = α (λa) = (αλ) a y esto significa que hai es hinvariante. El polinomio caracter´ıstico de un operador lineal Recordemos que el determinante de un OL est´a bien definido como el determinante de su matriz en una base arbitraria. El hecho de que h (a) = λa lo podemos expresar como que el operador λI − h evaluado en el vector a es cero. O sea el vector est´a en el nucleo de λI − h. Esto quiere decir que ker (λI − h) es el conjunto de todos los vectores propios correspondientes a λ. Sabemos que ker (λI − h) es no vac´ıo si y solo si det (λI − h) = 0. Luego, λ es un valor propio de h si y solo si det (λI − h) = 0. As´ı para calcular los valores propios de h podr´ıamos probar todos los elementos λ del campo y comprobar si det (λI − h) = 0. Esta estrategia es imposible de realizar si el campo K es infinito. Por esto es mejor considerar la funci´on K 3 x 7→ det (xI − h) ∈ K y encontrar sus raices.
Secci´on 5.8
Polinomio caracter´ıstico
169
det (xI − h) es un polinomio m´onico de grado dim h en la variable x. Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se calcule. Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dim h. Sea αNN la matriz de h en la base N. La matriz de xI − h en la base N es βNN = xδNN − αNN donde δNN es el delta de Kronecker (la matriz identidad). Las entradas de βNN son βii = x − αii y βij = −αij para cualquier j 6= i. El determinante lo calculamos por la definici´ X on Y det βNN = sgn σ βiσ i . σ∈S N
i∈N
Como los βij son polinomios, el producto y la suma de polinomios son polinomios, tenemos que det βNN es un polinomio. Observemos adem´as que βNN solo contiene la variable x en la diagonal. Por esto, la potencia m´as grande de x en det βNN se obtiene cuando la permutaci´on σ es la identidad, o sea en el producto Y Y βii = (x − αii ) . i∈N
i∈N
Aplicando la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.
Al polinomio det (xI − h) se le llama polinomio caracteristico de h. De esta manera, los valores propios de h son las raices del polinomio caracter´ıstico. Si αNN es la matriz de h en la base N entonces, los vectores propios correspondientes a un valor propio λ se pueden hallar resolviendo el sistema de ecuaciones lineales (λδNN − αNN ) aN = 0N . Este es un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es ker (λI − h). El conjunto ker (λI − h) es un subespacio invariante que se conoce como el subespacio propio correspondiente al valor propio λ. La restricci´on de h a un subespacio propio es una homotecia. De hecho, los subespacios propios son los subespacios invariantes m´as grandes en los que h es una homotecia.
Ejercicio 109 Demuestre que el coeficiente en xn−1 del polinomio caracter´ıstico multipli cado por −1 es la suma de las entradas diagonales de la matriz del operador en cualquier base. A este escalar se le llama la traza del operador.
El polinomio caracter´ıstico y el polinomio m´ınimo
Si h = f ⊕ g entonces, el polinomio caracter´ıstico de h es igual al producto de los polinomios caracter´ısticos de f y g.
170
Cap´ıtulo 5. Descomposici´on de operadores lineales
¶ Prueba. Sean F y G los subespacios invariantes en los cuales estan µ M 0 definidas f y g. Por 5.3, si A es una base de F y B es una base de G 0 M0 entonces, en la base de todo el espacio A ∪ B, la matriz de xI − h es diagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual al producto de los determinantes de los bloques diagonales. El determinante del bloque superior izquierdo es el de xI − f o sea, el polinomio caracter´ıstico de f. El determinante del bloque inferior derecho es el de xI − g o sea, el polinomio caracter´ıstico de g. ¥ Si h es c´ıclico entonces, los polinomios m´ınimo y caracter´ıstico de h coinciden. Prueba. Si h es c´ıclico con polinomio m´ınimo ⎛ ⎞ n x 0 ... 0 −α0 p = x − αn−1 xn−1 − · · · − α1 x − α0 entonces de −α1 ⎟ 5.34 sabemos que en cierta base la matriz de h es la ⎜ ⎜ −1 x ... 0 ⎟ ⎟ ... ... ... ... ... matriz acompa˜nante de p que denotaremos por A. Por ⎜ ⎜ ⎟ −αn−2 ⎠ definici´on de matriz acompa˜nante la matriz xI − A es ⎝ 0 0 ... x 0 0 ... −1 x − αn−1 la que se muestra a la derecha. El determinante de esta matriz es el polinomio caracter´ıstico de h. Calcul´emoslo. Triangulando con el m´etodo de eliminaci´on de Gauss obtenemos que su determinante ⎛ es igual al de la matriz ⎞ x 0 ... 0 −α0 ⎜ 0 x ... 0 ⎟ −α1 − α0 x−1 ⎜ ⎟ ⎜ ... ... ... ... ⎟. ... ⎜ ⎟ ⎝ 0 0 ... x −αn−2 − αn−3 x−1 − · · · − α1 x−n+3 − α0 x−n+2 ⎠ 0 0 ... 0 x − αn−1 − αn−2 x−1 − · · · − α1 x−n+2 − α0 x−n+1 Multiplicando las entradas en la diagonal obtenemos p.
5.51
Teorema de HamiltonCaleyFrobenius El polinomio caracter´ıstico es un m´ultiplo del polinomio m´ınimo. Estos dos polinomios tienen los mismos factores irreducibles.
Prueba. Por el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (5.40) todo OL tiene una descomposici´on en componentes c´ıclicas. Por 5.50 los polinomios m´ınimos y caracter´ısticos coinciden en cada una de las componentes. Por 5.49 el polinomio caracter´ısti co es el producto de los de las componentes. Por 5.36 el polinomio m´ınimo es el m´ınimo com´un m´ultiplo de los de las componentes. El m´ınimo com´un m´ultiplo es siempre un divi sor del producto. El m´ınimo com´un m´ultiplo siempre tiene los mismos factores irreducibles que el producto. La primera afirmaci´on se conoce en la literatura como Teorema de HamiltonCaley y es equivalente por definici´on de polinomio m´ınimo a que el polinomio caracter´ıstico de h
Secci´on 5.8
Polinomio caracter´ıstico
171
evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius. Una curiosidad hist´orica es que fu´e Frobenius el que di´o la primera prueba completa del Teorema de HamiltonCaley. Es posible dar muchas diferentes demostraciones del Teorema de HamiltonCaley que no pasan por la descomposici´on de un operador en componentes c´ıclicas (que es el resultado “duro” de esta teor´ıa). La idea de una de ellas es tomarse un vector a, observar que en el subespacio invariante haih los polinomios caracter´ıstico y m´ınimo coinciden y por lo tanto el polinomio caracter´ıstico est´a en el hanulador de a. Como el vector a es arbitrario entonces el polinomio caracter´ıstico est´a en el hanulador de todo el espacio y por lo tanto es un m´ultiplo del polinomio m´ınimo. El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esen cial aqu´ı es saber que si p es un factor irreducible del polinomio caracter´ıstico entonces, ker (ph ) 6= ∅ o sea, existen vectores de per´ıodo p. Esto es inmediato en el caso complejo porque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un vector propio correspondiente. En el caso general, para que esto funcione, es necesaria la introduc ci´on del campo de descomposici´on de un polinomio y esto queda fuera de los objetivos de este libro. Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en mucho para la prueba de la existencia de hbases, o lo que es lo mismo, la existencia de una des composici´on en componentes c´ıclicas.
Ejercicio 110 Un OL es diagonalizable si existe una base en la cual su matriz es diagonal. Pruebe que un OL es diagonalizable si y solo si su polinomio m´ınimo es un producto de diferentes polinomios de grado 1. Ejercicio 111 Un OL es triangulable si existe una base ordenada en la cual su matriz es triangular. Pruebe que un OL es triangulable si y solo si su polinomio caracter´ıstico es un producto de polinomios de grado 1. En particular, todo OL complejo es triangulable.
172
Ejercicio 1 (Secci´on 1.1 p´agina 2) La suma y el producto est´an bien definidas en N, Z, Q, R y C. La resta en Z, Q, R y C. La divisi´on en Q, R y C. La exponenciaci´on es m´as complicada ya que aunque est´a bien ´ definida ³ en N no est´a ´bien definida en Z, Q y R ya ¡ −1 1 ¢ ³ 1/2 √ que 2 = 2 ∈ /Z , 2 = 2∈ / Q y (−1)1/2 = i ∈ / R . Por otro lado, la exponencia ci´on si esta bien definida en √ R+ (los mayores que cero). Para ver esto. usamos las f´ormulas a a a p/q (p/q) = p /q , a = q ap , (l´ımi→∞ ai )b = l´ımi→∞ abi y finalmente si c = l´ım ai i→∞ √ entonces bc = l´ımi→∞ bai . Con ellas reducimos la prueba a demostrar que n m es un re al para cualesquiera (diferentes de cero) naturales n y m. Esto u´ ltimo es equivalente a ver que la funci´on f (x) = xn − m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 y f (m) ≥ 0 esto necesariamente tiene que ocurrir. No es dif´ıcil ver, que la funci´on y = ax es estrictamente creciente en la variable x por lo que esta tiene una funci´on inversa log a y definida en R+ . Las operaciones m´aximo com´un divisor y m´ınimo com´un m´ultiplo est´an definidas para los naturales (y polinomios). Ejercicio 2 (Secci´on 1.1 p´agina 2) Una operaci´on unaria en el conjunto A es una funci´on de A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operaci´on x 7→ −x es una operaci´on unaria. Otros ejemplos comunes son el hallar el complemento de un conjunto o el hallar el complejo conjugado de un n´umero complejo. Ejercicio 3 (Secci´on 1.1 p´agina 2) El area del tri´angulo con lados a, b y c no es una opera ci´on ternaria en R ya que no para cualesquiera a, b y c existe un tri´angulo con lados de esas longitudes.
Ejercicio 4 (Secci´on 1.1 p´agina 2) La f´ormula (a + b) (x + y) se expresa en notaci´on sufija como ab + xy + ×. Ejercicio 5 (Secci´on 1.1 p´agina 3) La suma, el producto, el m´aximo com´un divisor el m´ıni mo com´un m´ultiplo y el m´aximo son operaciones conmutativas. Las dem´as no lo son. Ejercicio 6 (Secci´on 1.1 p´agina 3) Ya vimos en el texto que la exponenciaci´on no es asocia tiva. Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta no es asociativa. Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi´on no es asociativa. Tampoco es asociativa el logaritmo. El resto de las operaciones si son asociativas. Ejercicio 7 (Secci´on 1.1 p´agina 4) La resta no tiene elemento neutro ya que de a − e = a se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo ocurre con la divisi´on. La operaci´on de exponenciaci´on no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero
174
Soluciones de ejercicios selectos
12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro del producto es el uno. El 1 tambi´en es el neutro para el m´ınimo com´un m´ultiplo. La operaci´on de m´aximo com´un divisor no tiene neutro. Ejercicio 8 (Secci´on 1.1 p´agina 5) Es importante se˜nalar que el inverso tiene sentido solo si hay neutro. El inverso de a para la suma es −a, para el producto es a1 . Aunque el m´ınimo com´un m´ultiplo tiene neutro 1, esta operaci´on no tiene inversos. Ejercicio 9 (Secci´on 1.1 p´agina 5) Fij´emonos en un conjunto U y en el conjunto de todos los subconjuntos de U que denotaremos por 2U . En 2U est´an bien definidas las operaciones de uni´on e intersecci´on de conjuntos. Estas operaciones cumplen las propiedades requeridas como se puede observar en los dos siguientes diagramas de Venn.
A
A B C
A ∩ (B ∪ C) = = (A ∩ B) ∪ (A ∩ C)
B C A ∪ (B ∩ C) = = (A ∪ B) ∩ (A ∪ C)
Ejercicio 11 (Secci´on 1.2 p´agina 8) No porque (1, 0) × (0, 1) = (0, 0) lo que muestra que K2 no es dominio de integridad y por lo tanto no es un campo. √ Ejercicio 12 (Secci´on 1.2 p´agina 9) Supongamos que n es un√racional. Decomponiendo su numerador y denominador en factores primos obtenemos que n = pn1 1 pn2 2 . . . pnt t para ciertos naturales primos p1 p2 . . . pt y ciertos n´umeros enteros n1 , n2 , . . . , nt . Pero entonces, 1 2n 2 t n = p2n . . . p2n y por √ lo tanto ∀i ∈ {1, ..., t} 2ni ≥ 0. Luego, todos los ni son t 1 p2 naturales lo que significa que n es natural. √ √ Ejercicio 13 (Secci´on 1.2 p´agina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural. Por el ejercicio anterior, no es racional. Ejercicio 14 (Secci´on 1.2 p´agina 9) Siempre podemos medir un segmento de recta con cada vez m´as precisi´on (al menos te´oricamente). Cada medici´on nos da un n´umero racional. Luego, la longitud del segmento es un l´ımite de racionales por lo que es un real. Ejercicio 18 (Secci´on 1.3 p´agina 12) Por 1.1.4 sabemos que f (0)¡= 0 y ¢f (1) = 1. Si¡ f (a) ¢= 0 y¡ a no¢ fuera el cero de A entonces tendr´ıamos 1 = f (1) = f aa−1 = f (a) f a−1 = 0f a−1 = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y) entonces, f (x − y) = 0 y por lo tanto x = y. Ejercicio 21 (Secci´on 1.4 p´agina 16)
Soluciones de ejercicios selectos La tabla de multiplicar en Z5 es la derecha. Luego el elemento in verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inverso de 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tabla de multiplicar de Z5 \0 en cada columna y en cada rengl´on nos en contramos con todos los elementos posibles. Esto es una propiedad de las operaci´ones binarias de los grupos. De hecho, un conjunto con una operaci´on binaria asociativa y con elemento neutro es un grupo si y solo si su tabla de multiplicar cumple esta propiedad.
175 • 0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
Ejercicio 22 (Secci´on 1.4 p´agina 16) Sea K un campo y G un subgrupo finito de (K \ 0, •). Si x ∈ G entonces al natural n m´as peque˜n©o tal que xn = 1ª lo llamaremos orden de x. En este caso todos los elementos de hxi = 1, x, x2 . . . xn−1 son diferentes y la funci´on f : (hxi , •) 3 xi 7→ i ∈ (Zn , +) es un isomorfismo de grupos. Luego, lo que hay que probar es que en G existe un elemento de orden q = |G|. 1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = {xf | f ∈ F} se le llama clase lateral de x. Tenemos que si f ∈¡ F entonces F¢es un subgrupo. De ¢ fF ¡= F ya que −1 −1 (y ∈ xF) ⇒ (y = xf) ⇒ x = yf ⇒ xF = yf F ⇒ (xF = yF) (y ∈ xF ∩ zF) ⇒ (xF = yF = zF) obtenemos que las clases laterales forman una partici´on de G. La funci´on F 3 f 7→ xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier clase lateral tiene la misma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G|÷|F| es el n´umero de clases laterales. Este hecho se conoce como Teorema de Lagrange. En particular, el orden de cada x ∈ G es un divisor de q = |G|. 2. Sea x de orden n y denotemos ϕ(n) el n´umero de elementos de orden n en hxi. Como x tiene orden n entonces, ϕ(n) ≥ 1. La funci´on ϕ(n) no depende de x pues cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos. Luego, ϕ(n) solo depende del natural n. Como cualquier z ∈ hxi tiene cierto orden que por el Teorema P de Lagrange es un divisor de n y el n´umero de elementos en hxi es n entonces, d|n ϕ (d) = n donde la suma recorre todos los divisores de n. A ϕ se la conoce como Funci´on de Euler. 3. Denotemos por ρ (n) al n´umero de elementos de orden n en nuestro grupo G. Como cualquier z ∈ G tiene P cierto orden que por el Teorema de Lagrange es un divisor de |G| = q entonces, d|q ρ (d) = q donde la suma recorre los divisores de q. 4. Si en G no hay un elemento de orden n entonces ρ (n) = ¡0. Si¢ por el contrario x ∈ G n tiene orden n entonces,∀y = xk ∈ hxi tenemos que yn = xk = (xn )k = 1. Luego, todos los n elementos de hxi son raices del polinomio zn −1. Como el polinomio zn −1 no puede tener m´as de n raices en el campo K (v´ease el resultado 1.18) entonces, todos los elementos de G de orden n est´an en hxi y por lo tanto ρ (n) = ϕ (n). De aqu´ı, para cualquier n se tiene que ϕ (n) − ρ (n) ≥ 0.
176
Soluciones de ejercicios selectos
5. De (2) y (3) tenemos que X X X ϕ (d) − ρ (d) = (ϕ (d) − ρ (d)) 0= d|q
d|q
d|q
y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G| tenemos ϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que en G hay un elemento de orden q = |G|.
Ejercicio 23 (Secci´on 1.4 p´agina 16) La prueba de que es un anillo conmutativo es direc ta de las definici´ones de suma y producto. Para ver que es un campo observamos que el producto (a, b) (x, y) = (ax + 7by, ay + xb) tiene neutro (1, 0). Para hallar los inversos multiplicativos resolvemos el sistema de ecuaciones lineales ¯ ax + 7by = 1 ay + xb = 0 que tiene como soluci´on u´ nica x = a/∆ , y = −b/∆ donde ∆ = a2 − 7b2 . Nos queda comprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguiente tabla calculada en Z11 x 1 2 3 4 5 6 7 8 9 10 x2 1 4 9 5 3 3 5 9 4 1 7x2 7 6 8 2 10 10 2 8 6 7 2 vemos que ning´un a puede ser igual a un 7b2 . Ejercicio 24 (Secci´on 1.5 p´agina 18) No, porque t no es un elemento del campo al contrario, t es un n´umero natural. Lo que quiere decir tx es x + · · · + x , t veces. Ejercicio 25 (Secci´on 1.5 p´agina 18) De que a = −a obtenemos que 0 = a + a = 1a + 1a = (1 + 1) a Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la caracter´ıstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmaci´on del ejercicio es cierta. Si la caracter´ıstica del campo es 2 entonces, 1 + 1 = 0 y por lo tanto a = −a para cualquier elemento del campo. Ejercicio 26 (Secci´on 1.6 p´agina 21) En cualquier campo (xy)p = xp yp . Por el binomio p X p! p xk yn−k . El coeficiciente binomial p!/k! (p − k) ! de Newton (x + y) = k! (p − k) ! k=0 se divide entre p si k ∈ [1, ..., n − 1]. Esto quiere decir (ver 1.15) que en un campo de caracter´ıstica p todos los sumandos del binomio de Newton excepto el primero y el u´ ltimo son cero. Luego (x + y)p = xp + yp . Esto muestra que x 7→ xp es un morfismo. Como todo morfismo de campos es inyectivo (ver ejercicio 18) y toda funci´on inyectiva de un conjunto finito en si mismo es sobreyectiva obtenemos que este morfismo es automorfismo para campos finitos. Ejercicio 1.18 (Secci´on 1.7 p´agina 21) En los quaterniones (x − i) (x + i) = x2 − ix +
Soluciones de ejercicios selectos
177
xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente el producto de polinomios. Ejercicio 27 (Secci´on 1.7 p´agina 25) Idea: todo lo demostrado para polinomios se traduce tal cual para los enteros. La u´ nica diferencia es que en lugar de usar el concepto de grado de un polinomio hay que usar el concepto de valor absoluto de un entero. Ejercicio 28 (Secci´on 1.7 p´agina 27) Si i < k entonces la suma es vac´ıa y por lo tanto es cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno. Supongamos i > k. Haciendo los cambios de variables t = j − k y n = i − k obtenemos µ ¶µ ¶ X µ ¶ µ ¶ n i n X (n + k) ! j i n+k X j−k t t n = = (−1) (−1) (−1) k j t k!t! (t − n) ! k j=k t=0 t=0 ¡ ¢ Pn y esta u´ ltima expresi´on es cero ya que t=0 (−1)t nt es el binomio de Newton de (x − 1)n evaluado en x = 1. Ejercicio 29 (Secci´on 1.7 p´agina 27)P De la prueba del Desarrollo (1.22) sabemos ¡ j ¢ de Taylor n j−k que si k ∈ {0, . . . , n} entonces, ak = j=k bkj αj donde bkj = k (−x0 ) . Por el ejercicio anterior P tenemos Pn Pi P n j−k ¡ j ¢¡i¢ b β = (−1) == ni=k δik ai xi−k = ak ai xi−k kj j 0 0 j=k i=k j=k k j ¡ ¢ Pn Luego, j=k bkj βj − αj = 0. Esto es un sistema de ecuaciones lineales con incogni ¡ ¢ = β − α tas γ . Definiendo bkj = 0 para k > j nuestro sistema se escribe como j j j Pn j=0 bkj γj = 0. La matriz de este sistema es triangular y de determinante 1 ya que bkk = 1. Luego el sistema tiene soluci´on u´ nica βj = αj para j ∈ {0, . . . , n}. EjercicioP30 (Secci´on 1.7 p´aginaP 27) Formalmente (¡y en cualquier campo!) de P la i!derivada p (x) = ni=0 ai xi es p(1) (x) = ni=1 iai xi−1 y por lo tanto p(j) (x) = ni=j (i−j)! ai xi−j = P ¡¢ j! ni=j ij ai xi−j 0 . Del ejercicio anterior obtenemos la prueba. Ejercicio 31 (Secci´on 1.8 p´agina 29) Las raices del polinomio zn − 1 son xk = cos k 2π + n i sin k 2π para k ∈ {0, . . . , n − 1}. Tenemos n µ ¶ µ ¶ 2π 2π 2π 2π xk xm = cos (k + m) + i sin (k + m) = cos ` + i sin ` = x` n n n n donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a Zn .
Ejercicio 32 (Secci´on 1.8 p´agina 29) Sean a, b y c tres lados de un tri´angulo. Por simetr´ıa solo tenemos que probar que |a − b| ≤ c. Podemos suponer que a ≥ b. Por la desigualdad del tri´angulo b + c ≥ a y de aqu´ı c ≥ a − b. °¡ ° ¡ ¢ ¢ Ejercicio 33 (Secci´on 1.8 p´agina 32) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k.
Ejercicio 34 (Secci´on 1.9 p´agina 33) La propiedad 1 es inmediata de la definici´on. Para la propiedad 2 vemos
178
Soluciones de ejercicios selectos
(a + bi) + (c + di) = (a + c) + (b + d) i = = (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di) Finalmente, para probar la propiedad 3 vemos que (a + bi) (c + di) = (ac − bd) + (ad + bc) i = = (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di) Ejercicio 35 (Secci´on 1.10 p´agina 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo que significa que la relaci´on es reexiva. De ad = bc obtenemos cb = da. Esto significa que si (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relaci´on es sim´etrica. Si ad = bc y cf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y (c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relaci´on es transitiva. Ejercicio 36 (Secci´on 1.10 p´agina 36) El campo de fracciones Z2 (x) contiene a Z2 y por lo tanto es de caracter´ıstica 2. Este campo tiene evidentemente un n´umero infinito de elementos. Ejercicio 37 (Secci´on 1.10 p´agina 36) El campo de fracciones de un campo es el mismo. ¡ ¢ ¡ ¢ Ejercicio 38 (Secci´on 1.11 p´agina 37) (a + b) = a 1 + a−1 b = a a−1 b + 1 = (b + a) . Ejercicio 39 (Secci´on 1.11 p´agina 38) Las seis igualdades necesarias se pueden obtener de la siguiente manera (ijk = −1) ⇒ (ijkk = −k) ⇒ (ij = k) ⇒ (ijj = kj) ⇒ (kj = −i) (ijk = −1) ⇒ (iijk = −i) ⇒ (jk = i) ⇒ (jkk = ik) ⇒ (ik = −j) (ijk = −1) ⇒ (kijkkj = −kkj) ⇒ (ki = j) ⇒ (kii = ji) ⇒ (ji = −k)
Ejercicio 40 (Secci´on 1.11 p´agina 38) Por definici´on de producto de quaterniones ¢ ¶ µ 2 ¡ 2 ³ ´ a − b + c2 + d2 = −1 2 . (a + bi + cj + dk) = −1 ⇔ ab = ac = ad = 0 Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier soluci´on de estas ecuaciones requiere que a = 0. Ejercicio 42 (Secci´on 2.1 p´agina 40) El tri´angulo abc es semejante al tri´angulo uvw de hecho son con gruentes porque ac = uw (lados opuestos de un paralelogramo tie nen la misma longitud). Luego bc = wv y por lo tanto la coordenada → es igual a la de − → m´as bc. La prueba para la otra en x del vector − au aw coordenada es igual.
u b
c w
v
a
Ejercicio 43 (Secci´on 2.1 p´agina 40) T´ecnicamente hablando no ya que en el Cap´ıtulo 1 definimos una operaci´on binaria como una funci´on A × A → A y la multiplicaci´on de un escalar por un vector es una funci´on del tipo B × A → A. Pero si es una operaci´on binaria en el sentido de que tiene dos argumentos.
Soluciones de ejercicios selectos
179
Ejercicio 44 (Secci´on 2.1 p´agina 40) En la expresi´on α (βa) se utiliza un solo tipo de operaci´on (la de un escalar por un vector). En la expresi´on (αβ) a se utilizan dos operaciones diferentes primero la del producto de escalares y despu´es la de un escalar por un vector. Ejercicio 46 (Secci´on 2.2 p´agina 41) Si α 6= 0 entonces tiene inverso y por lo tanto αa = 0 ⇒ a = α−1 αa = α−1 0 = 0
Ejercicio 47 (Secci´on 2.2 p´agina 41) El m´ınimo n´umero de elementos en un espacio vecto rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamente un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo definiendo α0 = 0 para cualquier α en el campo. Ejercicio 49 (Secci´on 2.3 p´agina 49) P Supongamos que x ∈ hN ∪ yi \ hNi. Entonces, existe una combinaci´on lineal x = αy y + i∈N αi i. Tenemos que αy 6= 0 (ya que x ∈ / hNi). Luego, despejando y obtenemos que y ∈ hN ∪ xi. Ejercicio 50 (Secci´on 2.4 p´agina 50) Solo en la prueba de que 2⇒4 al despejar a. Ejercicio 51 (Secci´on 2.4 p´agina 52) 1. El conjunto vac´ıo es LI y todo el espacio E es generador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2. Si M es LI entonces existe una base N tal que M ⊆ N ⊆ E. 3. Si L es generador entonces existe una base N tal que ∅ ⊆ N ⊆ L. Ejercicio 52 (Secci´on 2.4 p´agina 54) Sea A una base de E. Como F es generador y A ⊆ F es LI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contiene a A. De aqu´ı tenemos dim E = |A| ≤ |B| = dim F. Esta prueba es v´alida independientemente de si los cardinales de A y B son finitos o no. P Ejercicio 53 (Secci´on 2.4 p´agina 54) El conjunto de todos los polinomios ai xi tales que a0 = 0 es un subespacio de K [x] de la misma dimensi´on que K [x]. Ejercicio 54 (Secci´on 2.4 p´agina 55) Es consecuencia directa del Desarrollo de Taylor (1.22) alrededor del punto x0 . Ejercicio 55 (Secci´on 2.4 p´agina 55) La diferencia entre el espacio de las (N × M)adas y las NMmatrices es solo en las notaciones. Luego, el espacio de las NMmatrices tiene dimensi´on |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eij en la base can´onica la cual tiene su entrada ij igual a 1 y todas las dem´as igual a cero. f
g
Ejercicio 56 (Secci´on 2.5 p´agina 56) Sean E → F → G transformaciones lineales. Tenemos que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) = λf (g (x)) y esto era todo lo que se quer´ıa probar. Ejercicio 59 (Secci´on 2.6 p´agina 63) 1. Es f´acil probar que la aplicaci´on E⊕F 3 (a, b) 7→
Soluciones de ejercicios selectos
180
(b, a) ∈ F ⊕ E es un isomorfismo can´onico. 2. Conmutatividad. 3. El isomorfismo can´oni co es ((a, b) , c) 7→ (a, (b, c)) 7→ (a, b, c). 4. Si, la aplicaci´on E ⊕ {0} 3 (a, 0) 7→ a ∈ E es un isomorfismo can´onico. Por esto podemos considerar que E ⊕ {0} = E.
Ejercicio 60 (Secci´on 2.6 p´agina 64) Denotemos por S a todo el espacio. Como cada vector se expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos que a 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposici´on de 0 es u´ nica. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F.
Ejercicio 65 (Secci´on 2.7 p´agina 67) Si E = E + x y F = F + y son dos subespacios paralelos o no entonces E + F es igual a (E + F) + (x + y) o sea, es un espacio af´ın paralelo a E+F. Si E es paralelo a F entonces, E = F y por lo tanto E+F = E. Si E y F se intersectan en z entonces z ∈ hE ∪ zi ⊆ hE ∪ Fi = E + F y por lo tanto E + F = E + F. Ejercicio 70 (Secci´on 3.4 p´agina 85) T´omese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos (xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6= x (yz) . ¶ µ cos α − sin α Ejercicio 73 (Secci´on 3.4 p´agina 87) sin α cos α Ejercicio 74 (Secci´on 3.4 p´agina 88) Para cualesquiera n ∈ N y k ∈ K tenemos X XX (αnM βML ) γLk = (αnM · βMl ) γlk = αnm βml γlk = l∈L l∈L m∈M X X X αnm βml γlk = αnm (βmL · γLk ) = αnM (βML γLk ) m∈M
l∈L
m∈M
Ejercicio 75 (Secci´on 3.4 p´agina 89) Las matrices de f, g y f ◦ g tienen que cumplir: ¶ ¶µ ¶ µ µ cos β − sin β cos α − sin α cos (α + β) − sin (α + β) = = sin β cos β sin α cos α sin (α + β) cos (α + β) µ ¶ cos α cos β − sin α sin β − cos α sin β − sin α cos β = cos α sin β + sin α cos β cos α cos β − sin α sin β y por lo tanto cos (α + β) = cos α cos β − sin α sin β sin (α + β) = cos α sin β + sin α cos β Ejercicio 76 (Secci´on 3.7 p´agina 97) Sea f semilineal y σ y ρ dos automorfismos del campo tales que para cualquier escalar λ y cualquier vector a se cumple que f (λa) = σ (λ) f (a) = ρ (λ) f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto ((σ (λ) − ρ (λ)) f (a) = 0) ⇒ (σ (λ) = ρ (λ)). Ejercicio 77 (Secci´on 3.7 p´agina 98) Supongamos que sup A existe. Entonces, ∀b ∈ R te nemos (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) . Usando que f es una isoton´ıa vemos que ∀f (b) ∈ f (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) ⇒ (f (b) ≥ f (sup A)) y esto prueba que f (sup A) = sup f (A).
Soluciones de ejercicios selectos
181
Ejercicio 78 (Secci´on 3.7 p´agina 98) (1 ⇒ 2) La conjugaci´on compleja es continua. (2 ⇒ 3) Tenemos (v´ease la prueba de 3.34) que f es la identidad en Q. De que los reales son los l´ımi tes de los racionales y f es continua obtenemos que f es la identidad ¡en ¢R. (3 ⇒ 1) Si f es la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 = f i2 = f (−1) = −1 y f (i) 6= i entonces, f (i) = −i. Para ver que hay muchos automorfismos de C que no son la conjugaci´on compleja v´ease por ejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine, MayJune 1966, 135–141. Ejercicio 79 (Secci´on 3.7 p´agina 99) La funci´on (x1 , . . . , xn ) 7→ (x1 , . . . , xn ) es biyectiva ya que λ 7→ λˉ es biyectiva. Adem´as, tenemos
(x1 + y1 , . . . , x¡n + yn ) = (x1¢ + y¡1 , . . . , xn + y¢n ) = (x1 , . . . , xn ) + (y1 , . . . , yn ) ˉ n = λˉ (x1 , . . . , xn ) ˉ 1 , . . . , λx λx1 , . . . , λxn = λx y esto muestra que la funci´on es un automorfismo semilineal. Si f es una transformaci´on semilineal arbitraria cuyo automorfismo del campo es σ enton ces, su composici´on con el automorfismo semilineal estandar correspondiente a σ−1 es una transformaci´on lineal.
Ejercicio 81 (Secci´on 3.7 p´agina 102) Supongamos que 0 = αa+αc+βb−βc = (α − β) c+ (α + βρ) a. Como {a, c} es LI entonces, α = β y α (1 + ρ) = 0. Como ρ 6= −1 entonces, 0 = α = β. Ejercicio 84 (Secci´on 4.3 p´agina 115) Denotemos γMM = αω(L)M y ηMM = βMθ(N) . Sabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitaba probar. Ejercicio 86 (Secci´on 4.3 p´agina 118) Es saludable poner la matriz de Vandermonde en ⎞ forma gr´afica como se muestra en el recuadro a la derecha. ⎛ 1 1 ··· 1 Denotemos por v (x1 , x2 , . . . , xn ) al determinante de esta ⎜ x2 · · · xn ⎟ ⎜ x12 ⎟ matriz. Denotemos ⎜ x22 · · · x2n ⎟ Y ⎜ x1 ⎟ ⎝ ··· ··· ··· ··· ⎠ (xj − xi ) f (x1 , x2 , . . . , xn ) = 1≤i
1≤i≤n−1
que tiene coeficiente principal f (x1 , . . . , xn−1 ). Por hip´otesis de induccion v (x1 , . . . , xn−1 ) =
182
Soluciones de ejercicios selectos
f (x1 , . . . , xn−1 ) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal. Adem´as, las raices de v (x1 , . . . , xn−1 , y) son x1 , . . . , xn−1 porque evaluando y en estos valo res obtenemos una matriz con dos columnas iguales. Es obvio que x1 , . . . , xn−1 son tambi´en las raices de f (x1 , . . . , xn−1 , y). Luego, v (x1 , . . . , xn−1 , y) y f (x1 , . . . , xn−1 , y) son dos polinomios del mismo grado, con los mismos coeficientes principales y las mismas raices y por lo tanto son polinomios iguales. Ejercicio 87 (Secci´on 4.4 p´agina 123) Las tres. Para la matriz A los bloques son M1 = {1} , M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}. Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que α23 = α21 = α31 = 0. Los determinantes de las tres matrices son iguales a abc. Ejercicio 88 (Secci´on 4.4 p´agina 123) El aspecto es el del recuadro a la derecha. Aqu´ı hemos denotado por ∗ las entradas que pueden ser diferentes de cero. Las entradas con 0 son las que obligatoriamente tienen que ser cero. Adem´as, hemos dividido con rectas los tres bloques de la matriz. El de terminante de una matriz de este tipo es igual al producto de los determinantes de sus tres bloques diagonales.
∗ ∗ ∗ ∗ ∗
∗ ∗ ∗ ∗ ∗
0 0 ∗ ∗ ∗
0 0 0 ∗ ∗
0 0 0 ∗ ∗
Ejercicio 91 (Secci´on 5.1 p´agina 137) Sean (a, b), (a0 , b0 ) ∈ E ⊕ F. Tenemos (f ⊕ g) ((a, b) + (a0 , b0 )) = (f ⊕ g) (a + a0 , b + b0 ) = (f (a + a0 ) , g (b + b0 )) = = (f (a) + f (a0 ) , g (b) + g (b0 )) = (f (a) +, g (b)) + (f (a0 ) , g (b0 )) = = (f ⊕ g) (a, b) + (f ⊕ g) (a0 , b0 ) con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que (f ⊕ g) (λ (a, b)) = (f ⊕ g) (λa, λb) = λ (f (a) , g (b)) = λ ((f ⊕ g) (a, b)). Ejercicio 92 (Secci´on 5.1 p´agina 138) (f0 ◦ g0 ) (a, b) = f0 (g0 (a, b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f ⊕ g) (a, b). Ejercicio 95 (Secci´on 5.3 p´agina 146) Como pq divide a p0 q0 y p0 q0 divide a pq enton ces pq = p0 q0 . Sean p = pi11 · · · piaa y q = qj11 · · · qjbb las descomposiciones en factores irreducibles. Como p y q son coprimos entonces, todos los p` son distintos a los q` y la descomposici´on pq = pi11 · · · piaa qj11 · · · qjbb es la descomposici´on en factores irreducibles de i0 j0 i0 j0 pq. Como p0 divide a p y q0 divide a q entonces, p0 q0 = p11 · · · paa q11 · · · qbb (donde i0` ≤ i` y j0` ≤ j` ) es la descomposici´on en irreducibles de pq. Como p0 q0 = pq, de la unicidad de la descomposici´on en irreducibles, obtenemos i0` = i` y j0` = j` o sea, p = p y q = q. Ejercicio 96 (Secci´on 5.4 p´agina 151) Sea f un operador lineal en End (E/F) y G un subespacio complementario a F. Definimos h como la funci´on nula en F, como h (a) = G ∩ f (a + F) en G y en todo el espacio por extensi´on lineal. Para ver que h es lineal so lo hay que comprobar que es lineal en G. Esto es trivial porque en G la funci´on h cumple nat h = nat−1 ◦f ◦ nat donde a 7−→ a + F es el isomorfismo can´onico entre el cociente y un
Soluciones de ejercicios selectos
183
e basta comprobarlo para los vectores a que estan en G. complementario. Para ver que f = h Pero f (a + F) = h (a) + F ya que f = nat ◦h ◦ nat−1 . Para calcular el nucleo ³ comprobamos ´ que para cualquier vector a se cumple que e h (a) = O (a) ⇔ (h (a) + F = F) ⇔ (h (a) ∈ F).
Ejercicio 97 (Secci´on 5.4 p´agina 152) Sea p un polinomio cualquiera. Si ph (a) = 0 en tonces phh (a + F) = ph (a) + F = F. Si phh (a + F) = F entonces, ph (a) ∈ haih ∩ F y e de a + F y por hip´otesis ph (a) = 0. Luego, el hanulador de a + F es igual al hanulador por lo tanto perhh (a + F) = perh (a + F). Sea b ∈ F y q un polinomio. Como F y haih son hinvariantes, tenemos que (qh (a + b) = 0) ⇔ (qh (a) = −qh (b)) ⇔ (qh (a) = qh (b) = 0) ⇔ (qh (a) = 0) . La implicacion (qh (a) = 0) ⇒ (qh (a) = qh (b) = 0) es v´alida porque si qh (a) = 0 entonces q es un multiplo de perh (a) que es m´ultiplo de perh (F) que a su vez es multiplo de perh (b) y por lo tanto qh (b) = 0. Luego, el hanulador de a coincide con el hanulador de a + F. Esto quiere decir que perh (a + F) = perh (a).
Ejercicio 101 (Secci´on 5.6 p´agina 158) Es f´acil ver que hA ∪ Bih ⊇ hAih + hBih = F + G = E y por lo tanto A ∪ B es hgenerador. Comprobemos que A ∪ B es hindependiente. Observese que A ∩ B = ∅ ya que 0 no est´a en ning´un conjunto hindependiente y A ∩ B ⊆ F ∩ G = {0}. Luego una hcombinaci´on de A ∪ B es de la forma ph (a1 ) + · · · + qh (an ) + rh (b1 ) + · · · + sh (bn ) donde A = {a1 , . . . , an } y B = {b1 , . . . , bm }. Si esta hcombinaci´on es igual cero entonces F = hAih 3 ph (a1 ) + · · · + qh (an ) = −rh (b1 ) − · · · − sh (bn ) ∈ hBih = G y por lo tanto, ph (a1 ) + · · · + qh (an ) = rh (b1 ) + · · · + sh (bn ) = 0 y como A y B son hindependientes deducimos que ph (a1 ) = · · · = qh (an ) = rh (b1 ) = · · · = sh (bn ) = 0. Ejercicio 107 (Secci´on 5.7 p´agina 163) Queremos ver que el siguiente diagrama de trans formaciones lineales es conmutativo: πi h −→ Fi Fj −→ E k k ph ↑ ↑ ph ↑ pkh Fj+k −→ E −→ Fi+k h
π i+ k
El cuadrado de la izquierda es conmutativo por la conmutatividad de los polinomios eva luados en OL. Para probar la conmutatividad del cuadrado de la derecha comprobemoslo en la base Bm = A1 ∪ · · · ∪ Am . Si x ∈ Ai+k entonces, pkh (x) ∈ Ai y por lo tanto πi ◦ pkh = I = pkh ◦ πi+k . Si x ∈ Bm \ Ai+k entonces pkh (x) ∈ Bm \ Ai y por lo tanto πi ◦ pkh = O = pkh ◦ πi+k . Luego, todo el diagrama es conmutativo y por lo tanto teniendo en cuenta la definici´on de τij obtenemos que pkh ◦ τij = τi+k,j+k ◦ pkh . Como en este caso pkh ¡ ¢−1 es biyectiva obtenemos τi+k,j+k = pkh ◦ τij ◦ pkh .
184
Soluciones de ejercicios selectos
´ Algebra. Espacio vectorial con un producto de vectores asociativo, distributivo, con ele mento neutro y que conmuta con el producto por escalares. . . . . . . . . . . . . . . . . . . . .80, 88, 110 ´ Algebra conmutativa. ´ Algebra en la cual el producto de vectores es conmutativo . . . . . . . . . . . . . . . . . . . . . . 81, 142 Anillo. Conjunto con dos operaciones binarias denotadas por + y • que es grupo abeliano para la suma, que el producto es asociativo con elemento neutro y distributivo respecto a la suma . . 7, 11, 80 Anillo conmutativo. Anillo en el cual el producto es conmutativo . . 7, 14, 21, 22, 34 Anulador de un conjunto de vectores. La intersecci´on de los anuladores de todos los vectores en el conjunto . . . . . . . . . . . . . . . . . . 144 Anulador de un OL. El anulador de todo el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Anulador de un vector. El conjunto de polinomios p tales que ph (a) = 0 . . . . . 144 Argumento de un complejo. → − El a´ ngulo que forma el vector 0z con el eje real del plano complejo . . . . . . . . . . . . . . . . . . 28 Asociatividad. Propiedad de algunas operaciones binarias que consiste en que a ◦ (b ◦ c) = (a ◦ b) ◦ c para cualesquiera elementos a, b y c del conjunto en el cual est´a definida la opera ci´on . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 79, 88 Asociatividad del producto por escalares. Axioma de espacio vectorial: (βa) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Automorfismo. Endomorfismo biyectivo . 13 Automorfismo de Frobenius. La funci´on K 3 x 7→ xp ∈ K donde K es un campo finito de caracter´ıstica p > 0. . 21
Automorfismo semilineal. Transformaci´on semilineal biyectiva de un espacio en si mismo. . . . . . . . . . . . . . . . . . . . . . 98 Base. Conjunto de vectores que es generador y LI. Conjunto generador minimal. Conjunto LI maximal . . . . . 52, 56, 61, 72, 82, 89, 125 Base can´onica. El conjunto de Nadas {ei | i ∈ N} donde la j´esima coordenada de ei es el delta de Kro necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 54, 87, 91 Base de las columnas. Conjunto de columnas diferentes que son una base del espacio de columnas . . . . . . . . . . . . . . . . . . . . 125 Base de los renglones. Conjunto de renglones diferentes que son una base del espacio de renglones . . . . . . . . . . . . . . . . . . . . 125 Base de una matriz. Submatriz no singular maximal por contenci´on. . . . . . . . . . . 126, 132 Binomio de Newton. F´ormula para expandir (x + y)n . . . . . 20, 27 Cadena. Subconjunto de un conjunto ordenado que est´a totalmente ordenado. . . . . . . . . . . . . . *, 72 Cambio de ´ındices. Biyecci´on mediante la cual los ´ındices de una Nada (o columnas, o renglones) obtie nen nuevos nombres. Es la operaci´on en que una biyecci´on ω : N → L se le aplica a las columnas de una matriz αMN para obtener la matriz βML = αMω(N) que cumple que βij = αiω − 1 (j) . An´alogamente se definen los cambios de ´ındices de los renglones . 114 Campo. Anillo conmutativo en el cual todo elemento diferente de cero tiene inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16 Campo algebraicamente cerrado. Campo en el cual todo polinomio de gra
cam – cof
186
do al menos uno tiene una ra´ız. Campo el cual los polinomios irreducibles son todos de grado uno . . . . . . . . . . . . . . . . . 10, 27, 34, 59 Campo de fracciones. Entre las fracciones de un dominio de integridad se define la suma y el producto exactamen te de la misma manera que se definen estas operaciones en Q. Para estas operaciones el conjunto de fracciones es un campo . . . . . 35 Campo ordenado. Campo con una relaci´on de orden en el cual todo elemento es com parable con el cero. Los elementos mayores que cero se les llama positivos y los menores que cero negativos. Los axiomas que debe cumplir la relaci´on de orden son: 1. El opuesto de un positivo es negativo, 2. El opuesto de un negativo es positivo, 3. La suma de positivos es positiva, 4. El producto de positivos es positivo. Los campos R y Q est´an ordenados. Cual quier campo ordenado tiene que ser de ca racter´ıstica cero. Adem´as, C no se puede or denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 116 Campo primo. Campo cuyo u´ nico subcampo es el mismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Caracter´ıstica de un campo. Es cero si el campo contiene como sub campo a Q. Es igual al n´umero primo p si el campo contiene como subcampo a Zp . . . . . . . . . . . . . . . . . . . . . . . . . 18, 36, 108, 115 Celda can´onica. Matriz cuadrada trian gular superior por bloques de orden el grado de p, con la matriz acompa˜nante de p en la diagonal, en la paralela inmediatamente su perior a la diagonal matrices nulas salvo la entrada superior derecha en que es 1 y ceros en las dem´as entradas. Todo OL sobre cual quier campo es diagonalizable por bloques que son celdas can´onicas. . . . . . . . . . . . . . . . 167 Celda cuadr´atica. Matriz cuadrada triangular superior por bloques 2 µ ¶ µ de orden ¶ con
a −b b a
en la diagonal,
0 1 0 0
en la
paralela inmediatamente superior a la diago
nal y ceros en las dem´as entradas. Todo OL real es diagonalizable por bloques que son celdas de Jord´an o celdas cuadr´aticas. . . 166 Celda de Jord´an. Matriz cuadrada triangular superior con λ en la diagonal, 1 en la para lela inmediatamente superior a la diagonal y ceros en las dem´as entradas. Todo OL com plejo es diagonalizable por bloques que son celdas de Jord´an. . . . . . . . . . . . . . . . . . . . . . . . . 165 Cerradura lineal. El conjun to de todas las combinaciones lineales de un conjunto de vectores . . . . . . . . . . . . . 48, 57, 60 Ciclo. Permutaci´on σ del grupo sim´etrico de N que cambia un conjunto {x0 , . . . , xn−1 } ⊆ N seg´un la regla σ (xi ) = xi+1 mod n y deja todos los dem´as elementos de N fijos . . . .106, 112, 117, 124 Ciclos disjuntos. Ciclos tales que los conjuntos de elementos que ellos no dejan fijos no se intersectan . . . . . . . . . . . . . 106 Clases de equivalencia. Si ≈ es una relaci´on de equivalencia en A entonces, las clases de equivalencia son los subconjuntos de A para los cuales a ≈ b si y solo si a y b est´an en la misma clase . . . . . . . . . *, 66, 73 Coalineaci´on. Funci´on biyectiva de un espacio vectorial en si mismo que tal que f y f−1 preservan subespacios afines. . . . . 99 Cociente. Al efectuar la divisi´on con resto de un elemento p de un anillo conmutativo (Z, K [x]) entre otro q obtenemos la igualdad p = cq + r. Al elemento c se le llama co ciente de la divisi´on de p entre q . . . . . . . . 23 Codominio de una funci´on. Sea f : A → B una funci´on. Al conjunto B se le llama codominio de la funci´on f . . . . . 11, 93 Coeficiente principal. El coeficiente diferente de cero de un polinomio que multiplica a la potencia m´as grande de la variable . . . . . . 22 Coeficientes de un polinomio. (v´ease polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 22 Cofactor. De la entrada αij es el escalar sgn ω det αN\i ω(N\j) donde ω es cualquier permutaci´on de N tal
col – dia que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Columna de una matriz. Dada una matriz αNM y j ∈ M a la Nada αNj (j est´a fijo, los elementos de N var´ıan) se le llama j´esima columna de la matriz αNM . . . . . . . . . . 45, 85 Combinaci´onPlineal. Los vectores de la forma i∈N αi i (donde solo un n´umero finito de los ai es diferente de cero) . 47, 60 Complemento algebraico. Cofactor . . . 116 Componente radical. Restricci´on del OL a un subespacio radical maximal . . . . . . . . . 149 Composici´on de funciones. Operaci´on entre dos funciones que consiste en aplicar primero una funci´on y despu´es la otra . . . . . . . . . . . . . . . . . . . . . .13, 56, 79, 87, 105 Conexi´on de Galois (ant´ıtona). Se obtiene de una conexi´on de Galois mon´oto na invirtiendo la relaci´on de orden en uno de los conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 Conexi´on de Galois (mon´otona). Una pareja de funciones mon´otonas f∗ : A → B y f∗ : B → A tales que (f∗ (a) ≤ b) ⇔ (a ≤ f∗ (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 Conjunto acotado inferiormente. Conjunto que tiene una cota inferior. . *, 32 Conjunto acotado superiormente. Conjunto que tiene una cota superior . . . . . * Conjunto generador. Conjunto de vectores cuya cerradura lineal es todo el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49, 56 Conjunto hindependiente. Conjunto de vectores no nulos tales que los sumandos de cualquier hcombinaci´on nula son nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 Conjunto inductivamente ordenado. Conjunto ordenado no vac´ıo dentro del cual cada cadena tiene cota superior . . . . . . . . . . 72 Conjunto LD. Acr´onimo de conjunto linealmente dependiente . . . . . . . . . . . . . . . . . 50 Conjunto LI. Acr´onimo de conjunto linealmente independiente . . . . . . . . . . . . . . . 50 Conjunto linealmente dependiente. Conjunto de vectores que no es LI . . . . . . . 50 Conjunto linealmente independiente.
187
Conjunto de vectores A tal que ∀a ∈ A se cumple que hA\ai 6= hAi. . . . . . . . . . . 50, 125 Conjunto ordenado. Conjunto en el cual est´a definida una relaci´on de orden . . . *, 72 Conjunto totalmente ordenado. Conjunto ordenado en el cual dos elementos cualesquiera son comparables . . . . . . . . . . . . * Conmutatividad. Propiedad de algunas operaciones binarias que consiste en que a◦b=b◦a ∀ elementos a y b del conjunto en el cual est´a definida la operaci´on . . . . . . . . . . . . . . . . . 3 Contracci´on. Homotecia cuyo escalar es un real mayor que 0 y menor que 1 . . . . . . . . . 76 Coordenada. De la nada (a1 , a2 , ..., an ) es alguno de los ai . De la Nada aN es alguno de los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 41 Coordinatizaci´on. DadaPuna base N de F, es el isomorfismo F 3 i∈N αi i 7→ αN ∈ K{N} . . . . . . . 57, 89 Cota inferior. Una cota inferior de un subconjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es mayor o igual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 32 Cota superior. Una cota superior de un sub conjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es menor o igual que B . . . . . . . . . . *, 72 Delta de Kronecker. Funci´on δij de dos variables que toma valor 1 si i = j y toma valor 0 si i 6= j .27, 88, 110 Desarrollo de Taylor. Expresi´on de una P funci´on como serie de po tencias f (x) = ai (x − x0 )i . El coefi ciente de la serie ai es la i´esima derivada de f evaluada en el punto x0 . . . . . . . . . 26, 31 Determinante. P QEl determinante de αNN es sgn σ σ∈ SN i∈N αiσ i . . . . . 109, 20, 132 Determinante de un OL. Determinante de su matriz en una base. No depende de la base escogida . . . . . . . . . . . . 121 Diagrama. Reperesentaci´on gr´afica de una familia de conjuntos y de fun
188
dia – for
ciones entre ellos mediante la utilizaci´on de echas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Diagrama conmutativo. Diagrama en el cual cualesquiera dos caminos dirigidos (que si guen el orden de las echas) de un conjunto a otro representan dos descomposiciones de la misma funci´on como composici´on de las funciones de las echas de los caminos . 91 Dilataci´on. Homotecia cuyo escalar es un real mayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Dimensi´on. El cardinal de cualquier base 53, 61, 66, 95 Dimensi´on de un OL. Dimensi´on del espacio donde est´a definido el operador . . . . . . . . . 138 Dimensi´on de un subespacio af´ın. Si E es una traslaci´on del subespacio E entonces la dimensi´on de E es la dimensi´on de E . . . . 66 Distributividad. Relaci´on de una operaci´on binaria ¦ con respecto a otra ◦ que consiste en que las igualdades a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) se cumplen para cualesquiera elementos a, b y c del conjunto en el cual est´a definida la operaci´on . . . . . . . . . . . . . . . . . . . . . . 5, 19, 79, 88 Distributividad del producto por escalares. Axioma de espacio vectorial: α (a + b) = αa + αb y (α + β) a =αa+βa . . . . . . . 41 Divisor. Para dos elementos p y q de un anillo con divisi´on se dice que q es un divisor de p si el resto de la divisi´on de p entre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Dominio de integridad. Anillo conmutativo en el cual el producto de elementos diferentes de cero es diferente de cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 36 Dominio de una funci´on. Sea f : A → B una funci´on. Al conjunto A se le llama dominio de la funci´on f . . . . . . . . . . . . . . . . . . . . . . . . 11, 93 Ecuaci´on lineal. Ecuaci´on αN xN = βN donde las Nadas αN y βN son conocidos y el vector xN es inc´ognito . . . . . . . . . . . . . . . 128 Ecuaci´on matricial. Ecuaci´on AX = B donde la matrices A y B son conocidas y la
matriz X es inc´ognita. . . . . . . . . . . . . . . . . . . . 135 Elemento maximal. Elemento tal que cualquier otro no es mayor que el . . . . . . . . . . . . . . . . . . . . . . . . . *, 51, 72, 126 Elemento minimal. Elemento tal que cualquier otro no es menor que el. . . . . *, 51 Elementos comparables. Dos elementos a y b de un conjunto ordenado para los cuales o a ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 52 Endomorfismo. Morfismo cuyo dominio y codominio coinciden . . . . . . . . . . . . . . . . . . . . . 13 Entensi´on lineal de una funci´on. Extensi´on que es transformaci´on lineal. Si la funci´on tiene como dominio una base, entonces la extensi´on lineal existe y es u´ nica . . . . . . . . 82 Entrada de una matriz. Coordenada de una NMada . . . . . . . . . . . . 45 Epimorfismo. Morfismo sobreyectivo . . . 13 Escalar. Elemento del cam po (¡la escala!) sobre el cual est´a definido el espacio vectorial . . . . . . . . . . . . . . . . . . . . . 39, 40 Espacio cociente. Si E es un subespacio de F entonces, el espa cio cociente F/E es el conjunto de todos los subespacios afines paralelos a E dotado con la suma de subespacios afines y el producto de subespacios afines por escalares . . 67, 96 Espacio de columnas. El espacio generado por las columnas de una matriz . . . . . . . . . 125 Espacio de renglones. El espacio generado por los renglones de una matriz . . . . . . . . . 125 Espacio vectorial. Grupo abeliano con un producto por escalares distributivo, asociativo y con neutro. . . 41, 58, 65, 67, 79 Extensi´on de una funci´on. Si f es una restricci´on de g entonces g es una extensi´on de f . . . . . . . . . . . . . . . . . . . . . . . . 81 Factor de un polinomio. Divisor de grado al menos 1 de un polinomio . . . . . . . . . . . . . . . . 23 Factor propio. Factor m´onico diferente al polinomio . . . 25 Forma polar de un complejo. Es la expresi´on r (cos ϕ + i sin ϕ) donde r es el m´odulo de z y ϕ es el argumento de
for – hom z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 F´ormula multinomial. F´ormu la para expandir la nsima potencia de una suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Fracci´on. Pareja de elementos de un dominio de integridad (por ejemplo K (x) o Z) que se denota por a/b. Dos fracciones a/b y c/d se consideran iguales si ad = bc . . . . . 34, 8 Funci´on. Informalmente es una regla o procedimiento mediante el cual para cada elemento de un conjunto a podemos obtener (calcular) otro u´ nico elemento f (a) de otro conjunto y que llamamos la imagen de a mediante la funci´on f. Formalmente, una funci´on f : A → B es un subconjunto del producto cartesiano f ⊆ A × B que cumple que para cualquier a ∈ A existe una u´ nica pareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . * Funci´on antipodal. La funci´on x 7→ −x . 76 Funci´on biyectiva. Funci´on inyectiva. y sobreyectiva . . . . . . . . . . . . . . . . . . . . .*, 105, 114 Funci´on continua. Funci´on continua en todos los puntos de su dominio. . . . . . . . . . . . . . . . . 29 Funci´on continua en un punto. La fun ci´on f es continua en z0 si ∀ε > 0 ∃δ tal que kz − z0 k < δ ⇒ kf (z) − f (z0 )k < ε . . . 29 Funci´on de evaluaci´on. De un polinomio p (x) es la funci´on: p : K 3 b 7→ p (b) ∈ K. . . . . . . 23 Funci´on identidad. La que a todo elemento le corresponde el mismo . . . . . . . . . . . . . . . . . 76 Funci´on inversa. La inversa de una funci´on f : A → B es una funci´on g tal que f ◦ g = IB y g ◦ f = IA . Una funci´on tiene inversa si y solo si esta es biyectiva. . . *, 56 Funci´on inyectiva. Cada elemento de la imagen tiene una u´ nica preimagen . . . . *, 94 Funci´on nula. La que a todo elemento le corresponde el cero . . . . . . . . . . . . . . . . . . . . . . 76 Funci´on racional. Fracci´on de dos polinomios . . . . . . . . . . . . . . 36 Funci´on sobreyectiva. Funci´on tal que su imagen coincide con su codominio . . . *, 95 Funcional. Funci´on de un espacio vectorial
189
en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Funcional bilineal. Funcional lineal en sus dos variables . . . 118 Funcional lineal. Funcional que es una TL . . . . . . . . . . . . . . . . 118 Funcional lineal en una variable. Funci´on de muchas variables con imagenes en un campo que para cualesquiera valores fijos de las dem´as variables determina un funcional lineal de la variable que se tra ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Funcional multilineal. Funcional lineal en todas sus variables . 118 Grado de un polinomio. La potencia ma yor de la variable con coeficiente diferente de cero. Si el grado es cero el polinomio es un elemento del campo. No est´a definido el grado del polinomio cero . . . . . . . . . . . . . . . . 22 Grupo. Conjunto con una ope raci´on binaria asociativa que tiene elemento neutro y en el cual todo elemento tiene in verso . . . . . . . . . . . . . . 7, 11, 13, 16, 68, 81, 105 Grupo abeliano. Grupo en el cual la operaci´on es conmutativa . . . . . . . . . . . . . . . . . 7 Grupo alternante. El subgrupo (del grupo sim´etrico) de todas las permutaciones pares . . . . . . . . . . . . . . . . . 108 Grupo general lineal. El grupo de auto morfismos de un espacio vectorial. El grupo de operadores lineales no singulares . . . . . 81 Grupo sim´etrico. El grupo de todas las permutaciones con la operaci´on de composici´on . . . . . . . . . . . . . . 105 hbase. Conjunto hindependiente y hgenerador. Todo OL h tiene hbases . 155 hcerradura. Conjunto de todas las hcombinaciones . . . . . . . . . . . . . . . . . . . . . . . . 153 hcombinaci´on. Vector de la forma ph (v1 ) + qh (v2 ) + · · · + rh (vn ) donde p, q, ..., r son polinomios . . . . . . . . 152 hgenerador. Conjunto de vectores que hgenera a todo el espacio . . . . . . . . . . . . . . 154 Homotecia. Transformaci´on lineal que consiste en la multiplicaci´on por
190
ide – mat
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Ideal. Subconjunto I de un anillo A tal que 1. ∀p, q ∈ I p + q ∈ I, 2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 24 Ideal principal. Ideal formado por todos los m´ultiplos de un polinomio . . . . . . . . . . . . . . . 24 Idempotencia. Propiedad de una funci´on que consiste en que f ◦ f = f2 = f . . . . . . . . . . . 48 Igualdad de Moivre. F´ormula para calcular la nesima potencia de un n´umero complejo en forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 Imagen de un elemento. (v´ease: Funci´on). * Imagen de una funci´on. El conjunto de los elementos del codominio que tienen alguna preimagen. Se denota por Im f . . . . . . . . *, 93 Imagen de una matriz. La imagen de su transformaci´on lineal. Su espacio de columnas . . . . . . . . . . . . . . . . . 131 ´Infimo. El m´aximo de las cotas superiores . . . . *, 32 ´ Infimo de un conjunto de reales. El n´umero m´aximo x tal que x ≤ a para cualquier a ∈ A. Para el ´ınfimo x de A siempre existe una sucesi´on {ak } de elemen tos de A cuyo l´ımite es x. . . . . . . . . . . . . . . . . 32 Inmersi´on. Restricci´on de la funci´on identidad a un subconjunto . . . . . . . . . . 77, 94 Inverso. De un elemento a para la operaci´on binaria ◦ es un elemento b que cumple que a ◦ b = b ◦ a = e para cualquier elemen to a del conjunto en el cual est´a definida la operaci´on. Si un elemento tiene inverso en tonces este es u´ nico. En los anillos y campos es el inverso para el producto . . . . . . . . . . . . . 5 Isomorfismo. Morfismo biyec tivo. La inversa de cualquier isomorfismo es tambi´en un isomorfismo . . . . . . . . . . . . . 12, 62 Isomorfismo can´onico. Isomorfismo cu ya construcci´on no depende de escoger algo (una base, un complementario, etc.) . 62, 68 Isomorfismo de espacios vectoriales. Transformaci´on lineal biyectiva . . . . . 56, 83 Isomorfismo lineal. Isomorfismo de espacios vectoriales . . . . . 56
L´ımite de una sucesi´on. La sucesi´on {zk } tiene l´ımite z si ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. . . . . . . . . . . . 30 Matriz. Es una NMada o sea un conjunto indexado por dos conjuntos . . . . . . . . . . . . . . 45 ˜ Matriz acompanante de un polinomio. Matriz cuadrada cuya u´ ltima columna es el vector de coeficientes del polinomio, la pa ralela inferior a la diagonal contiene unos y todas las dem´as entradas son cero.. . . . . . 155 Matriz ampliada. Del sistema Ax = b es la matriz (A|b) . 130 Matriz cuadrada. Matriz con la misma cantidad de columnas y renglones . . 115, 89 Matriz de cambio de base. Escogidas dos bases V y N de un espacio vectorial la matriz αNV cuyas columnas son los coeficientes de las expresiones de la ba se V como combinaci´on lineal de la base N. O sea, Ppara cualquier v ∈ V se cumple que v = i∈N αiv i. Si βV son las coordenadas de un vector en la base V entonces αNV βV son las coordenadas del mismo vector en la base N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 Matriz de permutaci´on. La matriz que se obtiene al permutar las columnas o los renglones de la matriz identidad. Matriz que tiene exactamente un 1 en cada rengl´on y columna y todas las dem´as entradas son cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 Matriz de una transformaci´on lineal. Escogidas una base N en el dominio y otra M en el codominio de una TL f la matriz αMN cuyas columnas son los coeficientes de las expresiones de las imagenes de la ba se N como combinaci´on lineal de la base M. O sea, para P cualquier j ∈ N se cumple que f (j) = i∈M αij i . . . . . . . . . . . . . . . 87, 84, 90 Matriz del sistema. La matriz A del sistema de ecuaciones lineales Ax = b . . . . . . . . . 129 Matriz diagonal. Matriz αMM en la cual si i 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . . 123 Matriz diagonal por bloques. Matriz αMM en la cual hay una partici´on del conjunto de
mat – nuc ´ındices M1 ∪ · · · ∪ Mt = M y que αij = 0 si i y j pertenecen a bloques diferentes . 123 Matriz identidad. La matriz INN cuyas entradas son el delta de Kronecker: unos en la diagonal y ceros en el resto de las entradas. La matriz de la transformaci´on lineal identidad . . . . . 88, 110 Matriz inversa. La matriz cuadrada αMN es la inversa de βNM si βNM αMN = INN y αMN βNM = IMM . Si ambos N y M son finitos entonces, basta comprobar una de las dos igualdades. Una matriz cuadrada tiene inversa si y solo si su determinante es dife rente de cero. . . . . . . . . . . . . . 88, 120, 125, 135 Matriz singular. Matriz cuadrada con determinante igual a cero . . . . 115, 125, 129 Matriz triangular. Matriz triangular por bloques en la cual cada bloque es de cardinalidad 1 . . . . . . . . . . . . . 123 Matriz triangular inferior. Matriz αMM en la cual M = {1, . . . , m} y tal que en su representaci´on gr´afica todas las entradas por encima de la diagonal son cero . . . . . . . . . 123 Matriz triangular por bloques. Matriz αMM en la cual hay una partici´on del conjunto de ´ındices M1 ∪ · · · ∪ Mt = M y que αij = 0 si i ∈ Mp , j ∈ Mq y p < q . . . . . . . . . . . . 123 Matriz triangular superior. Matriz αMM en la cual M = {1, . . . , m} y tal que en su representaci´on gr´afica todas las entradas por debajo de la diagonal son cero . . . . . . . . . . 123 M´aximo. El m´aximo de un subconjunto A de un conjunto ordenado B es una cota superior que pertenece a A. Si existe entonces, el m´aximo es u´ nico . . . . . . * M´ınimo. El m´ınimo de un subconjunto A de un conjunto ordenado B es una cota inferior que pertenece a A. Si existe entonces, el m´ınimo es u´ nico . . *, 32 M´odulo de un complejo. La longitud del → − vector 0z en el plano complejo . . . . . . . . . . 28 Monomorfismo. Morfismo inyectivo . . . 13 Monoton´ıa. Propiedad de una funci´on de un conjunto ordenado a otro que
191
consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . 48 Morfismo. Es una funci´on f : A → B que cumple que f (x ◦ y) = f (x) • f (y) donde ◦ es una operaci´on definida en A y • es una operaci´on definida en B . . . . . . . . . . . . . . 10, 55 Morfismo de a´ lgebras. TL que conmuta con el producto y preserva el 1 . . . . . . . . . . . . . . 141 Morfismo de anillos. Funci´on entre dos anillos que es morfismo para la suma y para el producto . . . . . . . . . . 11 Morfismo de campos. Funci´on entre dos campos que es morfismo para la suma y para el producto . . . . . . . . . . 11 Morfismo de espacios vectoriales. Funci´on f de un espacio vectorial a otro so bre el mismo campo que es un morfismo de los grupos abelianos de vectores y que cum ple f (αa) = αf (a) para cualquier vector a y cualquier escalar α . . . . . . . . . . . . . . . . . . 56 Morfismo de grupos. Morfismo cuyo dominio y codominios son grupos . . . . . . . . . . . . . . . . . . . . . . . . . 11, 105, 114 Multiplicidad de una ra´ız. El elemento del campo α es una ra´ız de multiplicidad n del polinomio p si n es el mayor natural tal que p es un m´ultiplo de (x − α)n . . . . . . . . . . . . 23 ´ Multiplo. Para dos elementos p y q de un anillo con divisi´on se dice que p es un m´ultiplo de q si ∃c tal que p = cq . . . 23 nada. Elemento (a1 , a2 , ..., an ) del producto cartesiano An . . . . . . . . . . . . . . . . . . 41 Nada. Funci´on en una notaci´on diferente, αN : N 3 i → αi ∈ A. A N se le llama el conjunto de ´ındices y a las αi se le llaman coordenadas . . . . . . . . . . . . . . . . . . 43, 86 Neutro. De una operaci´on binaria ◦ es un elemento e que cumple que a ◦ e = e ◦ a = a para cual quier a del conjunto en el cual est´a definida la operaci´on. Si una operaci´on tiene neutro entonces este es u´ nico . . . . . . . . . . . . . . . . . . . . . 4 Nucleo de un morfismo. El el caso de grupos la preimagen del neutro. Para ani llos y espacios vectoriales la preimagen del
192
nuc – pro
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Nucleo de un polinomio. La colecci´on de sus raices. Cada ra´ız apare ce tantas veces como su multiplicidad . . . 23 Nucleo de una matriz. El nucleo de su transformaci´on lineal. El conjunto soluci´on de un sistema de ecuaciones con vector de coeficientes libres igual a cero . . . . . . . . . . 131 Nucleo de una TL. La preimagen del cero 93 Nucleo trivial. Nucleo igual a {0} . . . . . 94 OL. Acr´onimo de operador lineal . . . . . 80 Operaci´on binaria. Funci´on mediante la cual para cualesquiera dos elementos a y b de un conjunto A po demos encontrar otro elemento de A que es el resultado de la operaci´on . . . . . . . . . . . . . . . 2 Operador c´ıclico. OL h tal que todo el espacio es hc´ıclico . . . . . . . . . . . . . . . . . . . . . 154 Operador diagonalizable. OL tal que existe una base en la cual su matriz es diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Operador irreducible. OL que no se puede decomponer como suma directa . . . . . . . . 139 Operador lineal. Transformaci´on lineal de un espacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 80 Operador radical. OL cuyo polinomio m´ınimo (o caracter´ıstico) es potencia de un polinomio irreducible . . . . . . . . . . . . . . . . . . . 148 Operador singular. OL no biyectivo . . . 81 Operador triangulable. OL tal que existe una base ordenada en la cual su matriz es triangular. . . . . . . . . . . . . . . . . . . 171 Opuesto. El inverso de un elemento de un anillo o campo respecto a la suma . . . . . . . . 7 ´ Orbita de una permutaci´on. Clase de equivalencia de la relaci´on (a ∼ b) ⇔ (a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Orden de un ciclo. El n´umero de elementos que un ciclo no deja fijos. . . . . . . . . . . . . . . . 106 Orden de una matriz. El n´umero de renglones y columnas de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . 115 Per´ıodo de un conjunto de vectores. El generador del anulador del conjunto de
vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Per´ıodo de un vector. El polinomio m´onico p m´as peque˜no tal que ph (a) = 0. El generador del anulador del vector . . . 143 Permutaci´on. Biyecci´on de un conjunto finito en si mismo . . . . . . . . . . . . . . . . . . . . . . . 105, 114 Permutaci´on de las columnas. Es la operaci´on en que una permutaci´on ω se le aplica a las columnas de una matriz αMN para obtener la matriz βMN = αMω(N) que cumple que βij = αiω − 1 (j) . . . . . . . . . . . . . 112 Permutaci´on de los renglones . Es la operaci´on en que una permutaci´on ω se le aplica a los renglones de una matriz αMN para obtener la matriz βMN = αω(M)N que cumple que βij = αω − 1 (i)j . . . . . . . . . . . . . 112 Permutaci´on impar. Permutaci´on que se descompone en la composici´on de un n´umero impar de transposiciones . . . . . . . 108 Permutaci´on par. Permutaci´on que se descompone en la composici´on de un n´umero par de transposiciones . . . . . . . . . . 108 Plano. Subespacio af´ın de dimensi´on dos . . . 66, 47 Polinomio.P Expresi´on formal ni=0 ai xi donde los coeficientes ai son elementos de un campo . . . . . . . . . . . . . . 22 Polinomio caracter´ıstico. El polinomio det (xI − h). Es un m´ultiplo del polinomio m´ınimo y tiene los mismos factores irredu cibles que el polinomio m´ınimo . . . . . . . . 169 Polinomio irreducible. Polinomio m´onico de grado al menos 1 sin factores propios . . . 25 Polinomio m´ınimo. El polinomio m´onico m´as peque˜no que anula un OL. El generador del anulador del operador . . . . . . . . . . . . . . . . . . . 143 Polinomio m´onico. Polinomio cuyo coeficiente principal es 1 . . . . . . . . . . . . . . . . . 25 Preimagen de un elemento. Sea b un elemento del codominio de f. La preimagen de b es el conjunto de todos x en dominio tales que f (x) = b. . . . . . . . . . . *, 93 Producto de matrices. Si αMN y βNL son dos matrices entonces
pro – sub γML = αMN βN,L es la matriz cuyas en tradas son los productos escalares can´onicos γij = αiN βNj de los renglones de αMN por las columnas de βNL . . . . . . . . . . . . . . . . 85, 113 Producto de un escalar por una funci´on. Si en el codominio de f est´a definido un pro ducto por escalares entonces λf es la fun ci´on tal que (λf) (a) = f (λa) . . . . . . . . . . . 78 Producto de un vector por una matriz. Es la combinaci´on lineal de los renglones de la matriz cuyos coeficientes son las coordena das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Producto de una matriz por un vector. Es la combinaci´on lineal de las columnas de la matriz cuyos coeficientes son las coordena das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Producto escalar. Producto bilineal de dos vectores cuyo resultado es un escalar . . . . 85 Producto escalar can´onico. Producto escalar definido en K{N} como: P αN βN = i∈N αi βi . . . . . . . . . . . . . . . . . . . . 85 Proyecci´on. Si C = A × B entonces, la funci´on f : c = (a, b) 7→ a se le llama proyecci´on de C a A a lo largo de B. En par ticular, nosotros la usamos en el caso de que E = F ⊕ G (¡la suma directa es un producto cartesiano!). En este caso las proyecciones son TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77, 94 Punto. Subespacio af´ın de dimensi´on cero 66 Ra´ız de un polinomio. Elemento del campo en el cual la funci´on de evaluaci´on del polinomio toma valor cero . . . . . . . . . . . 23 Rango de una matriz. El orden de sus bases. La dimensi´on de su espacio de columnas. La dimensi´on de su espacio de renglo nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Recta. Subespacio af´ın de dimensi´on uno. . . 66, 47 Regla del tablero de ajedrez. Regla mediante la cual se hallan los signos de los cofactores de una matriz en forma gr´afica. El signo del cofactor de αij es (−1)i+j . . . . . . . . . . . . . . 117 Relaci´on antisim´etrica. Si a ≈ b y b ≈ a entonces, a = b . . . . . . . *
193
Relaci´on de equivalencia. Relaci´on sim´etrica, reexiva y transitiva. . . . . . . . *, 66 Relaci´on de orden. Relaci´on antisim´etrica, reexiva y transitiva . . . . . . . . . . . . . . *, 72, 126 Relaci´on en un conjunto. Subconjunto del producto cartesiano A × A = A2 . . . . . . . . * Relaci´on reexiva. Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . * Relaci´on sim´etrica. (a ≈ b) ⇒ (b ≈ a) . * Relaci´on transitiva. Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . * Rengl´on de una matriz. Dada una matriz αNM e i ∈ N a la Mada αiM (i est´a fi jo, los elementos de M var´ıan) se le llama i´esimo rengl´on de la matriz αNM . . 45, 85 Resto. Al efectuar la divisi´on con resto de un elemento p de un anillo conmutativo (Z, K [x]) entre otro q obtenemos la igual dad p = cq + r. Al elemento r se le llama resto de la divisi´on de p entre q . . . . . 23, 14 Restricci´on de una funci´on. Una funci´on f : A0 → B se le llama restric ci´on de g : A → B si A0 ⊆ A y para cual quier a ∈ A0 se cumple f (a) = g (a) . . . 81 Serie. P Expresi´on formal del i . A los elementos del campo a x tipo ∞ i=0 i ai se le llaman coeficientes de la serie. . . 42 Signo de una permutaci´on. Funci´on que a cada permutaci´on le hace co rresponder 1 si esta es par y −1 si esta es impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Sistema de ecuaciones lineales. Ecuaci´on Ax = b donde la matriz A y el vector b son conocidos y el vector x es inc´ognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128, 95 Soporte. De una funci´on f es el conjunto de elementos del dominio cuya imagen es diferente de cero. De una Nada es el conjunto de ´ındices cuyas coordenadas son diferentes de cero. De una combinaci´on lineal es el conjunto de sumandos con coefi ciente diferente de cero . . . . . . . . . . 43, 47, 58 Sub´algebra. Subespacio vectorial que contiene al 1 y en el cual el producto es
194
sub – tra
interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Subanillo. Subconjunto de un anillo que es un anillo para las mismas operaciones del anillo m´as grande . . . . . . . . . . . . . . . . . . . . . . . . 16 Subcampo. Subconjunto de un campo que es un campo para las mismas operaciones del campo m´as grande . . 16, 44 Subespacio. Subconjunto de un espacio vectorial que es a su vez es pacio vectorial para las mismas operaciones que las de todo el espacio . . . . 46, 59, 63, 93 Subespacio af´ın. Traslaci´on de un subespacio . . . . . 66, 78, 97 Subespacio generado. Cerradura lineal . . 48 Subespacio hc´ıclico. Subespacio hgenerado por un solo vector . . . . . . . . . . . . . . . . . . . . . . . 154 Subespacio hgenerado. La hcerradura de un conjunto de vectores . . . . . . . . . . . . . . . . . 154 Subespacio invariante. Subespacio donde est´a bien definida la restricci´on de un OL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Subespacio radical. Subespacio invariante en el cual el operador es radical . . . . . . . . . . . . 149 Subespacios afines paralelos. Dos subespacios afines son paralelos si uno es traslaci´on del otro . . . . . . . . . . . . . . . . . . . . . 66 Subespacios complementarios. Dos subespacios cuya suma es todo el espacio y cuya intersecci´on es el ori gen. . . . . . . . . . . . . . . . . . . . . . . . 63, 65, 67, 77, 94 Subgrupo. Subconjunto de un grupo que es un grupo para la misma operaci´on del grupo m´as grande . . . . . . . . . 16 Submatriz. Dada una matriz αNM a cualquier matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se le llama submatriz de αNM . . . . . . . . . 45, 126 Sucesi´on. Elemento (a0 , a1 , ..., an , ...) del conjunto AN de funciones f : N → A . . . 42 Sucesi´on acotada. La sucesi´on {zk } es acotada si existe un real M tal que ∀k kzk k ≤ M . . . . . . . . . . . . . . . . . 30 Sucesi´on convergente. Una sucesi´on que tiene l´ımite . . . . . . . . . . . . 30 Suma de conjuntos.
Si A y B son conjuntos y entre sus elemen tos hay una operaci´on de suma entonces: A + B = {a + b | a ∈ A y b ∈ B} . . . . . . 60 Suma de funciones. Si en el codominio mutuo de f y g est´a defi nida una suma entonces f + g es la funci´on tal que (λ + g) (a) = f (a) + g (a) . . . . . 79 Suma directa de espacios. El produc to cartesiano de los subespacios con la suma definida por coordenadas y tambi´en el pro ducto por escalares. Si la intersecci´on de dos subespacios tiene dimensi´on cero entonces, la suma directa de ellos es can´onicamente isomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 62 Suma directa de OL. OL definido por coordenadas en la suma directa de espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Supremo. El m´ınimo de las cotas inferiores * Tensor de exponente n. Un conjunto indexado por n conjuntos de ´ındices . . . . 45 Tipo de una descomposici´on. Si h = f1 ⊕ · · · ⊕ fn es una descomposici´on de h entonces, su tipo es la sucesi´on de los po linomios m´ınimos de f1 , . . . , fn . Dos tipos son iguales si uno se puede obtener del otro reordenando la sucesi´on. En el tipo pueden haber polinomios iguales . . . . . . . . . . . . . . . 158 TL. Acr´onimo de transformaci´on lineal . . 75 Transformaci´on elemental. Una trans formaci´on elemental de los renglones de una matriz consiste en sumarle a un regl´on otro multiplicado por un escalar. An´alogamente se definen las transformaciones elementales de las columnas . . . . . . . . . . . . . . . . . . . . . . . . . 132 Transformaci´on lineal. Morfismo de espacios vectoriales . . . . . . . . . . . . . . 56, 75, 82 Transformaci´on lineal de una matriz. Dada la matriz αMN es la funci´on: KN 3 βN → αMN βN ∈ KM . . . . . . . . . . . 86 Transformaci´on semilineal. Funci´on de un espacio vectorial a otro que es morfismo pa ˉ (x) ra la suma y que cumple que f (λx) = λf ˉ para cierto automorfismo λ 7→ λ del campo de escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
tra – vec Transposici´on. Ciclo de orden dos . . . . 107 Transpuesta. Matriz que se obtiene de otra intercambiando los sub´ındices de sus entra das, o sea si A = αNM y AT = B = βMN entonces αij = βji . . . . . . . . . . . . . . . . . . . . . . 111 Traslaci´on de un conjunto de vectores. Si A es un conjunto de vectores y x otro vec tor entonces A + x es la traslaci´on de A con el vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Valor propio. Escalar tal que para cier to vector propio a se tiene que h (a) = λa. Ra´ız del polinomio caracter´ıstico . . . . . . . 168
195
Vector. Elemento de un espacio vectorial. En Rn son los segmentos dirigidos del origen a un punto del espacio . . . . . . . . . . . . . . . . . 39, 40 Vector columna. Matriz con una sola columna . . . . . . . . . . . . 86 Vector de coeficientes libres. El vector b del sistema de ecuaciones lineales Ax = b. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Vector propio. Vector a tal que la recta hai es invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Vector rengl´on. Matriz con un solo rengl´on . . . . . . . . . . . . . . 86
196
Para todo. Existe. Existe y es u´ nico. Si P entonces Q. P implica Q. P es suficiente para Q. P ⇐ Q P solo si Q. P es necesario para Q. P ⇔ Q P si y solo si Q. P y Q son equivalentes. P es necesario y suficiente para Q.
∀ ∃ ∃! P⇒Q
b pertenece a B. B contiene a b. A es subconjunto de B. A es sobreconjunto de B. A es subconjunto propio de B. O sea, A ⊆ B y A 6= B. A ! B A es sobreconjunto propio de B. O sea, A ⊇ B y A 6= B. A∪B La uni´on de A y B. A∩B La intersecci´on de A y B. A\B La resta de conjuntos. El conjunto de los elementos de A que no per tenecen a B. A×B El producto cartesiano de dos con juntos. El conjunto de todas las pa rejas (a, b) con a ∈ A y b ∈ B. A 2 El conjunto de todos los subcon juntos del conjunto A. El conjunto de todas las funciones f : A → {0, 1}. n A El producto cartesiano de A con sigo mismo n veces. El conjunto de todos las nadas (a1 , . . . , an ) donde todos los ai est´an en A. b∈B B3b A⊆B A⊇B AÃB
AN
El conjunto de todas las funciones f : N → A. El conjunto de todos las Nadas aN donde ∀i ∈ N el elemento ai pertenece a A. Si N = {1, . . . , n} entonces AN = An .
0
El vector cero. El origen de coor denadas. Cero es elemento neutro para la suma de un anillo o campo. Uno es el elemento neutro para el producto de un anillo o campo. Menos uno es el opuesto de 1 en un anillo o campo. Matriz identidad. La funci´on identidad. La permuta ci´on identidad La funci´on nula. La matriz nula El cardinal de N.
0 1 −1 INN I O ℵ0 K Kn KN K [x] K [[x]] K (x) N Z Zn Q R C SN
Un campo arbitrario. El espacio de las nadas. El espacio de las Nadas. El a´ lgebra de polinomios en la va riable x con coeficientes en K. El a´ lgebra de series en la variable x con coeficientes en K. El campo de funciones racionales en x con coeficientes en K. El conjunto de los naturales. El anillo de los enteros. El anillo de restos m´odulo n. Para n primo Zn es un campo. El campo de los racionales. El campo de los reales. El campo de los complejos. El grupo sim´etrico de N.
198 AN A− N
Notaciones El grupo alternante de N. Las permutaciones impares de N.
f:A→B Una funci´on que tiene dominio A y codominio B. f : A 3 a 7→ f (a) ∈ B Usada para denotar funciones con cretas por ejemplo, f : R 3 a 7→ a2 ∈ R+ es la funci´on con dominio R y co dominio R+ que a cada real le hace corresponder su cuadrado. p mod q El resto de la divisi´on de p entre q. Est´a bien definido en cualquier anillo con divisi´on. Por ejemplo, en los n´umeros enteros y en los polinomios con coeficientes en un campo. n! El factorial del natural n. Se define como n! = 1 × 2 × · · · × n. |A| El cardinal del conjunto A. Puede ser finito o infinito. kzk El m´odulo del n´umero complejo z. hNi La cerradura lineal de N. El con junto de todas las combinaciones lineales de N. l´ım zk dim E sgn π det A Im f ker f
El l´ımite de la sucesi´on {zk }. La dimensi´on de E. El signo de la permutaci´on π. El determinante de la matriz A. La im´agen de la funci´on f. El nucleo del morfismo f.
A+B
La suma de dos conjuntos de vec
λA A+x
E⊕F
αMN
αij αiN αMj αMω(N)
αω(M)N α∗ij A∗ AT (A|b)
tores. El producto de un escalar por un conjunto de vectores. El conjunto de vectores A trasla dado mediante el vector x. Si A es un subespacio entonces, es un sub espacio af´ın. La suma directa de dos espacios. Si E y F son subespacios que se intersectan solo en el origen enton ces es can´onicamente isomorfa a la suma de E y F. Una matriz cuyos renglones est´an indexados por M y cuyas colum nas est´an indexadas por N. La entrada αij de una matriz αMN . El i´esimo rengl´on de la matriz αNM . La j´esima columna de la matriz αNM . Si ω es una permutaci´on de N, es la matriz αMN cuyas columnas est´an permutadas mediante ω. Si ω : N → L es una biyecci´on, es la matriz cuyas columnas est´an inde xadas por L mediante el cambio de ´ındices ω. Lo mismo que el anterior pero pa ra los renglones El cofactor de la entrada αij de una matriz cuadrada. La matriz de cofactores de A. La matriz transpuesta de A. La matriz ampliada del sistema Ax = b.
Notaciones
Alfabeto g´otico A B C D E F G H I J K L M A B C D E F G H I J K L M N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z a b c d e f g h i j k l m a b c d e f g h i j k l m n o p q r s t u v w x y z n o p q r s t u v w x y z
Alfabeto caligr´afico A B C D E F A B C D E F
G H I J K L M G H I J K L M
N O P Q R S T N O P Q R S T
U V W X Y Z U V W X Y Z
Alfabeto griego A B Γ ∆ E Z H Θ I α β γ δ ²ε ζ η θϑ ι alfa beta gamma delta e´ psilon zeta eta zita iota K Λ M N Ξ O Π P Σ κκ λ µ ν ξ o π ρ σ kappa lamda mu nu xi o´ micron pi ro sigma T Υ Φ X Ψ Ω τ υ φϕ χ ψ ω tau u´ psilon fi chi psi omega
199
200
Cap´ıtulo 1 1. Defina los siguientes conceptos: • Operaci´on binaria. • Propiedad conmutativa. • Propiedad asociativa. • Propiedad distributiva. • Elemento neutro. • Elemento inverso. 2. En cualquier campo 0x = 0. 3. Defina los siguientes conceptos: • Grupo y grupo abeliano. • Anillo y anillo conmutativo. • Campo. 4. Defina los morfismos. 5. Los morfismos preservan las operaciones bi narias. 6. Los morfismos preservan la conmutatividad. 7. Los morfismos preservan la asociatividad. 8. Los morfismos preservan el neutro. 9. Los morfismos preservan el inverso. 10. Los morfismos preservan la distributividad. 11. La inversa de un isomorfismo es un isomor fismo. 12. Defina la suma y el producto en Zn . 13. (Zn , +, •) es un anillo conmutativo. 14. Todo campo es un dominio de integridad. 15. Zn es un dominio de integridad si y solo si n es primo. 16. Todo dominio de integridad finito es un campo. 17. Definici´on de subcampo. 18. Definici´on de campo primo 19. Todo campo K contiene un u´ nico subcampo primo que est´a contenido en cualquier sub campo de K. 20. Q es un campo primo.
21. Los campos Zp son primos. 22. Teorema de Clasificaci´on de Campos Pri mos. 23. Defina la caracter´ıstica de un campo. 24. En un campo de caracter´ıstica t para cual quier elemento x se cumple que tx = 0 . 25. Demuestre la f´ormula del binomio de New ton en base a la f´ormula multinomial.
Cap´ıtulo 2 1. Definici´on de espacio vectorial. 2. ¿Que es una nada? ¿Que es una Nada? ¿Cual es su conjunto de ´ındices? ¿ Que son sus coordenadas? 3. ¿Que es una NMmatriz? ¿Que es una en trada, rengl´on, columna? 4. Definici´on de subespacio. 5. Los subespacios son los conjuntos cerrados para la suma y el producto por escalares. 6. La uni´on de subespacios no es un subespa cio. 7. La intersecci´on de subespacios es un subes pacio. 8. Definici´on de combinaci´on lineal y sus co eficientes. 9. El conjunto de todas las combinaciones li neales de un conjunto de vectores es un su bespacio. 10. Los siguientes tres conjuntos de vectores co inciden: • El conjunto de todas las combinaciones lineales de N. • La intersecci´on de todos los subespacios que contienen a N. • El subespacio m´as peque˜no que contiene a N. 11. Propiedades b´asicas de la cerradura lineal:
202
Gu´ıa de estudio
• incremento, • monoton´ıa, • idempotencia. 12. Todo sobreconjunto de un conjunto genera dor es generador. 13. Teorema de caracterizaci´on de conjuntos LI. 14. Todo subconjunto de un conjunto LI es LI. 15. Lema de aumento de un conjunto LI. 16. Teorema de caracterizaci´on de bases. 17. Teorema de existencia de bases. 18. Propiedad del cambio de las bases. 19. Dos bases cualesquiera de un espacio vecto rial tienen el mismo cardinal. 20. Si E es un subespacio de F y dim E = dim F < ∞ entonces, E = F. 21. Describa las bases can´onicas de los espacios vectoriales K{N} y K [x]. 22. La inversa de un isomorfismo lineal es un isomorfismo lineal. 23. Un isomorfismo transforma conjuntos LI en conjuntos LI, conjuntos generadores en con juntos generadores y bases en bases. 24. Describa el isomorfismo de coordinatiza ci´on en una base. 25. Dos espacios vectoriales sobre un mismo campo son isomorfos si y solo si tienen la misma dimensi´on. 26. Todo espacio vectorial finito dimensional es isomorfo a Kn . 27. El n´umero de elementos en un campo finito es potencia de un n´umero primo. 28. hE ∪ Fi = {a + b | a ∈ E, b ∈ F} 29. La igualdad modular (incluye la demostra ci´on del lema). 30. Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´on E ⊕ F 3 (a, b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales. 31. Que es un isomorfismo can´onico. Demues tre que E ⊕ F y F ⊕ E son can´onicamente isomorfos. 32. Todo subespacio tiene complementario. 33. Si E y F son dos subespacios complemen tarios entonces cada vector x se expresa de
forma u´ nica como x = a + b donde a ∈ E y b ∈ F. 34. Defina los subespacios afines. 35. ¿Que es el paralelismo de subespacios afi nes? 36. Todo subespacio af´ın es paralelo a un solo subespacio vectorial. 37. Dos diferentes subespacios afines paralelos no se intersectan 38. ¿Que es el espacio cociente? ¿Cuales son sus operaciones? 39. Cualquier subespacio complementario a E intersecta al subespacio af´ın (E + x) en un solo punto. 40. D/E es can´onicamente isomorfo a cualquier complementario de E.
Cap´ıtulo 3 1. Definici´on de transformaci´on lineal. 2. Toda TL transforma subespacios en subes pacios. 3. Toda TL de un espacio de dimensi´on 1 es una homotecia. 4. Definici´on de proyecci´on. Toda proyecci´on es una TL. 5. El producto de un escalar por una TL es una TL. 6. La suma de dos TLs es una TL. 7. La composici´on de TLs es una TL. 8. Propiedades de la composici´on de TLs: aso ciatividad, distributividad y conmutatividad con el producto por escalares. ´ 9. Definici´on de Algebra. De tres ejemplos de a´ lgebras. ¿Que es el grupo general lineal? 10. Las extensiones lineales son TLs. 11. Las TLs est´an predeterminadas por sus va lores en una base. 12. Si N es una base de E entonces, la funci´on que a cada TL h ∈ Hom (E, F) le hace co rresponder su restricci´on hN ∈ FN es un isomorfismo de espacios vectoriales. 13. Una TL es un isomorfismo si y solo si su res tricci´on a una base es inyectiva y la imagen de esta restricci´on es una base.
Gu´ıa de estudio 14. Propiedades del producto escalar can´onico de Nadas conmutatividad, distributividad y conmutatividad con el producto por escala res. 15. Definici´on del producto de matrices. 16. ¿Cual es la TL definida por una matriz?. ¿Cual es la matriz de una TL? 17. La matriz de la composici´on de dos TLs es igual al producto de las matrices de las TLs. 18. Defina las matrices de cambio de base. 19. La Nada de las coordenadas de un vector en la base nueva se obtiene multiplicando la matriz de cambio de base por la Vada de las coordenadas del vector en la base vieja. 20. Sea f : E → F una TL. Sean B y C matrices de cambio de base en E y F respectivamen te. Si A es la matriz de f en las bases viejas entonces CAB−1 es la matriz de f en las ba ses nuevas. 21. Propiedades principales de la transpuesta de una matriz. 22. Defina la transpuesta de una TL. 23. La transpuesta de una inmersi´on es una pro yecci´on. 24. Definici´on de nucleo e im´agen de una TL. 25. La im´agen y el nucleo son subespacios. 26. Una TL es injectiva si y solo si su nucleo es trivial. 27. Si K es un subespacio complementario a ker f entonces, la restricci´on de f a K es in yectiva. 28. Pruebe que dim Im f = dim Im fT y que dim ker f = dim ker fT . 29. Sean E y F dos espacios tales que dim E = dim F < ∞. Una TL de E a F es inyectiva si y solo si es sobreyectiva. 30. Los subespacios afines paralelos a ker f son precisamente los conjuntos de vectores en que la TL f es constante.
Cap´ıtulo 4 1. Si |M| = |N| entonces, los grupos sim´etri cos SM y SN son isomorfos. 2. El n´umero de permutaciones de un conjunto
203
con n elementos es n!. 3. Que son las o´ rbitas de una permutaci´on. 4. La restricci´on de una permutaci´on a una o´ rbita es un ciclo. 5. Definici´on de permutaciones pares e impa res. Definici´on del signo. 6. La composici´on de una permutaci´on con una transposici´on cambia la paridad de la permutaci´on. 7. Toda permutaci´on es composici´on de trans posiciones. 8. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y que sgn π−1 = sgn π. 9. Definici´on de determinante de una matriz. Regla del tri´angulo para los determinantes de orden 3. 10. El determinante de la matriz identidad es 1. 11. Si una matriz tiene una columna o un ren gl´on nulo entonces, su determinante es cero. 12. El determinante no se altera al transponer una matriz. 13. Si una matriz tiene dos columnas iguales en tonces, su determinante es cero. 14. Al permutar las columnas o los renglones de una matriz con la permutaci´on ω el determi nante se altera por un factor igual a sgn ω. 15. Si φ y ϕ son dos cambios de ´ındices de N en M entonces, se cumple la ¢igualdad: ¡ −1 det αMϕ(N) . det αMφ(N) = sgn φ ◦ ϕ 16. Definici´on de matriz no singular. 17. Definici´on de cofactores de una entrada de una matriz. Pruebe que los cofactores no de penden del cambio de ´ındices usado para calcular el determinante. 18. Teorema de expansi´on de Laplace. 19. Definici´on de funcional multilineal 20. El determinante es un funcional multilineal de los renglones. 21. det A−1 = (det A)−1 . 22. A−1 = A∗T / det A. 23. El determinante de un OL no depende de la base que se use para calcularlo. 24. Enuncie la expansi´on generalizada de La place
204
Gu´ıa de estudio
25. El determinante de una matriz triangular por bloques es igual al producto de los determi nantes de sus bloques. 26. Enuncie la caracterizaci´on de matrices no singulares. 27. Las dimensiones del espacio de columnas y del espacio de renglones de una matriz co inciden. 28. Lema de aumento de submatrices no singu lares. 29. Caracterizaci´on de las bases de una matriz 30. Regla de Cramer. 31. Teorema de existencia de soluciones. 32. Lema de eliminaci´on de ecuaciones depen dientes.
33. Describa el procedimiento general de solu ci´on de los sistemas de ecuaciones lineales. 34. Las transformaciones elementales no cam bian los determinantes. 35. Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af´ın soluci´on de un sistema de ecuaciones lineales. 36. Resuelva un sistema de ecuaciones lineales por el m´etodo de Gauss. 37. Encuentre la inversa de una matriz por el m´etodo de eliminaci´on de Gauss
Cap´ıtulo 5