Algebra lineal y geometria 3a Edicion Pearson | Mauricio Caceres

October 1, 2018 | Author: Anonymous | Category: Documents
Share Embed


Short Description

ª edición Eugenio Hernández Rodríguez Departamento de Matemáticas Facultad ..... La obra ha pasado a llamarse Álge...

Description

Álgebra lineal y Geometría 3.ª edición

Eugenio Hernández Rodríguez María Jesús Vázquez Gallo María Ángeles Zurro Moro

Álgebra lineal y Geometría 3.ª edición

Eugenio Hernández Rodríguez Departamento de Matemáticas Facultad de Ciencias Universidad Autónoma de Madrid

María Jesús Vázquez Gallo Departamento de Ingeniería Civil: Servicios Urbanos Unidad Docente de Matemáticas Escuela Universitaria de Ingeniería Técnica de Obras Públicas Universidad Politécnica de Madrid

María Ángeles Zurro Moro Departamento de Matemáticas Facultad de Ciencias Universidad Autónoma de Madrid

Datos de catalogación bibliográfica Álgebra lineal y Geometría, 3.ª edición Eugenio Hernández Rodríguez, María Jesús Vázquez Gallo, María Ángeles Zurro Moro PEARSON EDUCACIÓN, S.A., Madrid, 2012 ISBN: 978-84-7829-129-8 Materia: 512. Álgebra Formato: 195 × 250 mm

Páginas: 712

Cualquier forma de reproducción, distribución, comunicación pública o trasformación de esta obra solo puede ser utilizada con la autorización de sus titulares, salvo excepción prevista por la ley. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts. 270 y sgts. Código penal). Diríjase a CEDRO (Centro Español de Derechos Reprográficos - www.cedro.org), si necesita fotocopiar o escanear algún fragmento de esta obra. Todos los derechos reservados. © 2012 PEARSON EDUCACIÓN, S.A. C/ Ribera del Loira, 28 28042 Madrid (España) ISBN: 978-84-7829-129-8 Depósito legal: M-10289-2012 Equipo de Edición: Editor: Miguel Martín-Romo Técnico editorial: Esther Martín Equipo de Diseño: Diseñadora senior: Elena Jaramillo Técnico de diseño: Irene Medina Equipo de Producción: Directora: Marta Illescas Coordinadora: Tini Cardoso Diseño de cubierta: Copibook, S.L. Composición: Copibook, S.L. Impreso por: IMPRESO EN ESPAÑA - PRINTED IN SPAIN

Nota sobre enlaces a páginas web ajenas: este libro incluye enlaces a sitios web cuya gestión, mantenimiento y control son responsabilidad única y exclusiva de terceros ajenos a PEARSON EDUCACIÓN, S.A. Los enlaces u otras referencias a sitios web se incluyen con finalidad estrictamente informativa y se proporcionan en el estado en que se encuentran en el momento de publicación sin garantías, expresas o implícitas, sobre la información que se proporcione en ellas. Los enlaces no implican el aval de PEARSON EDUCACIÓN S.A a tales sitios, páginas web, funcionalidades y sus respectivos contenidos o cualquier asociación con sus administradores. En consecuencia, PEARSON EDUCACIÓN S.A., no asume responsabilidad alguna por los daños que se puedan derivar de hipotéticas infracciones de los derechos de propiedad intelectual y/o industrial que puedan contener dichos sitios web ni por las pérdidas, delitos o los daños y perjuicios derivados, directa o indirectamente, del uso de tales sitios web y de su información. Al acceder a tales enlaces externos de los sitios web, el usuario estará bajo la protección de datos y políticas de privacidad o prácticas y otros contenidos de tales sitios web y no de PEARSON EDUCACIÓN S.A. Este libro ha sido impreso con papel y tintas ecológicos

Para Sonia y Marlit. Para Bruno y Anais. Para María Victoria y Sofía.

a

Índice

Prólogo (a la primera edición) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prólogo (a la tercera edición) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xi xiii

Capítulo 1. Resolución de sistemas de ecuaciones lineales. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.1. 1.2. 1.3. 1.4.

Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan . . Rango de una matriz. Estructura de las soluciones de un sistema . . . . . . . . . . . . . . . . . . . . . . . Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . Inversa de una aplicación e inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 2. 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7.

Determinantes y sus aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Determinantes de matrices de orden 2 y de orden 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición general de determinante. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinante de un producto de matrices. Cálculo de determinantes de orden n . . . . . . . . Inversa de una matriz. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rango de una matriz. Resolución de sistemas compatibles e indeterminados . . . . . . . . . . . . La factorización LU. Resolución de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . Determinantes y permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 3. Los números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1. 3.2. 3.3. 3.4. 3.5.

Los números complejos y sus propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Formas trigonométrica y polar de un número complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Raíces de números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Resolución de ecuaciones algebraicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios de álgebra lineal con números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 4.

Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4.1. Definición de espacio vectorial. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 13 25 39 51 52 60 78 89 96 106 114 121 122 127 131 135 139 143 144

viii

Índice

4.2. 4.3. 4.4. 4.5.

Base y dimensión de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Subespacios vectoriales. Intersección y suma de subespacios vectoriales . . . . . . . . . . . . . . . El espacio vectorial cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

148 156 162 169

Capítulo 5. Aplicaciones lineales entre espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . .

177

5.1. 5.2. 5.3. 5.4. 5.5.

Definición de aplicación lineal. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matriz de una aplicación lineal. Operaciones con aplicaciones lineales . . . . . . . . . . . . . . . . . Aplicaciones lineales y cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal . . El espacio dual de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 6.

178 182 189 195 204

Valores y vectores propios. Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . .

207

Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Subespacios invariantes. Valores y vectores propios de una aplicación lineal . . . . . . . . . . . Forma de Jordan de matrices de orden 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejemplos de formas de Jordan de matrices de orden 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aplicaciones lineales y subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El Teorema de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Obtención de la forma de Jordan compleja de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Forma de Jordan real de matrices reales con autovalores complejos . . . . . . . . . . . . . . . . . . . .

208 209 222 231 238 248 253 265 275

Ejercicios de repaso: Capítulos 1 a 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

285

Capítulo 7.

La geometría del plano y del espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

291

Rectas en un plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rectas y planos en el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Distancias y ángulos. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Figuras sencillas en el plano y en el espacio: sus ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . Áreas y volúmenes. Producto vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

293 303 315 328 338

6.1. 6.2. 6.3. 6.4. 6.5. 6.6. 6.7. 6.8. 6.9.

7.1. 7.2. 7.3. 7.4. 7.5.

Capítulo 8. 8.1. 8.2. 8.3. 8.4. 8.5. 8.6. 8.7. 8.8.

Espacios euclídeos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

353

Espacios euclídeos. Longitudes, áreas y ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bases ortonormales en un espacio euclídeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Complemento ortogonal. Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adjunta de una aplicación. Aplicaciones autoadjuntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aplicaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Clasificación de aplicaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estructura de las aplicaciones lineales no singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Descomposición en valores singulares de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

354 361 366 377 383 390 399 402

Capítulo 9.

Espacios hermíticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

415

9.1. Producto hermítico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2. Aplicaciones entre espacios hermíticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

416 420

Índice

Capítulo 10. Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1. 10.2. 10.3. 10.4. 10.5. 10.6. 10.7. 10.8. 10.9.

Espacio afín. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transformaciones afines. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacio afín euclídeo. Movimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estudio geométrico de los movimientos en el plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estudio analítico de los movimientos en ⺢2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Descripción geométrica de los movimientos en el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . Clasificación de los movimientos en ⺢3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ecuaciones de los movimientos en ⺢3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Movimientos en ⺢3 y puntos fijos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 11. Secciones cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1. 11.2. 11.3. 11.4. 11.5. 11.6. 11.7. 11.8. 11.9. 11.10. 11.11.

Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La circunferencia y alguna de sus propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La elipse y la hipérbola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nueva definición de las secciones cónicas: la elipse, la hipérbola y la parábola . . . . . . . . Ecuaciones de las cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinación de las cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinación del tipo de una cónica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Invariantes de las cónicas y reducción a su forma canónica . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinación del centro y de los ejes principales de una cónica con centro . . . . . . . . . . Determinación del vértice y del eje de una parábola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Haces de cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 12. 12.1. 12.2. 12.3. 12.4. 12.5.

Formas bilineales y cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Formas bilineales y cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Formas bilineales y cuadráticas en un espacio euclídeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ley de inercia de las formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Formas cuadráticas definidas. Puntos críticos de funciones de varias variables . . . . . . . . Diagonalización simultánea de formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Capítulo 13. Superficies de segundo grado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

ix

429 430 437 441 446 453 466 477 490 496 509 510 511 513 518 525 532 534 544 550 553 556 565 566 571 574 576 582

Clasificación de las superficies de segundo grado en ⺢ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Invariantes de las superficies de segundo grado en ⺢3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinación de los elementos geométricos de algunas cuádricas . . . . . . . . . . . . . . . . . . . . Clasificación de las cuádricas según sus invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Notas adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. El hiperboloide de una hoja como superficie reglada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. La regla de los signos de Descartes para polinomios de grado 3 . . . . . . . . . . . . . . . . . . . 3. Demostración del Teorema 13.4.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

591 592 603 609 614 624 624 626 630

Ejercicios de repaso: Capítulos 7 a 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

635 643 679 681 689

13.1. 13.2. 13.3. 13.4. 13.5.

3

a

Prólogo (a la primera edición)

La Matemática no es un deporte para espectadores; el lector debe acercarse a este texto con un lapicero en su mano y un papel a su lado para verificar con sus propios razonamientos y su espíritu crítico las afirmaciones que contiene. De la misma manera que lograr un nivel adecuado en el juego del tenis requiere tiempo y práctica, y conseguir tocar una pieza de música clásica requiere esfuerzo, recompensado por la belleza que su música proporciona, la matemática es una ciencia cuyo aprendizaje requiere esfuerzo y práctica y cuya recompensa se alcanza por la elegancia con la que permite resolver problemas propios y de otras Ciencias. Esperamos que el lector se esfuerce en comprender los conceptos y resultados que se exponen en este libro, porque ellos son la base para poder apreciar posteriormente varias de las aportaciones que la Ciencia ha dado a la humanidad a través de los tiempos y, de manera especial, en el siglo XX. Este libro ha surgido de las clases de Álgebra y Geometría impartidas durante varios años a los alumnos de primer curso de las licenciaturas de Ciencias Físicas y Ciencias Matemáticas en la Universidad Autónoma de Madrid. Ha crecido con la colaboración de varios colegas del Departamento de Matemáticas de esta universidad; unos, aportando soluciones para la mejor exposición de algunas lecciones; otros, mejorando ideas ya plasmadas en papel; otros, finalmente, corrigiendo varias versiones del manuscrito. A todos ellos agradezco su desinteresada aportación en la elaboración de este libro. En él se ha pretendido seguir un esquema que permita al lector adivinar los resultados e intuir su demostración: para ello, se dan varios ejemplos antes de enunciar un resultado y aportar las razones convincentes que lo demuestran. Estas razones son puramente geométricas cuando ha sido posible, como en la demostración de las propiedades de las secciones cónicas (Capítulo 11) o en la clasificación de los movimientos en el plano (Capítulo 10). Se dan ejemplos de aplicaciones en varias ocasiones después de haber concluido la demostración de un resultado importante. Con todo ello, se intenta lograr una participación activa del lector en el descubrimiento de las ideas principales de cada capítulo, a la vez que se le brinda la oportunidad de ir comprobando su nivel de conocimientos.

xii

Prólogo (a la primera edición)

Este nivel de conocimientos puede comprobarse también intentando solucionar los numerosos problemas que se proponen al final de casi todas las secciones y los que, a modo de repaso, se incluyen después de los Capítulos 6 y 13. El completo aprendizaje de las teorías matemáticas se consigue después de haber resuelto numerosos ejercicios. El lector debe intentar resolverlos todos, con la seguridad de que estos intentos, aunque sean fallidos, le proporcionarán grandes beneficios. De muchos de los problemas se incluyen los resultados al final del libro. La elaboración de estos resultados ha contado con la participación de varios ayudantes del departamento de Matemáticas, a quienes también agradezco su contribución. Las Rozas de Madrid Agosto de 1987

Prólogo (a la tercera edición)

Esta tercera edición surge de la propuesta de Pearson Educación de hacer una revisión del libro Álgebra y Geometría que publicó por primera vez en 1987 la Universidad Autónoma de Madrid en su Colección de Estudios y fue luego reimpresa en 1994 en la colección de libros de texto que pusieron en marcha la editorial Addison-Wesley Iberoamericana y la Universidad Autónoma de Madrid. Se ha aprovechado la experiencia educativa de los autores acumulada durante los últimos años para mejorar la presentación de algunos temas y añadir otros que se han considerado relevantes. La obra ha pasado a llamarse Álgebra lineal y Geometría, reordenando los capítulos para poner juntos los que pertenecen al Álgebra lineal (Capítulos 1 a 6) y dejar para el final los que tratan de Geometría (Capítulos 7 a 13). El primer grupo de ejercicios de repaso, que en la segunda edición estaban después del capítulo 7, se incluyen ahora después del capítulo 6, al finalizar los temas propios de Álgebra lineal. Tanto en las secciones remodeladas, como en las nuevas, se ha seguido el mismo esquema de presentación que impregnaba las dos ediciones anteriores: numerosos ejemplos ayudan a conjeturar resultados y allanan el camino de su demostración. El lector encontrará también muchos ejemplos para evaluar sus conocimientos sobre las teorías desarrolladas. Asimismo, en los capítulos dedicados a la Geometría se ha reforzado la presentación puramente geométrica, cuando ello no ha requerido alargarla en exceso. En el Capítulo 2 se incluye la factorización LU de una matriz y se explica como usarla para resolver sistemas de ecuaciones lineales de gran tamaño. En el Capítulo 4 se ha incluido una sección detallada sobre el espacio vectorial cociente. En el Capítulo 5 se ha remodelado la sección de espacio dual de un espacio vectorial. Una mayor reestructuración ha tenido lugar en el Capítulo 6; manteniendo todos los ejemplos, la presentación de la forma de Jordan de una matriz se hace utilizando como base el polinomio característico de la matriz. Esperamos que esta nueva presentación sea del agrado del lector. En el Capítulo 8, dedicado al estudio de los espacios euclídeos y sus transformaciones, se ha añadido una sección dedicada a la descomposición de una matriz en valores singulares. Hoy en

xiv

Prólogo (a la tercera edición)

día estas técnicas son utilizadas en dominios tan diversos como la compresión de imágenes, la recuperación de información e incluso en el análisis de la expresión de genes interactuando con diversas técnicas estadísticas. La segunda edición contenía un estudio geométrico de los movimientos en el plano y un estudio analítico de estos y de los correspondientes en el espacio. Se ha añadido en el capítulo 10 un teorema de estructura de los movimientos en el espacio, para completar una visión más geométrica de estos movimientos. Los capítulos 11 y 13, que tratan de las secciones cónicas y de las superficies de segundo grado respectivamente, han sido revisados añadiendo ejemplos y mejorando las figuras, además de mejorar la presentación de su clasificación. La implantación de los nuevos planes de estudio en las universidades europeas ha puesto énfasis en la necesidad de una participación activa y continua del estudiante en el proceso de aprendizaje. La estructura de este libro, con numerosos ejemplos previos y posteriores a los desarrollos teóricos, así como la gran cantidad de ejercicios que se proponen al final de cada sección y los que se añaden como ejercicios de repaso, se adapta perfectamente a este nuevo paradigma del aprendizaje. Esperamos que esta tercera edición tenga tan buena acogida como la han tenido las ediciones anteriores. Cantoblanco, Madrid Marzo de 2012 EUGENIO HERNÁNDEZ RODRÍGUEZ MARÍA JESÚS VÁZQUEZ GALLO MARÍA ÁNGELES ZURRO MORO

Las autoras quisieran explícitamente agradecer al profesor Eugenio Hernández su invitación a colaborar en la nueva edición de este libro. MARÍA JESÚS VÁZQUEZ GALLO MARÍA ÁNGELES ZURRO MORO

Capítulo 1

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices. 1.1. Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan. 1.2. Rango de una matriz. Estructura de las soluciones de un sistema. 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices. 1.4. Inversa de una aplicación e inversa de una matriz.

2

Capítulo 1. Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Este capítulo está dedicado a la resolución de sistemas de ecuaciones lineales; el problema geométrico más sencillo en el cual surge la necesidad de resolver sistemas de ecuaciones lineales es el de conocer la intersección de dos rectas en el plano. Así, por ejemplo, los números que satisfacen el sistema

F

!y%2 3 .y%2

determinan el punto de intersección de las rectas ! y % 2 y 3 . y % 2, representadas en la figura 1.1.

Figura 1.1

Es posible que el lector esté familiarizado con la resolución de sistemas de ecuaciones lineales como el anterior utilizando uno de los siguientes métodos: to o e elimina i n, que consiste en realizar «operaciones» con las ecuaciones dadas hasta eliminar una de las incógnitas. 2) to o e tit i n, que consiste en despejar una incógnita de una de las ecuaciones y sustituirla en la otra. 3) to o e ramer o e lo eterminante , que consiste en encontrar las soluciones del sistema anterior como un cociente de dos determinantes. 1)

De todos estos métodos el que resulta menos engorroso cuando se trata de resolver sistemas de un gran número de incógnitas es el método de elimina i n, que recibe el nombre de m to o e elimina i n e Ga or an. Comenzaremos exponiendo este método seguidamente.

Sección 1.1. Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan

3

1.1. Resolución 1.1. RESOLUCIÓN de sistemas de ecuaciones DE SISTEMAS lineales: método DE de ECUACIONES eliminación de Gauss-Jordan LINEALES: MÉTODO DE ELIMINACIÓN DE GAUSS-JORDAN

EJEMPLO A.

Tratemos de resolver el sistema

F

!y%2 3 .y%2

de dos ecuaciones con dos incógnitas; una solución de este sistema es un par de números reales (a, b) que satisface las dos ecuaciones simultáneamente. El primer paso es multiplicar por 3 la primera ecuación y restarla de la segunda para obtener el sistema

F

! y% 2 . . 4y %.4 A continuación dividimos entre .4 (o bien multiplicamos por .1/4) la segunda ecuación para obtener el sistema

F

!y%2 . y%1 Restando la segunda ecuación de la primera se obtiene

F

%1 y%1

que nos permite obtener fácilmente el par de números reales (1, 1), que es solución del sistema dado. Nota. Observar que % 1, y % 1 satisfacen ambas ecuaciones; el lector puede comprobar siempre que el resultado obtenido es correcto sustituyendo los valores encontrados en el sistema dado. EJEMPLO B.

Tratemos de resolver el sistema 1!3 2!

3 %.3

3 1 ! 9 2 ! 4 3 %.7 2 1. 2! 3% 6

F

de tres ecuaciones lineales con tres incógnitas. Comenzamos eliminando 1 de las ecuaciones segunda y tercera; esto se consigue multiplicando por 3 la primera ecuación y restándola de la segunda y multiplicando por 2 la primera ecuación y restándola de la tercera. Realizando estas operaciones, el sistema anterior se transforma en

F

1 ! 3 2 ! 3 %.3 3%

2 . .7 2 . 3 % 12

4

Capítulo 1. Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Intercambiando las ecuaciones segunda y tercera se obtiene:

F

1 ! 3 2 ! 3 %.3

.7 2 .

3%

12 . 2 3%

A continuación, eliminamos 3 de la primera y la segunda de las ecuaciones restando la tercera de la primera y sumando la tercera y la segunda. Obtenemos:

F

1!3 2

.7

%.5 % 14 . 2 3%

2

Multiplicando por .1/7 la segunda ecuación se obtiene:

F

1!3 2

%.5 %.2 . 2 3%

2

Finalmente, eliminamos 2 de la primera ecuación multiplicando por 3 la segunda y restándola de la primera; obtenemos: 1%

F

1 %.2 2 2 3% que nos da la solución (1, .2, 2) del sistema. Comprobación. 1 . 6 ! 2 %.3;

3 . 18 ! 8 %.7; 2 ! 2 ! 2 % 6. *

*

*

El lector se preguntará por qué el método utilizado produce la solución del sistema. La respuesta es que las «operaciones» realizadas con las ecuaciones transforman un sistema en otro e ivalente, es decir, que tiene las mismas soluciones. Recapitulemos las operaciones realizadas en los ejemplos anteriores que, de ahora en adelante, serán llamadas o era ione elementale : i) Multiplicar una ecuación por un número real no nulo. ii) Intercambiar dos ecuaciones. iii) Sumar o restar un múltiplo de una ecuación a otra. No resulta complicado comprobar que las operaciones elementales transforman un sistema en otro equivalente. Por ejemplo, si (a, b, ) es solución de 1 ! 3 2 ! 3 %.3, también es solución de 3 1 ! 9 2 ! 3 3 %.9, ya que 3a ! 9b ! 3 % 3(a ! 3b ! ) % 3(.3) %.9. De manera similar, si (a, b, ) es también solución de 3 1 ! 9 2 ! 4 3 %.7, cinco veces la ecuación 1 ! 3 2 ! 3 %.3 más la ecuación 3 1 ! 9 2 ! 4 3 %.7 nos da 8 1 ! 24 2 ! 9 3 %.22 que tiene (a, b, ) como solución, ya que 8a ! 24b ! 9 % (5a ! 15b ! 5 ) ! (3a ! 9b ! 4 ) % 5(.3) . 7 %.22.

Sección 1.1. Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan

5

Resumiendo, podemos decir que el método de elimina i n e Ga or an consiste en reducir un sistema dado a otro equivalente, más sencillo, mediante operaciones elementales. Puede observarse que la repetición de las incógnitas y de los signos ! en los ejemplos anteriores es innecesaria. Si eliminamos estos símbolos en el ejemplo B, el sistema queda reducido a la siguiente ordenación rectangular, que llamaremos matri :

A

La matriz

1 3 2

3 9 .1

A

1 3 2

G B

1 .3 4 .7 . 1 6

3 9 .1

1 4 1

B

recibe el nombre de matri e lo oe i iente el i tema y la matriz anterior recibe el nombre de matri am lia a el i tema. En ésta, la línea vertical separa la matriz de los coeficientes de los términos independientes. Utilizando la matriz ampliada del sistema e indicando con i), ii) o iii) las operaciones elementales que se realizan sobre las filas de la matriz, de acuerdo con las operaciones elementales que se realizan sobre las ecuaciones, el ejemplo B puede resumirse de la siguiente manera:

A

1 3 2

G B

3 1 .3 9 4 .7 .1 1 6

A

1 0 0

G B A G B G B A G B A G B iii)

∫∫º .3 2

1

3.2 1

3 0 .5 .7 0 14 0 1 2

A

1 0 0

3 0 .7

i)

∫∫º 1 .7

2

1 0 0

1 .3 1 2 .1 12 3 1 0

0 .5 0 .2 1 2

1 0 0

ii)

∫º

iii)

∫∫º 1.3 2

3 .7 0 1 0 0

1 .3 .1 12 1 2

0 1 0

iii)

∫∫º 1. 3 2! 3

0 1 0 .2 . 1 2

La última matriz es la matriz del sistema 1%

F

1 2 %.2 2 3% que nos da las soluciones. EJEMPLO C.

Para resolver el sistema 1!3 2. 3! .2 1 ! 2 ! 2 3 ! .2 1 ! 2 ! 2 3 .

F

4%1 4%7 4%0

de tres ecuaciones con cuatro incógnitas escribimos la matriz del sistema y la reducimos a una forma más sencilla mediante operaciones elementales. El lector no tendrá dificultad en seguir los pasos realizados.

6

Capítulo 1. Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

A

1 3 .2 1 0 1

A

1 3 0 1 0 7

.1 0 0

1 1 0 7 .1 0

A

1 0 0

iii)

∫∫º !2 2

1

iii)

∫∫º ! 3

1. 3

iii)

∫∫º .7 3

1 0 0

2

3 1 0

1 0 0

3 1 0

.1 0 0

.1 0 0

0 0 0 1 1 1

1 1 .1 0 9 9 iii)

∫∫º .3 1

2

.1 0 0

3 7 1

GB A GB A GB A

1 1 .1 0 2 9

2

GB

.1 2 0

i)

∫∫º 1

1 0 0

9

0 1 0

3

GB

1 1 2 9 .1 0

∫º

A

.1 0 0

.1 0 0

1 0 0

3 1 0

ii)

G B

GB

1 1 .1 0 1 1

0 .3 0 1 . 1 1

Esta última matriz corresponde al sistema .

1

F

%.3 % 1 . 1 4%

3

2

Claramente 2 % 1 y 4 % 1, pero de la primera ecuación no pueden determinarse de manera única 1 y 3; simplemente, dando un valor, , a 3 se obtiene un valor 1 %.3 ! para 1 y las soluciones del sistema son: 1 %.3 ! 2%1 3% 4%1

F

o bien (.3 ! , 1, , 1), para todo número real . Este sistema tiene in inita soluciones que se obtienen dando valores a . ¡Realizar la comprobación! *

*

*

Las dos matrices finales de los ejemplos B y C pueden escribirse de la forma

Estas dos matrices tienen en común que por ellas puede trazarse una «escalera descendente» tal que: 1) 2) 3) 4)

Cada peldaño tiene altura uno. Debajo de la escalera todos los elementos de la matriz son cero. En cada esquina de un peldaño aparece el número 1. Toda columna que contiene un 1 en una esquina de un peldaño tiene todos los demás elementos nulos.

Toda matriz que posee estas propiedades será denominada una matri e alona a re i a. El m to o e elimina i n e Ga or an consiste entonces en reducir la matriz de un sistema dado a una matriz escalonada reducida mediante operaciones elementales.

Sección 1.1. Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan

EJEMPLO D.

7

Para resolver el sistema

F

1. 2! 3%1 2 1! 2! 3%0 2 1.2 2!2 3%3

escribimos su matriz ampliada y la transformamos mediante operaciones elementales hasta reducirla a una matriz escalonada reducida:

Esta última matriz corresponde al sistema 1 . 2 ! (2/3) 3 % 0 2 . (1/3) 3 % 0

0%1

F

que, obviamente, no tiene ol i n, ya que 0 Ç 1. *

*

*

Observación. El proceso que se ha seguido al aplicar a un sistema particular el método de eliminación de Gauss-Jordan no es único, como el lector habrá podido comprobar si ha intentado realizar por su cuenta alguno de los ejemplos C o D. Sin embargo, la matriz escalonada reducida de un sistema dado es única. La demostración completa de este resultado no es sencilla. *

*

*

A continuación damos algunas definiciones relativas a los sistemas hasta ahora estudiados. Una expresión de la forma a11 1 ! a12 2 ! ñ ! a1n a21 1 ! a22 2 ! ñ ! a2n ó am1 1 ! am2 2 ! ñ ! amn

n n

% b1 % b2

F

(1.1)

n % bm

donde los ai son números reales, se denomina un i tema e m e a ione lineale on n in gnita y oe i iente reale . Una solución de (1.1) son n números ( 1, 2, ..., n) tal que al sustituir i por i, i % 1, 2, ..., n, se obtiene una igualdad en todas las ecuaciones del sistema.

8

Capítulo 1. Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Si el sistema posee al menos una solución se dice que es om atible y si no posee ninguna solución se dice que es in om atible; si un sistema es compatible y tiene una única solución se dice que es etermina o y si tiene más de una solución se dice que es in etermina o. Los sistemas de los ejemplos A, B y C son compatibles, mientras que el del ejemplo D es incompatible. En los casos de compatibilidad, el del ejemplo C es indeterminado y los sistemas de los ejemplos A y B son determinados. Los distintos casos que pueden presentarse en un sistema quedan caracterizados por la matriz escalonada reducida que se obtiene en cada sistema. Recordemos que

A

a11 a12 a a22 % 21 ó ó am1 am2 se denomina la matri

e lo

oe i iente

A

a11 a 1 % 21 ó am1

ñ ñ ñ

el i tema, y a12 ñ a22 ñ ó am2 ñ

B

a1n a2n ó amn

a1n a2n ó amn

GB b1 b2 ó bm

es la matri am lia a el i tema. Las matrices escalonadas reducidas de la matriz de los coeficientes y de la matriz ampliada de los sistemas de los ejemplos B, C y D se muestran en el siguiente cuadro.

Si convenimos en escribir: % número de peldaños de una matriz escalonada reducida de , 6 % número de peldaños de una matriz escalonada reducida de 1 , n % número de incógnitas del sistema, las diferencias, en cuanto a soluciones, de los ejemplos anteriores quedan plasmadas en el cuadro siguiente.

Sección 1.1. Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan

9

La observación resumida en este cuadro sugiere el siguiente resultado: Teorema 1.1.1 (Rouché-Frobenius) 1) Un sistema es om atible etermina o si y solo si % 6 % n. 2) Un sistema es om atible in etermina o si y solo si % 6 a n. 3) Un sistema es in om atible si y solo si a 6 . Nota.

Las definiciones de , 6 y n pueden encontrarse entre los dos cuadros anteriores.

Demostración. Observemos en primer lugar que basta demostrar las implicaciones: a) si % 6 % n, el sistema es compatible determinado, b) si % 6 a n, el sistema es compatible indeterminado, c) si a 6 , el sistema es incompatible, ya que el resto de las implicaciones contenidas en el teorema se deducen de estas tres. Se anima al lector a que compruebe esta última afirmación. a)

Si % 6 % n, la matriz escalonada reducida 1 de este sistema es de la forma

Por tanto, 1 % 1, 2 % 2, ..., n % n es su única solución y el sistema es compatible y determinado. b) Si % 6 a n, la matriz escalonada 1 de este sistema es de la forma

10

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

donde los rectángulos sombreados representan matrices. Si las columnas con 1 en una esquina de un peldaño corresponden a las incógnitas n1 % 1, n2, ..., n se tiene que n1 %

1,

n2 %

2,

...,

n

%

% 0,

,

Ç n1, n2, ..., n

es una solución del sistema. Por tanto, el sistema es compatible. Falta demostrar que el sistema es indeterminado. Si todas las matrices sombreadas son nulas, el sistema es equivalente a

F

n1 %

1

n2 %

2

ó n

%

.

Puesto que a n, alguna incógnita, digamos , no aparece en el sistema anterior y, por tanto, puede tomar cualquier valor, con lo cual se obtienen infinitas soluciones del sistema. Supongamos, entonces, que no todas las matrices sombreadas son nulas. Sea

AB e1 e2 ó el

una columna no nula de una de estas matrices correspondiente a la incógnita . Dando al resto de las incógnitas distintas de n , % 1, 2, ..., , y de , el valor cero, tenemos: n1 ! e1

%

1;

n2 ! e 2

%

2;

... ;

nl ! e l

%

l;

nl!1 %

l!1 ;

... ;

n

%

lo cual nos da infinitas soluciones del sistema dando valores a . El sistema, por tanto, es indeterminado. c) Si a 6 , la matriz escalonada 1 de este sistema es de la forma

La ( !1)-ésima fila de 1 nos da la ecuación 0%1 y, entonces, el sistema es incompatible. 䊏 *

*

*

Finalmente, el sistema (1.1) se dice que es omog neo si todos los b % 0 y no omog neo si al menos uno de los b es distinto de cero.

Sección 1.1. Resolución de sistemas de ecuaciones lineales: método de eliminación de Gauss-Jordan

11

Al realizar operaciones elementales con la matriz ampliada

A

a11 a12 ñ a a22 ñ 1 % 21 ó ó am1 am2 ñ

GB

a1n a2n ó amn

0 0 ó 0

de un sistema homogéneo, la última columna está siempre formada por ceros; por tanto, nunca puede tener más peldaños que la matriz escalonada de . Así pues, para un sistema omog neo % 6 y por el teorema de Rouché-Frobenius el sistema es siempre om atible. Este resultado puede demostrarse más fácilmente observando que 1 % 0, 2 % 0, ..., n % 0 es siempre solución de un sistema homogéneo; esta solución se denomina la ol i n trivial. Si un sistema homogéneo posee soluciones distintas de la trivial es indeterminado, y para esto es necesario y suficiente, según el teorema de Rouché-Frobenius, que % 6 a n. EJEMPLO E.

Queremos demostrar que el sistema homogéneo 1! 2 1.

F

2. 3.

4%0 . 2 3 4%0

2!

es indeterminado. Realizando operaciones elementales con su matriz ampliada se tiene:

Como 2 % % 6 a n % 4, se obtiene el resultado deseado. Sus soluciones se obtienen escribiendo el sistema correspondiente a la matriz escalonada reducida: . 4%0 1 . %0 2. 3

F

Haciendo

3 % 1,

4% 2

se tiene:

F

1% 2 2% 1 3% 1 4% 2

donde

1

y

2

son números reales cualesquiera. *

El m to o e elimina i n e Ga resume en los siguientes pasos:

*

*

or an para resolver sistemas de ecuaciones lineales se

1) Se localiza la columna que no conste completamente de ceros y que esté más a la izquierda.

12

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

2) Se intercambia la fila superior con otra, para llevar un elemento diferente de cero a la parte superior de la columna que se encontró en el paso 1. 3) Si el elemento que está ahora en la parte superior de la columna encontrada en el paso 1 es a, se multiplica la primera fila por 1/a, para introducir el 1 principal. 4) Se suman múltiplos apropiados de la fila superior a las filas de abajo, de manera que todos los elementos debajo del 1 principal se conviertan en ceros. 5) Se cubre ahora la fila superior de la matriz y se empieza nuevamente con el paso 1 aplicado a la submatriz que queda. Se continúa de esta manera hasta que la matriz completa quede en forma escalonada en las filas. 6) Empezando con la última fila diferente de cero y yendo hacia arriba, se suman múltiplos adecuados de cada fila a las de arriba, para introducir ceros sobre los 1 principales.

EJERCICIOS 1.1 1. Encontrar todas las soluciones (si existen) de cada uno de los siguientes sistemas de ecuaciones lineales mediante el método de eliminación de Gauss-Jordan: a)

1! 2%

F

1 1 . 2 %.1

b)

1! 2%1

2 1!

2%0

F

.

2. Utilizar operaciones elementales para reducir las matrices dadas a su matriz escalonada reducida.

a)

c)

A

1 6 7

B

3 7 4 .5 .1 2 .2 6 1

b)

B

d)

A

3 1 3 .1

.1 3 0 .1 .1 1 1 .1

A B A B 0 0 1

0 1 0

1 0 0

2 1 1

3 2 1

1 1 0

.4 .2 2

2 3 . 1

3. Resolver los siguientes sistemas mediante el método de eliminación de Gauss-Jordan: a)

c)

e)

2 1! 1. 3 1.

2!

3%3

2!

3%0

2!2 3%2

F

2 1. 2!3 3% 9 3 1 . 5 2 ! 3 %.4 4 1.7 2! 3% 5

1!2 2!4 3%1

b)

1!

2!3 3%2

2 1!5 2!9 3%1 2 1.2 2. 2 1!3 2! d) 3 1!4 2. 1!3 2!

F

3 1! 2. 3! 2 4. 7%0 2 1.2 2!5 3. 7 4. 1%0 .4 1 . 4 2 ! 7 3 . 11 4 ! 13 % 0

F

1! 2!

f)

2 1. 3 1! 2 1!

3!

F

4 %.3

3 . 3 4 %.6 3!2 4% 3.

4%

F

3%3

2!3 3%4 2.

F

3%3

2.2 3%0

0 2

Sección 1.2. Rango de una matriz. Estructura de las soluciones de un sistema 1!2 2!3 3%

g)

i)

F

2 0 1. 2! 3% ! 3 . %.2 1 2 3 3 1!4 2!3 3% 0 1!

2! 3!

4%0

1!

2! 3.

4%5

1! 2

! 1!2 2!

3!2 4%1 3!2 4%0

1.3 2!2 3%0

h) . 1 . 2 2 ! 2 3 % 0 .2 1 ! 2 ! 2 3 % 0

F

1!

3.

F F

6%0 . 1!2 2!2 3. 9%0 1 ! 2 2 ! 2 3 . 10 % 0

j)

2!

13

4. Utilizar el teorema de Rouché-Frobenius para realizar un estudio del número de soluciones de los siguientes sistemas: 1!2 2. 3%1

a)

1!

2! 3%2

1!3 2! 3%3

F

3 1!2 2! 3! b) 1!2 2!2 3!

4. 5%3 4! 5%3

F

F

2 1! 2%5 . c) 1. 2%1 1!2 2%0

5. Demostrar que el sistema a11 1 ! a12 a21 1 ! a22

2%0 2%0

F

es compatible indeterminado si y solo si a11a22 . a12 a21 % 0.

1.2. Rango 1.2. RdeANGO una matriz. DEEstructura UNA MATRIZ. de las soluciones ESTRUCTURA de un sistema DE LAS SOLUCIONES

DE UN SISTEMA En la sección anterior se observó que el número de peldaños de la matriz escalonada reducida de un sistema es importante para determinar la compatibilidad o incompatibilidad de un sistema. En esta sección se relacionará este número con el importante concepto de rango e na matri . Además, se estudiará la estructura de las soluciones de un sistema de ecuaciones lineales. En los ejemplos de la sección anterior se ha observado que las soluciones de un sistema pueden escribirse de la forma (a1, a2, ..., an), donde a1, a2, ..., an son números reales. Un elemento de esta forma recibe el nombre de ve tor y se denota por a % (a1, a2, ..., an). Los números reales a , % 1, 2, ..., n, reciben el nombre de om onente del vector a; a1 se denomina rimera om onente, a2 eg n a om onente, y así sucesivamente. El vector 0 es aquel cuyas componentes son todas nulas. Dos vectores a % (a1, a2, ..., an) y b % (b1, b2, ..., bn) son iguales, y escribiremos a % b, cuando a1 % b1, a2 % b2, ..., an % bn.

14

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Los vectores no solo aparecen como soluciones de un sistema de ecuaciones lineales, sino que también aparecen en las filas o en las columnas de una matriz, en cuyo caso reciben el nombre de vectores fila o vectores columna de la matriz. Por ejemplo, la matriz

tiene como vectores fila

A

1 2 .1

2 1 2

B

0 3 .1

1 0 1

a % (1, 2, 0, 1), b % (2, 1, 3, 0),

% (.1, 2, .1, 1)

y como vectores columna: % (1, 2, .1), e % (2, 1, 2), Nota. forma:

% (0, 3, .1), g % (1, 0, 1).

A veces, los vectores columna de una matriz se escriben en notación vertical de la

AB

a1 a2 . a% ó an Las definiciones que daremos con vectores no dependen de la notación que se utilice para representarlos. En este texto aparecerán las dos notaciones indistintamente. Al resolver un sistema por el método de eliminación de Gauss-Jordan se han realizado ciertas operaciones con los vectores fila de su matriz ampliada, que recibían el nombre de operaciones elementales. Estas operaciones son la ma e ve tore : a ! b % (a1, a2, ..., an) ! (b1, b2, ..., bn) % (a1 ! b1, a2 ! b2, ..., an ! bn) y la m lti li a i n e n ve tor or n n mero real : a % (a1, a2, ..., an) % ( a1, a2, ..., an). Las operaciones con vectores poseen las siguientes propiedades, que se dejan como ejercicio para el lector: (S1) (S2) (S3) (S4) (M1) (M2) (M3) (M4) Nota.

a ! b % b ! a (conmutativa) (a ! b) ! % a ! (b ! ) (asociativa) 0!a%a!0%a a ! (.a) % (.a) ! a % 0, donde (.a) % (.1)a (a ! b) % a ! b ( ! )a % a ! a ( a) % ( )a 1a % a El vector (.a) % (.1)a se denomina o

e to de a.

Dado un conjunto de vectores {a1, a2, ..., a }, una expresión de la forma 1a1 !

2a2 ! ñ !

a

Sección 1.2. Rango de una matriz. Estructura de las soluciones de un sistema

15

donde los , % 1, ..., , son números reales, se dice que es una ombina i n lineal de los vectores dados. Un vector a se dice que es ombina i n lineal de los vectores a1, a2, ..., a , si existen números reales 1, 2, ..., , tales que a%

1a1 !

2 a2 ! ñ !

a.

El vector 0 es combinación lineal de cualquier conjunto de vectores, ya que basta tomar todos los % 0. La expresión anterior puede escribirse de la forma 1 a1 !

2 a2 ! ñ !

a ! (.1)a % 0

donde no todos los coeficientes de los vectores son nulos (el coeficiente de a es .1). Esto sugiere la siguiente definición.

Definición 1.2.1 i)

Un conjunto de vectores {a1, a2, ..., a } es linealmente dependiente si existen números , no todos nulos, tales que: 1, 2, ..., 1a1 !

ii)

2 a2 ! ñ !

a % 0.

Un conjunto de vectores {a1, a2, ..., a } se dice linealmente independiente si no es linealmente dependiente, es decir, cualquier expresión del tipo 1a1 !

implica necesariamente que

1%

2 a2 ! ñ !

2%ñ%

a %0

% 0.

EJEMPLO A. Queremos estudiar si los vectores a1 % (2, 1) y a2 % (1, 1) son linealmente dependientes o independientes; para ello, tratemos de encontrar dos números 1 y 2 tales que: 1(2,

1) !

2(1,

1) % (0, 0).

Puesto que dos vectores son iguales si y solo si sus componentes correspondientes coinciden, la igualdad anterior puede escribirse de la forma 2

1!

2%0

1!

2%0

F

que es un sistema de dos ecuaciones con dos incógnitas. Realizando operaciones elementales con la matriz de este sistema se tiene:

Como % 6 % 2 % número de incógnitas y el sistema es homogéneo, solo tiene la solución trivial 1 % 2 % 0. Esto implica que los vectores a1, a2 son linealmente independientes. *

*

*

16

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

EJEMPLO B. Para estudiar si los vectores a1 % (1, 1, 3), a2 % (0, 1, 2) y a3 % (1, 2, 5) son linealmente dependientes o independientes formamos la expresión 1(1,

1, 3) !

2(0,

1, 2) !

2, 5) % (0, 0, 0)

3(1,

que puede escribirse de la forma: 1!2 2!

3

3%0

1!

2!2 3%0

1!2

2!5

3%0

Puesto que

F

.

se tiene que % 6 % 2 a 3 % número de incógnitas y, por tanto, el sistema posee soluciones no triviales: los vectores dados son linealmente dependientes. Si queremos encontrar una combinación lineal de los vectores anteriores, basta resolver el sistema anterior; dicho sistema es equivalente a:

F

1!

2!

3%0

1!

2!

3%0

de acuerdo con las operaciones elementales anteriormente realizadas. Haciendo 3 % , se tiene podemos tomar %.1, con lo cual 1 % 1, 1 %. , 2 % . . Como caso particular de % 1, y se tiene: 2 1(1, 1, 3) ! 1(0, 1, 2) . 1(1, 2, 5) % (0, 0, 0) como se puede comprobar fácilmente. *

*

*

En los ejemplos anteriores, se habrá observado que únicamente es necesario escribir la matriz cuyas columnas son los vectores dados y realizar en ella operaciones elementales para estudiar la dependencia o independencia lineal de un conjunto de vectores. Si el número de peldaños coincide con el número de columnas, los vectores columna son linealmente independientes y, en caso contrario, son linealmente dependientes.

Definición 1.2.2 i) ii)

Se denomina rango de un conjunto de vectores al mayor número de ellos que son linealmente independientes. Se denomina rango de una matriz A, y se denota por r( ), al rango de sus vectores columna.

Sección 1.2. Rango de una matriz. Estructura de las soluciones de un sistema

17

El rango de los vectores del ejemplo A es 2, ya que son linealmente independientes. El rango de los vectores del ejemplo B es menor que 3, ya que son linealmente dependientes. En estos momentos, es conveniente resaltar la forma de calcular el rango de una matriz. Dada la matriz

A

a11 a12 a a22 % 21 ó ó am1 am2 se consideran los vectores

ñ ñ ñ

B

a1n a2n ó amn

AB AB AB

a11 a12 a1n a a a a1 % 21 , a2 % 22 , ..., an % 2n ó ó ó am1 am2 amn

de entre los cuales hay que determinar el mayor número de ellos que sean linealmente independientes. En primer lugar, es necesario estudiar si los n vectores son linealmente independientes, es decir, si el sistema homogéneo 1a1 ! 2 a2 ! ñ ! n an % 0

(2.1)

posee únicamente la solución nula. En caso de que posea únicamente la solución nula, el rango de la matriz es n. Observar que para determinar si (2.1) posee soluciones no nulas únicamente es necesario reducir la matriz a su forma escalonada reducida. Si los n vectores son linealmente dependientes, es necesario estudiar si alguno de los posibles subconjuntos de n . 1 vectores de entre los n anteriores es linealmente independiente. Si estos subconjuntos de n . 1 vectores son todos linealmente dependientes es necesario estudiar todos los subconjuntos de n . 2 vectores. El proceso termina cuando encontremos por primera vez unos cuantos vectores de entre los anteriores que sean linealmente independientes. En teoría, calcular el rango de una matriz puede parecer complicado y largo. En la práctica, sin embargo, resulta sencillo, como se muestra en el siguiente ejemplo. EJEMPLO C.

Para encontrar el rango de la matriz

A

1 % 1 3

3 0 4

2 .1 1

1 .2 .2

B

comenzamos resolviendo el sistema

1

AB AB A B A B AB 1 1 ! 3

2

3 0 ! 4

3

2 .1 ! 1

4

1 0 .1 % 0 .2 0

18

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

de tres ecuaciones con cuatro incógnitas. Puesto que

el sistema posee soluciones no triviales. Por tanto, los cuatro vectores columna de la matriz son linealmente dependientes. Si tomamos tres de ellos, por ejemplo, los tres primeros, la matriz escalonada reducida del sistema que forman es

ya que se obtiene realizando las mismas operaciones elementales que antes sobre las tres primeras columnas de la matriz. Estos tres vectores son, por tanto, linealmente dependientes. El lector puede comprobar que cualesquiera tres vectores de entre los anteriores son linealmente dependientes Finalmente, si tomamos los dos primeros vectores, el sistema

1

AB AB AB 1 1 ! 3

2

3 0 0 % 0 4 0

tiene como matriz escalonada reducida

y, por tanto, son linealmente independientes. Concluimos, entonces, que r( ) % 2. *

*

*

El lector habrá podido observar en el ejemplo anterior que el rango de una matriz coincide con el número de peldaños de su matriz escalonada reducida. Este resultado se demuestra a continuación. Teorema 1.2.3 El rango de una matriz coincide con el número de peldaños de su matriz escalonada reducida.

Sección 1.2. Rango de una matriz. Estructura de las soluciones de un sistema

Demostración. Sea

19

una matriz de la forma

A

a11 a12 a a22 % 21 ó ó am1 am2

ñ ñ ñ

B

a1n a2n ó amn

y denotemos por a1, a2, ..., an sus vectores columna. Sea el número de peldaños de una matriz escalonada reducida de . Esta matriz escalonada reducida es de la forma:

El sistema homogéneo 1an1 ! 2 an2 ! ñ !

an % 0

correspondiente a las columnas no sombreadas de la matriz tiene únicamente la solución trivial, ya que su matriz escalonada reducida es

Hemos demostrado, por tanto, que la matriz posee al menos vectores columna linealmente independientes. El teorema quedará demostrado si probamos que no existen más de vectores columna de que sean linealmente independientes. Tomemos vectores columna am1, am2, ..., am de , con b . El sistema 1am1 ! 2 am2 ! ñ !

am % 0

(2.2)

posee una matriz escalonada reducida con peldaños como máximo, ya que la matriz escalonada reducida de tiene peldaños. Puesto que el sistema anterior tiene incógnitas y, es mayor que , (2.2) es indeterminado. Por tanto, los vectores dados son linealmente de䊏 pendientes.

20

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

EJEMPLO D. Para calcular el rango de los vectores a1%(1, 1, 3), a2%(2, 2, 6) y a3%(2, .1, 5) escribimos la matriz 1 2 2 1 2 .1 3 6 5

A

B

cuyas columnas son los vectores dados, y realizamos sobre ella operaciones elementales:

Puesto que el número de peldaños de la matriz escalonada reducida es 2, del teorema anterior deducimos que el rango de los tres vectores dados es 2. *

*

*

El Teorema 1.2.3 nos permite reescribir el teorema e o robeni (Teorema 1.1.1) utilizando el rango de una matriz, tal y como se hace en la mayor parte de la literatura matemática. Teorema 1.2.4 (Rouché-Frobenius) Dado un sistema de m ecuaciones lineales con n incógnitas, con matriz de coeficientes y matriz ampliada 1 , se tienen los siguientes resultados: i)

El sistema es om atible etermina o si y solo si r( ) % r( 1 ) % n.

ii)

El sistema es om atible in etermina o si y solo si r( ) % r( 1 ) a n.

iii)

El sistema es in om atible si y solo si r( ) a r( 1 ). *

*

*

A continuación, se realiza el estudio de la estructura de las soluciones de un sistema. Comenzamos con un sistema homogéneo de m ecuaciones y n incógnitas con coeficientes reales: a11 1 ! a12 a21 1 ! a22

2 ! ñ ! a1n n % 0

am1 1 ! am2

2 ! ñ ! amn n % 0

2 ! ñ ! a2n n % 0

F

.

(2.3)

Sección 1.2. Rango de una matriz. Estructura de las soluciones de un sistema

21

Sabemos que todo sistema homogéneo posee la solución trivial 0 % (0, 0, ..., 0) y, por tanto, es compatible. Demostraremos a continuación que, si es indeterminado, ha de tener infinitas soluciones. Proposición 1.2.5 es también i) Si % ( 1, 2, ..., n) es una solución del sistema homogéneo (2.3), solución del mismo sistema para todo número real . ii) Si %( 1, 2, ..., n) y v%(v1, v2, ..., vn) son soluciones del sistema homogéneo (2.3), ! v también lo es. Demostración. Si

es solución de (2.3) se tienen las igualdades: a11 a21 ó am1

1 ! a12 2 ! ñ ! a1n n % 0 1 ! a22 2 ! ñ ! a2n n % 0

ó ! a 1 m2

ó ! ñ ! a 2 mn

ó % 0. n

Multiplicando por el número real cada una de estas igualdades se obtiene el resultado deseado. Si, además, v es solución de (2.3) se tienen las igualdades: a11v1 ! a12 v2 ! ñ ! a1n vn % 0 a21v1 ! a22 v2 ! ñ ! a2n vn % 0 ó ó ó ó am1v1 ! am2 v2 ! ñ ! amn vn % 0. Sumando las correspondientes igualdades se obtiene: a11( a21( am1(

1 ! v1) ! a12( 2 ! v2) ! ñ ! a1n( n ! vn) % 0 1 ! v1) ! a22( 2 ! v2) ! ñ ! a2n( n ! vn) % 0

ó ! v1) ! am2( 1

ó ! v2) ! ñ ! amn( 2

ó ó ! v ) % 0 n n

lo cual prueba que ! v es también solución del mismo sistema. Proposición 1.2.6 Si el sistema homogéneo (2.3) es indeterminado, existen vectores, 1, 2, ..., , linealmente independientes de manera que todas las soluciones de (2.3) son de la forma 1 1! 2 2!ñ!

con los números reales. Además, % n . r( ), donde cientes del sistema (2.3).

denota la matriz de los coefi-

Es conveniente ilustrar con un ejemplo el resultado de la Proposición 1.2.6.



22

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

EJEMPLO E.

Tratemos de encontrar las soluciones del sistema homogéneo

F

2 1.3 2! 3. 4!2 5%0 3 1.3 2. 3! 4!2 5%0 . 1!3 2.2 3!2 4.2 5%0 Realizando operaciones elementales con las filas de la matriz de sus coeficientes se obtiene:

Haciendo

3 % 1,

4% 2

5 % 3,

y

se tiene que 1%

1 3

1.

1 3

2!3 3

2%

5 9

1.

5 9

2.

1 3

3.

Las soluciones de este sistema pueden escribirse de la forma: ( 1,

2,

3,

4,

5) %

%

A

1 3

1

A

1.

1 3

2 ! 3 3,

5 9

1.

B A

1 5 , , 1, 0, 0 ! 3 9

2

5 9

2.

1 3

3,

1,

B B A 2,

3

1 5 . , . , 0, 1, 0 ! 3 9

3

%

B

1 3, . , 0, 0, 1 . 3

Los vectores 1%

A

B

1 5 , , 1, 0, 0 , 3 9

2%

A

1 5 . , . , 0, 1, 0 3 9

B

y

3%

A

1 3, . , 0, 0, 1 3

B

son linealmente independientes, ya que si tenemos 1 1!

2 2!

3 3 % 0,

igualando las tres últimas componentes de la izquierda a cero se deduce que

1%

2%

3 % 0.

Sección 1.2. Rango de una matriz. Estructura de las soluciones de un sistema

23

Observar, finalmente, que el número de vectores linealmente independientes es 3 % n . r( ). *

*

*

Demostración de la Proposición 1.2.6. Supongamos, para simplificar, que la matriz escalonada reducida de este sistema es de la forma

donde % r( ). Tomemos 1 % (. 11,

. 2 % (. 12, . ó % (. 1 , .

..., . 22, ..., . 21,

2

, ..., .

1,

1, 0, ..., 0) 2, 0, 1, ..., 0) , 0, 0, ..., 1).

Por un razonamiento análogo al del ejemplo E se concluye que toda solución de (2.3) es de la forma: 1 1!

2 2!ñ!

.

Además, los vectores 1, 2, ..., son linealmente independientes, ya que si tenemos una combinación lineal de ellos de la forma 1 1!

2 2!ñ!

%0

las n. últimas componentes de cada uno de ellos producen las igualdades Por tanto, los vectores dados son linealmente independientes. *

*

1 % 2 %ñ%

%0. 䊏

*

La estructura de las soluciones de un sistema no homogéneo se deduce de la estructura de las soluciones de un sistema homogéneo. Sea a11 1 ! a12 a21 1 ! a22 ó am1 1 ! am2

! ñ ! a1n 2 ! ñ ! a2n ó ! ñ ! a 2 mn 2

% b1 n % b2 n

F

(2.4)

n % bm

un sistema de m ecuaciones con n incógnitas. Se denomina i tema omog neo a o ia o a (2.4) al sistema que se obtiene sustituyendo los términos independientes b del sistema por ceros.

24

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Proposición 1.2.7 Si v es una solución de (2.4), todas sus soluciones son de la forma v ! , donde solución de su sistema homogéneo asociado. Demostración. Si

es

es otra solución de (2.4) escribimos % v ! ( . v)

y observamos que % . v es una solución del sistema homogéneo asociado, ya que son ambas soluciones del sistema (2.4).

yv 䊏

Las Proposiciones 1.2.6 y 1.2.7 nos permiten enunciar el siguiente resultado. Teorema 1.2.8 Sea v una solución de (2.4). Existen vectores 1, 2, ..., tal que todas las soluciones de (2.4) son de la forma v!

, linealmente independientes,

1 1! 2 2!ñ!

donde los 1, 2, ..., son números reales y 1, 2, ..., son soluciones del sistema homogéneo asociado a (2.4). Además, % n . r( ), donde es la matriz de los coeficientes del sistema. Nota. La expresión v ! 1 1 ! 2 2 ! ñ ! se denomina ol i n general el i te ma y v se denomina una ol i n arti lar del sistema.

EJERCICIOS 1.2 1. Demostrar las propiedades (S1), (S2), (S3) y (S4), (M1), (M2), (M3) y (M4) de la suma de vectores y de la multiplicación de vectores por un número real. 2. Determinar si los siguientes conjuntos de vectores son linealmente dependientes o independientes y en caso de que sean linealmente dependientes, encontrar una combinación lineal entre ellos: a)

{(1, 2), (2, 4)}.

b)

{(3, 5, 1), (2, 1, 3)}.

c)

{(1, 2, 3), (1, 3, 2), (0, .1, 1)}.

d)

{(1, 0, 1, 0), (2, 1, 3, 1), (0, 1, 1, 1), (2, 2, 4, 2)}.

3. Calcular el rango de los siguientes conjuntos de vectores:

a)

AB AB 1 3 , 2 2

b)

AB A B 4 1 , 5 5/4

c)

AB A B A B 1 6 7 3 , .5 , .2 7 .1 6

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

d)

AB AB A B 1 7 .6 0 , 1 , 0 4 3 1

e)

25

AB A B AB

5 .4 1 9 3 2 , , . 1 2 1 6 .2 2

4. Calcular el rango de las siguientes matrices:

a)

c)

A

B

1 6 7

3 7 4 .5 .1 2 .2 6 1

1 0 1 3 0

2 1 1 2 1

A

1 4 4 7 3 2 .1 .2 0 2

b)

B

3 6 3 2 .1 0 0 1 0 .1

d)

A A

4 6 .1 0 2 1 2 1

3 2 3 1

.3 .9 0 1

2 4 5 0

1 1 0 0

.4 .2 2 2

5 2 7 3

7 3 4 2

B

B

2 3 . 1 1

5. Estudiar su compatibilidad y encontrar la solución general de los sistemas 1!

2. . 2 1 2! 2.

3%1 3%0 3%0

F

1

! 2!

F

3. 4%5 3! 4%2

.

6. Demostrar que todo conjunto con n ! 1 vectores de n componentes cada uno es linealmente dependiente. 1.3. Aplicaciones 1.3. APLICACIONES lineales de ⺢ en ⺢LINEALES y operacionesDE con matrices ⺢n EN ⺢m Y OPERACIONES n

m

CON MATRICES En esta sección deduciremos las operaciones con matrices a partir de las operaciones que pueden realizarse con aplicaciones lineales. Tales operaciones con matrices serán necesarias para un estudio posterior de la resolución de sistemas de ecuaciones lineales. Comenzaremos con el concepto de aplicación entre conjuntos. Dados dos conjuntos y , toda ley que asocia a cada uno de los elementos de un elemento de como máximo se denomina una a li a i n e en . Si representamos esta ley con la letra , se acostumbra a escribir : r , lo cual se lee e na a li a i n e en . El elemento de asociado con el elemento de se escribe mediante ( ) y recibe el nombre de imagen el elemento . EJEMPLO A 1) Si ⺢ denota el conjunto de los números reales, : ⺢ r ⺢ dada por ( ) % 3 , es decir, a cada número real le asocia su triple, es una aplicación.

26

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

2) Si ⺞ denota el conjunto de los números naturales, 0, 1, 2, 3, ..., la ley : ⺞ r ⺞ que asocia a todo número natural n su cuadrado, es decir, (n) % n2, es una aplicación. 3) Si % {1, 2, 3, 4} y % {1, 2} y definimos (1) % 1, (2) % 1, (3) % 2, (4) % 2 (obsérvese la figura 1.2), se tiene una aplicación de en .

Figura 1.2

Nota. Cuando una aplicación está definida en un conjunto de números (naturales, enteros, racionales, reales, etc.) y sus imágenes están también en un conjunto de números, se suele utilizar la palabra n i n en lugar de «aplicación». En algunos casos, se suele utilizar la palabra tran orma i n en lugar de «aplicación». Dada una aplicación : r se denomina imagen e , y se denota por Im ( ) al conjunto de todas las imágenes de los elementos de , es decir: Im ( ) % { ( ) : à }. En el ejemplo A.1), Im ( ) % ⺢; en el A.2), Im ( ) % {0, 1, 4, 9, 16, 25, ...}, y en el A.3), Im ( ) % {1, 2}. Cuando el conjunto Im ( ) coincide con el conjunto final se dice que es una aplicación raye tiva; A.1) y A.3) son ejemplos de aplicaciones suprayectivas, mientras que A.2) no lo es. Otra forma de comprobar que es raye tiva es estudiando si todo elemento de es imagen de algún elemento de , es decir, « para todo t à , existe à , tal que ( ) % t ». Una aplicación : r se denomina inye tiva si dos elementos distintos cualesquiera de tienen distintas imágenes, es decir, , ñ à , Ç ñ ú ( ) Ç ( ñ). Otra forma de comprobar que es inyectiva es utilizando la negación de la implicación anterior, a saber: « ( ) % ( ñ)

ú

% ñ ».

La aplicación del ejemplo A.1) es inyectiva, ya que ( ) % (y) á 3 % 3y á % y; la aplicación del ejemplo A.2) es también inyectiva, ya que (n) % (m) á n2 % m2 á n % m (puesto que n, m à ⺞); sin embargo, la aplicación del ejemplo A.3) no es inyectiva, ya que (1) % (2) y 1 Ç 2. Una aplicación que es a la vez suprayectiva e inyectiva recibe el nombre de biye tiva. La aplicación del ejemplo A.1) es biyectiva, y no lo son ninguna de las aplicaciones de los ejemplos A.2) y A.3). *

*

*

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

27

La operación básica con las funciones es la om o i i n. Dadas dos aplicaciones : r y g : r U, se denomina om o i i n e y g, y se denota por g o al resultado de aplicar g a la imagen mediante de cualquier elemento de , es decir, g o ( ) % g( ( )). EJEMPLO B. Si : ⺢ r ⺢ está dada por g( ) % ! 5, se tiene que

( )%

g o ( ) % g( ( )) % ( ) ! 5 %

2

2

. 1 y g : ⺢ r ⺢ está dada por

.1!5%

2

! 4.

Para que la composición de y g pueda definirse es necesario que la imagen de , es decir, ( ), esté contenida en el conjunto de definición de g, es decir ; así pues, o g no está definida a menos que g( ) Ñ . En el caso en que g o y o g puedan definirse cabe preguntarse si ambas coinciden, es decir, si la composición de aplicaciones es onm tativa. La respuesta es, en general, negativa, ya que en el ejemplo B tenemos o g(

) % (g( )) % [g( )]2 . 1 % ( ! 5)2 . 1 %

2

! 10 ! 24

que no coincide con g o . Sin embargo, la composición de aplicaciones satisface la propiedad a o iativa, es decir: (

o g) o

%

o (g o

)

si , g y son tres aplicaciones para las cuales tienen sentido las composiciones anteriores. Este resultado se deduce inmediatamente de la definición de composición, ya que (

o g) o

( )%(

o g)(

( )) % (g( ( ))) %

% (g o ( )) %

o (g o

)( ).

El comportamiento de la composición de aplicaciones con respecto a los tipos de aplicaciones citados anteriormente queda expuesto en las siguientes propiedades, que se dejan como ejercicio para el lector. Si : r y g : r U se tiene: (C.1) (C.2) (C.3)

y g inyectivas ú g o inyectiva. y g suprayectivas ú g o suprayectiva. y g biyectivas ú g o biyectiva. *

*

*

Una forma de definir una aplicación es utilizando matrices. Sea, por ejemplo, la matriz %

A

1 2

.1 3

y sea ⺢2 el conjunto de todos los vectores % ( 1, definir : ⺢2 r ⺢2 mediante ( ) % ( 1,

B 2)

2) % ( 1 . 2,

con dos componentes reales; podemos 2 1 ! 3 2).

Así, por ejemplo, (1, 5) % (1 . 5, 2 · 1 ! 3 · 5) % (.4, 17).

28

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

En general, definimos ⺢n como el conjunto de los vectores % ( 1, nentes reales. Dada una matriz

A

...,

ñ

% (a11 1 ! a12

2 ! ñ ! a1n n,

EJEMPLO C.

La matriz

a21 1 ! a22

( 1,

...,

a la aplicación

n) %

2 ! ñ ! a2n n,

% tiene como aplicación lineal asociada

2,

de n compo-

a1n a2n ó amn

de m filas y n columnas, se denomina a li a i n lineal a o ia a on : ⺢n r ⺢m dada por ( ) % ( 1,

n)

B

ñ ñ

a11 a12 a a22 % 21 ó ó am1 am2

2,

..., am1 1 ! am2

2 ! ñ ! amn n).

A B 0 1

1 0

: ⺢2 r ⺢2 dada por

2) % (0 1 ! 1 2,

1 1 ! 0 2) % ( 2,

1).

La aplicación intercambia las componentes de todo vector % ( 1, 2) de ⺢2. Geométricamente, refleja cada vector % ( 1, 2) de ⺢2 en la recta 1 % 2 (figura 1.3). (Esto es fácil de probar: ¡inténtalo!)

Figura 1.3

EJEMPLO D.

La matriz

A B

1 % 0 0

0 1 0

0 0 0

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

tiene como aplicación lineal asociada ( ) % ( 1, %1·

2,

29

: ⺢3 r ⺢3 dada por

3) %

1 ! 0 · 2 ! 0 · 3,



1 ! 1 · 2 ! 0 · 3,



1 ! 0 · 2 ! 0 · 3) % ( 1,

2,

0).

Geométricamente, proyecta todo vector de ⺢3 en un vector del plano 1 2 cuyas dos primeras componentes son las dos primeras componentes de y su tercera componente es nula (figura 1.4).

Figura 1.4

Las aplicaciones lineales tienen un buen comportamiento con respecto a la suma de vectores y a la multiplicación de estos por números reales: Teorema 1.3.1 Sea : ⺢n r ⺢m una aplicación lineal; para todo , y à ⺢n y para todo número real r se tiene: i) ii)

( ! y) % ( ) ! (y) (r ) % r ( ).

Demostración. Por simplicidad, haremos la demostración para una aplicación lineal : ⺢2 r ⺢2, puesto que las ideas principales de la demostración en el caso general están incluidas en este caso particular. Sea, por tanto: % la matriz de

y % ( 1,

2),

A B a

b

y % (y1, y2). Se tiene que

( ! y) % ( 1 ! y1,

2 ! y2) % (a( 1 ! y1) ! b( 2 ! y2),

! ( 2 ! y2)) % (a 1 ! ay1 ! b 2 ! by2, % (a 1 ! b 2, % ( 1,

2) !

1!

2) ! (ay1 ! by2,

(y1, y2) % ( ) ! (y).

( 1 ! y 1) !

1!

y1 !

y 1 ! y2) %

2!

y 2) %

30

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Esto demuestra i). Para demostrar ii), sea % ( 1,

2)

y r un número real. Se tiene que

(r ) % (r 1, r 2) % (a(r 1) ! b(r 2), (r 1,) ! (r 2)) % % r(a 1 ! b 2,

1!

2) % r

( ).

Esto termina la demostración de ii) y, por tanto, la demostración del teorema. Nota. Combinando i) y ii) del Teorema 1.3.1 se tiene que (r ! y) % r ( ) !



(y)

para todo , y à ⺢n y para cualesquiera números reales r y . El Teorema 1.3.1 se muestra gráficamente en las figuras 1.5 y 1.6.

Figura 1.5

Figura 1.6

Este teorema permite demostrar que la imagen de una recta en ⺢n mediante una aplicación lineal es otra recta o un punto; en efecto, si ! rv es la ecuación de la recta que pasa por el extremo de en la dirección de v (figura 1.7) se tiene que ( ! rv) % ( ) ! r (v) debido al Teorema 1.3.1. Si (v) % 0 se tiene el punto ( ), y si (v) Ç 0 se obtiene una recta que pasa por el extremo de ( ) en la dirección de (v).

Figura 1.7

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

31

EJEMPLO E. Queremos hallar la imagen del cuadrado de vértices (0, 0), (0, 1), (1, 1) y (1, 0) mediante la aplicación lineal dada por la matriz %

A B 2 1

1 . 2

La recta (1) (véanse figuras 1.8 y 1.9) tiene por ecuación 0 ! re1 y, por tanto, se transforma en la recta (1ñ), que tiene por ecuación (0 ! re1) % (0) ! r (e1) % 0 ! r(2 · 1 ! 0, 1 · 1 ! 2 · 0) % 0 ! r(2, 1). Análogamente:

E

(2): 0 ! re2 se transforma en (2ñ): 0 ! r(1, 2) (3): (1, 0) ! re2 se transforma en (3ñ): (2, 1) ! r(1, 2) (4): (0, 1) ! re1 se transforma en (4ñ): (1, 2) ! r(2, 1).

Figura 1.8

Figura 1.9

Con estos resultados se tiene que la imagen del cuadrado mediante es el paralelogramo limitado por las rectas (1ñ), (2ñ), (3ñ) y (4ñ), que tiene como vértices (0, 0), (2, 1), (3, 3) y (1, 2). *

*

*

Las propiedades i) y ii) dadas en el Teorema 1.3.1 caracterizan a las aplicaciones lineales de ⺢n en ⺢m. Se tiene el siguiente resultado: Teorema 1.3.2 Sea : ⺢n r ⺢m una aplicación que satisface: i) ( ! y) % ( ) ! (y) para todo , y à ⺢n, ii) (r ) % r ( ) para todo à ⺢n y todo número real r. Entonces, es una aplicación lineal con matriz cuyas columnas vienen dadas por los vectores (e1), (e2), ..., (en), donde e es el vector de ⺢n con todas sus componentes nulas, excepto la que ocupa el lugar , que es 1.

32

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Demostración. Al igual que en la demostración del Teorema 1.3.1 vamos a suponer que : ⺢2 r ⺢2; supongamos que (e1) % (1, 0) % (a, b) y (e2) % (0, 1) % ( , ). Utilizando i) y ii) se tiene que ( ) % ( 1, %

1

2) %

(e1) !

% (a 1 ! Por tanto,

( 1(1, 0) ! 2(0, 1)) % ( 1e1 ! 2e2) % 2

2,

(e2) % 1(a, b) ! 2( , ) %

b 1!

2).

es una aplicación lineal que tiene como matriz %

Observar que la primera columna de

A B a b

.

es (e1) y la segunda es (e2).



EJEMPLO F. Tratemos de encontrar la matriz de un giro de 90o, g, en ⺢2 (el giro se considera, salvo indicación contraria, que se realiza en sentido positivo, es decir, contrario al de las agujas del reloj) (figura 1.10). La aplicación g satisface i) y ii) del Teorema 1.3.2 (¡tratar de demostrarlo geométricamente!). Por el Teorema 1.3.2, g es una aplicación lineal y su matriz tiene como columnas g(e1) % e2 % (0, 1) g(e2) %.e1 % (.1, 0).

Figura 1.10

Por tanto, %

A

*

0 1 *

B

.1 . 0 *

Las aplicaciones lineales pueden sumarse y multiplicarse por números reales: dadas : ⺢n r ⺢m y g : ⺢n r ⺢m dos aplicaciones lineales y un número real, definimos la ma de y g como la aplicación ! g : ⺢n r ⺢m tal que ( ! g)( ) % ( ) ! g ( ),

à ⺢n

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

y la m lti li a i n e

or

EJEMPLO G.

: ⺢n r ⺢m tal que

como la aplicación

à ⺢n.

)( ) % ( ( )),

(

Dadas dos aplicaciones lineales ( 1,

2) % ( 1,

33

: ⺢2 r ⺢3 y g : ⺢2 r ⺢3 mediante 1 ! 2,

2 2)

y 2) % (0,

g( 1,

1,

2)

se tiene que ( . 2g)( ) % ( ! (.2)g)( 1, % ( 1,

1 ! 2,

2) %

( 1,

2) ! (.2)g( 1,

2 2) ! (0, .2 1, .2 2) % ( 1, *

*

2) % 2 . 1,

0).

*

y g es una aplicación lineal, ya que

La suma de dos aplicaciones lineales

( ! g)( ! y) % ( ! y) ! g( ! y) % ( ) ! (y) ! g( ) ! g(y) % % ( ) ! g( ) ! (y) ! g(y) % ( ! g)( ) ! ( ! g)(y) y para todo número real r ( ! g)(r ) % (r ) ! g(r ) % r ( ) ! rg( ) % r( ! g)( ); por el Teorema 1.3.2 esto basta para probar que ! g es lineal. De manera similar, puede comprobarse que es una aplicación lineal si lo es. Si es la matriz de la aplicación lineal : ⺢n r ⺢m y es la matriz de la aplicación lineal g : ⺢n r ⺢m, ! g tendrá una matriz cuya -ésima columna está dada por ( ! g)(e ), debido al Teorema 1.3.2. Puesto que ( ! g)(e ) % (e ) ! g(e ) la -ésima columna de la matriz de ! g es la suma de las -ésimas columnas de las matrices de y g. A la matriz de ! g se le denomina matri ma e y , y, por tanto, si

A

a11 a % 21 ó am1 se tiene que

a12 ñ a22 ñ ó am2 ñ

A

B A

a1n a2n ó amn

y

b11 b12 ñ b b22 ñ % 21 ó ó bm1 bm2 ñ

B

b1n b2n ó bmn

B

a11 ! b11, a12 ! b12, ..., a1n ! b1n a21 ! b21, a22 ! b22, ..., a2n ! b2n . ! % ó ó ó am1 ! bm1, am2 ! bm2, ..., amn ! bmn Observar que para poder sumar matrices el número de filas de y debe coincidir, así como el número de columnas de ambas matrices. Una matriz con m filas y n columnas se dice que es una matriz de or en m # n, la cual corresponde a una aplicación de ⺢n en ⺢m. Por tanto, la suma de matrices solo es posible si ambas son del mismo orden.

34

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Sea una matriz de orden m # n asociada con la aplicación lineal : ⺢n r ⺢m y un número real. Puesto que es una aplicación lineal, tiene asociada una matriz, que se simboliza mediante —m lti li a i n e or el n mero real — cuya -ésima columna es ( )(e ) % ( (e )), es decir, veces la -ésima columna de :

A

a11 a12 ñ a a22 ñ % 21 ó ó am1 am2 ñ

a1n a2n ó amn

En el ejemplo G las matrices de

B A ú

%

a11 a21 ó am1

a12 a22 ó am2

y g son

A B

1 % 1 0

0 1 2

ñ ñ ñ

B

a1n a2n . ó amn

A B

0 % 1 0

y

0 0 . 1

Por tanto:

A B A BA BA BA B

1 .2 % 1 0

0 0 1 ! (.2) 1 2 0

0 1 0 % 1 1 0

0 0 1 ! .2 2 0

0 1 0 % .1 .2 0

0 1 0

que corresponde a la aplicación lineal . 2g (¡comprobarlo!). *

*

*

Estas operaciones que acabamos de definir con aplicaciones lineales y matrices tienen propiedades similares a las propiedades (S1)-(S4) y (M1)-(M4) de la suma de vectores y de la multiplicación de vectores por un número real (ver sección 1.2). Estas propiedades se enuncian en el siguiente cuadro y se dejan como ejercicio para el lector.

*

*

*

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

35

El último resultado de esta sección es obtener una operación con matrices que corresponda a la composición de aplicaciones lineales. Comenzamos con el caso particular de aplicaciones de ⺢2 en ⺢2 o matrices (cuadradas) de orden 2 # 2. Sean %

A

B

a11 a21

a12 a22

%

y

A

b11 b21

b12 b22

B

las matrices de , g : ⺢2 r ⺢2. Tenemos que g o ( ) % g o ( 1,

2) % g(

( 1,

2)) % g(a11 1 ! a12 2,

a21 1 ! a22 2) %

% Gb11(a11 1 ! a12 2) ! b12(a21 1 ! a22 2), b21(a11 1 ! a12 2) ! b22(a21 1 ! a22 2)H % % G(b11a11 ! a21b12) 1 ! (b11a12 ! b12a22) 2, (b21a11 ! b22 a21)

1 ! (b21a12 ! b22 a22) 2H.

Por tanto, g o es una aplicación lineal que tiene como matriz

A

b11a11 ! b12a21 b21a11 ! b22 a21

que recibe el nombre de ro EJEMPLO H.

3 1

1 0

0 2

2 y 1

%

3 1

0 , tenemos que 2

2 3·1!0·0 % 1 1·1!2·0

1 0

B

or .

A B A B A BA B A %

Dadas

%

to e

b11a12 ! b12 a22 b21a12 ! b22 a22

B A B

3·2!0·1 3 % 1·2!2·1 1

6 4

y 2

%

%

A BA B A 1 0

2 1

1 0

2 1·1!2·0 % 1 0·1!1·0

B A B

1·2!2·1 1 % 0·2!1·1 0

Recordemos que para que g o tenga sentido es necesario que la imagen de en el conjunto inicial de g. Por tanto, : ⺢n r ⺢m

,

4 . 1 esté contenida

g : ⺢m r ⺢ .

Como la matriz de es de orden m # n y la matriz calcular es necesario que el número de columnas de Gráficamente:

de g es de orden # m, para poder coincida con el número de filas de .

Dada una matriz el elemento que ocupa el lugar (i, ), es decir, la intersección de la i-ésima fila con la -ésima columna, se denota por ai . Esto nos permite escribir una matriz abreviadamente como (ai )i%1, ..., m si es de orden m # n. %1, ..., n

36

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Definición 1.3.3 Dadas las matrices % (bi )i%1, ...,

% (ai )i%1, ..., m

y

%1, ..., m

%1, ..., n

de órdenes # m y m # n, respectivamente, definimos el producto de B por A como la matriz de orden # n cuyo elemento que ocupa el lugar (i, ) está dado por m

; bi a % bi1a1 ! bi2 a2 ! ñ ! bim am . %1

EJEMPLO I.

Dadas las matrices

A

1 % 3 podemos calcular , ya que que aparece en el lugar (2, 1) de

B

2 1

4 0

A

0 % 1 .2

y

pero no

2 3 1

B

1 0 1

, ya que

El elemento

es

b21a11 ! b22 a21 ! b23 a31 % 3 · 0 ! 1 · 1 ! 0 · (.2) % 1. Además,

A

1 % 3 %

2 1

4 0

A

BA

0 1 .2

*

*

1 · 0 ! 2 · 1 ! 4(.2) 1 · 2 ! 2 · 3 ! 4 · 1 3 · 0 ! 1 · 1 ! 0(.2) 3 · 2 ! 1 · 3 ! 0 · 1 *

2 3 1

B

1 0 % 1

B A

1·1!2·0!4·1 .6 % 3·1!1·0!0·1 1

B

12 5 . 9 3

Como el lector puede suponer, el producto de matrices corresponde a la composición de las aplicaciones lineales que ellas determinan, en el orden adecuado. Proposición 1.3.4 Si

: ⺢n r ⺢m es una aplicación lineal que tiene a m

g: ⺢ r⺢

es otra aplicación lineal que tiene a

% (ai )i%1, ..., m como matriz y %1, ..., n

%(bi )i%1, ...,

n

g o : ⺢ r ⺢ es una aplicación lineal que tiene como matriz

%1, ..., m

.

Demostración. La -ésima columna de la matriz de g o es g o (e ) % g( (e )) % g(a1 e1 ! a2 e2 ! ñ ! am em) % % a1 g(e1) ! a2 g(e2) ! ñ ! am g(em)

como matriz,

Sección 1.3. Aplicaciones lineales de ⺢n en ⺢m y operaciones con matrices

37

en donde se ha utilizado la linealidad de g. Por tanto, g o (e ) % a1 (b11, b21, ..., b 1) ! a2 (b12, b22, ..., b 2) ! ñ ! am (b1m, b2m, ..., b m) % % (a1 b11 ! a2 b12 ! ñ ! am b1m, a1 b21 ! a2 b22 ! ñ ! am b2m, ..., a1 b 1 ! a2 b 2 ! ñ ! am b m) % %

A

m

m

m

; b1 a , ; b2 a , ..., ; b a %1

%1

%1

B

. m

es ; bi a , que era lo que

De aquí se deduce que el elemento que ocupa el lugar (i, ) en

%1

queríamos demostrar. La demostración de que g o es una aplicación lineal se deja para el 䊏 lector. Para finalizar esta sección damos algunas propiedades de la composición de aplicaciones lineales y de la multiplicación de matrices. Ya sabemos que la propiedad a o iativa se cumple para la composición de aplicaciones y, por tanto, se cumple también para la multiplicación de matrices. La propiedad conmutativa puede que no tenga sentido, como en el ejemplo I, en el que no puede calcularse , pero sí . Incluso si y pueden calcularse, la propiedad conmutativa no se cumple:

A BA B A B 1 0

0 2

1 2

1 1 % 1 4

1 2

y

A BA B A B 1 2

1 1

1 0

0 1 % 2 2

2 . 2

La asociativa y otras propiedades de estas operaciones se resumen a continuación.

El producto de matrices nos permite escribir un sistema de ecuaciones lineales de una forma muy sencilla. Dado el sistema

F

! a12 2 ! ñ ! a1n n % b1 1 ! a22 2 ! ñ ! a2n n % b2 ó ó ó am1 1 ! am2 2 ! ñ ! amn n % bm

a11 a21

1

de m ecuaciones lineales con n incógnitas, si escribimos

A

a11 a % 21 ó am1

a12 ñ a22 ñ ó am2 ñ

(3.1)

B AB AB

a1n a2n ó amn

1

,

%

2

ñ n

,

b1 b b% 2 ñ bm

38

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

se tiene que %b es una forma abreviada de escribir (3.1). EJEMPLO J.

El sistema 2 1! 1!

2.

F

3%

1 2 ! 2 3 %.2

se escribe con notación matricial de la forma

A

2 1

BA

.1 2

1 0

B

1 2

%

3

A B

1 . .2

EJERCICIOS 1.3 1. Estudiar si las siguientes aplicaciones son inyectivas, suprayectivas o biyectivas: : ⺢ r ⺢, ( ) % 2.

a) b) c)

g : ⺞! r ⺢, g(n) % n3 . n. : ⺪ r 2⺪, ( ) % 2 , donde ⺪ denota el conjunto de los números enteros 0, u1, u2, u3, ... y 2⺪ % {0, u2, u4, u6, ...}.

2. Encontrar todas las biyecciones del conjunto {1, 2, 3} en sí mismo. 3. Dadas

:

r

r U demostrar que:

y g:

ú

a)

, g inyectivas

b)

, g suprayectivas

c)

, g biyectivas

4. Dadas ( ) % a)

2

g o inyectiva. ú g o suprayectiva.

ú g o biyectiva.

! 7, g( ) % 3 . 5 y ( ) % sen , funciones de ⺢ en ⺢, calcular:

ogo

b) g o

og

c) g o

o

.

5. Escribir las matrices de las siguientes aplicaciones: 3) % ( 1 ! 2,

a)

( 1,

2,

b)

( 1,

2) % ( 1 . 2,

c)

( 1,

2) % ( 1,

d)

( 1,

2,

2,

2,

2 1 . 3).

1 ! 2 2,

2 1 . 3 2).

1).

3) % 3 1 . 2 ! 3.

6. Dada : ⺢2 r ⺢2 mediante ( 1, las siguientes regiones: a)

{( 1,

2) : 1 m 1 m 2,

0m

b)

{( 1,

2) : .1 m 1 m 1,

2) % ( 1 ! 2,

2 m 1}.

.1 m

2 m 1}.

2 1 . 2), hallar la imagen mediante

de

39

Sección 1.4. Inversa de una aplicación e inversa de una matriz

7. Demostrar que : ⺢2 r ⺢2 dada por ( 1, de la recta t(1, 1) mediante .

2) % ( 1,

2 2)

no es lineal. Dibujar la imagen

8. Hallar la matriz de un giro de ángulo h en sentido positivo en ⺢2. 9. Hallar la matriz de la simetría con respecto al plano % y en ⺢3. 10. Dadas las matrices

A

2 % 3

8 , 7

AB

1 % 1 , 0 calcular: (( ! ) )

a) e)

% (3

b)

2

A B

1 % 2 4

B

1 2

f)

%

2),

( ! )2 2 (

2

5 3 0

.G ) 2

o (g !

)

b)

1 2 6

G%

3 4 5

A B 3 1

.G2) )

1 , 2

d)

(

2

!

2

)3

5

G.

g)

ogog

4 , 2

2

11. Dadas las aplicaciones lineales ( 1, 2) % ( 1 ! 2, ( 1, 2) % ( 1, . 2, 1 . 3 2), calcular: a)

4 % 0 7

A B 5 1

((

c)

A B

0 1 , 6

c)

1 . 2),

g( 1,

2) % (3 1 . 2,

2 1) y

o o g.

12. Demostrar las propiedades (S1), (S2), (S3) y (S4) y (M1), (M2), (M3) y (M4) de la suma de aplicaciones y matrices y de la multiplicación de éstas por números reales. 13. Demostrar las propiedades (C2), (C3) y (C4) de la composición de aplicaciones lineales y del producto de matrices. 14 Escribir en forma matricial los siguientes sistemas de ecuaciones lineales: a)

! y! %7 . 3y ! 2 % 3

!2 %4 b) 3y ! 2 ! % 1 . 7y % 3

F

F

c)

F

a ! 3 . 2y % a2 2 . ay ! % 3 . y . ! a % a2

15. Desarrollar los siguientes sistemas escritos en forma matricial:

a)

A

3 3

1 2

BA B A B

4 6

3 y % 0

b)

A BA B A B 3 4 7

0 2 1

1 2

1 % 0 . 5

1.4. Inversa 1.4. INVERSA de una aplicación DE eUNA inversa APLICACIÓN de una matriz E INVERSA DE UNA MATRIZ

Dada una aplicación

: r

decimos que g :

a) g o ( ) % , para todo à , y o g(t) % t, para todo t à . b)

r es na inver a e

si:

40

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

Si definimos ( ) % para todo à e (t) % t para todo t à (las cuales reciben el nombre de a li a ione i enti a ) las condiciones anteriores a) y b) se escriben de la forma go %

og%

y

.

La inversa de una aplicación : r , si existe, es única. En efecto, si g1, g2 : r fueran dos inversas de , para todo t à , g1(t) % g1 o (t) % g1 o (

2)(t) % (g1

og

o

)(g2(t)) % (g2(t)) % g2(t)

donde se ha usado la propiedad asociativa de la composición de funciones. EJEMPLO A 1 1) Si ( ) % 2 ! 3 es una aplicación de ⺢ en ⺢, g( ) % 2 ya que g o ( ) % g( ( )) %

.

3 es una inversa de , 2

1 3 1 3 ( ) . % (2 ! 3) . % 2 2 2 2

y o g(

2) Si

) % (g( )) % 2g( ) ! 3 % 2

A

: ⺢2 r ⺢2 es la simetría con respecto a una recta, o

%

2

%

B

3 1 . !3% . 2 2 es su propia inversa, ya que

⺢2

Figura 1.11

La inversa de una aplicación no siempre existe. Si : {1, 2, 3} r {1, 2} es la aplicación dada por (1) % (3) % 1, (2) % 2, no posee inversa. En efecto, si g : {1, 2} r {1, 2, 3} fuera una inversa de tendríamos que 1%g o (1) % g o (3) % 3 lo cual es una contradicción.

Sección 1.4. Inversa de una aplicación e inversa de una matriz

41

Si existe la inversa de una aplicación se dice que es invertible y la inversa de se denota por .1. Ya hemos probado que la inversa, si existe, es única. A continuación damos una condición necesaria y suficiente para que exista la inversa de una aplicación. Teorema 1.4.1 Sea

:

r

una aplicación. La aplicación

es invertible si y solo si

es biyectiva.

Demostración. Supongamos, primero, que es invertible y sea g : r su inversa. Si ( ) % ( ñ) tenemos que g o ( ) % g o ( ñ) y, por tanto, % ñ; esto prueba que es inyectiva. Para probar que es suprayectiva, sea t à y tomar % g(t); entonces ( ) % (g(t)) % % ( o g)(t) % t. Esto prueba que es biyectiva. Supongamos ahora que es biyectiva. Dado t à definimos g(t) % de manera que ( ) % t. La aplicación g es la inversa de , ya que g o ( ) % g( ( )) % g(t) % y o g(t) %

(g(t)) % ( ) % t.



EJEMPLO B 1) Sea : ⺢! r ⺢ dada por ( ) % log (log denota logaritmo neperiano), donde ⺢! es el conjunto de los números reales positivos. Esta aplicación es inyectiva ya que log % log y ú % y, y es suprayectiva ya que si y à ⺢, tomamos % ey y tenemos que log % log ey % y. Por tanto, es invertible. Claramente, su inversa es la aplicación g : ⺢ r ⺢! dada por g( ) % e . 2) Sea : ⺢ r ⺢ dada por ( ) % 2 . 1. Esta aplicación es inyectiva ya que ( ) % (y) á 2 . 1 % 2y . 1, de donde se deduce que % y; es, además, suprayectiva ya que dado y à ⺢ podemos encontrar à ⺢ tal que 2 . 1 % y; basta tomar 1 % (y ! 1). Por el Teorema 1.4.1, es invertible. 2 Su inversa se ha encontrado en la demostración de la suprayectividad: .1

*

1 ( ) % ( ! 1). 2 *

*

Pasamos ahora a calcular la inversa de aplicaciones lineales de ⺢n en ⺢n; comenzamos demostrando que si una aplicación lineal : ⺢n r ⺢n es invertible, su inversa .1 : ⺢n r ⺢n es también una aplicación lineal. Teorema 1.4.2 Si : ⺢n r ⺢n es una aplicación lineal invertible, ción lineal invertible y ( .1).1 % .

.1

: ⺢n r ⺢n es también una aplica-

42

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices .1

Demostración. Lo único que es necesario demostrar es que tiene .1

(

( ! y)) %

o .1(

% ( Puesto que

.1

o .1(

! y) % ! y %

( )) ! (

.1

)!

.1

(y)) % (

( )!

es lineal. Si , y à ⺢n se o .1(y) % .1

(y)).

es inyectiva por el Teorema 1.4.1, .1

( ! y) %

Finalmente, si (

.1

( )!

.1

(y).

à ⺢n, r à ⺢, .1

(r )) %

y de nuevo puesto que

o .1(r

)%r %r

o .1(

)%r (

( )) % (r

.1

( ))

es inyectiva debido al Teorema 1.4.1 se tiene que .1

(r ) % r

.1

( ).

Estas dos propiedades son suficientes para asegurar que * n

.1

*

.1

es lineal debido al Teorema 1.3.2.

*

n

Si : ⺢ r ⺢ es una aplicación lineal, su matriz asociada es de orden n # n y, por tanto, el número de filas coincide con el número de columnas. Estas matrices se denominan a ra a y se dicen de or en n en lugar de orden n # n. Si : ⺢n r ⺢n es invertible, su inversa .1 : ⺢n r ⺢n es también una aplicación lineal y su matriz asociada es también cuadrada y del mismo orden que . La matriz recibe el nombre de inver a e y se denota mediante % .1. Como la inversa de una aplicación es única, la inversa de una matriz es también única. y la matriz de .1 o es (ver los resultados obteniPuesto que la matriz de o .1 es dos en la sección 1.3) se tiene que es la inversa de si y solo si %

n

%

y

n

donde n es la matriz identidad de orden n, es decir, la matriz con no en la diagonal principal y ero en el resto:

A B

1 0 ñ 0 1 ñ n% ó ó 0 0 ñ EJEMPLO C.

Intentamos calcular la inversa de la matriz %

Sea

%

A B A BA B A B 1

2

3

4

2 4

0 0 . ó 1

1 3

2

3

4

%

1 0

0 1

1 . 3

% 2, se tiene

su inversa. Puesto que

1

A B 2 4

á

A

2 1! 4 1!3

3 3

2 2! 4 2!3

4 4

B A B %

1 0

0 . 1

Sección 1.4. Inversa de una aplicación e inversa de una matriz

43

Igualando los elementos de las matrices se tienen los siguientes sistemas de dos ecuaciones lineales con dos incógnitas:

F

2 1! 3%1 (4.1) 4 1!3 3%0

F

2 2! 4%0 (4.2). 4 2!3 4%1

;

Para resolver (4.1) escribimos:

de donde deducimos 1 % 3/2, 3 %.2. Para resolver (4.2) escribimos:

de donde deducimos Por tanto:

2 %.1/2,

4 % 1.

% Podemos comprobar que

A

A

B

3/2 .1/2 . .2 1

% 2:

BA B A

3/2 .1/2 .2 1

2 4

B A B

1 3.2 % 3 .4 ! 4 *

*

3/2 . 3/2 1 % .2 ! 3 0

0 . 1

*

En el ejemplo anterior se observa que las operaciones elementales que se han realizado para resolver los sistemas (4.1) y (4.2) son las mismas. Esto sugiere que el cálculo de la inversa de 1 0 y ; podría haberse realizado a la vez con una matriz que incluyera las columnas 0 1 es decir:

AB AB

A G B 2 4

1 3

1 0

0 1

que es una matriz de orden 2 # 4 de la forma ( 8 2). Realizando operaciones elementales en esta matriz se tiene:

A G B A G 2 1 1 4 3 0

0 1

iii)

∫ º

2 0

1 1 1 .2

B A G

0 1

iii)

∫º

2 0

0 3 1 .2

B A G

.1 1

i)

∫º

1 0

B

0 3/2 .1/2 1 .2 1

es decir, ( 2 8 .1). Esta forma de proceder se puede generalizar para matrices n#n. Veámoslo en un ejemplo 3#3.

44

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

EJEMPLO D.

Para calcular la inversa de la matriz

A

1 % 0 2 escribimos

A

1 2 0 1 2 .1

r

1 0 0

B A

1 0 0

0 1 0

0 0 1

2 1 0

0 3 1

1 0 0 1 .2/7 5/7

r

r

Por tanto,

0 3 .8

G B A G B A G B A G B A G B

0 3 .8

G

B

2 1 .1

1 0 0

2 1 .5

1 0 0

0 1 0

.1

%

0 3 .8

0 0 1/7

0 0 1

r

1 0 .2

0 1 0

1 0 0

0 0 1

2 1 0

.5/7 16/7 6/7 .8/7 .2/7 5/7

0 0 1

r

1 6/7 .2/7

1 0 0

2 1 0

0 3 7

1 0 .2

0 0 1

0 0 .8/7 .3/7 5/7 1/7

6/7 .3/7 . 1/7

es invertible y

(Comprobarlo calculando

.1

A

.5/7 6/7 .2/7

B

16/7 6/7 .8/7 .3/7 . 5/7 1/7

· .) : ⺢2 r ⺢2 dada por

EJEMPLO E. Tratamos de encontrar la inversa de la aplicación ( 1, 2) % (3 1 ! 2 2, 1 ! 2 2). Puesto que la matriz de es %

A B 3 1

2 2

tenemos ( 8 2) %

r Por tanto,

0 1 5

.1

A G B A G B A A G B A G 3 1

2 2

1 0

0 1 r 1 3

2 2

1 0

2 1

0 1 1 r .1/4 3/4 0

0 1

1 1 r 0 0

0 1

%

A

B

1/2 .1/2 . .1/4 3/4

tiene como matriz .1

G

2 0 .4 1

B

1/2 .1/2 ; .1/4 3/4

B

1 .3

Sección 1.4. Inversa de una aplicación e inversa de una matriz

45

en consecuencia: .1

( 1,

2) %

(¡comprobarlo!).

A

1 2

1 2

1.

*

*

2,

.

1 4

1!

3 4

2

B

*

El lector se preguntará si existe alguna forma de determinar si una matriz cuadrada posee inversa sin necesidad de calcularla. La respuesta es afirmativa y la produce el teorema de Rouché-Frobenius (ver Teorema 1.2.4). Supongamos que % (ai )i%1, ..., n y % ( i )i%1, ..., n es la inversa de ; puesto que · % n %1, ..., n %1, ..., n se tiene que

A

a11 a21 ó an1

a12 a22 ó an2

ñ ñ ñ

BA B A B

a1n a2n ó ann

0 ó 2 % 1 ñ ó n 0 1

para % 1, 2, ..., n,

(4.3)

lo cual constituye n sistemas de n ecuaciones, cada uno con n incógnitas y todos con la misma matriz de coeficientes . Si posee una inversa, como es única, cada uno de los n sistemas anteriores es compatible determinado. Por el teorema de Rouché-Frobenius se ha de tener que r( ) % n. Recíprocamente, si r( ) % n, cada uno de los sistemas anteriores posee solución única, ya que

r( ) % r

AGB

0 ó 1 % n. ó 0

Además, para calcular las columnas de la matriz tenemos que resolver cada sistema de (4.3) realizando las mismas operaciones elementales con las filas de la matriz . Es decir, basta aplicar el método de eliminación de Gauss-Jordan a la matriz ( 8 n). Por tanto, hemos obtenido el siguiente resultado: Teorema 1.4.3 Una matriz cuadrada de orden n es invertible si, y solo si, r( ) % n. En este caso, para calcular la inversa de se reduce la matriz ( 8 n) a la matriz ( n 8 ) mediante operaciones elementales con sus filas, y entonces .1 % . Como aplicación, observar que la matriz

A

1 % 0 1

2 1 3

0 .1 .1

B

46

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

no posee inversa, ya que

y, por tanto, r( ) % 2 Ç 3. *

*

*

Proposición 1.4.4 Si

ces

: r y g:

r U son invertibles, g o : r U es invertible y (g o ).1 %

.1 o

g.1.

Nota. De la Proposición 1.4.4 se deduce que si y g son aplicaciones lineales con matriy , respectivamente, ( ).1 % .1 .1, siempre que existan las inversas. .1 o

Demostración. Basta probar que ( nemos que si à se tiene (

.1 o

g.1) o (g o )( ) %

.1

(g.1(g( ( )))) %

.1 o

y (g o ) o (

.1

(g.1 o g( ( ))) %

.1

g.1) %

U.

Te-

( ( )) %

à U se tiene

y análogamente, si

.1 o

(g o ) o ( EJEMPLO F.

g.1) o (g o ) %

).1, donde

Tratemos de calcular (

A B

y

3/2 .1/2 (ejemplo C) .2 1

y

%

2 4



g.1)( ) % .

1 3

%

A B 3 1

2 . 2

Puesto que .1

%

A

B

.1

%

A

B

1/2 .1/2 (ejemplo E) .1/4 3/4

tenemos que ).1 %

( %

A

.1 .1

%

A

BA B A

1/2 .1/2 .1/4 3/4

B B

3/2 .1/2 % .2 1

3/4 ! 1 .1/4 . 1/2 7/4 .3/4 % . .3/8 . 6/4 1/8 ! 3/4 .15/8 7/8 *

*

*

Para finalizar esta sección aplicamos los conocimientos adquiridos para resolver algunos sistemas de ecuaciones lineales.

Sección 1.4. Inversa de una aplicación e inversa de una matriz

47

Supongamos que es una matriz cuadrada de orden n e invertible y tratemos de resolver el % b. Si .1 denota la inversa de tenemos que sistema .1

)%

(

b

.1

y, por tanto, % EJEMPLO G.

.1

b.

Tratemos de resolver el sistema

A

1 0 2

BA B A B

2 1 .1

0 3 .8

14 % 7 0

1 2 3

dado en forma matricial. La matriz de este sistema es invertible como se ha visto en el ejemplo D, en donde también se ha calculado su inversa. Por tanto:

AB A 1 2 3

BAB A

1 % 0 2

.1

2 0 1 3 .1 .8

BA B A B

14 .5/7 16/7 6/7 7 % 6/7 .8/7 .3/7 0 .2/7 5/7 1/7

14 6 7 % 4 0 1

(¡comprobar el resultado!).

EJERCICIOS 1.4 1. Demostrar que las aplicaciones : ⺢2 r ⺢2 dada por ( 1, 2) % ( 1 ! 2, 1 ! 2 2) y g : ⺢2 r ⺢2 dada por g( 1, 2) % (2 1 . 2, . 1 ! 2) son inversas una de la otra. ( ) % 3 . 2 y g( ) % cos , aplicaciones de ⺢ en ⺢, calcular g o

2. Dadas

.1 o .1 o g.

.1

y

3. Se denomina rango de una aplicación lineal al rango de su matriz asociada. Calcular el rango de las siguientes aplicaciones lineales: a)

( 1,

2) % (0,

b)

( 1,

2,

3) % ( 1 ! 2 ! 3,

1 ! 2 2 ! 3 3,

c)

( 1,

2,

3) % ( 1 ! 2 2 ! 3,

. 1 ! 2 2 ! 3).

d)

( 1,

2) % ( 1 ! 2,

e)

( 1,

2,

1,

2).

0,

4) % ( 1

3,

1 . 2 . 3 3).

1 ! 2).

1 ! 2,

1 ! 2 ! 3,

1 ! 2 ! 3 ! 4).

4. Encontrar, si es posible, la inversa de las siguientes matrices: a)

A

d)

A

1 .1 2 1 1

B

2 1

B

0 1 3 2 .3 3

b)

A

2 3

e)

A

2 .1 1

1 3/2

1 0 3

B

c)

0 1 5

B

f)

A

1 2 3

A

1 1 .2 1

0 1 1

0 .1 4 2 3 .2 4

B

B

3 4 2 6 . .6 0 1 7

48

Capítulo 1.

Resolución de sistemas de ecuaciones lineales. Operaciones con matrices

5. Encontrar la inversa de cada una de las siguientes matrices de elementos reales: a)

c)

A B 1 a

0 1

A B 1 0 0

a 0 1

0 1 0

A

1 a

b)

B

1/a , aÇ0 .1

A B 0 0 a

d)

0 a 0

a 0 , a Ç 0. 0

6. Encontrar, si es posible, la inversa de las siguientes aplicaciones lineales: 3) % ( 1 ! 2 ! 3,

a)

( 1,

2,

b)

( 1,

2) % ( 1 !

7. Encontrar

.1

c)

2 % 0 0

A

1.

AB

1 a , b% 2 1

1 3 0

1 ! 2 ! 2 3).

à ⺢.

2),

% b para:

y resolver el sistema

A B

a)

1 % 0

2,

2 1 ! 3,

b)

B A B

A

.3 % 2 .5

1 6 7

B A B

1 16 5 , b % .16 6 32

5 1/6 1 , b % .2/6 . .1 0

Biografía arl rie ri Ga na i el 30 de abril de 1777 en Brunswick, un pueblecito que actualmente pertenece a Alemania. Impresionados por su habilidad para las matemáticas y los idiomas, su madre y sus profesores le recomendaron al Duque de Brunswick, quien le proporcionó la ayuda económica necesaria para estudiar en la Universidad de Go¨ttingen. Cuando solamente tenía 19 años Gauss realizó uno de los descubrimientos más espectaculares de las matemáticas del siglo XVIII: fue el primer matemático que construyó un polígono regular de 17 lados utilizando solamente regla y compás. Euclides sabía como construir polígonos regulares de 3, 4, 5 y 15 lados, así como aquellos que se obtienen duplicando estos. Animado por su descubrimiento, Gauss logró encontrar una solución algebraica al problema de construir con regla y compás un polígono regular de n lados y desarrolló un criterio basado en la teoría de números con el cual puede decidirse si un polígono regular de un cierto número de lados puede construirse geométricamente. En 1799 se le concedió el título de Doctor por la Universidad de Helmstedt (Alemania). En su tesis, Gauss dio una demostración del teorema fundamental del álgebra, en el que se muestra que toda ecuación algebraica con coeficientes complejos tiene soluciones complejas. Los números complejos, cuya formulación actual se debe, entre otros, a Gauss, se estudiarán en el Capítulo 3. A los 24 años publicó una de las obras más completas de la historia de las matemáticas; se tituló i i itione ritmeti ae y en ella formuló conceptos y métodos de enorme importancia en el desarrollo posterior de la Teoría de Números. El Duque de Brunswick financió tan generosamente sus investigaciones que en 1803 pudo renunciar a una oferta de profesor en la Academia de Ciencias de San Petersburgo. En 1807 fue

Sección 1.4. Inversa de una aplicación e inversa de una matriz

49

nombrado profesor de Astronomía y director del observatorio de la Universidad de Go¨ttingen, en donde permaneció durante toda su vida. En 1801, Gauss tuvo la oportunidad de aplicar su habilidad matemática y sus ideas en el campo de la astronomía. El primer día del año fue descubierto un asteroide, que posteriormente sería llamado Ceres. A pesar de que pudo ser observado durante 40 días, ningún astrónomo fue capaz de calcular su órbita. Con solamente tres observaciones, Gauss desarrolló una técnica para calcular su órbita de manera que Ceres pudo ser localizado fácilmente a finales de 1801 y comienzos de 1802. El método utilizado en sus cálculos fue publicado en 1809 en su libro eoria ot or or m oele ti m; este método continúa utilizándose actualmente, con ligeras modificaciones, en los cálculos que se realizan con ordenadores. Carl Friedrich Gauss contribuyó de manera decisiva al desarrollo de varias ramas de la matemática durante el siglo XIX. Murió el 23 de febrero de 1855 y poco después de su muerte se pusieron en circulación varias monedas en su honor.

a

Capítulo 2

Determinantes y sus aplicaciones. 2.1. Determinantes de matrices de orden 2 y de orden 3. 2.2. Definición general de determinante. Propiedades. 2.3. Determinante de un producto de matrices. Cálculo de determinantes de orden n. 2.4. Inversa de una matriz. Regla de Cramer. 2.5. Rango de una matriz. Resolución de sistemas compatibles e indeterminados. 2.6. La factorización LU. Resolución de sistemas de ecuaciones lineales. 2.7. Determinantes y permutaciones.

52

Capítulo 2.

Determinantes y sus aplicaciones

En el capítulo anterior se ha llegado a la conclusión de que un sistema de ecuaciones lineales de la forma %b es muy fácil resolver si se conoce la inversa de la matriz . También allí se dio un método para calcular la inversa de una matriz, basado en la realización de operaciones elementales con sus filas. En este capítulo introduciremos el concepto de eterminante e na matri , que nos permitirá obtener una fórmula para calcular la matriz inversa de una dada. Las propiedades de los determinantes, básicas en este capítulo y en muchos de los restantes, serán estudiadas minuciosamente. En particular, estableceremos la relación entre el rango de una matriz y la anulación de ciertos determinantes, lo cual nos permitirá encontrar una fórmula para resolver sistemas de ecuaciones compatibles.

2.1. Determinantes 2.1. DETERMINANTES de matrices de orden DE 2 yMATRICES de orden 3 DE ORDEN 2 Y DE ORDEN 3

Dado el sistema a 1 ! b 2 % e1 1! 2 % e2

F

(1.1)

de dos ecuaciones con dos incógnitas, intentamos buscar condiciones sobre los coeficientes del sistema para que posea solución única. Por el teorema de Rouché-Frobenius (Teorema 1.2.4) esto se cumple solamente cuando r

A B a

b

% 2.

Realizando operaciones elementales con las filas de la matriz de los coeficientes, se tiene: %

A B a

b

1 ;a 2

∫∫º

A

a a

B

b a

2.

∫∫º 1

A

a 0

b a .b

B

.

Si a . b es nulo, la matriz de los coeficientes del sistema tiene rango inferior a 2 y, por tanto, el sistema (1.1) no tiene solución única. Bajo la condición de que el número a . b sea no nulo, el sistema (1.1) tiene solución única. Multiplicando la primera ecuación por y la segunda por b y restándolas se obtiene (a . b ) 1 % e1 . e2b. Por tanto: 1%

e 1 . e 2b . a .b

Sección 2.1. Determinantes de matrices de orden 2 y de orden 3

53

Multiplicando la primera ecuación por y la segunda por a y restando la primera de la segunda se obtiene (a . b ) 2 % ae2 . e1 . Por tanto, ae2 . e1 . 2% a .b Dada la matriz %

A B a

b

el número a . b , a ella asociado, recibe el nombre de eterminante e te 8 8. Por tanto, hemos demostrado el siguiente resultado:

y se denota median-

Proposición 2.1.1 El sistema (1.1) posee solución única si y solo si el determinante de la matriz de sus coeficientes es no nulo. Además, sus soluciones se calculan mediante las fórmulas

G G G G

e1 b e2 1% a b

G G G G a

e1 e2 . 2% a b

y

Las fórmulas anteriores reciben el nombre de regla e ramer para la resolución de sistemas compatibles determinados de dos ecuaciones con dos incógnitas. Observar que las soluciones se obtienen como fracciones que tienen como denominador el determinante de ; el numerador de la fracción de 1 es el determinante de la matriz que se obtiene sustituyendo la primera columna de la matriz por el vector columna que aparece a la derecha del sistema (1.1); el numerador de la fracción que determina 2 es el determinante de la matriz que se obtiene sustituyendo la segunda columna de la matriz por el vector columna que aparece a la derecha del sistema (1.1). EJEMPLO A.

El sistema

F

2 1. 2%1 1!3 2%0 tiene solución única ya que

Su solución es

G

G

.1 % 2 · 3 . (.1) · 1 % 6 ! 1 % 7. 3

2 1

1%

G

1 0

G

.1 3 3 % 7 7

2%

; *

*

*

G G 2 1

1 0

7

%

.1 . 7

54

Capítulo 2.

Determinantes y sus aplicaciones

En el siguiente resultado se reunen propiedades importantes de los determinantes. Teorema 2.1.2 i) ii)

G

a ! añ

b ! bñ

G G G G %

a

b

!





G G

a ! ñ

y

G G G G G

b a % ! ñ

b

!

a ñ

b . ñ

Si es la matriz que se obtiene a partir de una matriz multiplicando una cualquiera de sus filas por un número real r se tiene que 8 8 % r8 8. iii) Si es la matriz que se obtiene a partir de intercambiando dos de sus filas se tiene que 8 8 %. 8 8. iv) Si es la matriz que se obtiene a patir de sumando un múltiplo de una fila de a otra fila de se tiene que 8 8 % 8 8. v) El determinante de la matriz identidad es 1. Nota. Las propiedades i) y ii) son las que determinan la linealidad por filas del determinante. Las propiedades ii), iii) y iv) nos muestran el comportamiento del determinante frente a las operaciones elementales con las filas de una matriz. Demostración. Únicamente demostraremos la primera parte de i) dejando el resto de las demostraciones para el lector debido a su sencillez. Utilizando la definición de determinante se tiene que:

G

a ! añ b ! bñ

G

% (a ! añ) . (b ! bñ) % a ! añ . b . bñ % % (a . b) ! (añ . bñ) %

G G G a

b

!

añ bñ

G



que era lo que queríamos demostrar. Observación. El determinante de una matriz de orden 2 con dos filas iguales es nulo:

G G a a

b % ab . ab % 0. b *

*

*

A continuación pasamos a estudiar una posible definición del determinante de una matriz de orden 3. Para ello supongamos que el sistema a11 1 ! a12 a21 1 ! a22 a31 1 ! a32

2 ! a13 3 % b1 2 ! a23 3 % b2 2 ! a33

3 % b3

F

(1.2)

de tres ecuaciones con tres incógnitas tiene solución única. Para encontrar esta solución multiplicamos la primera ecuación por

G

a22 a32

a23 a33

G

Sección 2.1. Determinantes de matrices de orden 2 y de orden 3

55

la segunda por .

G

a12 a32

a13 a33

G

y la tercera por

G

a12 a22

a13 a23

G

y las sumamos. Después de realizadas las simplificaciones adecuadas se obtiene:

A G a11

G

a22 a32

% b1

G

G

G

a23 a a a . a21 12 13 ! a31 12 a33 a32 a33 a22

G

a22 a32

G G

a23 a . b2 12 a33 a32

G G

a13 a23

GB

1%

G

a13 a a ! b3 12 13 . a33 a22 a23

Por analogía con el caso del sistema de dos ecuaciones con dos incógnitas denominamos eterminante e la matri

A

a11 a12 % a21 a22 a31 a32

B

a13 a23 a33

a la expresión que multiplica a 1 en la fórmula anterior. Una forma sencilla de recordar esta definición es haciendo uso de los conceptos de matriz a nta de un elemento y de menor. Dada una matriz (ai )i, % 1, 2, ..., n se denomina matri a n ta del elemento que ocupa el lugar (i, ) a la matriz que se obtiene eliminando la fila i y la columna de la matriz dada, y se denota por i . El determinante de i se denomina menor del elemento que ocupa el lugar (i, ), es decir, ai . Por ejemplo, en la matriz

mientras que

Con estas notaciones podemos dar la siguiente definición.

56

Capítulo 2.

Determinantes y sus aplicaciones

Definición 2.1.3 (Determinante de una matriz de orden 3) Dada la matriz

A

B

a11 a12 % a21 a22 a31 a32

a13 a23 a33

definimos su determinante mediante la fórmula 8 8 % a118

118 . a218

218 ! a318

318.

EJEMPLO B

*

*

*

Si desarrollamos la expresión que nos da el determinante de una matriz de orden 3 se obtienen los siguientes seis productos: 8 8 % a11(a22 a33 . a23 a32) . a21(a12 a33 . a13 a32) ! ! a31(a12 a23 . a13 a22) % a11a22 a33 ! a21a13 a32 ! !a31a12 a23 . a31a13 a22 . a21a12 a33 . a11a23 a32 . Los términos positivos de esta expresión son los productos de los términos de la diagonal principal de y los productos de los términos que ocupan los vértices de los triángulos de la figura adjunta:

Un resultado análogo se obtiene para los términos negativos:

Esta regla nemotécnica puede emplearse para calcular determinantes, pero solo funciona con matrices de orden 3.

57

Sección 2.1. Determinantes de matrices de orden 2 y de orden 3

EJEMPLO C.

Los términos positivos del determinante de la matriz %

A

1 5 .1

B

.2 0 1

3 .2 1

Por tanto, 8 8 % 11 . (.12) % 23 (¡comprobar el resultado utilizando la definición!). *

*

*

A continuación probamos que el determinante de una matriz de orden 3 tiene propiedades análogas a las enunciadas en el Teorema 2.1.2 para determinantes de matrices de orden 2. Concretamente: Teorema 2.1.4 Las propiedades análogas a i), ii), iii), iv) y v) del Teorema 2.1.2 son ciertas para matrices de orden 3. Demostración. i)

G

a11 ! añ11 a21 a31 ! a31

Si la primera fila es suma de dos se tiene:

G

a12 ! añ12 a13 ! añ13 a a22 a23 % (a11 ! añ11) 22 a32 a32 a33

G

a12 ! añ12 a22

G

G

G

G

G

G

a13 ! añ13 a a a % a11 22 23 . a21 12 a23 a32 a33 a32

! añ11

G

a22 a32

G

G

G

G

G

G

a12 a22 a32

GG

a13 añ11 a23 ! a21 a33 a31

G

G

a13 a a ! a31 12 13 ! a33 a22 a23

G

a23 añ añ añ . a21 12 13 ! a31 12 a33 a32 a33 a22

a11 % a21 a31

G

a23 a ! añ12 a13 ! añ13 . a21 12 ! a33 a32 a33

añ12 añ13 a22 a23 a32 a33

G

añ13 % a23

G

en donde en la segunda igualdad se ha utilizado la propiedad i) del Teorema 2.1.2. Igualmente puede demostrarse cuando la suma aparece en las filas segunda o tercera.

58

Capítulo 2.

Determinantes y sus aplicaciones

ii) Si multiplicamos una fila de una matriz (por ejemplo, la segunda) por un número real r se obtiene:

G

a11 ra21 a31

a12 ra22 a32

G

a13 ra ra23 % a11 22 a32 a33

G

% ra11

G

a22 a32

G

G

G

G

G

ra23 a a a a13 . ra21 12 13 ! a31 12 % a33 a32 a33 ra22 ra23

G

G

a23 a . ra21 12 a33 a32

G

G

a11 a12 a13 % r a21 a22 a23 a31 a32

G

G

a13 a ! ra31 12 a33 a22

en donde se ha utilizado la propiedad ii) del Teorema 2.1.2. iii) Intercambiando, por ejemplo, la primera y la segunda fila de la matriz

G

a21 a22 a11 a12 a31 a32

G

a23 a a a a13 % a21 12 13 . a11 22 a32 a33 a32 a33

G

%.a11 iv)

G

G

a22 a32

G

G

G

G

a23 a ! a31 22 a33 a12

G

G

G

a23 a a a ! a21 12 13 . a31 12 a33 a32 a33 a22

a13 a23 a33

G

obtenemos:

G

a23 % a13

G

G

a11 a13 %. a21 a23 a31

G

a12 a13 a22 a23 . a32 a33

Tomemos

G

a11 a21 % a31 ! ra11

a12 a13 a22 a23 a32 ! ra12 a33 ! ra13

G

que se ha obtenido de sumando a la tercera fila r veces la primera. Debido a las propiedades i) y ii) ya demostradas se tiene que

G

a11 8 8 % 8 8 ! r a21 a11 ! a11

G

a12 a22

a13 a23

G

a12 a13 a a22 a23 % 8 8 ! r a11 22 a12 a12 a13

GD

C G

C G

% 8 8 ! r .a11

a12 a22

G G G G G GD a23 a . a21 12 a13 a12

a13 a a ! a11 12 13 a23 a22 a23

a13 ! a13

%8 8

que era lo que se quería demostrar. La propiedad v) es inmediata a partir de la definición.



Terminamos esta sección con un ejemplo que muestra cómo pueden utilizarse las propiedades iii), iv) y v) del Teorema 2.1.4 para calcular determinantes. EJEMPLO D

G

1 2 .1

2 1 1

G G

0 1 iv) 3 %% 0 2 0

2 .3 3

G G

0 1 iv) % 0 3 % 2 0

2 .3 0

G

G

0 1 iv) % (.3)(5) 0 3 % 5 0

2 1 0

0 .1 1

G

Sección 2.1. Determinantes de matrices de orden 2 y de orden 3

G G

1 % % .15 0 0 iv)

2 1 0

59

G G

0 1 iv) % .15 0 0 % 1 0

0 1 0

0 v) % .15 · 1 %.15 0 % 1

que es el mismo resultado que se obtuvo en el ejemplo B.

EJERCICIOS 2.1 1. Calcular los siguientes determinantes de matrices de orden 2: a) d)

G G G 2 1

1 2

cos a sen a

G G 3 0

b) .sen a cos a

1 4

G

c)

G

e)

cos a sen a

G G G a a

1 b

sen a . .cos a

2. Hallar la inversa de las matrices c) y d) anteriores. % b, donde

3. Utilizar la regla de Cramer para resolver los sistemas %

A B 2 2

4 3

y a)

b%

AB 2 1

b) b %

AB n n

b%

c)

AB

0 . 0

4. Utilizar la definición de determinante para calcular: a)

G G 1 2 0

4 1 3

3 0 1

b)

G

3 7 1

.1 7 .7

2 0 4

G

c)

G

1 2

1 y y2

1 2

G

d)

G G 1 0 0

a 1 0

b

.

1

5. Calcular a) y b) anteriores utilizando la regla nemotécnica para calcular determinantes de orden 3. 6. Calcular el determinante de la matriz c) del ejercicio 4 realizando operaciones elementales en sus filas y utilizando las propiedades de los determinantes. 7. Calcular

8. Demostrar que si a, b y

G

cos a sen a sen a

1 0 . cos a

son números reales, las raíces de la ecuación

G son reales.

G

.sen a cos a cos a

a. b

b .

G

%0

60

Capítulo 2.

Determinantes y sus aplicaciones

2.2. Definición 2.2. DEFINICIÓN general de determinante. GENERAL Propiedades DE DETERMINANTE. PROPIEDADES

En esta sección daremos la definición de determinante de una matriz cuadrada de orden n de la forma

A

a11 a % 21 ó an1

a12 ñ a22 ñ ó an2 ñ

B

a1n a2n . ó ann

Esta definición es la generalización de la definición de determinante de matrices de orden 3 dada en la sección 2.1. Recordemos que 8 i 8 denota el determinante de la matriz de orden n . 1 que se obtiene suprimiendo la fila i y la columna de la matriz ; 8 i 8 se denomina menor del elemento que ocupa el lugar (i, ) en .

Definición 2.2.1 (Determinante de una matriz de orden n) Dada una matriz

como arriba, su determinante se define de la forma 8 8 % a118

118 . a218

218 ! ñ ! (.1)

n!1

an18

n18 .

Observación. En la definición que acabamos de dar el determinante de una matriz de orden n se reduce a calcular n determinantes de matrices de orden n . 1; cada determinante de orden n . 1 se reduce a calcular n . 1 determinantes de orden n . 2. Continuando este proceso se llega a obtener determinantes de orden 2, que son fáciles de calcular. EJEMPLO A

G G 1 0 4 2

2 2 2 2

3 2 0 1

4 2 3 %1 2 3 2 1

G G G G G G

G G G G G G G G 2 0 1

3 2 3 .0 2 1 2

2 2 2

2 0 1

3 0 3 %2 1 1

3 2 .2 1 1

2 2 2

3 2 1

4 2 3 %2 1 1

3 3 .2 1 1

2 2 2

3 2 0

4 2 3 %2 0 3

3 3 .2 3 0

3 0 1

4 2 3 !4 2 1 2

3 2 1

4 2 3 .2 2 1 2

3 2 0

G G G G G G 3 2 !2 1 0

3 %.6 ! 2 ! 12 % 8 3

G G G G G G 4 3 !2 1 2

4 %.2 ! 2 ! 2 % 2 3

G G G G G G 4 3 !2 3 2

4 % 12 .18 ! 2 %.4. 3

4 3 3

Sección 2.2. Definición general de determinante. Propiedades

61

Por tanto

G G 1 0 4 2

2 2 2 2

3 2 0 1

4 3 % 1 · 8 . 0 ! 4 · 2 . 2(.4) % 8 ! 8 ! 8 % 24 . 3 1 *

*

*

El cálculo de determinantes utilizando la definición dada resulta larguísimo cuando se trata de matrices de orden elevado. El estudio de las propiedades del determinante aliviará este problema. Para demostrar estas propiedades utilizaremos un razonamiento denominado m to o e in i n. Este método puede aplicarse cuando se trata de demostrar una propiedad (n) que depende de un número natural n. Para ello se procede como sigue: 1.o 2.o

Se demuestra que (n) es cierta para un cierto número natural n0, que generalmente es pequeño. Se acepta que la propiedad es cierta para todo número b n0 e inferior a n ( i te i e in i n) y utilizando esto se demuestra que también es cierta para n.

Estos dos resultados permiten concluir que la propiedad es cierta para todo n n n0. En efecto, por 1.o es cierta para n0; utilizando 2.o es también cierta para n0 ! 1; utilizando de nuevo 2.o, (n) es cierta para n0 ! 2, y este proceso puede continuarse hasta alcanzar cualquier número natural n por muy elevado que sea. Mostraremos con un ejemplo sencillo cómo se aplica el método de inducción. Se trata de demostrar que la ma e lo n rimero n mero im are e n2. Sea (n) % 1 ! 3 ! 5 ! ñ ! (2n . 1) % n2 la propiedad que queremos demostrar. 1.o 2.o

(1) % 1 % 12 es cierta. Supongamos que ( ) es cierta para todo a n, es decir se tiene 1 ! 3 ! 5 ! ñ ! (2 . 1) % 2,

% 1, 2, 3, ..., n . 1.

Ahora, 1 ! 3 ! 5 ! ñ ! (2n . 1) % 1 ! 3 ! 5 ! ñ ! (2n . 3) ! (2n . 1) % ( )

% (1 ! 3 ! 5 ! ñ ! [2(n . 1) . 1]) ! (2n . 1) %% (n . 1)2 ! (2n . 1) % % n2 . 2n ! 1 ! 2n . 1 % n2 que era lo que queríamos demostrar. En la igualdad (*) es donde se ha utilizado la hipótesis de inducción, ya que se ha aplicado que (n . 1) es cierta. Algunos resultados que pueden probarse mediante el método de inducción se proponen como ejercicios al final de esta sección. *

*

*

62

Capítulo 2.

Determinantes y sus aplicaciones

Propiedad 1 (P.1) Si una matriz tiene una fila de ceros, su determinante es nulo. Demostración. Esta propiedad es fácilmente comprobable para matrices de orden 2:

G G a 0

b %a·0.b·0%0 0

G G 0

y

0

% 0 · . 0 · % 0.

Aceptemos que es cierta para toda matriz de orden m n . 1 y tratemos de demostrarlo para una matriz de orden n con una fila de ceros. Supongamos que los ceros ocupan la fila i de la matriz, es decir:

%

A

a11 ó

a12 ó

ñ

ai.1, 1 0 ó an1

ai.1, 2 0 ó an2

ñ ñ ñ

a1n ó

De la definición de determinante deducimos 8 8 % a118

i 118 . ñ ! (.1) ai.1, 18

i.1, 18 ! (.1)

B

ai.1, n . 0 ó ann

i!1

08

n!1 an, 18 i, 18 ! ñ ! (.1)

n18.

Todas las adjuntas 1 con Ç i tienen una fila de ceros y, por tanto, 8 18 % 0 por la hipótesis de inducción. Para % i, 8 i18 está multiplicado por 0 y, por tanto, todos los sumandos de la 䊏 igualdad anterior son nulos.

Propiedad 2 (P.2)

G

a11 a12 ñ ó ó 8 8 % ai1 ! bi1 ai2 ! bi2 ñ ó ó an1 an2 ñ

para todo i % 1, 2, ..., n.

G

a11 a12 ó ó ! bi1 bi2 ó ó an1 an2

GG

a1n a11 a12 ó ó ó ain ! bin % ai1 ai2 ó ó ó an1 an2 ann ñ ñ ñ

G

a1n ó bin % 8 8 ! 8 8 ó ann

ñ ñ ñ

G

a1n ó ain ! ó ann

Sección 2.2. Definición general de determinante. Propiedades

63

Demostración. Esta propiedad se ha demostrado para matrices de orden 2 y de orden 3 en la sección anterior. Aceptemos que es cierta para toda matriz de orden menor que n. Tenemos 8 8 % a118 Cada adjunta tanto:

i

118 . ñ ! (.1)

donde 1 y 1 son adjuntas de dad anterior se tiene: 118 ! 8 i18 % 8

Puesto que 8

[ai1 ! bi1]8

n!1 an18 i18 ! ñ ! (.1)

n18 .

con Ç i es una matriz de orden n . 1 con una fila que es una suma; por 18 % 8

8

8 8 % a11[8

i!1

i18

18

y , respectivamente. Sustituyendo este resultado en la igual-

118] . ñ ! (.1) i18 % 8

18 ! 8

i!1

[ai1 ! bi1]8

n!1 an1[8 i18 ! ñ ! (.1)

n18 ! 8

n18] .

se tiene que

8 8 % a118

118 . ñ ! (.1)

i!1

n!1 an18 i18 ! ñ ! (.1)

n18 !

! a118

118 . ñ ! (.1)

i!1

n!1 an18 i18 ! ñ ! (.1)

n18 % 8

ai18 bi18

8!8 8.



Propiedad 3 (P.3) Si es la matriz que se obtiene a partir de una matriz r una de sus filas se tiene que 8 8 % r8 8.

multiplicando por un número real

Demostración. En la sección anterior se demostró que el resultado es cierto para matrices de orden 2 y de orden 3. Aceptemos la hipótesis de inducción y supongamos, para simplificar la demostración que

A

Tenemos que 8 8 % ra118

ñ ñ

B

ra11 a % 21 ó an1

ra12 a22 ó an2

118 . a218

n!1 an18 218 ! ñ ! (.1)

ñ

ra1n a2n . ó ann

n18 .

La adjunta 11 coincide con 11 y, por tanto, 8 118 % 8 118; las adjuntas 1 con Ç 1 tienen una fila que está multiplicada por r y, por tanto, 8 18 % r8 18 debido a la hipótesis de inducción. Sustituyendo estos resultados en la igualdad anterior obtenemos 8 8 % ra118

118 . ra218

218 ! ñ ! (.1)

n!1

ran.18

n.18 % r8

8.

Propiedad 4 (P.4) Si es la matriz que se obtiene de 8 8 %.8 8.

intercambiando dos de sus filas, se tiene que



64

Capítulo 2.

Determinantes y sus aplicaciones

Demostración. Comenzaremos demostrando el resultado cuando las dos filas que se intercambian son consecutivas. Al igual que en las demostraciones anteriores utilizaremos el método de demostración por inducción. El resultado es cierto para matrices de orden 2 y de orden 3 puesto que se ha demostrado en la sección anterior. Sea, por tanto:

%

a12 ó

ñ

a1n ó

ai!1, 1 ai1 ó an1

ai!1, 2 ai2 ó an2

ñ ñ

ai!1, n ain ó ann

ñ

B

intercambiando las filas i e i ! 1. Tenemos que

la matriz que se ha obtenido de 8 8 % a118

A

a11 ó

i!1 ai!1, 18 118 . ñ ! (.1)

i18 ! (.1)

i!2

ai18

i!1, 18 ! ñ ! (.1)

n!1

an18

n18 .

Se tiene que

A B

a12 ó i1 % ai2 ó an2

ñ ñ ñ

a1n ó ain % ó ann

y

i!1, 1

i!1, 1 %

A

a12 ó

ñ

ai!1, 2 ó an2

ñ ñ

a1n ó

B

ai!1, n % ó ann

i1 .

Por otro lado, 1 con Ç i, i ! 1, es una matriz de orden n . 1 con dos filas consecutivas intercambiadas con respecto a 1; por la hipótesis de inducción tenemos que 8 18 %.8 18. Sustituyendo estos resultados en la igualdad anterior se obtiene: 8 8 %.a118 %. [a118

118 ! ñ ! (.1)

i!1

118 . ñ ! (.1)

ai!1, 18

i!1

ai18

i!2 ai18 i!1, 18 ! (.1)

i18 ! (.1)

i!2

ai!1, 18

n!1 an18 i18 ! ñ . (.1) n!1

i!1, 18 ! ñ ! (.1)

an18

n18 % n18]

%. 8 8 . Hemos demostrado el resultado cuando se intercambian dos filas consecutivas. Supongamos ahora que se intercambian las filas i y % i ! de una matriz. Sea

A B

a11 ó a1 % ó ai1 ó an1

ñ ñ ñ ñ

a1n ó an ó ain ó ann

la matriz que se obtiene de intercambiando las filas i y . La matriz puede obtenerse a partir de realizando varios intercambios de filas consecutivas. En primer lugar, la fila i de puede colocarse en la fila % i ! realizando intercambios de filas consecutivas; se obtiene así la matriz

Sección 2.2. Definición general de determinante. Propiedades

A B ñ

a11 ó

a1n ó

ñ

ai!1, 1 ó 1% a1 ai1 ó an1

ai!1, n ó an ain ó ann

ñ ñ ñ

p fila

i

p fila

%i!

65

Para pasar de 1 a mediante intercambios de filas consecutivas es necesario intercambiar la fila (a 1, ..., a n) que ocupa el lugar . 1 % i ! ( . 1), . 1 veces para colocarla en la fila i. En definitiva, de se pasa a mediante ! ( . 1) % 2 . 1 intercambios de filas consecutivas. Cada uno de estos intercambios cambia de signo el determinante y puesto que se hacen un número impar de intercambios se tiene que 8 8 % (.1)2

.1



8 8 %.8 8 .

Propiedad 5 (P.5) Si una matriz tiene dos filas iguales, su determinante es nulo. Demostración. Sea

A B

a11 ó ai1 % ó ai1 ó an1

ñ ñ ñ ñ

a1n ó ain ó ain ó ann

p fila

i

p fila

una matriz con dos filas iguales, a saber, las filas i y ; intercambiando estas filas se obtiene la misma matriz; sin embargo, por la propiedad 4, el determinante cambia de signo. Por tanto, 䊏 8 8 %.8 8; de aquí se deduce que 8 8 % 0, que era lo que queríamos demostrar. EJEMPLO B.

La matriz

A

2 0 % 3 0 .1

1 1 1 1 5

3 .1 .3 .1 2

5 0 1 0 7

1 2 1 2 0

B

tiene determinante nulo ya que su segunda y su cuarta fila coinciden.

66

Capítulo 2.

Determinantes y sus aplicaciones

Propiedad 6 (P.6) Si es la matriz que se obtiene a partir de fila de se tiene que 8 8 % 8 8.

sumando un múltiplo de una fila de

Demostración. Multipliquemos la fila i de por las propiedades 2 y 3:

a otra

por r y sumémosla a la fila para obtener ;

La matriz cuyo determinante aparece el último en la igualdad anterior tiene dos filas iguales 䊏 y, por tanto, es nulo por la propiedad 5. Este razonamiento demuestra el resultado. Las propiedades 3 y 6 de los determinantes junto con

G

1 0 8 n8 % ó 0

0 1 ó 0

ñ ñ ñ

G

0 0 %1 ó 1

(2.1)

permiten calcular determinantes de una matriz cuadrada de cualquier orden. El siguiente ejemplo muestra este hecho. En este ejemplo y en otros de cálculo de determinantes en los que se considere necesario, se utilizarán los siguientes símbolos aclaratorios de las igualdades que se escriben: 1) r significa que la -ésima fila de la matriz ha sido multiplicada por el número real r. 2) ! r significa que a la -ésima fila de la matriz se le ha sumado r veces la fila . 3) La propiedad que utilicemos en cada caso se indicará bajo el signo de igualdad. EJEMPLO B

G G G G G 1 0 4 2

2 2 2 2

1 3 0 %%% %% P.6 0 0 1 4.2

3 2 0 1

4 3.4 1 3 4.2 1 %%% %% P.6 3 1

2 2 0 0

3 2 .6 0

1 0 0 0

4 3 4 % % 2 · (.6)(.2) P.3 .4 .2

4.2

G

1 0 0 0

G G

1 0 1 % %%%%%%%%%%% 2 · (.6)(.2) Aplicar varias veces P.6 0 0 3.4 1

G

2 3 4 3!3 2 2 2 3 4! 2 %%% %% P.6 .6 .12 .13 .2 .5 .7

0 1 0 0

0 0 1 0

2 1 0 0

3 1 1 0

0 0 4 %% 24. 0 (2.1) 1

4 3/2 2/3 1

G

Sección 2.2. Definición general de determinante. Propiedades

67

Observar que el resultado es el mismo que el obtenido en el ejemplo A. *

*

*

Nota. En el ejemplo anterior solamente se han necesitado P.3, P.6 y (2.1) para calcular el determinante. Este es un hecho general, es decir, las propiedades P.3, P.6 y (2.1) determinan de manera única un número al cual se le denomina «determinante» y que satisface todas las propiedades y fórmulas que daremos aquí. El lector interesado puede encontrar una exposición de este tipo en el libro de A. G. Kurosch, r o e lgebra erior, Editorial Mir, 1977. En el ejemplo B puede observarse que cuando tenemos que calcular el determinante de una matriz como

A

1 0 0 0

2 2 0 0

3 2 .6 0

B

4 3 .4 .2

el resultado se obtiene multiplicando los elementos de su diagonal principal, es decir, la diagonal de izquierda a derecha y de arriba a abajo. Este es un resultado general. Una matriz se dice triang lar erior si todos sus elementos por debajo de su diagonal principal son nulos.

Propiedad 7 (P.7) El determinante de una matriz triangular superior es el producto de los elementos de su diagonal. Demostración. Sea

A

a11 0 % 0 ó 0

a12 a13 a22 a23 0 a33 ó 0

ñ ñ ñ

a1n a2n a3n ó ñ ann

B

una matriz triangular superior. De la definición de determinante aplicada repetidas veces se tiene:

8 8 % a11

G

a22 a23 0 a33 ó ó 0 0

ñ ñ ñ

G

a2n a33 ñ a3n a3n % a11a22 ó ó % ñ % a11a22 ñ ann . ó 0 ñ ann ann

G

G



De la propiedad 7 se deduce que el determinante de una matriz diagonal, es decir, una matriz cuyos elementos son todos nulos excepto los de su diagonal principal, es el producto de los elementos de la diagonal:

68

Capítulo 2.

Determinantes y sus aplicaciones

G

a11 0 0 ó 0

0 0 a22 0 0 a33 ó ó 0 0

ñ ñ ñ

G

0 0 0 % a11a22 a33 ñ ann . ó ñ ann

Es conveniente que el ejercicio siguiente se realice en este momento y sin conocer más propiedades de los determinantes, puesto que más adelante resultará muy sencillo. er i io. Una matriz triang lar in erior es una matriz que tiene todos sus términos nulos por encima de la diagonal principal. Demostrar que el determinante de una matriz triangular inferior es el producto de los elementos de la diagonal principal. EJEMPLO C.

Para calcular el determinante de la matriz

A

2 0 % 3 4 6

3 1 0 1 .1

5 2 1 .3 1

2 0 0 0 2

B

0 1 1 .4 0

la reducimos a una matriz triangular superior mediante operaciones elementales en sus filas y aplicamos las propiedades ya conocidas de los determinantes. Tenemos:

G

2 1 0 3 % % 3 8 8 %%% P.6 0 0 4.2 5.2

G

3 5 1 2 0 1 .5 .13 .1 .1

.1 3 5.2 1 0 1 3!3 1 %%% %% 0 9 P.6 0 .5 0 .1

G

.1 3!5 5 0 4!3 5 %%% %% 0 P.6 0 0

4 2 13 .13 .1 3 1 0 0 0

4 2 0 0 1

G G G G G G

2 0 0 .4 2

0 .1 .4 3 1 1 0 1. 3 % % 1 %%% 3 P.6 .4 0 .2 0

3 1 0 .5 .1

2 0 6 .4 2

.1 .1 3.9 2 !5 1 0 2 4 5! 2 .2 %%% %% 0 P.6 .4 0 .2 0

3 1 0 0 0

2 0 16 2 2

.1 .1 3.4 1 1 0 3T 5 %% .16 %%% 0 P.4 .2 0 .1 0

3 1 0 0 0

4 2 1 .13 .1 4 2 .5 .3 1

4 2 1 0 0

2 0 2 2 16

2 0 0 .4 2

.1 1 1 .4 .2

2 .1 0 1 6 .11 .4 1 2 .1 .1 1 .1 .2 .16

G

G

G

Sección 2.2. Definición general de determinante. Propiedades

G

.1 1 0 4 %%% % % 0 P.6 0 0 5.2 5.8

3 1 0 0 0

4 2 1 0 0

69

G

.1 3.4 1 1 1. 3 %% . (.1) · 1 · 1 · 2 · 0 % 0. .1 %%% P.7 .2 0

2 0 2 2 0

* * * En la definición dada de determinante se ha utilizado la primera columna de la matriz y sus adjuntas. Nuestro próximo objetivo es demostrar que también puede calcularse el determinante mediante una fórmula que utilice cualquier otra columna o incluso cualquier fila de la matriz y sus adjuntas. Estos resultados serán de gran utilidad para simplificar el cálculo de determinantes. Comenzaremos demostrando que puede utilizarse la primera fila de la matriz para calcular determinantes. Teorema 2.2.2 Si

A

0 ñ ñ a % 21 ó an1 ñ

a1 a2 ó an

ñ ñ

0 a2n

ñ

ann

B

es una matriz con todos los elementos de su primera fila nulos excepto el que ocupa el lugar , se tiene que 8 8 % (.1) !1a1 8 1 8 . Demostración. Procedemos por inducción en el orden de la matriz. Si orden 2 puede ser de la forma %

A

a11 0 a21 a22

B

%

o

A

es una matriz de

B

a12 . a22

0 a21

En el primer caso se tiene 8 8 % a11a22 % a118 118 y en el segundo 8 8 %.a12 a21 %.a128 128, lo cual prueba que la fórmula es cierta en este caso. Para que el lector pueda seguir mejor el caso general hacemos un caso particular de una matriz de orden 3. Sea 0 a12 0 % a21 a22 a23 . a31 a32 a33 Tenemos que a 0 a 0 8 8 %.a21 12 ! a31 12 %.a21a12 a33 ! a31a12 a23 a32 a33 a22 a23

A

G

G

B

G

%.a12[a21a33 . a31a23] %.a12 que era lo que queríamos demostrar.

G

G

a21 a31

a23 a33

G

70

Capítulo 2.

Determinantes y sus aplicaciones

Aceptemos ahora que el resultado es cierto para toda matriz de orden inferior a n y sea una matriz de orden n. Si el elemento no nulo ocupa el primer lugar de la primera fila se tiene

A

B

0 ñ a22 ñ ó an2 ñ

a11 a21 % ó an1

0 a2n . ó ann

De la definición de determinante deducimos que 8 8 % a118

n!1 an18 218 ! ñ !(.1)

118 . a218

n18 % a118

118

ya que cada adjunta 1, con b 1, tiene una fila de ceros y, por tanto, su determinante es nulo (propiedad 1). Supongamos ahora que el elemento no nulo de la primera fila ocupa el lugar , con b 1. Tenemos

A

ñ ñ

0 0 a a % 21 22 ó ó an1 an2

a1 a2 ó an,

0 a2,

.1

ó ñ

an,

.1

0 a2,

!1

ó an,

!1

B

ñ a1n ñ a2n . ó ñ ann

De la definición de determinante deducimos que 8 8 %.a218 La adjunta

i1,

218 ! a318

n!1 an18 318 . ñ !(.1)

n18 .

i b 1, de la fórmula anterior es de la forma

(i)

%

i1 %

A

0 ó

a1 ó

ñ

0 ó

ai.1, ai!1, ó an,

ñ ñ

ai!1, n ai!1, n ó an, n

0

ai.1, 2 ñ ai!1, 2 ñ ó ñ an2

ñ

y de orden n . 1; por la hipótesis de inducción su determinante es 8

i18 % (.1)

a1 8

donde (i) 1, .1 denota la matriz que se obtiene de ( . 1)-ésima columna. Por tanto: 8 8 %.a21(.1) a1 8 %(.1) !1a1 [a218

(2) 1, .18 ! a31(.1) (2) 1, .18 . a318

a1 8

B

(i) 1, .18 (i)

%

i1

suprimiendo la primera fila y la

(3) n!1 an1(.1) 1, .18 ! ñ !(.1)

(3) n 1, .18 ! ñ !(.1) an18

(n) 1, .18].

a1 8

(n) 1, .18 %

Sección 2.2. Definición general de determinante. Propiedades

Solamente falta probar que la expresión entre paréntesis coincide con 8 orden n . 1

()

%

1

A

a21 a % 31 ó ó an1

se tiene que 8

1

8 % a218

ñ ñ

a22 a32 ó ó an2

ñ

a2, .1 a3, .1 ó ó an, .1

a2, a3, an,

ñ ñ

!1 !1

ó ó

ñ

!1

( ) n 21 8 ! ñ !(.1) an18

( ) 11 8 . a318

1

a2n a3n ó ó ann

71

8. Para la matriz de

B

( ) n.1, 18 .

En (11) se han suprimido la primera fila y la primera columna de 1 ; y, por tanto, se han suprimido las dos primeras filas de y las columnas primera y -ésima de ; de la misma manera, en (2) 1, .1 se han suprimido la primera fila y la . 1 columna de 21 y, por tanto, se han suprimido las dos primeras filas y la primera fila y la -ésima columna de . Por tanto: ( ) 11 % ( ) 21 %

De manera similar se demuestra que EJEMPLO D.

(3) 1, .1,

etc., lo cual demuestra el resultado. 䊏

El determinante de la matriz

A

0 1 % 3 .1 es 8 8 %(.1)

(2) 1, .1 .

G

1 (.3) 3 .1

3!1

0 2 1 .5

G

.3 1 0 2

G

2 .4 1 4 % .3 0 1 .1 % P.6 .5 0 0

% (.3)(20 ! 33) %.159.

0 .4 .1 0

2 .5 .3

B G

.4 .5 11 %.3 · 1 .3 .4

G

Teorema 2.2.3 (Desarrollo por la primera fila) Si

A

a11 a12 a a % 21 22 ó ó an1 an2 se tiene que 8 8 % a118

118 . a128

ñ ñ ñ

B

a1n a2n ó ann

128 ! ñ !(.1)

n!1

a1n8

1n8 .

G

11 % .4

72

Capítulo 2.

Determinantes y sus aplicaciones

Demostración. Escribimos

A

B

a11 ! 0 ! ñ ! 0 a21 % ó an1

0 ! a12 ! ñ ! 0 ñ 0 ! 0 ! ñ ! a1n a22 ñ a2n . ó ó an2 ñ ann

Si , % 1, 2, ..., n, es la matriz que tiene todas sus filas iguales a , excepto la primera, en la que todos sus elementos son nulos excepto el que ocupa el lugar que es a1 , de la propiedad 2 de los determinantes aplicada reiteradas veces se tiene 18 ! 8

8 8%8

Por el Teorema 2.2.2, 8 8 % (.1) !1a1 8 EJEMPLO E.

1

28 ! ñ ! 8

n8.

8, lo cual prueba el resultado deseado.



Para calcular el determinante de la matriz

A

2 % 3 .1

.1 1 1

1 0 2

B

utilizamos el Teorema 2.2.3 para obtener 8 8%2

G G G 0 2

1 3 .1 1 .1

G

G

1 3 ! (.1) 1 .1

%.4 . 4 . 6 %.14.

*

*

G

0 % 2 · (.2) . 1(3 ! 1) . 1 · 6 % 2

*

Sea la matriz que se obtiene de % (ai )i%1, ..., n intercambiando las filas primera y se%1, ..., n gunda. Por la propiedad 4 tenemos que 8 8 %.8 8 y puesto que

A

a21 a22 a a % 11 12 ó ó an1 an2

ñ ñ ñ

B

a2n a1n ó ann

utilizando el Teorema 2.2.3 para desarrollar el determinante de que 8 8 %.8 8 %.[a218 Puesto que

1

%

2

118 . a228

por su primera fila se tiene

n!1 a2n8 128 ! ñ ! (.1)

1n8].

para todo % 1, 2, ..., n, tenemos que 8 8 %.a218

218 ! a228

228 ! ñ . (.1)

n!1

a2n8

2n8

lo cual nos da una fórmula para desarrollar el determinante de por la segunda fila. La principal diferencia con el Teorema 2.2.3 es que el primer término es negativo.

Sección 2.2. Definición general de determinante. Propiedades

73

Si ahora intercambiamos la segunda y la tercera fila, el determinante cambia de signo por la propiedad 4 y, por tanto, se tendría una fórmula para desarrollar el determinante por la tercera fila, comenzando con un sumando positivo. Este razonamiento demuestra el siguiente resultado. Teorema 2.2.4 (Desarrollo por la i-ésima fila) Si

% (ai )i,

%1, 2, ..., n

se tiene que

8 8 % (.1)i!1ai18

i!2 ai28 i18 ! (.1)

i!n ain8 i28 ! ñ ! (.1)

in8 .

No es de extrañar que exista un resultado análogo para calcular el determinante utilizando un desarrollo por cualquiera de las columnas. Para demostrarlo damos la definición de matriz tra e ta de una dada. Si es una matriz de orden m # n, se denomina matriz tra e ta de , y se denota por t, a la matriz de orden n # m que se obtiene poniendo como i-ésima fila a la i-ésima columna de la matriz . Por ejemplo, la matriz traspuesta de %

A

1 3

2 4

.2 1

B

es t

A B

1 % 2 .2

3 4 . 1

Un resultado que relaciona la operación de trasposición con el producto de matrices es el siguiente: )t %

(

t t

siempre que las multiplicaciones anteriores tengan sentido (ver ejercicio 6 al final de esta sección). Teorema 2.2.5 Si

es una matriz cuadrada, 8 8 % 8 t8.

Demostración. El resultado es cierto para matrices de orden 2 puesto que 8 8%

G

8 t8 %

G

G

a11 a12 % a11a22 . a12 a21 a21 a22

y a11 a21

G

a12 % a11a22 . a21 a12 . a22

74

Capítulo 2.

Determinantes y sus aplicaciones

Supongamos que el resultado es cierto para matrices de orden inferior a n y sea % (ai )i, %1, 2 ,..., n una matriz de orden n. Puesto que

A

a11 a21 a a % t % 12 22 ó ó a1n a2n por el Teorema 2.2.3 se tiene que 8 t8 % a118 Puesto que

1

%(

t 1) ,

118 . a218

ñ ñ ñ

B

an1 an2 ó ann

128 ! ñ ! (.1)

n!1

an18

1n8 .

% 1, 2, ..., n, utilizando la hipótesis de inducción se tiene que

8 t8 % a118

118 . a218

218 ! ñ ! (.1)

n!1

an18

n18 % 8



8.

Los Teoremas 2.2.4 y 2.2.5 producen el siguiente resultado: Teorema 2.2.6 (Desarrollo por la j-ésima columna) Si

% (ai )i,

%1, 2, ..., n,

se tiene que

8 8 % (.1) !1a1 8 EJEMPLO F.

1

8 ! (.1) !2a2 8

2 8 ! ñ ! (.1)

!n

an 8

n

8

Para calcular el determinante de la matriz

A B

1 0 % 3 4

3 0 0 0

5 3 1 2

2 0 4 1

desarrollamos por la segunda columna y a continuación por la primera fila para obtener

G G

1 0 8 8% 3 4

3 0 0 0

5 3 1 2

%.3(.3)

2 0 0 %.3 3 4 4 1

G G 3 1 2

0 3 4 %.3(.3) 4 1

G G

4 % 1

G G 3 4

4 % 9(.13) %.117. 1 *

*

*

El Teorema 2.2.5 produce otro resultado interesante. En las propiedades 1 a 6 de los determinantes puede sustituirse la palabra «fila» por «columna» y los resultados siguen siendo válidos. Esto permite realizar operaciones elementales con columnas para calcular determinantes. La verificación de estos resultados se deja para el lector.

Sección 2.2. Definición general de determinante. Propiedades

75

En el ejemplo anterior se observa que el cálculo de determinantes se simplifica si desarrollamos por una fila o columna que presente el mayor número de ceros. Si una matriz no posee ningún elemento nulo es posible realizar operaciones elementales con sus filas o columnas, de manera que el determinante no cambie, pero que la nueva matriz posea varios ceros en alguna de sus filas o columnas. El método combinado de realizar operaciones elementales y utilizar las fórmulas anteriores es el más utilizado para calcular determinantes, debido a que simplifica el número de operaciones a realizar. EJEMPLO G.

Sea

A

.1 .3 % 2 2

4 1 1 1

B

.2 5 . 3 1

3 0 .1 1

Multiplicando por 2 la segunda columna y restándosela a la primera se tiene

G

.9 .5 2 %% 8 8 %%% P.6 0 0 5.2 1

1.2

4 1 1 1

3 0 .1 1

G

.2 5 . 3 1

Desarrollando por la primera columna se tiene

G

1 8 8 %.9 1 1

G G

0 .1 1

5 4 3 !5 1 1 1

G

.2 3 . 1

3 .1 1

Para calcular el primero de estos determinantes restamos la primera fila de la segunda y de la tercera para obtener

G

1 1 1

GG

0 5 1 .1 3 % 0 1 1 0

0 .1 1

G

5 .1 .2 % 1 .4

G

G

.2 % 4 ! 2 % 6. .4

Para calcular el segundo restamos la primera columna de la segunda y la tercera para obtener

G

4 1 1

GG

3 .2 4 .1 3 % 1 1 1 1

.1 .2 0

G

.6 .1 2 % .2 0

G

G

.6 %.2 . 12 %.14. 2

Por tanto: 8 8 %.9 · 6 ! 5 · (.14) %.54 . 70 %.124. *

*

*

76

Capítulo 2.

Determinantes y sus aplicaciones

Es conveniente escribir una matriz con los signos que se asocian a cada elemento en el desarrollo de los Teoremas 2.2.4 y 2.2.6 con motivo de ayudar al lector a recordarlos. Esta matriz es

A

EJEMPLO H.

! . ! . ó

. ! . ! ó

! . ! . ó

. ! . ! ó

! . ! . ó

B

ñ ñ ñ . ñ

Tratemos de calcular el determinante de la matriz

A B a

% a a

a a .

a

Las operaciones elementales que se realizan se indican adecuadamente encima del signo de igualdad:

G G a

8 8% a a

a

G

5.2 1 a 3. 2 %% a a %%% P.6 0

G

a

a a % .a

a.

G

G G

a a .a .a a.

a.

G

a % .a

% [ ( . a) . a(a . )] . a[a( . a) . a(a . )] % % ( . a)[ 2 ! a . a2 . a2] % ( . a)( . a)( ! 2a).

EJERCICIOS 2.2 1. Calcular los siguientes determinantes mediante su desarrollo por la primera columna:

a)

G G 4 7 1

2 6 2

1 5 3

b)

G G 3 4 1

0 3 2

1 2 1

c)

G G 1 0 2 0

0 1 1 3

0 2 1 2

7 3 . 1 1

2. Calcular los siguientes determinantes reduciéndolos a una matriz triangular superior mediante operaciones elementales:

a)

c)

G G G G G

2 3 2

4 5 5

.2 2 1

1 2 2 3

0 1 2 2

3 2 0 1

G

5 7 4 2

G

b)

3 2 1 0

6 1 3 1

.3 0 2 3

9 4 5 2

d)

2 0 1 0

0 3 2 3

.2 9 .1 4

4 .6 . 0 2

G

77

Sección 2.2. Definición general de determinante. Propiedades

3. Calcular los siguientes determinantes usando sus propiedades y efectuando un número reducido de computaciones.

a)

d)

g)

G

1 3 5

G

2 1 0 4 .2

0 4 7

2 6 10

G

0 .1 1 1 3

0 3 2 1 3 .1 1 .1 1 .3

5 2 1 0 0

G G 1 2 0 0

1 1 1

0 1 0 1 . y 1 1 1

G G G G G G G b)

1 0 0 0

2 4 0 0

2 2 2 1

1 1 1 1

e)

3 0 0 3

0 3 0 3

0 0 3 0

3 3 3 0

1 0 .1 .1

3 0 2 0

2 1 1 1

G

c)

2 1 4 3

f)

1.j 2 1 0 3.j 1 3 1 1.j

G

4. Demostrar, sin necesidad de calcularlos, que los siguientes determinantes son nulos: a)

d)

G

G

1 .1 3 1 2 3 4 5

2 3 .2 .3 1 .4 2 3 4 5 6

3 4 5 6 7

4 5 6 7 8

5 6 7 8 9

G

b)

G

4

2 ! 3y 17 2 ! 3t

y 3 t

G

c)

G G G e)

12 22 32 42

22 32 42 52

32 42 52 62

G

sen2 a sen2 b sen2

1 1 1

cos2 a cos2 b cos2

G

42 52 . 62 72

5. Sabiendo que los números 58.786, 30.628, 12.831, 80.743 y 16.016 son todos divisibles por 13, demostrar que el determinante de la siguiente matriz es también divisible por 13:

A B

5 3 % 1 8 1 6. Demostrar que ( 7. a)

)t %

Demostrar que si 8r 8 % r n8 8.

t t

8 0 2 0 6

7 6 8 7 0

8 2 3 4 1

6 8 1 . 3 6

siempre que las multiplicaciones anteriores tengan sentido.

es una matriz cuadrada de orden n, y r es un número real

b) Utilizar a) para decir cómo cambia el determinante de una matriz de orden n si los signos de todos sus elementos se cambian.

78

Capítulo 2.

Determinantes y sus aplicaciones

8. Una matriz cuadrada

%. t.

se dice anti im tri a si

a)

Dar un ejemplo de una matriz antisimétrica de orden 4.

b)

Demostrar que si es antisimétrica y de orden impar su determinante es nulo. ( ge ren ia: utilizar 7.b)).

c) ¿Es cierto el resultado de la parte b) si 9. Demostrar que

G

1 1 1

a1 a2

es de orden par?

G

y b1 % 0 b2

es la ecuación de una recta en el plano que pasa por los puntos

1%(a1,

b1) y

2%(a2,

b2).

Los siguientes ejercicios se refieren al método de demostración por inducción. 10. Demostrar la fórmula 1!2!3!ñ!n%

n!1 n. 2

11. Demostrar la fórmula 12 ! 22 ! 32 ! ñ ! n2 %

n(n ! 1)(2n ! 1) . 6

12. Un polígono se denomina onve o si las líneas que unen dos puntos cualesquiera de sus lados están en el interior del polígono. Demostrar, mediante el método de inducción, que la suma de los ángulos interiores de un polígono convexo de n lados es 180(n . 2). 13. Deducir una fórmula para calcular

A B 1 0

1 1

n

y demostrarla mediante el método de inducción. 14. Si es una matriz triangular inferior de orden 3 cuyos elementos son números reales, todos los elementos de su diagonal principal son iguales y 2 % , demostrar que es ó.. 2.3. Determinante 2.3. DETERMINANTE de un producto deDE matrices. UN Cálculo PRODUCTO de determinantes DE MATRICES. de orden n CÁLCULO DE DETERMINANTES DE ORDEN n

El primer resultado que queremos probar en esta sección es que el determinante de un producto de matrices cuadradas del mismo orden es el producto de los determinantes de cada una de ellas. Para probar este resultado mostraremos primero que las operaciones elementales con las filas de una matriz pueden expresarse mediante multiplicación por matrices adecuadas. Estudiaremos cada operación elemental por separado.

Sección 2.3. Determinante de un producto de matrices. Cálculo de determinantes de orden n

79

a) Si multiplicamos la fila i de la matriz % (ai )i, %1, ..., n por un número real no nulo el resultado es el mismo que si multiplicamos la matriz por la izquierda por la matriz

En efecto:

b) El resultado de intercambiar las filas i y de la matriz que si multiplicamos la matriz por la izquierda por la matriz

% (ai )i,

donde todos los elementos de la diagonal son 1 excepto los de las filas i y En efecto:

%

..

0

.

0

0ñ1 ó ó 1ñ0

..

.

1

a11 ó ai1 ó a1 ó an1

a12 ó ai2 ó a2 ó an2

ñ ñ ñ ñ

a1n a11 ó ó ain a1 ó % ó an ai1 ó ó an1 ann

a12 ó a2 ó ai2 ó an2

ñ ñ ñ ñ

es el mismo

que son cero.

A BA B A B 1

i

%1, ..., n

a1n ó a n p fila ó ain p fila ó ann

i

c) El resultado de multiplicar por la fila i de la matriz %(ai )i, %1, 2, ..., n y sumárselo a la fila es el mismo que si multiplicamos la matriz por la izquierda por la matriz

80

Capítulo 2.

Determinantes y sus aplicaciones

En efecto:

A BA B A 1

i(

) %

..

0

.

0

1 . ó .. ñ1

..

.

1

a11 ó ai1 ó a1 ó an1

ñ

a12 ó ai2 ó a2 ó an2

a1n ó ain ó % an ó ann

ñ ñ ñ

a11 ó ai1 ó ai1!a ó an1

1

a12 ó ai2 ó ai2!a ó an2

ñ ñ 2

ñ ñ

a1n ó ain ó ain!a ó ann

B

.

n

Las matrices que aparecen en cada uno de los casos anteriores reciben el nombre de ma tri e elementale . Observar que toda matriz elemental se obtiene a partir de la matriz identidad realizando la operación elemental correspondiente a su caso. Así, por ejemplo, la matriz elemental del caso b) se obtiene intercambiando las filas i y de la matriz identidad. Observar que las matrices i ( ) con i a son triangulares inferiores y con i b son triangulares superiores. Son ejemplos de matrices elementales las siguientes:

A B

1 % 0 23 0

0 0 1

0 1 0

;

1(1/2) %

A

B

1/2 0 0 1

;

A

1 0 1 3(.2) % 0 0

0 1 0 0

.2 0 1 0

B

0 0 . 0 1

Puesto que toda matriz puede reducirse a una matriz escalonada reducida mediante una sucesión de operaciones elementales, se tiene el siguiente resultado: Proposición 2.3.1 Toda matriz cuadrada puede reducirse mediante una sucesión de matrices elementales a una matriz escalonada reducida tal que 1, 2, ..., ñ EJEMPLO A.

% .

2 1

La matriz

A B

1 % 3 0

2 1 1

1 2 1

Sección 2.3. Determinante de un producto de matrices. Cálculo de determinantes de orden n

81

se transforma en la identidad mediante la siguiente sucesión de operaciones elementales:

A B A B A B A B A B A B A B A B 1 3 0

2 1 1

5.2 1 1 1 2.3 1 2 ∫∫ ∫º 0 P.6 1 0

1 0 0

2 1 0

1 1 1

5r 3 2 1 1 2T3 3 .5 .1 ∫∫ ∫º 0 P.6 1 1 0

5.2 1

1 0 0

2. 3

∫∫ ∫º P.6

2 1 0

2 1 .5

5r 3

1 0 1

1 0 0

1. 3

∫∫ ∫º P.6

5.2 1 1 1 3!5 2 1 ∫∫ ∫º 0 P.6 1 0

2 1 0

5.2 1

0 0 1

1.2 2

∫∫ ∫º P.6

.2 1 51 1 4 3 1 ∫∫ ∫º P.6 4

2 1 0

1 0 0

0 1 0

0 0 . 1

Por tanto, podemos escribir la igualdad

A

1 .2 0 0 1 0 0 0 1

BA

BA

1 0 .1 0 1 0 0 0 1

BA BA BA BA

1 0 0 0 1 .1 0 0 1

1 0 0 0 1 0 0 0 1/4

1 0 0 0 1 0 0 5 1

1 0 0 0 0 1 0 1 0

1 .3 0

0 1 0

0 0 1

B

% ,

que el lector puede comprobar. EJEMPLO B.

La matriz %

A B 2 4

1 2

se transforma en una matriz escalonada reducida mediante la siguiente sucesión de operaciones elementales: 5.2 1

A B

∫∫ ∫º P.6

A

BA

2 4

1 2

2.2

1

A B 2 0

1 0

1 .2

0 1

*

*

5.2 1 1/2

∫∫ ∫º P.6

A

1 0

B

1/2 . 0

Por tanto: 1/2 0 0 1

B A %

B

1 1/2 . 0 0

*

Proposición 2.3.2 Toda matriz elemental posee una inversa, que es también una matriz elemental. Demostración. La inversa de la matriz elemental i ( ) es i (1/ ). La inversa de la matriz elemental i es i , ya que se vuelve a la identidad intercambiando de nuevo las mismas filas. La inversa de la matriz i ( ) es i (. ) porque se vuelve a la identidad restando a la fila la 䊏 fila i multiplicada por .

82

Capítulo 2.

Determinantes y sus aplicaciones

EJEMPLO C.

%

La inversa de

A B A

0 1/ es 1 0

0

A BA

1 misma. La inversa de 0 0

0 1 5

0 1 0 es 0 1 0

0 1 .5 *

B

0 . La inversa de 1

B

A B

0 % 0 1

0 1 0

1 0 es ella 0

0 0 . La comprobación se deja para el lector. 1 *

*

Proposición 2.3.3 Si es una matriz invertible, tales.

puede factorizarse como un producto de matrices elemen-

Demostración. Puesto que es invertible puede reducirse a la identidad mediante una sucesión de operaciones elementales; por la Proposición 2.3.1 existen matrices elementales tales que 1, 2, ..., ñ 2 1 % . .1 Por tanto, % .1 1 2 ñ la Proposición 2.3.2.

EJEMPLO D.

A A

Si

1 % .3 0 1 0 0

y cada una de las matrices

es la matriz del ejemplo

0 1 0 0 1 0

.1

.1

es una matriz elemental debido a 䊏

se tiene:

BA BA BA BA B B A B A BA BA B A BA BA BA B

0 0 1

.1 0 1

.1

.1

1 0 0

1 0 0

0 0 1

1 0 0

.2 1 0

0 1 0

0 0 4

0 1 0

.1

.1

0 0 1

1 0 0

1 0 0

0 1 0

0 1 5

0 0 1

.1

1 0 0

0 1 0

0 0 1/4

.1

1 % 3 0

0 1 0

0 0 1

1 0 0

0 0 1

0 1 0

0 1 1

0 1 0

1 0 1

1 0 0

2 1 0

0 0 . 1

*

1 0 0

*

1 0 0

1 0 0

0 1 0

0 .1 1

0 1 .5

0 0 1

.1

*

Teorema 2.3.4 Si

y

son matrices cuadradas del mismo orden, 8

8 % 8 88 8.

Demostración. La demostración la realizaremos en tres etapas. ta a 1. Si es una matriz elemental el resultado es cierto. Para probarlo estudiaremos cada uno de los posibles casos de matrices elementales.

Sección 2.3. Determinante de un producto de matrices. Cálculo de determinantes de orden n

83

Si % i ( ), 8 8 % 8 i ( ) 8 % 8 8 por la propiedad 3 de la sección 2.2; por otro lado, 8 i ( )8 % y, por tanto, 8 8 % 8 8 % 8 i ( )88 8 % 8 88 8. Si % i , 8 8 % 8 i 8 %.8 8 por la propiedad 4 de la sección 2.2; por otro lado, 8 i 8 %.1 por la misma propiedad y, por tanto, 8 8 %.8 8 % 8 i 88 8 % 8 88 8. Si % i ( ), 8 8 % 8 i ( ) 8 % 8 8 por la propiedad 6 de la sección 2.2; por otro lado, 8 i ( )8 % 1 por la misma propiedad y, por tanto, 8 8 % 8 8 % 8 i ( )88 8 % 8 88 8 también en este caso. ta a 2. Si es invertible, por la Proposición 2.3.3 podemos escribir % 1 2 ñ , donde cada es una matriz elemental. Aplicando repetidas veces el resultado obtenido en la etapa 1 se tiene: 8

8%8 %8

1 2ñ 1 288

8%8 8ñ8

188



8%ñ%8

88 8 % ñ % 8

1 2ñ

188

28 ñ 8

88 8 %

88 8 % 8 88 8.

ta a 3. Si es de orden n y no invertible, el número de peldaños de su matriz escalonada reducida es inferior a n. Podemos escribir % 1 2 ñ ñ donde las son matrices elementales y ñ tiene al menos una fila de ceros, por las Proposiciones 2.3.1 y 2.3.2. Por tanto, 8 ñ8 % 0 por la propiedad 1 de la sección 2.2 y usando el resultado de la Etapa 1 se deduce 188

8 8%8

28 ñ 8

88 ñ8 % 0.

Por otro lado, ñ también tiene al menos una fila de ceros, por lo que 8 ñ 8 % 0. De nuevo por la etapa 1 ñ 8 % 8 1 8 ñ 8 88 ñ 8 % 0 % 8 88 8 8 8%8 1ñ 䊏

ya que 8 8 % 0. *

*

*

EJEMPLO E. El teorema sobre el determinante de un producto es útil para calcular algunos determinantes. El determinante de la matriz

A

b2 ! ab % a

2 2

ab a ! a2 b b a 2 ! b2

B

puede calcularse fácilmente escribiéndola como un producto de dos matrices de orden 3. En efecto:

A BA B G G G G b % a 0

y puesto que

b a 0

se tiene que

0 a

0

b

b

0

b

0

0 a

%.2ab

y

b

0

8 8 % 4a2b2 2. *

*

*

a 0

a 0

0 a b

0 a %.2ab b

84

Capítulo 2.

Determinantes y sus aplicaciones

El resto de esta sección está dedicada a dar algunas sugerencias relativas al cálculo de determinantes de matrices cuadradas. Comenzamos con el determinante de la matriz de orden n:

A

B

a ñ a a ñ a ñ a . ó ó a ñ

a

a % a n ó a

a ó a

El desarrollo de 8 n8 por una cualquiera de sus filas o columnas no conduce a ningún resultado positivo. Lo más adecuado es realizar operaciones elementales con sus filas o columnas y utilizar las propiedades de los determinantes estudiadas en la sección anterior, hasta convertirla en una matriz triangular. Restando la primera fila de cada una de las restantes se tiene:

8

G

a .a 0 ó 0

a. 8 % a. n ó a.

a 0 .a ó 0

G

ñ ñ ñ

a 0 0 . ó .a

ñ

Sumando a la primera columna todas las restantes se tiene:

8

Nota. n % 3.

n8 %

G

! (n . 1)a 0 0 ó 0

a .a 0 ó 0

G

ñ ñ ñ

a 0 .a ó 0

a 0 0 % ( . a)n.1[ ! (n . 1)a] . ó .a

ñ

Ver el ejemplo H de la sección 2.2, donde se ha calculado este determinante para *

*

*

La demostración por inducción también puede usarse para calcular determinantes de matrices de orden n. Expondremos este método calculando el determinante de la matriz

n%

A

1

1

1

1 2 1

2 2 2

3 2 3

ó n.1 1

ó n.1 2

ñ ñ ñ

ó n.1 3

1 n 2 n

ó ñ

n.1 n

B

que se conoce en la literatura matemática con el nombre de eterminante e an ermon e.

Sección 2.3. Determinante de un producto de matrices. Cálculo de determinantes de orden n

Multiplicando cada fila por

1

y restándosela a la siguiente se tiene:

G

1 0 ( , ..., ) % 8 8 % 0 n 1 n n ó 0

1 2. 1 ( 2 2 . 1) ó n.2 ( 2 . 1) 2

n

% < ( . 1) %2

D

n.1( 2,

ñ ñ ñ

1 3. 1 ( 3 3 . 1) ó n.2 ( 3 . 1) 3

% ( 2 . 1) · ( 3 . 1) ñ ( n . 1)

C

85

3,

...,

G

1

ñ ñ ñ

1

2

3

ó

ó

n.2 2

1 n

ó

n.2 3

G

1 n. 1 ( n n . 1) % ó n.2 ( n. 1) n

ñ

n)

n.2 n

G

n

donde el símbolo < significa el producto de todos los factores que aparecen variando de 2 a n. %2

De la misma manera se deduce la fórmula

Por tanto n( 1, b , es decir:

n) %

C

D

n

3,

2,

es el producto de todos los factores de la forma ( . ) con

...,

n)

...,

< ( . 2)

n.1( 2,

n( 1,

%3

n) %

...,

*

<

1m a mn

*

n.2( 3,

...,

n).

( . ).

*

Finalmente mostramos un método para calcular determinantes de orden elevado siempre que se puedan relacionar con determinantes de orden inferior del mismo tipo. Por ejemplo, para calcular

G G

3 2 0 6% 0 0 0 observamos que

G

4 2 6%3 5.2 0 0 0

4 3 2 0 0 0

0 3 2 0 0

0 4 3 2 0 0

0 4 3 2 0

0 0 4 3 2 0

0 0 4 3 2

0 0 0 4 3 2

G

0 0 0 0 4 3

0 0 0 %3 4 3

5.8

4.

86

Capítulo 2.

Determinantes y sus aplicaciones 6%3

rm la e re rren ia y nos permite calcular 5 . 8 4 es una . La misma fórmula de recurrencia aplicada a 5 y 4 nos da: 4

La fórmula nociendo 5 y

5%3

4.8

3,

4%3

3.8

3.8

2) % 9

6

co-

2.

Por tanto: 6 % 3(3 3%3

Puesto que

4.8

2.8

6 % 9(3

1

3.8

. 2 · 3 · 8(3

3) . 8(3

4.2·3·8

3!8

2

2.

se tiene finalmente que 2) . 2 · 3 · 8

2.8

1) ! 8

! (.3 8 · 8 ! 2 · 3 · 8 ) 3

2

2 3!8

3 2 % 3 (3

2 % (3

2

4

1 %.71

2.8

1) . 9 · 8

.3 ·8.2·3 ·8!8 ) 2

2

2 ! 168

2

2. 2!

1.

Se tiene que 2%

Por tanto:

G G 3 2

4 %9.8%1 3

1%3.

y

6 %.71 · 1 ! 168 · 3 %.71 ! 504 % 433.

*

*

*

EJERCICIOS 2.3 1. Encontrar una sucesión de matrices elementales matriz escalonada reducida, donde:

A

B

%

A B

e)

2 % 3 1

%

d)

0 % 1 1

0 1 1 0 1

2 1

1 1 0

2,

...,

tales que

A B A B 1 3 .1

b)

1 2

a)

1,

2 .1 5

1 3 2

.1 2 4

c)

ñ

2

1

sea una

A B

1 % .1 0

2 1 3

0 1 . 1

2. Expresar las matrices del ejercicio 1 que sean invertibles como un producto de matrices elementales. 3. Utilizar el Teorema 2.3.4 sobre el determinante de un producto para demostrar la fórmula 8 cuando 4. Sean ,

.1

8%

1 8 8

es una matriz invertible. y

matrices cuadradas de orden n y formemos la matriz %

de orden 2n.

A B 0

Sección 2.3. Determinante de un producto de matrices. Cálculo de determinantes de orden n

a)

87

Demostrar que %

A BA B 0

n

n

0

0

.

b) Utilizar este resultado para demostrar que 8 8 % 8 88 8. 5. Calcular el determinante de la matriz

A

a .b % . . t

hallando

.

b a .

. b a

a .b

B

6. Escribir la matriz

A

1! % 1! 1!

1 y1 2 y1 3 y1

1! 1! 1!

1! 1! 1!

1 y2 2 y2 3 y2

B

1 y3 2 y3 3 y3

como un producto de matrices y calcular su determinante. 7. Calcular los siguientes determinantes reduciéndolos al determinante de una matriz triangular (todas las matrices son de orden n).

a)

c)

G G

2 2 2 ó 2

2 2. 2 ó 2

n 1 1 ó 1

1 n 1 ó 1

1 ñ 1 ñ n ñ ó 1 ñ

8. Demostrar que

ñ ñ ñ

2 2 2. ó 2

2 2 2 ó 2.

ñ

G

1 1 1. ó n

G

1 n n ó n

n 2 n ó n

G G b)

n n 3 ó n

G

1 1 1 ó 1

2 !1 2 ó 2

ñ n ñ n ñ n % (.1)n.1n! ó ñ n

3 3 !1 ó 3

ñ ñ ñ ñ

n n n ó !1

G

88

Capítulo 2.

9.

Determinantes y sus aplicaciones

Encontrar una fórmula de recurrencia para calcular

G

1 1 0 % n ó 0 en función de

y

n.1

n.2.

1 1 1 ó 0

0 1 1 ó 0

ñ ñ ñ

0 0 1 ó 0

ñ

Utilizarla para calcular

0 0 0 ó 1 8

0 0 0 ó 1

y

G

9.

10. Una e i n e ibona i (Fibonacci fue un matemático italiano del siglo XIII) es una sucesión de números que comienza con 1 y 2 y en la que cada número es la suma de los dos inmediatamente anteriores. Es decir, 1, 2, 3, 5, 8, ... Demostrar que el n-ésimo término de la sucesión de Fibonacci coincide con

G

1 .1 8 n8 % 0 ó 0 donde

n

1 1 .1 ó 0

0 1 1 ó 0

ñ ñ ñ

0 0 1 ó 0

0 0 0 ó .1

ñ

es una matriz de orden n.

11. Calcular

G

.1 1 1 1

1 .1 1 1

0 0 0 ó 1

G

G

1 1 .1 1

1 1 . 1 .1

12. Calcular el determinante de la matriz de orden n, % (ai ), donde ai % 8i . 8. (Sugerencia: hacerlo para n % 2, 3, 4, e intentar deducir la fórmula general para demostrarla por inducción.) 13. Calcular

A

B

G

1 1 1 1 2 1 4

2

1 3 9

3

G

1 . 4 16

m11( ) m12( ) una matriz 2 # 2 cuyos elementos son funciones derivam21( ) m22( ) bles mi ( ) con valores reales. a) Dar un ejemplo de una matriz ( ) para la que se tenga

14. Sea

( )%

G

m11( ) m21( )

b) Demostrar que se cumple

G

G G

m12( ) mñ ( ) Ç 11 m22( ) mñ21( )

G G

G

mñ12( ) . mñ22( )

G G

G

m11( ) m12( ) mñ ( ) m12( ) m ( ) mñ12( ) % 11 ! 11 . m21( ) m22( ) mñ21( ) m22( ) m21( ) mñ22( )

89

Sección 2.4. Inversa de una matriz. Regla de Cramer 2.4. Inversa 2.4. INVERSA de una matriz. DE Regla UNA de Cramer MATRIZ. REGLA DE CRAMER

En esta sección comenzaremos dando una fórmula para calcular la inversa de una matriz utilizando la teoría de los determinantes. A continuación usaremos esta fórmula para resolver sistemas de ecuaciones lineales cuya matriz de coeficientes es invertible. Comenzaremos dando una condición necesaria y suficiente para la invertibilidad de una matriz haciendo uso del concepto de determinante. Teorema 2.4.1 Sea

una matriz cuadrada de orden n. Las siguientes afirmaciones son equivalentes:

1) es invertible. 2) Rango ( ) % n. 3) 8 8 Ç 0. Demostración. Ya sabemos que 1) y 2) son equivalentes por el Teorema 1.4.3. Basta demostrar, por tanto, que 1) y 3) son equivalentes. Si es invertible, puede escribirse como un producto de matrices elementales de la forma % 1 2 ñ debido a la Proposición 2.3.3 de la sección anterior. Puesto que el determinante de un producto es el producto de los determinantes (Teorema 2.3.4) se tiene que 188

8 8%8

28 ñ 8

8.

La parte derecha de esta igualdad es no nula, ya que toda matriz elemental tiene determinante no nulo; por tanto, 8 8 Ç 0. Esto prueba que 1) implica 3). En la etapa 3 de la demostración del Teorema 2.3.4 de la sección anterior se ha probado que si no es invertible, 8 8 % 0, esto prueba que 3) implica 1), ya que si 8 8 es no nulo y no fuera 䊏 invertible se tendría una contradicción. Suponiendo que 8 8 Ç 0, nos proponemos encontrar una fórmula para calcular % (ai )i, %1, ..., n, del desarrollo de su determinante por la fila i-ésima tenemos que 8 8 % (.1)i!1ai18

i18 ! (.1)

i!2

ai28

i!n ain8 i28 ! ñ ! (.1)

.1

. Si

in8 .

El número i % (.1)i! 8 i 8, i % 1, ..., n, % 1, ..., n, se denomina o a tor del elemento que ocupa el lugar (i, ) de la matriz . Con esta notación la fórmula anterior se escribe de la forma 8 8 % ai1

i1 ! ai2 i2 ! ñ ! ain in .

(4.1)

Sea

cof ( ) %

%

A

11

12

21

22

ó

ó

n1

n2

ñ ñ

1n 2n

ó ñ

nn

B

la matriz de los cofactores de los elementos de , que se denomina matri

e o a tore

e .

90

Capítulo 2.

Determinantes y sus aplicaciones

Con esta notación, y debido a (4.1), se tiene que la matriz los lugares de su diagonal principal. Es decir,

t

Si logramos probar que los términos de nulos, se tendría que t

t

tiene como valor 8 8 en todos

que no están en la diagonal principal son todos

%8 8

n

y, por tanto, .1

%

1

t

8 8

lo cual nos da una fórmula para calcular la inversa de la matriz . La demostración completa de la fórmula anterior para calcular teorema:

.1

se da en el siguiente

Teorema 2.4.2 Si

es una matriz invertible se tiene que .1

donde

%

1

t

8 8

es la matriz de cofactores de .

Demostración. De la discusión precedente se deduce que la demostración se completa si t probamos que los elementos de que no están en su diagonal son nulos. Sea i Ç e intentemos calcular ai1

1 ! a i2 2 ! ñ ! ain

n.

Esta expresión coincide con el desarrollo por la fila del determinante de la matriz

Sección 2.4. Inversa de una matriz. Regla de Cramer

posee dos filas iguales, 8 8 % 0

sustituyendo la fila por la i. Puesto que

que se obtiene de y, por tanto:

1 ! ai2

ai1

2 ! ñ ! ain n % 0



si i Ç , que era lo que queríamos demostrar. EJEMPLO A.

91

La matriz

A

1 % .1 0 es invertible puesto que

G

1 8 8 % .1 0

2 1 1

2 1 1

0 2 3

B

GG G

0 1 2 % 0 3 0

2 3 1

0 3 2 %1 1 3

G G

2 % 7 Ç 0. 3

Para calcular su inversa comenzamos calculando la matriz de sus cofactores: 11 %

G G G G G G 1 1

2 %1 3

2 1

21 %.

31 %

2 1

0 %.6 3

0 %4 2

;

12 % .

;

22 %

;

32 % .

G

G

.1 0

2 %3 3

G G G G 1 0

0 %3 3

1 .1

0 % .2 2

G

G G G G G .1 0

1 %.1 1

1 0

2 %.1 1

;

13 %

;

23 %.

;

33 %

1 .1

2 % 3. 1

Por tanto:

A

1 % cof ( ) % .6 4 Por el Teorema 2.4.2: .1

%

1 8 8

t

1 % 7

A

1 3 .1

.6 3 .1

3 3 .2

BA

B

.1 .1 . 3

B

4 1/7 .6/7 4/7 .2 % 3/7 3/7 .2/7 . 3 .1/7 .1/7 3/7

(¡Comprobarlo!) * Nota.

*

*

Una matriz con determinante nulo se dice que es una matriz ing lar, de manera que una matriz invertible también recibe el nombre de matriz no ing lar. *

*

*

92

Capítulo 2.

Determinantes y sus aplicaciones

Utilizando el Teorema 2.4.2 pueden resolverse sistemas de ecuaciones lineales de la forma: a11 1 ! a12 2 ! ñ ! a1n a21 1 ! a22 2 ! ñ ! a2n ó ó ó an1 1 ! an2 2 ! ñ ! ann % b en notación matricial, siempre que escrito el Teorema 2.4.2:

.1

%

b%

A

b1

%

1 8 8

1

t

8 8

b%

11 !

b2

ó b1

b1

1

1 8 8

21

A

b2 2 ó b2 2n

ó 1n !

n % b2

ó n % bn

11

21

ó

ó

1

2

ó

ó

1n

2n

!ñ! !ñ! !ñ!

ñ

1 8 8

[b1

1

! b2

2

BA B

n1

ó ñ

n

ó ñ

nn

B

b1 b2 ó % ó bn

bn n1 ó bn n p componente ó bn nn

Por tanto, para todo % 1, 2, ..., n, se tiene que %

F

,

sea no singular o invertible. En efecto, por

ó !

n % b1

! ñ ! bn

n

].

La expresión entre paréntesis es el desarrollo del determinante de la matriz

%

A

a11 a21 an1

ñ b1 ñ b2 ó ñ bn m

B

ñ a1n ñ a2n ó ó ñ ann

columna

por la columna . Hemos probado el siguiente resultado: Teorema 2.4.3 (Regla de Cramer) Si es una matriz invertible de orden n, el sistema de ecuaciones lineales patible determinado y su solución se calcula mediante las fórmulas % donde

es la matriz

8 8 , 8 8

% b es com-

% 1, 2, ..., n,

en la que se ha sustituido la columna por el vector b.

Sección 2.4. Inversa de una matriz. Regla de Cramer

EJEMPLO B.

El sistema 2 1!3

%8 ! 3 %1 . 4%1 2 2 ! 4%4

1

1

2

tiene solución única, ya que

G

2 1 0 1

3 0 2 0

0 1 0 0

G

0 2 0 %. 0 .1 1 1

Por el Teorema 2.4.3:

G

3 2 0

F

G

0 .1 %.4 ! 3 %.1 Ç 0. 1

G GG G G GG G G GG G G GG G G G G G G GG G GG G G GG G

8 1 1 1% .1 1 4

3 0 2 0

0 1 0 0

0 8 0 % 1 .1 4 1

3 2 0

0 3 .1 % 4 2 1

0 8 ! .1 1

3 %.12 ! 13 % 1 2

2 1 1 2% .1 0 1

8 1 1 4

0 1 0 0

0 2 0 % 0 .1 1 1

8 1 4

0 1 .1 % 2 4 1

.1 8 ! 1 1

0 % 10 . 8 % 2 .1

2 1 1 3% .1 0 1

3 0 2 0

8 1 1 4

0 0 %. .1 1

2 1 1 4% .1 0 1

3 0 2 0

0 1 0 0

8 2 1 % 0 1 1 4

EJEMPLO C.

93

3 2 0

2 1 1 1

3 0 2 0

8 1 5 4

0 2 0 %. 1 0 1 1

8 2 1 %2· 0 4

3 0 2

1 3 ! 4 2

8 0 1 %. 0 5 1

.1 .2 2

G

.2 .4 % 0 5

8 % 16 ! (3 . 16) % 3. 1

Para determinar si el sistema homogéneo 1!3 2!

2 1!2 2!2 2 1!2 2! . 1. 2

3! 4%0

%0 %0 3 . 4%0 3

F

tiene soluciones no triviales basta calcular el determinante de la matriz de sus coeficientes. Si 8 8 Ç 0 solamente posee la solución trivial y si 8 8 % 0 posee soluciones no triviales, ya que en este caso r( ) a n debido al Teorema 2.4.1.

94

Capítulo 2.

Determinantes y sus aplicaciones

Puesto que

G

1 2 2 .1

G G

3 1 2 2 0 1 .1 0

1 1 5.2 1 0 .1 2. 1. 3 %%%% %%% P.6 0 2 .1 .1

3 .1 0 .1

G

!1 5.2 1 .1 2% 4 %%% %% 0 P.2 0 .1

1 0 1 0

el sistema posee infinitas soluciones.

EJERCICIOS 2.4 1. Hallar las inversas de las siguientes matrices, calculando primero la matriz de cofactores (comprobar los resultados):

a)

A

1 2 3

0 1 1

B

3 .1 4

A B 2 3

b)

A B a

b

1 2

A

c)

2 1 1

0 3 .3

1 2 3

%

.1

con 8 8 Ç 0,

%

3 1 1 0

0 .1 4 1

B

3 1 . 0 0

B

d)

A

.b utilizando el Teoa

1 a . b . rema 2.4.2 sobre el cálculo de la inversa de una matriz.

2. Demostrar que si

A

1 2 0 0

B

.1 t

) % ( t).1.

3. Demostrar que (

4. Probar que 8cof ( )8 % 8 8n.1. 5. Hallar la inversa de las siguientes matrices:

a)

A B 1 0 0 0 0

1 1 0 0 0

1 1 1 0 0

1 1 1 1 0

1 1 1 1 1

b)

A B 1.1 0 1.1 1.1 1.1 1.1 0 1

c)

A

1 0 0 0

0 1 0 0

B

0 0 0 0 aÇ0 , a .b bÇ0. b a

6. Hallar la inversa de las siguientes matrices de orden n:

a)

A

1 2 0 1 0 0 ó ó 0 0

22 2 1 ó 0

ñ 2n.1 ñ 2n.2 ñ 2n.3 ó ñ 1

B A b)

1! 1 1 ó 1

1 1! 1 ó 1

1 1 1! ó 1

ñ ñ ñ ñ

1 1 1 ó 1!

B

.

Sección 2.4. Inversa de una matriz. Regla de Cramer

95

7. Encontrar los valores de a y b para los que las matrices siguientes son invertibles: a)

A

a!1 1 0

B

1 1 a.1 1 1 a!2

8. Dada la aplicación lineal

b)

A

2 0 0

0 a!1 1

0 .1 a.3

: ⺢3 r ⺢3 mediante

B

c)

A

1 1 1

a a2 a3

B

b b2 . b3

( , y, ) % ( ! 2y ! , 3 ! y ! 2 , 3 ! 2y ! 2 ), demostrar que

es invertible y encontrar su inversa.

9. Sea una matriz invertible de orden n y triangular superior. Demostrar que bién triangular superior.

.1

es tam-

10. Resolver los siguientes sistemas de ecuaciones utilizando la regla de Cramer. 1!2 2.

a)

c)

2 1! 1. 2 1! 1!3 3 1.2 2 1.

3%

F

F

2 1!3 2.5 3.2%0 b) 3 1 . 2 ! 2 3 ! 1 % 0 5 1!4 2.6 3.3%0

7 6 2! 3% ! 3 %.1 2 3

F

2 ! 4 3 ! 8 4 %.1 2.6 3!2 4% 2!2 3.2 4% 2!2 3!2 4%

3 . 8 4

11. Hallar los valores de m para los que el siguiente sistema posee soluciones no triviales:

F

2 . y! %0 ! my . % 0 . ! y! %0 12. Hallar la inversa de cada una de las siguientes matrices: a)

A

cos a sen a

B

.sen a cos a

b)

A

1 0 0

0 cos a sen a

0 .sen a cos a

B

c)

A

cos a sen a

B

sen a . .cos a

* * * Un polinomio de grado n con coeficientes reales es una expresión de la forma ( ) % a0 ! a1 ! a2 2 ! ñ ! an n, con a à ⺢, % 0, 1, ..., n y an Ç 0. 13. Encontrar un polinomio

de grado 2 tal que (1) % 2, (.1) % 4 y (3) % 16.

14. Demostrar que n ! 1 valores distintos de la variable determinan de manera única un polinomio de grado n. [ geren ia: reducir el problema a demostrar que el determinante de una cierta matriz es no nulo y observar que esta matriz es la que origina el determinante de Vandermonde.] 15. Demostrar que si un polinomio de grado n tiene n ! 1 soluciones reales distintas ha de ser el polinomio nulo. [ ota: 0 à ⺢ es solución de si ( 0) % 0.] 16. Decir para qué valores de a es invertible la matriz i b y ai % a en el resto de los casos.

% (ai )i,

%1ñ n ,

donde ai % i . si

96

Capítulo 2.

Determinantes y sus aplicaciones

2.5. Rango 2.5. RdeANGO una matriz. DEResolución UNA MATRIZ. de sistemas compatibles RESOLUCIÓN e indeterminados DE SISTEMAS

COMPATIBLES E INDETERMINADOS En la sección 1.2 definimos el rango de una matriz como el mayor número de sus vectores columna que son linealmente independientes (ver Definición 1.2.2). En el Teorema 1.2.3 de la misma sección se demostró que el rango de una matriz coincide con el número de peldaños de su matriz escalonada reducida. En esta sección utilizamos los determinantes para obtener el rango de una matriz. Demostraremos también el sorprendente resultado de que el rango de los vectores fila de una matriz coincide con el rango de sus vectores columna. Dada una matriz de orden m # n se denomina menor e or en e al determinante de cualquier matriz de orden formada con los elementos de la intersección de cualesquiera de sus filas y cualesquiera de sus columnas. EJEMPLO A.

Dada

A

1 % .1 1

2 2 2

3 1 0

4 1 2

B

prescindiendo de una columna se obtiene un menor de orden 3, por ejemplo

Menores de orden 2 son, por ejemplo:

*

*

*

Los menores de orden 1 de una matriz son sus elementos. Si es una matriz cuadrada de orden n solamente hay un menor de de orden n que coincide con 8 8. Sea una matriz no nula; siempre podemos encontrar un único número que satisface las siguientes condiciones: 1) posee al menos un menor no nulo de orden . 2) Todo menor de de orden mayor que es nulo. Cualquier menor de de orden que no es nulo se denomina menor b i o; las columnas de la matriz de las que proviene este menor básico se denominan ol mna b i a y a las filas se les denomina ila b i a .

Sección 2.5. Rango de una matriz. Resolución de sistemas compatibles e indeterminados

EJEMPLO B.

97

En la matriz

A

2 % 0 1

2 0 1

4 1 3

6 1 4

B

los menores de orden tres son:

G G G G G G G G 2 0 1

2 0 1

4 1 3

,

2 0 1

2 0 1

6 1 4

2 0 1

,

4 1 3

6 1 4

y

2 0 1

4 1 3

6 1 4

que son todos nulos. Sin embargo, el menor de orden 2:

G G 2 0

4 %2 1

es no nulo y, por tanto, es un menor basico de ; sus columnas básicas son la primera y la tercera y sus filas básicas son la primera y la segunda. Es fácil encontrar otros menores básicos de orden 2 de esta matriz. * El rango de la matriz

del ejemplo

*

*

es 2, ya que

que coincide con el número de la matriz . Esto nos hace pensar en la certeza del siguiente resultado:

Teorema 2.5.1 Dada una matriz no nula, el número

anteriormente definido coincide con su rango.

Demostración. El número anteriormente definido no se altera mediante transformaciones elementales de la matriz; la demostración de esta afirmación se deja como ejercicio para el lector (ver el ejercicio 7 al final de esta sección).

98

Capítulo 2.

Determinantes y sus aplicaciones

Así pues, el número para una matriz no nula coincide con el número escalonada reducida . La matriz escalonada reducida es de la forma

para su matriz

donde las matrices sombreadas pueden ser no nulas. El número para la matriz no puede ser superior a , ya que cualquier menor de orden ! 1 incluiría una fila de ceros. Por otro lado, ha de ser igual a , puesto que podemos tomar las primeras filas y las columnas n1, n2, n3, ..., n , para obtener

G G 0

1

1

1

..

% 1 Ç 0.

.

0

1

Por tanto, coincide con el número de peldaños de ; por el Teorema 1.2.3 este número 䊏 coincide con el rango de la matriz.

EJEMPLO C.

El rango de la matriz

G G 1 2 3

2 1 1

G

5.2 1 0 1 6.2 3 %%% 2 3 %%.2 2 1 5 3

A B G G G 1 % 2 3

2 1 1

0 0 1 .3 3 %. 2 .5 5 3 *

*

0 3 es 2, ya que 5

0 3 5

0 3 %0 5

y

G G 1 2

2 %.3 Ç 0. 1

*

Teorema 2.5.2 (Teorema del menor básico) Sea

una matriz no nula:

1) Cualquier columna de es combinación lineal de sus columnas básicas. 2) El mismo resultado es cierto para las filas de . Demostración. Debido a las propiedades de los determinantes se puede suponer, sin pérdida de generalidad, que el menor básico ocupa las primeras filas y las primeras columnas de la matriz , donde r( ) % . Es decir:

Sección 2.5. Rango de una matriz. Resolución de sistemas compatibles e indeterminados

99

donde 8 8 Ç 0. Sea v , % 1, 2, ..., n, el -ésimo vector columna de la matriz . Para demostrar 1) basta probar que cualquier vector v es combinación lineal de los vectores v1, v2, ..., v . Si % n todas las columnas son básicas y por tanto v % 0v1 ! ñ ! 1v ! ñ ! 0vn , por lo que el resultado es cierto. Si a n y 1 m m , v es uno de los vectores v1, v2, ..., v y, por tanto, es combinación lineal de ellos. Si a m n, consideramos el sistema homogéneo

A

a11 ñ ó a 1 ñ ó am1 ñ

a1 ó a ó am

a1 ó a ó am

BA B A B 0 0 % ó 0 0

1 2

ó

(5.1)

de m ecuaciones con ! 1 incógnitas. Puesto que el rango de la matriz de los coeficientes de este sistema es , que es menor que el número de incógnitas, el sistema tiene infinitas soluciones. De todas estas soluciones siempre podemos elegir una de la forma

AB AB 1

1

2

2

ó

%

ó

con Ç 0 ya que si todas las soluciones tuvieran % 0 sistema a11 ñ a1 1 ó ó ó % a 1 ñ a ó ó am1 ñ am

el sistema (5.1) sería equivalente al

A BA B A B A BA B A B 0 ó

0

que únicamente posee la solución nula. Sustituyendo esta solución en (5.1) tenemos la igualdad a11 ñ ó a 1 ñ ó am1 ñ

a1 ó a ó am

a1 ó a ó am

1

ó

0

% ó . 0

100

Capítulo 2. Determinantes y sus aplicaciones

Esta igualdad puede escribirse de la forma

1

que coincide con

A B A B A B AB a11 ó a 1 !ñ! ó am1

1v 1 ! ñ !

a1 ó a ó am

!

a1 0 ó a % ó ó 0 am

v ! v % 0. Puesto que v %.

1

v1 . ñ .

Ç 0 se deduce que

v ,

lo cual prueba que v es combinación lineal de v1, ..., v . El resultado por filas se obtiene de considerar la matriz traspuesta mismo rango que debido al Teorema 2.2.5. EJEMPLO D.

La matriz

t

de , que ha de tener el 䊏

AB

2 3 % 1 4

G G

1 1 1 0

2 1 % 2 . 3 %.1. Por tanto, las filas tercera y cuarta son combi3 1 nación lineal de sus filas primera y segunda. Estas combinaciones lineales se encuentran resolviendo los sistemas tiene rango 2 puesto que

(1, 1) % 1(2, 1) ! 2(3, 1)

y

(4, 0) %

1(2,

1) !

2(3,

1)

o equivalentemente: 2 1!3 2%1 1! 2%1

F

y

2

F

1!3 2%4 1!

2%0

que es un buen ejercicio para que lo realice el lector. *

*

*

Corolario 2.5.3 El número máximo de columnas linealmente independientes de una matriz es igual al número máximo de sus filas linealmente independientes. Demostración. r( ) % r( t).

Corolario 2.5.4 El determinante de una matriz cuadrada es nulo si, y solo si, una de sus filas (columna) es combinación lineal de las restantes filas (columnas) de la matriz.

Sección 2.5. Rango de una matriz. Resolución de sistemas compatibles e indeterminados

101

Demostración. Si es una matriz cuadrada con 8 8 % 0, r( ) a n (Teorema 2.4.1); por el Teorema 2.5.2 se obtiene el resultado deseado. Por otro lado, si v1, v2, ..., vn son los vectores columna de y vn % a1v1 ! a2v2 ! ñ ! an.1vn.1 realizando las operaciones elementales: n . a1

1 . a2

2 . ñ . an.1

n.1

sobre sus columnas se tiene que

G

a11 a 8 8 % 21 ó an1

a12 ñ a22 ñ ó an2 ñ

A

2 EJEMPLO E. El determinante de la matriz 1 0 es dos veces la primera menos la segunda. ¿Qué *

*

a1, n.1 a2, n.1 ó an, n.1

G

0 0 % 0. ó 0

B



3 1 2 0 es nulo, ya que su tercera columna 1 .1 fila es combinación lineal de las restantes? *

Los resultados que hemos obtenido sobre el rango de una matriz se aplican a continuación para resolver sistemas compatibles e indeterminados. EJEMPLO F.

Deseamos resolver el sistema

F

1!2 2!3 3%1 2 1! 2!3 3%2 . 3 1! 2!5 3%3

A B G G

(5.2)

A

B

1 2 0 1 2 0 1 Sea % 2 1 3 la matriz de sus coeficientes y 1 % 2 1 3 2 la matriz ampliada. 3 1 5 3 1 5 3 1 2 0 1 2 Puesto que 2 1 3 % 0 y %.3, r( ) % 2, y puesto que la cuarta columna de 1 coin2 1 3 1 5 cide con la primera, r( 1 ) % 2. Por el teorema de Rouché-Frobenius, el sistema es compatible e indeterminado. Puesto que 1 tiene como básicas sus dos primeras filas, por el Teorema 2.5.2 la tercera debe de ser combinación lineal de las dos restantes; por tanto, la tercera ecuación del sistema no introduce nuevas soluciones en (5.2). Podemos suprimirla del sistema y tenemos el sistema equivalente:

G G

1!2 2!3 3%1

2 1!

2!3 3%2

F

.

102

Capítulo 2. Determinantes y sus aplicaciones

Poniendo a la derecha de las igualdades las incógnitas correspondientes a las columnas no básicas se tiene 1!2 2%1

2 1!

2%2.3 3

F

.

Resolviendo este sistema por la regla de Cramer en función de

G

3

G

se tiene:

1 2 2.3 3 1 1.4!6 3 % %1.2 1% 1 2 .3 2 1

2%

Haciendo

3%

1 2

1 2.3 .3

3

G

%

2.3 3.2 % .3

3.

se tiene ( 1,

EJEMPLO G.

G

G G

3

2,

3) % (1 . 2

, , ) % (1, 0, 0) ! (.2, 1, 1) .

El sistema

F

2 1.3 2! 5 3! 7 4%1 4 1.6 2! 2 3! 3 4%2 2 1 . 3 2 . 11 3 . 15 4 % 1

es compatible e indeterminado, ya que r( ) % 2 % r( 1 ) a 4 % número de incógnitas (¡compro5 7 barlo!). Puesto que % 1 Ç 0 podemos suprimir la tercera fila y pasar al segundo miem2 3 bro de las igualdades las incógnitas 1 y 2 para obtener

G G

5 3!7 4%1.2 1!3 2 3!3 4%2.4 1!6

F

2

.

2

Resolviendo por la regla de Cramer se tiene

G

1.2 1!3 2.4 1!6 3% 1

2 2

7 3

G

% 3 . 6 1 ! 9 2 . 14 ! 28 1 . 42 2 % % 22 1 . 33 2 . 11,

4%

G

5 2

1.2 1!3 2.4 1!6 1

2 2

G

% 10 . 20 1 ! 30 2 . 2 ! 4 1 . 6 2 % %.16 1 ! 24 2 ! 8.

103

Sección 2.5. Rango de una matriz. Resolución de sistemas compatibles e indeterminados

Haciendo

1 % 1,

( 1,

2,

2% 2 3,

se tiene:

4) % ( 1,

2,

22 1 . 33 2 . 11, .16 1 ! 24 2 ! 8) %

% (0, 0, .11, 8) ! 1(1, 0, 22, .16) ! 2(0, 1, .33, 24) . *

*

*

Resumimos a continuación los pasos a seguir para resolver un sistema compatible e indeterminado: 1) Detectar un menor básico de . 2) Suprimir las ecuaciones que corresponden a filas no básicas de . 3) Poner a la derecha de las ecuaciones aquellas incógnitas que corresponden a columnas no básicas de . 4) Resolver por la regla de Cramer. *

*

*

En la sección 1.2 se demostró que todo sistema homogéneo e indeterminado tiene % n . r( ) soluciones linealmente independientes de manera que cualquier otra solución del sistema es combinación lineal de las anteriores (véase la Proposición 1.2.6). Para terminar esta sección daremos una nueva demostración de este resultado. % 0 un sistema homogéneo y sea % r( ). Podemos suponer, sin pérdida de geneSea % 0 con ralidad, que un menor básico de está en su parte superior izquierda. Resolviendo las reglas dadas para resolver sistemas compatibles e indeterminados se tiene el sistema equivalente: %.a1, !1 !1 . ñ . a1n n a11 1 ! ñ ! a1 ó ó ó ó . (5.3) %.am, !1 !1 . ñ . amn n am1 1 ! ñ ! am

F

Sea v % (v 1, v 2, ..., v ), % 1, ..., n . , la solución que se obtiene de (5.3) haciendo y ! % 0 si Ç , % 1, 2, ..., n . , en la parte derecha del sistema. Los vectores ! e % (v 1, v 2, ..., v , 0, ..., 0, 1, 0, ..., 0)

!

%1

% 1, ..., n . , son linealmente independientes ya que el rango de la matriz

A

v11 v21 ó vn.

v12 v22 ó ,1

vn.

,2

..., ...,

v1 v2 ó

ñ

vn.

,

1 0 ñ 0 1 ñ ó 0 0 ñ

B

0 π∫ 0 ó 1

Menor básico de orden n .

es n . . % 0 es combinación lineal de Falta demostrar que cualquier otra solución de e1, e2, ..., en. . Sea e % ( 1, 2, ..., , !1, ..., n) otra solución de

% 0. Consideremos el vector e0 % e .

!1e1 . ñ .

nen.

.

104

Capítulo 2. Determinantes y sus aplicaciones

El vector e0 es de la forma e 0 % ( 1,

2,

...,

, 0, 0, ..., 0)

% 0, ya que es combinacomo fácilmente puede comprobarse. Además, e0 es solución de ción lineal de soluciones de este mismo sistema (Proposición 1.2.5). Por tanto, ( 1, 2, ..., ) es solución del sistema a11 ó a 1

1

!ñ!

%0

a1 ó

1

!ñ!

%0

a

F

que se ha obtenido de (5.3) poniendo !1 % 0, ..., n % 0. Puesto que el determinante de la matriz de este sistema es no nulo (¿por qué?), el sistema solamente posee la solución trivial. Por tanto, e0 % 0 y tenemos e%

!1e1 ! ñ !

nen.



que era lo que deseábamos demostrar.

EJERCICIOS 2.5 1. Encontrar, mediante menores, el rango de las siguientes matrices:

a)

A

c)

A B

2 4 2

1 3 4

.1 .2 .1

3 5 1

.2 1 8

B

4 7 2

b)

2 1 0

d)

2. Encontrar el rango de la matriz

A

1 2 1

A

1 2 1

A

a .1 10

4 8 4 4 8

2 1 1

3 0 .2

3 6 3 3 6

.5 .7 .8 1 .1

B 2 4 2 2 4

B

3 2 7 . .5 .6

B

.1 2 a 5 .6 1

para los distintos valores del número real a. 3. Demostrar que n ! 1 vectores cualesquiera de ⺢n son siempre linealmente dependientes.

Sección 2.5. Rango de una matriz. Resolución de sistemas compatibles e indeterminados

105

4. Probar que los siguientes sistemas son compatibles e indeterminados y resolverlos.

a)

3 1! 4 2! 3! 2 4% 3 6 1! 8 2!2 3! 5 4% 7 9 1 ! 12 2 ! 3 3 ! 10 4 % 13 1!

c)

2!

3%1

F

b)

4 1!2 1.2 2 1!5 3 1!3

2.2 3! 2. 2. 2.

4%

F

3 2 3!2 4% . %.1 3 4 . 3 1 3 4%

F

. 1!3 2!3 3%0 . 2 1!6 2!3 3%3

5. Estudiar mediante menores y aplicando el teorema de Rouché-Frobenius la compatibilidad de los siguientes sistemas: %3 %2 %1 %2

F

a)

! 2y ! 2 y!2 3 ! 2y ! 2 5 ! 7y ! 6

c)

2 ! y ! 3 ! 5t % 2 2 ! 2y ! 3 ! 5t % 4 ! 2y ! 3 ! 5t % 0

2 . 12y ! % 0 b) 4 . 6y ! % 2 .2 ! 12y ! % 7

F

F F

! 5y ! 2 %3 d) 2y ! 5 ! 3t % 2 . .2 ! 4y ! 2t % 1

6. Dado el sistema de ecuaciones lineales 3 1! 2 1. 2 1 ! 11 1. 5

2.

8 2. 3 2 . 12 2! 2

3!

2 3. 7 3 ! 34 3 . 16

4!

5%0

4!2 5%0 4.5 5%0 4!3 5%0

F

encontrar el mayor número de soluciones que sean linealmente independientes. Indicar uno de estos conjuntos linealmente independiente de soluciones. 7. a)

Sea

i(

) una matriz elemental de la forma

demostrar que el número

para

i(

) coincide con el número

para .

b) Sea i una matriz elemental que se ha obtenido intercambiando las filas i y de la matriz identidad; demostrar que el número para i coincide con el número para .

106

Capítulo 2. Determinantes y sus aplicaciones

c) Sea

i(

) la matriz elemental de la forma

demostrar que el número

para

i(

) coincide con el número

para .

Notas. En este problema, es una matriz cuadrada. Las demostraciones de estos resultados deben realizarse sin utilizar el Teorema 2.5.1. Este problema completa la demostración del Teorema 2.5.1 de esta sección. 2.6. La factorización 2.6. LA FACTORIZACIÓN LU. Resolución de sistemas LU.deRecuaciones ESOLUCIÓN lineales DE SISTEMAS

DE ECUACIONES LINEALES Para resolver sistemas de ecuaciones lineales, en el Capítulo 1 hemos usado el m to o e elimi na i n e Ga or an reduciendo un sistema dado a otro equivalente más sencillo, cuya matriz es escalonada reducida, mediante operaciones elementales. %b En este capítulo, en la sección 2.4, hemos resuelto sistemas de ecuaciones lineales cuya matriz de coeficientes es invertible, determinando .1, la inversa de dicha matriz, y calculando % .1 b. Hemos visto que este método conduce a la regla de Cramer. Además, en la sección 2.5 hemos utilizado la regla de Cramer para resolver sistemas de ecuaciones lineales compatibles e indeterminados. En muchas aplicaciones prácticas, es preciso resolver sistemas de ecuaciones lineales de gran tama˜no. También es frecuente que sea necesario resolver una colección de sistemas que tienen la misma matriz de coeficientes y distintas columnas de términos independientes. En estos casos, el método de eliminación de Gauss-Jordan no resulta eficiente porque en la eliminación se trabaja con la matriz ampliada del sistema —que incluye como última columna a la de los términos independientes—. La resolución de sistemas de ecuaciones lineales basada en la factorización LU, que estudiaremos a continuación, aprovecha parte del trabajo realizado en la eliminación de Gauss-Jordan, pero separa las eliminaciones de la matriz de coficientes del sistema de los cálculos realizados con la columna de términos independientes. De este modo, proporciona un método más eficiente en general para resolver dichos sistemas. La factorización LU de una matriz consiste en su descomposición como producto de ciertas matrices triangulares.

Definición 2.6.1 Una matriz con elementos (ai )1mimm, 1m mn es triangular superior si los elementos ai para i b son nulos. Una matriz es triangular inferior si es la traspuesta de una matriz triangular superior.

Sección 2.6. La factorización LU. Resolución de sistemas de ecuaciones lineales

107

Observa que en una matriz triangular superior son nulos todos los elementos que quedan por debajo de los aii para i % 1, ..., m, mientras que en una triangular inferior , son nulos todos los que están por encima de los aii para i % 1, ..., m. La e om o i i n LU de una matriz consiste en factorizarla como producto % LU de una matriz triangular inferior L por una matriz triangular superior U. Conocida una descomposición % LU, cada solución de un sistema de ecuaciones lineales %b (6.1) que ahora puede escribirse como LU % b, es una solución del sistema U %y

(6.2)

Ly % b.

(6.3)

para alguna solución y del sistema

En general, la resolución de estos dos sistemas es más eficiente computacionalmente que la resolución del sistema original, ya que cuando una matriz es triangular, inferior o superior, resolver un sistema que la tiene como matriz de coeficientes es particularmente sencillo, despejando las incógnitas hacia delante o hacia atrás, respectivamente. Algunos algoritmos utilizados en programas de ordenador emplean la factorización LU para calcular la inversa de una matriz , cuando esta existe, descomponiendo primero % LU y calculando entonces .1 % U.1L.1. EJEMPLO A. con

Supongamos que queremos resolver el sistema de ecuaciones lineales

A

2 4 % .2

1 .1 5

3 3 5

%b

B AB b1 y b % b2 b3

para distintas colecciones b de términos independientes y que conocemos una descomposición % LU con

A

1 L% 2 .1

B

0 0 1 0 .2 1

A

2 U% 0 0

y

1 .3 0

B

3 .3 . 2

Entonces, para cada colección de términos independientes b, resolviendo primero el sistema (6.3)

A

1 2 .1

0 1 .2

BA B A B y1 b1 y2 % b2 y3 b3

0 0 1

por sustitución hacia delante, y después el sistema (6.2)

A

2 0 0

1 .3 0

BA B A B

3 .3 2

1 2 3

y1 % y2 y3

108

Capítulo 2. Determinantes y sus aplicaciones

por sustitución hacia atrás, se obtiene la solución del sistema original (6.1)

A

2 4 .2

1 .1 5

3 3 5

BA B A B 1 2 3

b1 % b2 . b3

Por ejemplo, para b % (1, 2, .2), el sistema (6.3) resulta ser:

F

y1 % 1 2y1 ! y2 % 2 .y1 . 2y2 ! y3 %.2

de donde se obtiene y % (1, 0, .1) despejando hacia delante, y entonces el sistema (6.2) es: 2 1! 2!3 3% 1 .3 2.3 3% 0 2 3 %.1 y de aquí, despejando hacia atrás, resulta original. *

F

% (1, 1/2, .1/2) como solución del sistema *

*

Respecto al coste computacional que suponen los diferentes métodos de resolución de un % b, para una matriz cuadrada de orden n, con n relativasistema de ecuaciones lineales mente grande, digamos n n 30, el cálculo de una factorización LU conlleva aproximadamente n3/3 operaciones aritméticas elementales, mientras que la eliminación de Gauss-Jordan para la matriz ampliada del sistema supone n3/2. Por otro lado, el cálculo de la matriz inversa .1, como se ha descrito en el Teorema 1.4.3, requiere alrededor de 2n3 de tales operaciones. Finalmente, la resolución de los dos sistemas triangulares U % y y Ly % b supone unas 2n2 operaciones aritméticas elementales, aproximadamente lo mismo que la multiplicación de .1 por la columna b. En la siguiente tabla, se compara el número aproximado de operaciones aritméticas elementales que conllevan los distintos métodos de resolución de un sistema de ecuaciones lineales con matriz de coeficientes cuadrada de orden n, para n relativamente grande1.

Observa que al aplicar la regla de Cramer, es preciso calcular n ! 1 determinantes de orden n además de n divisiones y que el cálculo de un determinante exige aproximadamente n!n sumas y n! . 1 multiplicaciones. * 1

Ver K. E. Atkinson, W. Han, lementary

*

*

meri al naly i , 3.a ed. John Wiley and Sons, 2003.

Sección 2.6. La factorización LU. Resolución de sistemas de ecuaciones lineales

109

Desafortunadamente, no todas las matrices poseen descomposición LU. Un ejemplo sencillo es la matriz %

A B 0 1

2 . 0

Comprobar que al escribirla como producto de una matriz triangular inferior por otra triangular superior con incógnitas como elementos y resolver el sistema correspondiente, se obtiene una contradicción y por lo tanto no es posible encontrar una factorización LU para dicha matriz. Si, mediante operaciones elementales que no incluyen intercambios de filas, una matriz puede transformarse en una matriz escalonada U (que no necesariamente tiene unos en las esquinas de sus peldaños), entonces la factorización LU existe, como prueba el siguiente resultado:

Teorema 2.6.2 Si una matriz de tama˜no m # n se puede convertir en una matriz escalonada U mediante operaciones elementales sin realizar intercambios de filas, entonces: % LU con L matriz triangular inferior de orden m e invertible y U matriz triangular superior del mismo tamaño que y escalonada. Demostración. Si no es necesario intercambiar filas para llegar a una forma escalonada de , entonces basta usar las matrices elementales i( ) y i ( ) con i a , que son matrices triangulares inferiores (ver sección 2.3). Luego, por hipótesis, existen matrices elementales tales que: triangulares inferiores de orden m, 1, 2, ..., U%(

ñ

2

1)

de tama˜no m # n, es escalonada, y por tanto, triangular superior. .1 .1 Entonces % LU, con U matriz triangular superior y L % .1 , matriz triangular 1 2 ñ inferior, ya que es producto de matrices triangulares inferiores. Además L es invertible (por ser 䊏 producto de matrices invertibles), lo que prueba el resultado. Observación. El proceso por el cual realizando transformaciones elementales en una matriz se obtiene una matriz escalonada se conoce como eliminación de Gauss frente a la eliminación de Gauss-Jordan, que conduce a una matriz escalonada reducida (con unos en las esquinas de sus peldaños y ceros encima de estos unos). EJEMPLO B.

Encontremos la factorización LU para la matriz del ejemplo anterior,

%

A

2 4 .2

1 .1 5

B

3 3 . 5

110

Capítulo 2. Determinantes y sus aplicaciones

Con la notación introducida en la sección 2.3 para las matrices elementales:

De esta forma: U% es triangular superior y entonces

3 2(2)

3 1 (1)

2 1(.2)

% LU con L%[

3 2(2)

3 1 (1)

2 .1 . 1(.2)]

Es decir L%

2 1(2)

3 1 (.1)

3 2(.2) %

2 1(2)

3 1(.1)

3 2(.2)

siendo la matriz identidad de orden 3. Por tanto:

A B A

1 % 0 0

0 1 0

0 0 1

3 2(.2)

∫∫∫º

1 0 0

El lector puede comprobar que EJEMPLO C.

B A

0 0 1 0 .2 1

3 1(.1)

∫∫∫º

1 0 .1

0 1 .2

0 0 1

B A 2 1(2)

∫∫∫º

% LU.

Encontremos la factorización LU para la matriz

A

2 3 % .1 .2 Buscamos primero U:

6 9 .3 .6

.2 .3 1 2

0 3 .3 .6

B

2 1 . 1 2

1 2 .1

0 1 .2

B

0 0 % L. 1

Sección 2.6. La factorización LU. Resolución de sistemas de ecuaciones lineales

111

con lo cual: U% es triangular superior y entonces L%[

4 2(2)

3 2(1)

4 1(1)

4 2(2)

3 2(1)

4 1(1)

3 2 1(1/2) 1(.3/2)

% LU con

3 2 .1 % 1(1/2) 1(.3/2)]

2 3 4 1(3/2) 1(.1/2) 1(.1)

3 2(.1)

4 2(.2)

que resulta ser:

A

1 0 3/2 1 L% .1/2 .1 .1 .2

0 0 1 0

0 0 0 1

B

matriz que es triangular inferior e invertible. El procedimiento utilizado en los ejemplos B y C para encontrar la factorización LU de la matriz de tama˜no m # n considerada se puede esquematizar del modo siguiente: se comienza con ( 8 ), siendo la matriz identidad de orden m, se hacen las transformaciones elementales sin intercambio de filas para obtener ( 8 U) donde U es una forma escalonada de y entonces se tiene que L % .1. Observar que en los ejemplos B y C, las columnas de la matriz triangular inferior L, se pueden ir obteniendo de izquierda a derecha: se van tomando las columnas recuadradas en la reducción de ( ol mna rin i ale ), y se divide cada una de ellas por el primer elemento del recuadro; agotadas las columnas principales (tantas como el rango de la matriz original), en el resto de columnas de L todos los elementos son nulos excepto los colocados en la diagonal de L, que son unos. Se puede comprobar que lo mismo sucede en general2 cuando para obtener U solo se han realizado operaciones elementales de la forma i ( ) con i a . De esta forma, en la práctica se utilizan algoritmos de factorización LU que, en lugar de hacer cálculos con matrices elementales y sus inversas para construir L, van almacenando una a una sus columnas, obtenidas a partir de la reducción de . *

*

*

Cuando una matriz no tiene factorización LU y por tanto, se requieren intercambios de filas para reducirla a una matriz escalonada, realizando todos esos intercambios de filas, se obtendría una matriz que ya no precisa dichos intercambios en la reducción a matriz escalonada con el método de eliminación de Gauss. Esta nueva matriz se puede expresar como con una matri e inter ambio, definida como el producto de las matrices elementales correspondientes a los intercambios de fila en el orden adecuado 2. Entonces, de acuerdo con el Teorema 2.6.2, la matriz se puede descomponer como % LU y, por tanto, %

.1

LU

con .1 matriz de intercambio, L matriz triangular inferior y U matriz triangular superior. Esta descomposición se llama a tori a i n LU y también puede utilizarse en la resolución de sistemas de ecuaciones lineales.

2

W. K. Nicholson, Álgebra Lineal on a li a ione , McGraw-Hill, 2003.

112

Capítulo 2. Determinantes y sus aplicaciones

EJEMPLO D.

Encontremos la factorización LU para la matriz %

En este caso, la matriz de intercambio de las dos filas de ,

A B 0 1

2 . 0

es simplemente la correspondiente al intercambio

%

A B 0 1

1 . 0

Entonces %

A BA B A B 0 1

1 0

0 1

2 1 % 0 0

0 . 2 % LU con L la matriz identi-

que en este ejemplo ya es una matriz escalonada U, con lo cual dad de orden 2 y finalmente, la descomposición LU de es: % EJEMPLO E.

.1

LU %

A BA BA B 0 1

1 0

1 0

0 1

1 0

0 . 2

Encontremos la factorización LU para la matriz

A

.1 % 2 1

.2 4 1

B

3 .1 . .1

Realizamos la reducción a forma escalonada de ,

%

A

.1 .2 2 4 1 1

En este ejemplo, la matriz con lo cual

BA

3 .1 .1 r 0 .1 0

A

%

.1

3 .1 5 r 0 2 0

.2 .1 0

B

3 2 % U. 5

corresponde al intercambio de las filas segunda y tercera de , .1 % 1 2

y la factorización LU de

BA

.2 0 .1

.2 1 4

3 .1 .1

B

es:

A BA

1 LU % 0 0

0 0 1

0 1 0

1 .1 .2

0 1 0

0 0 1

BA

.1 0 0

.2 .1 0

B

3 2 . 5

Sección 2.6. La factorización LU. Resolución de sistemas de ecuaciones lineales

113

EJERCICIOS 2.6 1. Encontrar una factorización LU de las siguientes matrices:

a)

c)

A B 1 0 3

A

2 1 1

1 1 2

4 .1 .5 3 .5 .4 0 7

2 .4 2 .6

B

5 .8 1 .3

b)

A B

d)

A

2 4

1 1

2 1 .1

B

5 .1 7

2 3 . .7

% b utilizando la des-

2. Discutir y, en su caso, resolver el sistema de ecuaciones lineales composición LU para los siguientes sistemas:

A B AB

a)

1 % 0 3

c)

2 .4 % 2 .6

d)

2 1 % .1

5 2 .1 3 7 .7

f)

1 1 % .2

1 2 1

3.

2 1 1

A

A A

1 1 2

1 y b% 2 3

4 .1 .5 3 .5 .4 0 7

b)

A B 2 4

1 1

y b%

A B 1 .2

B AB

5 .8 1 .3

1 0 y b% 1 0

B AB B AB

.1 .2 1

%

0 y b% 1 0

A

2 2 % .2

e)

1 y b% 0 . 1

Hallar una descomposición LU de la matriz tridiagonal

A B

4 1 % 0 0

1 4 1 0

0 1 4 1

0 0 . 1 4

1 3 .5

B AB

.1 .3 7

.1 0 y b% 0

114

Capítulo 2. Determinantes y sus aplicaciones

4. Dada la matriz tridiagonal

A B

2 1 % 0 0 encontrar una descomposición LU de

a)

6. a)

A

0 0 3

B

0 3 .1 6 5 1

b)

A

0 0 .1

0 0 1 2

AB

1 0 b% . 0 0

con

y una factorización LU de 1 8 3

para las matrices:

B

.3 .6 . 1

Encontrar dos factorizaciones LU distintas de la matriz %

b)

0 1 2 1

y usarla para resolver el sistema

%b

5. Hallar una matriz de intercambio

1 2 1 0

A B 2 1

5 . 3

¿Es posible encontrar dos factorizaciones LU distintas para la matriz del apartado a) tales que L tenga unos en la diagonal?

7. Considerar una matriz cuadrada invertible que no requiere intercambios de filas para llegar a una forma escalonada U haciendo operaciones elementales con sus filas. Considerar ahora una factorización LU de tal que L tiene unos en la diagonal. Demostrar que dicha factorización es única. .1 .1 es ( n i a i n Si % L 1U1 % L 2U2, comprobar que U1U.1 2 % L1 L 2 y que U1U2 .1 triangular superior, mientras que L 1 L 2 es triangular inferior. Deducir entonces el resultado.) 2.7. Determinantes 2.7. DETERMINANTES y permutaciones Y PERMUTACIONES

Presentaremos a continuación una nueva fórmula para calcular el determinante de una matriz cuadrada. Esta nueva fórmula requiere el concepto de erm ta i n. Recibe el nombre de erm ta i n de los números naturales 1, 2, ..., n toda aplicación biyectiva del conjunto {1, 2, ..., n} en sí mismo. Las permutaciones se representarán con las letras griegas a, b, c, ... EJEMPLO A. Las permutaciones de los números naturales 1 y 2 son a : {1, 2} r {1, 2} dada por a(1) % 1 y a(2) % 2, y b : {1, 2} r {1, 2} dada por b(1) % 2 y b(2) % 1.

Sección 2.7. Determinantes y permutaciones

115

A continuación escribimos las permutaciones de los números naturales 1, 2 y 3: a1: a2: a3: a4: a5: a6:

a1(1) % 1, a2(1) % 2, a3(1) % 3, a4(1) % 3, a5(1) % 2, a6(1) % 1,

a1(2) % 2, a2(2) % 1, a3(2) % 1, a4(2) % 2, a5(2) % 3, a6(2) % 3,

a1(3) % 3 a2(3) % 3 a3(3) % 2 a4(3) % 1 a5(3) % 1 a6(3) % 2.

Al lector se le ha pedido todas estas aplicaciones en el ejercicio 2 de la sección 1.3. *

*

*

Para escribir una permutación no es necesario escribir los elementos del conjunto inicial; basta con escribir ordenadamente la imagen de los elementos en su orden natural. Así, por ejemplo: a3 % (3

1

2)

a5 % (2

3

1)

y

donde a3 y a5 son como en el ejemplo . Si llamamos n al conjunto de todas las permutaciones de los n primeros números naturales y a à n podemos escribir a % (a(1)

a(2)

ñ

a(n)).

Dada una permutación a de n, diremos que en a se ha reali a o na inver i n si se han intercambiado entre sí dos elementos de su imagen. El resultado de realizar una inversión en una permutación es, de nuevo, una permutación. EJEMPLO B. b % (14325) es una permutación que se obtiene de a % (54321) realizando una inversión; a saber, se han invertido el 1 y el 5. *

*

*

Sea a el número de inversiones que es necesario realizar en la permutación a para transformarla en la permutación identidad; el número a no es fijo para una permutación a à n, sino que varía según el orden en que se realicen las inversiones. Sin embargo, si por un procedimiento se ha necesitado un número par (impar) de inversiones cualquier otro procedimiento debe necesitar un número par (impar) de inversiones. Por tanto, el número sig (a) % (.1) a que recibe el nombre de ignat ra e a, no depende de la forma en que se realicen las inversiones3. Si a es par, la signatura de a es !1 y entonces diremos que a es una permutación ar; si a es impar, la signatura de a es .1 y entonces diremos que a es una permutación im ar. 3

J. Dorronsoro, E. Hernández,

mero , gr

o y anillo , Addison Wesley/UAM, 1996.

116

Capítulo 2. Determinantes y sus aplicaciones

EJEMPLO C. Dada la permutación a % (53142) podemos invertir el 1 y el 5 para obtener a1 % (13542); a continuación invertimos el 2 y el 3 para obtener a2 % (12543); finalmente invertimos el 3 y el 5 para obtener a3 % (12345), que coincide con la permutación identidad. Por tanto, sig (a) % (.1)3 %.1. El proceso que hemos seguido para hallar la signatura de a puede esquematizarse de la siguiente forma: 5s1

3s2

5s3

a % (53142) ∫º (13542) ∫º (12543) ∫º (12345). *

*

*

Pasamos a continuación a dar una fórmula para el determinante, que utiliza el concepto de permutación. Si comenzamos con matrices de orden 3 sabemos que

G

a11 a21 a31

G

a12 a13 a22 a23 % a11a22 a33 ! a12 a23 a31 ! a13 a21a32 a32 a33 . a13 a22 a31 . a12 a21 a33 . a11 a23 a32.

Observar que esta «suma algebraica» posee 6 elementos y que cada uno de sus términos tiene 3 elementos, de manera que cada uno de estos tres elementos proviene de distinta fila y distinta columna que los restantes. Además, el subíndice de las filas está siempre ordenado, mientras que el subíndice de las columnas forma una permutación de los elementos 1, 2 y 3. Por tanto, los 6 términos anteriores pueden escribirse de la forma a1a(1)a2a(2)a3a(3) ,



3,

afectados de un signo «positivo» o «negativo». Para determinar el signo de cada uno de estos sumandos observamos que los términos positivos corresponden a las permutaciones pares a1, a2 y a3 del ejemplo A y los términos negativos corresponden a las permutaciones impares a4, a5 y a6 del ejemplo A. Por tanto:

G

a11 a12 a21 a22 a31 a32

G

a13 a23 % ; (sig (a))a1a(1)a2a(2)a3a(3) . aà 3 a33

Este resultado sugiere el siguiente: Teorema 2.7.1 Sea

% (ai )i,

%1, ..., n

una matriz de orden n; si definimos B( ) % ; (sig (a))a1a(1)a2a(2) ñ ana(n) aà

se tiene que 8 8 % B( ).

n

Sección 2.7. Determinantes y permutaciones

117

Antes de demostrar el Teorema 2.7.1 necesitamos los siguientes resultados: Lema 2.7.2 Si es una matriz (ai )i, %1, ..., n en la que la i-ésima fila es una suma de la forma ai % bi ! bñi , % 1, 2, ..., n y escribimos

A

B A

a11 a12 ñ ó ó % bi1 bi2 ñ ó ó an1 an2 ñ se tiene

a1n ó bin ó ann

a12 ñ ó bñi2 ñ ó an2 ñ

a11 ó ñ % bñi1 ó an1

,

B

a1n ó bñin , ó ann

B( ) % B( ) ! B( ñ) . Demostración. Por la definición de

se tiene que

B( ) % ; (sig (a))a1a(1) ñ aia(i) ñ ana(n) % aà

n

% ; (sig (a))a1a(1) ñ [bia(i) ! bñia(i)] ñ ana(n) % aà

n

% ; (sig (a))a1a(1) ñ bia(i) ñ ana(n) ! ; (sig(a))a1a(1) ñ bñia(i) ñ ana(n) % aà



n

n



% B( ) ! B( ñ). Lema 2.7.3 Si

% (ai )i,

%1, ..., n

y

denota la matriz

%

A

a11 ñ ai ó ó 0 ñ an

ñ ñ

B

a1n ó 0

que se obtiene de sustituyendo todos los elementos de la última fila por cero excepto el que ocupa la columna , se tiene que B( ) % (.1)n! an B( donde

n

n

)

denota la matriz adjunta del elemento que ocupa el lugar (n, ).

Demostración. Comenzamos observando que si es la matriz que se obtiene de intercambiando dos columnas se tiene que B( ) %.B( ); la demostración de este resultado se pide en el ejercicio 3 al final de esta sección.

118

Capítulo 2. Determinantes y sus aplicaciones

Intercambiamos la columna de con todas las columnas posteriores a ella hasta llevarla a la última columna de la matriz; se obtiene así la matriz

A A

ñ ñ

b11 b % 21 ó 0

ñ ñ ñ

a11 a % 21 ó 0

ñ

ñ ñ

b1, .1 b2, .1 ó 0

b1 b2 ó 0

a1, .1 a2, .1 ó 0

a1, !1 a2, !1 ó 0

B B

b1, n.1 b1n b2, n.1 b2n % ó ó 0 bnn

ñ

ñ ñ ñ

a1, n ai a2, n a2 . ó ó 0 an

Puesto que la columna se ha intercambiado n . veces para llevarla a la última columna, se tiene que B( ) % (.1)n. B( ). Observando que (.1).n % (.1)n se tiene que B( ) % (.1).n! B( ) % (.1)n! B( ).

(7.1)

Para calcular B( ) utilizamos la definición de B y se obtiene: B( ) % ; (sig a)b1a(1) ñ bn.1, a(n.1) · bna(n) aà n a(n)%n

ya que si a(n) Ç n, bna(n) % 0. Toda permutación a à n que satisface a(n) % n puede interpretarse como una permutación b à n.1 sin más que definir b( ) % a( ), 1 m 1 m n . 1; recíprocamente, si b à n.1 podemos definir a à n tal que a( ), 1 m m n . 1 y a(n) % n; además, sig (a) % sig (b). Por tanto: B( ) % bnn Puesto que bnn % an y

C

D

; (sig b)b1a(1) ñ bn.1, b(n.1) % bnnB(



nn %

n.1

n

nn).

, se tiene que B( ) % an B(

n

). 䊏

Sustituyendo este resultado en la fórmula (7.1) se obtiene el resultado deseado.

Demostración del Teorema 2.7.1. Realizaremos la demostración mediante el método de inducción. Si es de orden 3 ya hemos comprobado anteriormente que el resultado es cierto; el lector puede comprobar que el resultado es también cierto si es de orden 2. Supongamos que el teorema es cierto para toda matriz de orden inferior a n y sea % (ai )i, i%1, ..., n una matriz de orden n. La matriz puede escribirse de la forma

A

a11 a21 % ó an1 ! 0 ! ñ ! 0

B

a12 ñ a1n a22 ñ a2n . ó ó 0 ! an2 ! ñ ! 0 ñ 0 ! 0 ! ñ ! ann

Sección 2.7. Determinantes y permutaciones

119

Aplicando repetidamente el Lema 2.7.2 se tiene que B( ) % B( 1) ! B( 2) ! ñ ! B( ) ! ñ ! B( n) donde , % 1, 2, ..., n, es la matriz que se obtiene sustituyendo la última fila de excepto el lugar en el que se deja an . Por el Lema 2.7.3 se tiene que B( ) % (.1)n!1an1B( Puesto que las matrices tiene que

n

n! n1) ! ñ ! (.1)

an B(

n ) ! ñ ! (.1)

2n

annB(

por ceros, nn).

, % 1, 2, ..., n, son de orden n . 1, por la hipótesis de inducción se

B( ) % (.1)n!1an18

n18 ! ñ ! (.1)

n!

an 8

n

8 ! ñ ! (.1)2nann8

nn8 % 8

8

donde la última igualdad se debe al Teorema 2.2.4 (desarrollo del determinante por la última 䊏 fila). Esto termina la demostración. La fórmula del determinante resulta engorrosa cuando se trata de matrices de orden superior a tres si queremos utilizarla en el cálculo práctico. Por otro lado, es bastante eficiente para realizar algunas de las demostraciones de las propiedades de los determinantes, que se expusieron en la sección 2 de este mismo capítulo. Por ejemplo, la propiedad 1, que expresa que si una matriz tiene una fila (columna) de ceros su determinante es nulo, es fácil de demostrar. Basta observar que en todos los términos de B( ) aparece un elemento nulo y, por tanto, 8 8 % B( ) % 0. Las demostraciones de otras propiedades se piden en los ejercicios al final de esta sección.

EJERCICIOS 2.7 1. Dadas las permutaciones a % (23154) , b % (13245) , j % (31856472) ,

c % (53412)

d % (4321)

calcular la signatura de cada una de ellas y la signatura de b o a, b.1 y c o b.1. 2. Indicar el signo de los términos a12 a23 a31a44 y a14 a21a32 a43 en el desarrollo del determinante de una matriz de orden 4. 3. a)

Demostrar que si b es la permutación que se obtiene de a intercambiando a(i) y a( ), i Ç , se tiene que sig (b) %.sig (a).

b) Demostrar que si es la matriz que se obtiene de tiene que B( ) %.B( ). 4. Demostrar que si es la matriz que se obtiene de tiene que B( ) % rB( ). 5. Utilizar el problema 3 para demostrar que si B( ) % 0.

intercambiando dos columnas se

multiplicando una de sus filas por r se

es una matriz con dos filas idénticas se tiene

120

Capítulo 2. Determinantes y sus aplicaciones

6. Si ( ) es una matriz n # n cuyos elementos son funciones derivables mi ( ), valores reales, demostrar que n

8 ( )8 % ; 8

( )8

%1

donde

( ) es la matriz que se obtiene derivando la ésima columna de

( ).

à ⺢, con

Capítulo 3

Los números complejos. 3.1. Los números complejos y sus propiedades. 3.2. Formas trigonométrica y polar de un número complejo. 3.3. Raíces de números complejos. 3.4. Resolución de ecuaciones algebraicas. 3.5. Ejercicios de álgebra lineal con números complejos.

122

Capítulo 3. Los números complejos

Las sucesivas ampliaciones de los sistemas de números se han realizado para acomodar resultados sorprendentes en los sistemas de números conocidos. Estos resultados sorprendentes provienen, en la mayor parte de los casos, de la resolución de ecuaciones algebraicas. Por ejemplo, la ecuación ! 7 % 5, en la que solamente aparecen números naturales, no posee ningún número natural como solución; su solución es el número negativo .2. Los números naturales, junto con los números negativos, forman el sistema de los números enteros. Este sistema de números es insuficiente para resolver todas las ecuaciones algebraicas; la ecuación 3 % 5 no posee como solución ningún número entero; su solución es el número fraccionario 5/3. Los números enteros, junto con los números fraccionarios, forman el conjunto de los números racionales. Estos números resultan insuficientes para resolver ecuaciones cuadráticas; por ejemplo, la ecuación 2 % 2 no tiene un número racional como solución; sus soluciones son los números irracionales ∂2 y .∂2. Los números racionales, junto con los irracionales, forman el sistema de los números reales. En todos estos sistemas de números están definidas las operaciones de suma y multiplicación, que generalizan las operaciones con números naturales. Los números reales no son, sin embargo, suficientes para acoger en su seno las soluciones de toda ecuación cuadrática. La ecuación 2 %.1 carece de toda solución real, ya que el cuadrado de un número real no nulo es siempre un número positivo. Nos vemos en la necesidad de ampliar el concepto de número para incluir aquellos que permitan resolver esta ecuación. La idea más sencilla, y a la vez genial, es definir un «nuevo» número, i, de manera que satisfaga la relación fundamental i2 %.1. El nuevo sistema de números que se obtiene añadiendo este y sus combinaciones a los números reales recibe el nombre de i tema e n mero om le o . Las operaciones que con ellos se realicen deben ser una generalización de las correspondientes operaciones con números reales. Este capítulo está dedicado al estudio de los números complejos.

3.1. Los números 3.1. LOS NÚMEROS complejos y sus propiedades COMPLEJOS Y SUS PROPIEDADES

Un número complejo es toda expresión de la forma % a ! bi donde a y b son números reales e i es un número que satisface i 2 %.1. El número real a recibe el nombre de arte real del número complejo , y se representa mediante Re ( ), y el número real b recibe el nombre de arte imaginaria de y se representa mediante Im ( ). La ma e o n mero om le o es otro número complejo, que tiene como parte real la suma de las partes reales de cada uno de ellos, y como parte imaginaria la suma de las partes imaginarias de cada uno de ellos; así pues, si % a ! bi

,

ñ% ! i

se tiene que ! ñ % (a ! ) ! (b ! )i.

Sección 3.1. Los números complejos y sus propiedades

123

El ro to e o n mero om le o es otro número complejo que se obtiene multiplicando los números complejos como si fueran polinomios en la variable i y sustituyendo i 2 por .1 siempre que aparezca. Tenemos, entonces, que · ñ % (a ! bi)( ! i) % a ! a i ! b i ! b i 2 % (a . b ) ! (a ! b )i. EJEMPLO A. Queremos calcular [(3 ! 2i)3 ! (1 . i)]2; podemos utilizar el binomio de Newton para calcular el cubo de (3 ! 2i) y obtenemos (3 ! 2i)3 % 33 ! 3 · 32 · 2i ! 3 · 3 · (2i)2 ! (2i)3 % 27 ! 54i . 36 . 8i %.9 ! 46i. Por tanto: [(3 ! 2i)3 ! (1 . i)]2 % [(.9 ! 46i) ! (1 . i)]2 % (.8 ! 45i)2 % (.8)2 . 452 ! ! 2 · (.8) · 45i %.1961 . 720i. EJEMPLO B. Puesto que i 2 %.1, tenemos que i 4 % (.1)2 % 1; por tanto, si n es un número natural que al dividirlo entre 4 da de resto r, 0 m r a 4, es decir, n % 4l ! r, donde l es un número natural, se tiene que i n % i 4li r % i r. Así, por ejemplo, i 431 % i 3, ya que 431 % 4 # 107 ! 3; puesto que i 3 % i 2 · i %.i, se tiene que i 431 %.i. *

*

*

El o iente entre o n mero om le o , de los cuales el divisor es no nulo, es otro número complejo; si deseamos hallar el cociente entre los números complejos % a ! bi y ñ % ! i Ç 0, escribimos ñ

%

a ! bi % ! iy. ! i

El número complejo ! iy es el cociente entre y ñ si se cumple que ( ! i)( ! iy) % a ! bi. Utilizando la definición de producto de números complejos e igualando las partes reales e imaginarias se tiene que

F

. y%a . ! y%b Como

2

!

2

Ç 0 por ser ñ Ç 0, el sistema tiene solución única. Esta es %

a! b , 2 ! 2

y%

b.a . 2 ! 2

Por tanto: a ! bi a! b b.a % 2 . 2 !i 2 ! i ! ! 2

124

Capítulo 3. Los números complejos

La fórmula para calcular el cociente de dos números complejos no es muy dificil de recordar; sin embargo, es mucho más fácil calcular el cociente de dos números complejos utilizando la noción de conjugado. Se denomina on ga o del número complejo ñ % ! i al número complejo ñ% . i que posee la misma parte real que ñ, y su parte imaginaria se ha cambiado de signo. Al multiplicar un número complejo ñ % ! i por su conjugado se tiene ñ · ñ % ( ! i)( . i) %

2

!

2

que coincide con el denominador de las partes real e imaginaria del cociente entre y ñ. Esto sugiere que para calcular el cociente entre dos números complejos hasta multiplicar el numerador y el denominador por el conjugado del denominador. En efecto, este cálculo proporciona el resultado adecuado, ya que b .a a ! bi a ! bi . i (a ! b ) ! i(b . a ) a ! b % · % % 2 . 2 2 2 !i 2 ! ! ! 2 ! i . i ! i EJEMPLO C.

(1.1)

Queremos expresar el número complejo (1 . i)(1 ! 2i) 1!i

en la forma a ! bi; el numerador da como resultado (1 . i)(1 ! 2i) % 1 ! 2i . i . 2i 2 % 1 ! 2 ! i % 3 ! i. Multiplicando numerador y denominador por 1 . i se tiene (1 . i)(1 ! 2i) 3 ! i 1 . i 3 . 3i ! i . i 2 4 . 2i % · % % % 2 . i. 1!i 2 1!i 1.i 2 *

*

*

La suma de números complejos cumple las siguientes propiedades, que son semejantes a las propiedades de la suma de números reales: (S1) Asociativa: (a ! bi) ! [( ! i) ! (e ! i)] % [(a ! bi) ! ( ! i)] ! (e ! i). (S2) Conmutativa: (a ! bi) ! ( ! i) % ( ! i) ! (a ! bi). (S3) Existencia de elemento neutro: el número complejo 0 % 0 ! 0i satisface (a ! bi) ! 0 % 0 ! (a ! bi) % a ! bi. (S4) Existencia de elemento opuesto: el opuesto de a ! bi es .a . bi.

Sección 3.1. Los números complejos y sus propiedades

125

El producto de números complejos tiene propiedades análogas a las de la suma; son las siguientes: (P1) Asociativa: (a ! bi)[( ! i)(e ! i)] % [(a ! bi)( ! i)](e ! i). (P2) Conmutativa: (a ! bi)( ! i) % ( ! i)(a ! bi). (P3) Existencia de elemento unidad: el número complejo 1 % 1 ! 0i satisface (a ! bi)1 % 1(a ! bi) % a ! bi. (P4) Existe el inverso de todo número complejo distinto de cero: el inverso de un número complejo % a ! bi, no nulo, es otro número complejo ! yi tal que (a ! bi)( ! yi) % 1. Por tanto, ! yi %

a . bi a (.b) 1 % 2 2% 2 2!i 2 a !b a ! b2 a ! bi a ! b

según vimos en (1.1). Finalmente, la suma y el producto de números complejos están relacionadas mediante la siguiente propiedad: (D1) Distributiva: (a ! bi)[( ! i) ! (e ! i)] % (a ! bi)( ! i) ! (a ! bi)(e ! i). El lector no tendrá gran dificultad en comprobar las propiedades anteriormente expuestas. Cuando un sistema de números con operaciones en él definidas satisface las propiedades anteriores recibe el nombre de er o. Podemos hablar, entonces, del cuerpo de los números complejos que denotaremos por ⺓. *

*

*

La validez de las operaciones con números complejos era cuestionada por varios matemáticos anteriores al siglo XIX. El nombre de «imaginarios» que aún se da a los números complejos cuya parte real es nula es un vestigio de este escepticismo. Sin embargo, a comienzos del siglo XIX una sencilla interpretación geométrica de las operaciones con números complejos hizo desaparecer estas sospechas. Esta interpretación geométrica fue encontrada simultáneamente por Wessel (1745-1818), Argand (1768-1822) y Gauss (1777-1855). Esta interpretación geométrica consiste en colocar la parte real de un número complejo en un eje y su parte imaginaria en otro eje perpendicular al primero. El primero de estos ejes se denomina e e real y el segundo e e imaginario. De esta forma todo número complejo queda representado en un plano mediante un vector, como puede apreciarse en la figura 3.1.

126

Capítulo 3. Los números complejos

i

ra 3.1

La suma de dos números complejos es un número complejo cuya representación gráfica coincide con la diagonal del paralelogramo que se obtiene con los dos vectores dados (véase figura 3.2).

i

ra 3.2

Para poder interpretar geométricamente la multiplicación de números complejos es necesario recurrir a una nueva forma de escribirlos. Esto se hará en la próxima sección.

EJERCICIOS 3.1 1. Calcular: a)

[(2 . 3i)3 . i)]2

b)

A

B

1 ∂3 .i 2 2

3

c)

[(2 ! i)(2 . i)]2.

2. Expresar los siguientes números complejos en la forma a ! bi: a)

1.i 1!i

b)

(3 . i)(2 ! i) 3!i

c)

(2 . i)2 . (3 . i)2

Sección 3.2. Formas trigonométrica y polar de un número complejo

127

3. Encontrar las partes reales e imaginarias de 1

2

,

!1 .1

y

2

donde % a ! bi. 4. Encontrar dos números complejos tales que su cuadrado sea 8 . 6i. 5. Demostrar las siguientes igualdades: a)

1! 2% 1! 2

donde

1

y

2

b)

1 2% 1 2

son dos números complejos cualesquiera.

3.2. Formas 3.2. FORMAS trigonométrica TRIGONOMÉTRICA y polar de un número complejo Y POLAR DE UN NÚMERO

COMPLEJO Se denomina m lo de un número complejo % a ! bi a la longitud r del vector que lo representa, y se escribe de la forma 8 8. Utilizando el teorema de Pitágoras se tiene que r % 8 8 % ∂a2 ! b2. Todo número complejo posee un módulo positivo, excepto el número complejo % 0, que posee módulo nulo. El ángulo que forma la dirección positiva del eje real con el vector que representa al número complejo se denomina arg mento de y se representa mediante a % arg ( ). El argumento de un número complejo no está determinado unívocamente, sino que puede variar en un múltiplo de 360o % 2n radianes. En cualquier caso, la trigonometría elemental nos permite obtener: tg a %

b a

siempre que a sea no nulo. En el triángulo de la figura 3.3 puede observarse que a % r cos a

y

b % r sen a

y, por tanto: % r [cos a ! i sen a] que recibe el nombre de orma trigonom tri a del número complejo .

128

Capítulo 3. Los números complejos

i

ra 3.3

Queremos escribir el número complejo %.2 ! 2i en forma trigonométrica; 2 su módulo es r % ∂4 ! 4 % 2∂2 y su argumento a satisface tg a %. %.1; por tanto, co2 mo el número complejo está en el segundo cuadrante, se tiene a % 135o. Así pues, EJEMPLO A.

.2 ! 2i % 2∂2 [cos 135o ! i sen 135o]. El lector puede también comprobar que .2i % 2[cos 270o ! i sen 270o] obteniéndose así la forma trigonométrica del número complejo %.2i.

i

* Dados los números complejos trigonométrica, su producto es 1· 2%r

ra 3.4

*

*

1 % r(cos a ! i sen a)

y

2%

(cos b ! i sen b) en su forma

[(cos a cos b . sen a sen b) ! i(cos a sen b ! sen a cos b)].

Sección 3.2. Formas trigonométrica y polar de un número complejo

129

Utilizando las fórmulas trigonométricas para el coseno y el seno de una suma de ángulos se tiene que 1· 2%r

[cos (a ! b) ! i sen (a ! b)].

(2.1)

De aquí se deduce que el módulo de un producto de números complejos es el producto de los módulos de cada uno de ellos y que su argumento es la suma de los argumentos de cada uno de ellos. Esta afirmación tiene una representación geométrica sencilla que puede observarse en la figura 3.5.

i

ra 3.5

Para interpretar geométricamente el cociente el inverso de 2. Si escribimos 2%

1/ 2,

donde

2

es no nulo, calculamos primero

(cos b ! i sen b)

se tiene que 1 2

%

1 (cos b . i sen b) 1 % % [cos (.b) ! i sen (.b)]. (cos b ! i sen b)

Por tanto, 1 2

%



1

r % [cos (a . b) ! i sen (a . b)].

2

De aquí se deduce que el módulo de un cociente de números complejos es el cociente de los módulos de cada uno de ellos y que su argumento se obtiene restando del argumento del numerador el argumento del denominador. Hemos probado que el módulo del producto de dos números complejos es el producto de los módulos de cada uno de ellos. El módulo de la suma es, sin embargo, menor o igual que la suma de los módulos de cada uno de ellos, es decir: 8 1 ! 28 m 8 18 ! 8 28 ,

130

Capítulo 3. Los números complejos

dándose la igualdad únicamente en algunos casos particulares. La desigualdad anterior es una consecuencia inmediata de aplicar la desigualdad triangular al triángulo .

i

ra 3.6

Particularmente interesantes son algunos resultados que se obtienen utilizando el conjugado de un número complejo % a ! bi. Se tiene que ! 6 % (a ! bi) ! (a . bi) % 2a % 2 Re ( ) . 6 % (a ! bi) . (a . bi) % 2ib % 2i Im ( ), y también · 6 % (a ! bi)(a . bi) % a2 ! b2 % 8 82. *

*

*

Finalizamos esta sección dando una nueva forma de escribir un número complejo. En cualquier libro de análisis matemático puede encontrarse la fórmula siguiente para la función exponencial: 2

e %1! !

2!

n

3

!

3!

!ñ!

n!

! ñ,

à ⺢,

lo cual es una aplicación del teorema de Taylor para funciones de una variable. De la misma manera puede demostrarse que 2

cos % 1 .

2!

4

!

4!

2n

6

.

6!

! ñ ! (.1)n

(2n)!



y 3

sen % .

3!

2n!1

5

!

5!

. ñ ! (.1)n

(2n ! 1)!



Por tanto: r[cos a ! i sen a] % r

CA C

1.

B A

a2 a4 a6 a3 a5 a7 ! . !ñ !i a. ! . !ñ 2! 4! 6! 3! 5! 7!

% r 1 ! ia !

D

(ia)2 (ia)3 (ia)4 (ia)5 ! ! ! !ñ . 2! 3! 4! 5!

BD

%

Sección 3.3. Raíces de números complejos

131

La similitud de esta última expresión entre corchetes, con la fórmula para la función exponencial anteriormente dada, nos lleva a dar la siguiente definición: reia % r[cos a ! i sen a], que recibe el nombre de rm la e ler. La expresión reia se denomina orma olar de un número complejo; en ella está contenida toda la información necesaria para que el número complejo quede determinado: están dados su módulo y su argumento.

EJERCICIOS 3.2 1. Calcular su módulo, su argumento y expresar los siguientes números complejos en sus formas trigonométrica y polar: 1 ∂3 . i, 2 2

1 ! i, ni

2. Calcular eni, e2ni, e 4 y e

.

.

∂3 1 . i, 2 2

.2 . 2i.

ni 4

.

3. Hallar el módulo y el argumento de los siguientes números complejos, sin realizar las operaciones indicadas: (1 ! i)(1 . i), 4. Si

1

y

2

1 ! ∂3i 1 . ∂3i

,

i 431(3 . 3i).

son dos números complejos, demostrar que:

a)

8 18 . 8 28 m 8 1 . 28

b)

88 18 . 8 288 m 8 1 . 28

5. Probar, sin efectuar cálculos, que si a . bi es no nulo, (a ! bi)/(a . bi) tiene siempre módulo 1. 6. Demostrar que cos a %

eia ! e.ia 2

y

sen a %

eia . e.ia 2i

utilizando la fórmula de Euler. 3.3. Raíces 3.3. RdeAÍCES númerosDE complejos NÚMEROS COMPLEJOS

Tratemos ahora de encontrar la raí n ima e n n mero om le o; este problema tiene una solución sencilla si el número complejo está escrito en forma trigonométrica. Observemos, primero, que si deseamos calcular la potencia n-ésima del número complejo % r[cos a ! i sen a]

132

Capítulo 3. Los números complejos

se tiene que n

% rn[cos na ! i sen na].

Esta fórmula, que recibe el nombre de rm la e e oivre (matemático inglés, 1667-1754), se deduce del hecho de que al multiplicar dos números complejos, el módulo es el producto de cada uno de sus módulos y su argumento es la suma de cada uno de sus argumentos. Este resultado fue demostrado en la sección anterior (véase (2.1)). Demostraremos a continuación que todo número complejo no nulo posee n raíces n-ésimas que son también números complejos. Dado el número complejo no nulo u % [cos b ! i sen b] una raíz n-ésima de u es cualquier número complejo escribimos

que satisface

n

% u. Para encontrar

% r[cos a ! i sen a] e imponemos la condición de que su potencia n-ésima sea u; utilizando la fórmula de De Moivre se deduce que rn[cos na ! i sen na] % [cos b ! i sen b]. Igualando los módulos y los argumentos de estos dos números complejos se tiene que rn % y na % b ! 2 n,

% 0, u1, u2, ñ,

en donde se ha tenido en cuenta que dos números complejos iguales poseen argumentos que pueden diferir en un múltiplo entero de 360o % 2n radianes. Puesto que r y son números reales positivos se tiene que n r %∂ n donde ∂ denota la única raíz real positiva del número real positivo . Además,

b 2 n , a% ! n n

% 0, u1, u2, ... .

Por tanto, los números complejos n u %∂

C A cos

B

A

b 2 n b 2 n ! ! i sen ! n n n n

BD

,

% 0, u1, u2, ...

son raíces n-ésimas de u. En la colección de números complejos {u } hay una cantidad finita de ellos que se repiten infinitas veces. Observar, por ejemplo, que si % n ! r, n n, 0 m r m n . 1, se tiene que cos

A

B

A

B

A

B

b 2 n b b 2rn 2rn ! % cos ! 2 n ! % cos ! n n n n n n

Sección 3.3. Raíces de números complejos

133

y, análogamente, sen

A

B

A

B

A

B

b 2 n b b 2rn 2rn ! % sen ! 2 n ! % sen ! . n n n n n n

Por tanto, u % ur . De manera similar puede demostrarse que si es un entero negativo, u coincide con algún ur , con 0 m r m n . 1. Además, todos los ur, con r à {0, 1, 2, ..., n . 1} son distintos, como puede comprobarse fácilmente. Así pues, u posee n-raíces complejas que escritas en forma polar son n · e i(b!2 u %∂

EJEMPLO A.

% 0, 1, 2, ..., n . 1.

n)/n

,

Queremos calcular las raíces cúbicas del número complejo 8i; puesto que

C

8i % 8 cos

D

n n ! i sen 2 2

las tres raíces cúbicas de i son:

C C A C A

D C B A B A

D B C BD

n n 1 ∂3 !i u0 % 2 cos ! i sen % 2 6 6 2 2

D

u1 % 2 cos

n 2n n 2n ∂3 1 ! ! i sen ! %2 . !i 6 6 2 3 3 2

u2 % 2 cos

n 4n n 4n ! ! i sen ! 3 3 6 6

i

%.2i.

ra 3.7

EJEMPLO B. Calculamos a continuación las raíces quintas del número complejo %.1 . i; puesto que

A

.1 . i % ∂2 cos

5n 5n ! i sen 4 4

B

134

Capítulo 3. Los números complejos

i

ra 3.8

se tiene que las raíces pedidas son:

C C C C C

D

C

D

1 n n 1 ∂2 cos ! i sen % 10 ∂2 !i u0 % 10 4 4 ∂2 ∂2 u1 % 10 ∂2 cos ∂2 cos u2 % 10 u3 % 10 ∂2 cos ∂2 cos u4 % 10

A A A A

B B B B

A A A A

n 2n n 2n ! ! i sen ! 4 4 5 5 n 4n n 4n ! ! i sen ! 4 4 5 5 n 6n n 6n ! ! i sen ! 4 4 5 5 n 8n n 8n ! ! i sen ! 4 4 5 5 *

*

BD BD BD BD

% 10 ∂2 [cos 117o ! i sen 117o] % 10 ∂2 [cos 189o ! i sen 189o] % 10 ∂2 [cos 261o ! i sen 261o] % 10 ∂2 [cos 333o ! i sen 333o].

*

De la fórmula para calcular las raíces n-ésimas de un número complejo de módulo r se den y sus argumentos difieren en múltiduce que todas ellas tienen el mismo módulo, a saber, ∂r, plos de 2n/n radianes; por tanto, los extremos de estas raíces son los vértices de un polígono n regular de n lados inscrito en una circunferencia de radio ∂r. Este comportamiento puede observarse en los ejemplos anteriores. Un caso particular interesante es calcular las races n-ésimas de 1, las cuales se denominan raí e n ima e la ni a . Puesto que 1 es un número complejo que tiene módulo 1, de la observación anterior se deduce que los extremos de las raíces n-ésimas de la unidad son los vértices de un polígono regular de n lados inscrito en una circunferencia de radio 1. Claramente, una raíz n-ésima de la unidad es 1; el resto pueden calcularse con la fórmula anterior. Por ejemplo, las raíces cuartas de la unidad son: u0 % 1[cos 0o ! i sen 0o] % 1

C

u1 % 1 cos

D

2n 2n ! i sen %i 4 4

Sección 3.4. Resolución de ecuaciones algebraicas

C C

135

D D

u2 % 1 cos

4n 4n ! i sen %.1 4 4

u3 % 1 cos

6n 6n ! i sen %.i. 4 4

i

*

ra 3.9

*

*

EJERCICIOS 3.3 1. Calcular los diferentes valores de 3 3 4 ∂.i, ∂16i, ∂1 . i, ∂.8,

∂.9.

2. Calcular las raíces sextas de la unidad. 3. Calcular las raíces cúbicas de la unidad. Sean estas u0 % 1, u1 y u2; demostrar que u1 y u2 satisfacen la ecuación 2 ! ! 1 % 0 y ambas son números complejos conjugados. 3.4. Resolución 3.4. RESOLUCIÓN de ecuaciones algebraicas DE ECUACIONES ALGEBRAICAS

Una ecuación algebraica es una ecuación de la forma an

n

! an.1

n.1

! ñ ! a1 ! a 0 % 0

(4.1)

donde los a son números complejos; en particular, si los a son números reales, la ecuación anterior se dice que es una ecuación con coeficientes reales. Se denomina ol i n de la ecuación algebraica (4.1) a cualquier número complejo tal que al sustituir por en la parte izquierda de la ecuación y realizar las operaciones indicadas se obtiene 0 como resultado. Inicialmente podría pensarse que toda ecuación algebraica con coeficientes reales posee soluciones reales. Nada más lejos de la verdad, puesto que ya sabemos que la ecuación 2 ! 1 % 0 no posee soluciones reales. Sin embargo, posee las soluciones complejas i y .i. Esto nos lleva a pensar que toda ecuación algebraica posee soluciones complejas. Este resultado se conoce con el nombre de eorema n amental el Álgebra, y se enuncia así:

136

Capítulo 3. Los números complejos

o a e a i n algebrai a om le o.

e la orma

o ee

na ol i n

e e

n n mero

La primera demostración de este teorema es debida a C. F. Gauss; la demostración más sencilla requiere conocimientos relativos a funciones de variable compleja y se incluye en cualquier curso dedicado a este tema. Si 1 es una solución de (4.1), existen números complejos b0, b1, ..., bn.1 tales que n

an

n.1

! an.1

! ñ ! a1 ! a0 % (bn.1

n.1

! ñ ! b1 ! b0)( . 1).

Para demostrar este resultado multiplicamos los polinomios de la parte derecha de esta igualdad e igualamos sus coeficientes con los del polinomio de la parte izquierda. Por este procedimiento se obtienen las siguientes igualdades: an % bn.1; an.1 % bn.2 . 1bn.1; an.2 % bn.3 . 1bn.2; ...; a1 % b0 . 1b1; a0 %. 1b0 . La primera igualdad nos permite hallar bn.1(% an); conocido bn.1 podemos hallar bn.2 por la segunda igualdad, ya que bn.2 % an.1 ! 1bn.1 % an.1 ! 1an; conocido bn.2 podemos hallar bn.3 a partir de la tercera igualdad, ya que bn.3 % an.2 ! 1bn.2 % an.2 ! 1(an.1 ! 1an). Este proceso continúa hasta que se ha calculado b0 de la penúltima igualdad: b0 % a1 ! 1b1 % a1 ! 1(a2 ! 1b2) % ñ % a1 ! a2 1 ! a3 21 ! ñ ! an

n.1 . 1

Esta igualdad coincide con a0 %. 1b0, ya que 1 es solución de la ecuación (4.1). Este procedimiento para calcular el polinomio bn.1 n!1 ! ñ ! b1 ! b0 se conoce con el nombre de regla e ini y puede esquematizarse como sigue: an 1

an

an.1 1an bn.2

an.2 ñ ñ 1bn.2 bn.3 ñ

a1 1b1 b0

a0 1 b0 0

Recordando que bn.1 % an y utilizando de nuevo el Teorema fundamental del álgebra para la ecuación bn.1 n.1 ! ñ ! b1 ! b0 % 0 se tiene otra solución compleja 2 de (4.1). Repitiendo este proceso n veces podemos escribir an

n

! an.1

n.1

Algunas de las soluciones an

n

! an.1

n.1

! ñ ! a1 ! a0 % an · ( . 1)( . 2) ñ ( . n). pueden repetirse, con lo cual en general podemos escribir

! ñ ! a1 ! a0 % an · ( . 1) 1( . 2) 2 ñ ( . ) ,

donde 1, 2, ..., son números complejos distintos. El número se denomina m lti li i a e la raí siguiente resultado:

, % 1, 2, ..., . Tenemos, por tanto, el

o a e a i n algebrai a e la orma o ee n ol ione e on n mero om le o on e a a ol i n e t onta a el n mero e e e e in i a m lti li i a

Sección 3.4. Resolución de ecuaciones algebraicas

137

Hallar las n soluciones de una ecuación algebraica es un problema complicado de resolver en general. Sin embargo, en algunos casos particulares, que aparecen con mucha frecuencia, es posible encontrar las soluciones. Si la ecuación algebraica (4.1) es de grado 2, es decir, de la forma ! a1 ! a0 % 0,

2

a2

a0, a1, a2 à ⺓,

la conocida fórmula .a1 u ∂a21 . 4a2 a0 2a2 nos permite obtener sus soluciones. Si la ecuación algebraica es de grado 3 ó 4, también existen fórmulas para calcular sus soluciones; estas fórmulas resultan bastante complicadas. El lector interesado puede encontrarlas en el libro de A. G. Kurosch, r o e lgebra erior (Editorial Mir, 1977). Si el grado de la ecuación algebraica es mayor o igual a 5, no existe, en general, una fórmula de este estilo, es decir, con sumas, restas, multiplicaciones y raíces. Este resultado lo demostró N. H. Abel (1802-1829). Ecuaciones algebraicas de la forma n

. a % 0,

donde a es un número complejo, se han resuelto en la sección anterior, ya que simplemente se trata de calcular las raíces n-ésimas del número complejo a. Otros casos particulares pueden verse en los ejercicios al final de esta sección. Para finalizar es conveniente exponer un método para encontrar las soluciones racionales, en particular las enteras, de una ecuación algebraica con coeficientes enteros, si es que esta posee algunas soluciones del mencionado tipo. Supongamos que la ecuación algebraica con coeficientes enteros n

an

! an.1

n.1

! ñ ! a1 ! a0 % 0

(4.2)

posee una solución racional de la forma % / ; siempre podemos suponer que y son primos entre sí, ya que en caso contrario podemos eliminar los factores comunes en ambos. Sustituyendo en la ecuación se tiene: an

n

n.1

n ! an.1

n.1

! ñ ! a1

! a0 % 0

o bien an

n

! an.1

n.1

! ñ !a1

n.1

! a0

n

% 0.

(4.3)

La igualdad (4.3) puede escribirse de la forma (an

n.1

! an.1

n.2

! ñ ! a1

n.1

%.a0

)

n

.

y son primos entre sí, deducimos que Por tanto, divide a a0 n; como divisor de a0. La igualdad (4.3) también puede escribirse de la forma (an.1

n.1

! ñ ! a1

n.2

! a0

n.1

) %.an

n

.

ha de ser un

138

Capítulo 3. Los números complejos

De aquí se deduce que divide a an n; como y son primos entre sí, deducimos que ha de ser un divisor de an. Resumiendo, la ol ione ra ionale e la e a i n algebrai a on oe i iente entero e en entran entre a ello n mero ra ionale yo n mera or e n i i or e a y yo enomina or e n i i or e an EJEMPLO A.

Para encontrar las soluciones de la ecuación 3 3 . 14 2 ! 23 . 10 % 0

intentamos averiguar si posee soluciones racionales. Los divisores de a0 %.10 son 1, .1, 2, .2, 5, .5, 10 y .10. Los divisores de a3 % 3 son 1, .1, 3, .3. Las posibles soluciones racionales de la ecuación son 1, .1, 2, .2, 5, .5, 10, .10 1 .1 2 2 5 5 10 10 , , ,. , ,. , y . . 3 3 3 3 3 3 3 3 Uno de estos números es solución si al sustituirlo en la parte izquierda de la ecuación y realizar las operaciones indicadas se obtiene cero como resultado. Por ejemplo, 2 no es solución, ya que 3 · 23 . 14 · 22 ! 23 · 2 . 10 % 24 . 56 ! 46 . 10 % 4 Ç 0. Sin embargo, 2/3 es solución, ya que 22 2 8 56 46 23 3 · 3 . 14 2 ! 23 · . 10 % . ! . 10 % 0. 3 3 3 9 9 3 Haciendo uso de la regla de Ruffini o simplemente dividiendo el polinomio 3 3.14 2!23 .10 entre . 2/3 se tiene 3 3 . 14 2 ! 23 . 10 % 3( 2 . 4 ! 5)

A B .

2 . 3

Por tanto, las otras dos soluciones de la ecuación son también solución de la ecuación 2 . 4 ! 5 % 0; estas pueden obtenerse mediante la fórmula cuadrática: 4 u ∂16 . 20 4 u ∂.4 % % 2 u i. 2 2 Así pues,

1%

2 , 3

2%2!i

y

3%2.i

son las tres soluciones de la ecuación dada.

Sección 3.5. Ejercicios de álgebra lineal con números complejos

EJEMPLO B.

139

Queremos encontrar las soluciones de la ecuación 4

.

3

.

2

. . 2 % 0.

Si posee soluciones racionales, deben ser números enteros puesto que el denominador ha de ser u1 (observar que el coeficiente de 4 es 1). Estas posibles soluciones son los divisores de .2, es decir: 1, .1, 2 y .2. Después de algunos intentos se concluye que %.1 y % 2 son soluciones de la ecuación dada; en efecto: (.1)4 . (.1)3 . (.1)2 . (.1) . 2 % 1 ! 1 . 1 ! 1 . 2%0 y 24 . 23 . 22 . 2 . 2 % 16 . 8 . 4 . 2 . 2 % 0. Una vez dividido el polinomio 4 . 3 . 2 . . 2 entre ( ! 1) y ( . 2) se tiene como divisor al polinomio 2 ! 1. Las soluciones de 2 ! 1 % 0 son i y .i. Por tanto, las soluciones de la ecuación dada son y 4 %.i. 1 %.1, 2 % 2, 3 % i

EJERCICIOS 3.4 1. Resolver las siguientes ecuaciones algebraicas: a)

4

. 10 3 ! 35 2 . 50 ! 24 % 0.

b)

4

!

3

. . 1 % 0.

c)

3

.

2

. 3 ! 6 % 0.

d) e)

4 . 4 2 . 5 ! 3 % 0. 3

4

! 7 2 . 144 % 0. [

geren ia: hacer

2

% t.]

2. Demostrar la igualdad ( 4 ! 3 ! 2 ! ! 1)( . 1) % 5 . 1. Utilizar este resultado para encontrar las soluciones de la ecuación 4 ! 3 ! 2 ! ! 1 % 0. 3. Demostrar que si es una solución compleja de una ecuación algebraica con coeficientes reales, 6 es también solución de la misma ecuación. 4. Encontrar las raíces de la ecuación 2 ! 2 ! 1 . 2i % 0 completando cuadrados. ¿Contradice el resultado de este problema lo demostrado en el problema anterior? 3.5. Ejercicios 3.5. EJERCICIOS de álgebra linealDE con ÁLGEBRA números complejos LINEAL CON NÚMEROS

COMPLEJOS Todos los conceptos introducidos en los Capítulos 1 y 2, así como los resultados allí obtenidos, pueden ser generalizados a los números complejos. Por recordar algunos citaremos el método de Gauss-Jordan para la resolución de sistemas de ecuaciones lineales, el concepto de

140

Capítulo 3. Los números complejos

dependencia e independencia lineal de vectores, el determinante de una matriz y la regla de Cramer. En esta sección proponemos ejercicios relativos a estos conceptos y resultados, en los cuales se utilizan números complejos. Estos ejercicios sirven, además, de repaso de los Capítulos 1 y 2. En los ejercicios que siguen ⺓ denota el conjunto de los números complejos. Por tanto, ⺓n es el conjunto de todos los elementos de la forma ( 1, 2, ..., n), donde cada i à ⺓. 1. Utilizar el método de eliminación de Gauss para resolver, si es posible, los siguientes sistemas de ecuaciones lineales con coeficientes complejos: 1. 2!i 3%1

a)

i 2.

3%i

F

1.i 2!i 3%2 2 ! i 3 % 1 ! 2i

b) 1!

2!i 3%1!i

F

1!i 2

F

. 2%1 (i ! 1) 2 % 0 . 1 ! (1 . i) 2 % i

c)

2. Determinar si los siguientes conjuntos de vectores son linealmente dependientes o independientes y en caso de que sean linealmente dependientes encontrar una combinación lineal entre ellos: b) {(2, i, 1 ! i), (i, .1, .2i)}

a)

{(1, i), (.i, 1)}

c)

{(1, 1 ! i, 0, 1 . i), (0, 1, i, 1 ! i), (1, 1, 1, 2 . 2i)}.

3. Escribir las matrices de las siguientes aplicaciones lineales: a)

: ⺓3 r ⺓2 tal que ( 1,

2,

3) % (i 1 ! 2,

b)

g : ⺓ r ⺓ tal que g( 1,

2,

3) % (i 3,

c)

: ⺓ r ⺓ tal que ( 1,

2,

3) % ( 1 . i 2,

3

3

2

4. Si , g y a)

2

2 ! i 3).

i 2, i 1). 1 ! i 2).

son las aplicaciones del ejercicio 3, calcular: b) g o

o

g.1

c)

d) g.1 o .

5. Calcular los siguientes determinantes: a)

d)

G

G

i 1 0

1 0 .i 1 1 i

i 1 0 1 i 1 0 1 i 0 0 1 0 0 0

G 0 0 0 0 1 0 i 1 1 i

G

b)

e2i 1

e3i ei

G G e)

G

c)

i i i i. i i ó ó i i

i i i. ó i

G

1!i i 2i 0 1 0 1 1.i 1 ñ ñ ñ

i i i ó i.

ñ

G

G

, à ⺓.

n#n

6. Hallar las inversas de las siguientes matrices, calculando primero la matriz de los cofactores: a)

A B i 1

1 i

b)

A

1!i 1 i

B

3 i 2 1 1 0

c)

A

1 0 0

i 1 0

B

.1 i . 1

Sección 3.5. Ejercicios de álgebra lineal con números complejos

141

7. Utilizar la regla de Cramer para resolver los siguientes sistemas de ecuaciones lineales con coeficientes complejos:

F

1!i 2!i 3%

a)

0 . 1 ! i 2 ! 3 %.1 i 2.i 3%

1! 2%2

b)

F

1 . 2 % 2i

.

8. Encontrar el rango de las siguientes matrices:

a)

A

1 2 0

i .2i 1!i

2i 0 1!i

B

A

b)

2i 1 .3

1!i 0 2.i

B

c)

A

i .i i

.1 1 .1

B

.2i 2i . .2i

9. Encontrar el rango de la matriz

A

1 2 1

.1 10

B

.1 1 .6

para los distintos valores del número complejo . 10. Estudiar la compatibilidad o incompatibilidad de los siguientes sistemas y resolverlos en el caso de que sean compatibles: 1.

a)

F

i 2. 3% i 2.i 3%2 i 1!2 2.i 3%1

1!

b)

2!

3%

0 2 2 . 3 3 % 5i 1 ! i 2 ! 3 3 %.1

F

1.i 2!i 3%0

c)

1!i 2!

3%1

2.i 3%2

F

.

a

Capítulo 4

Espacios vectoriales. 4.1. Definición de espacio vectorial. Ejemplos. 4.2. Base y dimensión de un espacio vectorial. 4.3. Cambio de base. 4.4. Subespacios vectoriales. Intersección y suma de subespacios vectoriales. 4.5. El espacio vectorial cociente.

144

Capítulo 4. Espacios vectoriales

4.1. Definición 4.1. DEFINICIÓN de espacio vectorial. DE ESPACIO Ejemplos VECTORIAL. EJEMPLOS

El conjunto de los números reales y el conjunto de los números complejos, con los cuales se ha trabajado en los capítulos anteriores, tienen propiedades similares. En ambos pueden definirse dos operaciones ! y · que satisfacen ciertas propiedades; estas propiedades han sido enumeradas para los números complejos en la primera sección del Capítulo 3. Un conjunto en el que se han definido dos operaciones ! y · que satisfacen las propiedades (S1) a (S4), (P1) a (P4) y (D1), enunciadas en la sección 3.1 para los números complejos, recibe el nombre de er o. Observemos que todos los resultados obtenidos en los Capítulos 1 y 2 son ciertos en cualquier cuerpo, con tal que el cuerpo posea infinitos elementos. Todos los resultados de los tres capítulos siguientes son ciertos en cuerpos similares a ⺢, que denota el cuerpo de los números reales, y a ⺓, que denota el cuerpo de los números complejos. Sin embargo, nosotros trabajaremos fundamentalmente con ⺢ y ⺓, los cuales se denotarán por ⺛. Al estudiar el conjunto de todos los ve tore en el e a io hemos definido la suma de vectores y la multiplicación por un número real y enunciado algunas propiedades que satisfacían (véase sección 1.2). Otros conjuntos a los cuales se les puede dotar de una estructura similar a la del conjunto de todos los vectores en el espacio son los conjuntos formados por matri e . Si denotamos por ᏹm#n(⺛) z ᏹm#n al conjunto de todas las matrices de m filas y n columnas con elementos en el cuerpo ⺛, se ha demostrado en la sección 1.3, que satisface las mismas propiedades que los vectores, al menos cuando ⺛ es el cuerpo de los números reales. Iguales resultados se obtienen si ⺛ coincide con ⺓. En la misma sección en que se estudiaron las propiedades de las matrices se definieron operaciones con a li a ione lineale e ⺢n en ⺢m y se estudiaron sus propiedades. Estas son análogas a las propiedades de las matrices. Por tanto, el conjunto L(⺢n, ⺢m) de todas las aplicaciones lineales de ⺢n en ⺢m tiene la misma estructura que los vectores en el espacio y las matrices. Cuando en varios conjuntos distintos aparecen estructuras similares es conveniente axiomatizar estas y dar un nombre al ente resultante. La principal ventaja que se obtiene es que estudiando esta estructura, quedan estudiadas todas las estructuras particulares que en ella se encuadran. Cuando en un conjunto se da una estructura similar a la de los ejemplos anteriores, se dice que se tiene un e a io ve torial.

Definición 4.1.1 ( spacio ectorial) Un conjunto , cuyos elementos se denotan mediante , v, , ..., se dice que es un espacio ectorial sobre el cuerpo ⺛, si en él se han definido dos operaciones: la suma, !, de manera que a cada par de elementos y v de se le hace corresponder el elemento ! v de , denominado suma de y v, y la multiplicaci n por escalares, de manera que a todo elemento de y a todo elemento a de ⺛ se le hace corresponder el elemento a de , que satisfacen las siguientes propiedades: (S1) (Conmutativa) ! v % v ! para todo , v de . (S2) (Asociativa) ! (v ! ) % ( ! v) ! , para todo , v y de . (S3) Existe un elemento de , designado por 0 y denominado ne tro, tal que ! 0 % para todo de . (S4) Para todo de existe un elemento, designado por . y denominado o e to de , tal que ! (. ) % 0.

Sección 4.1. Definición de espacio vectorial. Ejemplos

(M1) (M2) (M3) (M4)

145

1 % para todo de , donde 1 denota el elemento ni a de ⺛. a(b ) % (ab) para todo de y todo a, b de ⺛. (a ! b) % a ! b para todo de y todo a, b de ⺛. a( ! v) % a ! av para todo , v de y todo a de ⺛.

Notas 1) Los elementos de un espacio vectorial reciben el nombre genérico de ve tore y en general se utiliza la notación indicada en la definición para denotarlos. Esto no es obstáculo para que en algunos casos particulares, por ejemplo, matrices o aplicaciones, se utilice la notación propia de cada caso. Los elementos de ⺛ se llaman e alare . 2) Las propiedades de (S1) a (S4) se refieren a la suma, las propiedades (M1) y (M2) se refieren exclusivamente a la multiplicación por escalares y las propiedades (M3) y (M4) son las i trib tiva de una operación con respecto a la otra. 3) Si ⺛ es ⺢ se dice que es un e a io ve torial real y si ⺛ es ⺓ se dice que es un e a io ve torial om le o. 4) De (S3), (S4) y la propiedad conmutativa se deduce que 0 ! % 0 y (. ) ! % 0. EJEMPLO A 1) El conjunto 2 de los vectores en el plano o el conjunto 3 de los vectores en el espacio con las operaciones dadas en la sección 1.2 son espacios vectoriales reales. 2) El conjunto ᏹm#n(⺛) z ᏹm#n de todas las matrices de m filas y n columnas con elementos en ⺛ es un espacio vectorial sobre el cuerpo ⺛. EJEMPLO B.

El conjunto ⺛n % {( 1,

2,

...,

n) :

à ⺛,

% 1, 2, ..., n}

con las operaciones ( 1,

2,

...,

n) ! (y1,

a( 1,

y2, ..., yn) % ( 1 ! y1, 2,

...,

n) % (a 1,

2 ! y 2,

...,

n ! yn)

a 2, ..., a n)

es un espacio vectorial sobre ⺛, como fácilmente puede comprobarse. En particular, ⺢n es un espacio vectorial real y ⺓n es un espacio vectorial complejo. EJEMPLO C. Sea ⺢ä el conjunto de todas las sucesiones de la forma (an)ä n%1 % (a1, a2, ...), con a à ⺢, con las operaciones ä ä (an)ä n%1 ! (bn)n%1 % (an ! bn)n%1

y

ä a(an)ä n%1 % (aan)n%1

,

con a à ⺢.

Se deja para el lector la comprobación de que este conjunto es un espacio vectorial real con las operaciones que acabamos de definir. EJEMPLO D. Sea ⺛[ ] el conjunto de todos los polinomios en la variable ⺛, es decir, todos los elementos de la forma

sobre el cuerpo

n

( ) % a0 ! a1 ! ñ ! an.1

n.1

! an

n

%; a %0

,

a à ⺛.

146

Capítulo 4. Espacios vectoriales

En él definimos las siguientes operaciones: dados n

m

( )% ; a

y

%0

( )% ; b %0

con m n n su suma es n

m

( ) ! ( ) % ; (a ! b ) ! ; %0

b

.

%n!1

Dado a à ⺛, definimos n

a ( ) % ; (aa ) . %0

Con estas operaciones ⺛[ ] es un espacio vectorial sobre ⺛. Si denotamos por (n) ⺛ [ ] al conjunto de todos los polinomios en la variable , de grado menor o igual que n, tenemos de nuevo un espacio vectorial, con las mismas operaciones que en ⺛[ ]. EJEMPLO E. Sea ([a, b]) el conjunto de todas las funciones continuas definidas en el intervalo real [a, b] con valores en ⺢. Con las operaciones ( ! g)( ) % ( ) ! g( )

y

(j )( ) % j( ( ))

,

con j à ⺢,

puede comprobarse que ([a, b]) es un espacio vectorial real. El elemento neutro de este espacio vectorial es la aplicación nula. EJEMPLO F. Sea L(⺢m, ⺢n) el conjunto de todas las aplicaciones lineales de ⺢m en ⺢n; en la sección 1.3 se han definido operaciones en este conjunto y se ha visto que satisfacen las propiedades requeridas para ser un espacio vectorial real. EJEMPLO G. Ha llegado el momento de mostrar algunas estructuras que no satisfacen todos los axiomas de un espacio vectorial. Si denotamos por al conjunto de todas las matrices cuadradas con determinante nulo y en él definimos las mismas operaciones que en ᏹm#n, no es un espacio vectorial; para ello basta observar que %

A B 1 0

0 0

y

%

A B 0 0

0 1

son matrices con determinante nulo, mientras que ! tiene determinante 1. Tampoco el conjunto de todos los polinomios de grado e a tamente n es un espacio vectorial con las operaciones definidas en ⺛[ ]. EJEMPLO H. Un ejemplo muy importante de espacio vectorial es el conjunto ( ) de soluciones del sistema homogéneo %0

,

con

à ᏹm#n(⺢),

(1.1)

Sección 4.1. Definición de espacio vectorial. Ejemplos

147

donde % ( 1, 2, ..., n) à ⺢n. Ya sabemos que 0 es siempre solución de (1.1) y de los resultados de la sección 1.2 se deduce que si e y son soluciones de (1.1) y a à ⺢, ! y y a son soluciones de (1.1). *

*

*

Para terminar esta sección daremos algunos resultados que se deducen inmediatamente de las propiedades que definen un espacio vectorial. Proposición 4.1.2 El elemento neutro de un espacio vectorial es único. Demostración. Supongamos que 01 y 02 son dos elementos neutros de un espacio vectorial ; por ser 01 un elemento neutro se tiene que 01 ! 02 % 02; por ser 02, un elemento neutro se tiene que 02 ! 01 % 01; puesto que 02 ! 01 % 01 ! 02 debido a la propiedad conmutativa, 䊏 deducimos que 02 % 01, mostrándose así la unicidad del elemento neutro. Proposición 4.1.3 El opuesto de cada elemento en un espacio vectorial es único. Demostración. Supongamos que el elemento posee dos opuestos v1 y v2; de la definición de opuesto se deduce que ! v1 % 0. Sumando v2 a ambos lados de esta ecuación y utilizando las propiedades (S1), (S2) y (S3) de espacio vectorial se tiene que v2 ! ( ! v1) % (v2 ! ) ! v1 % 0 ! v1 % v1 , v2 ! ( ! v 1 ) % v2 ! 0 % v 2 . De aquí deducimos que v1 % v2.



Proposición 4.1.4 Para todo

de un espacio vectorial , 0 · % 0.

Demostración. Tenemos la siguiente cadena de igualdades debida a varios de los axiomas de la definición de espacio vectorial: % 1 · % (0 ! 1) % 0 · ! 1 · % 0 · ! . Esto implica que 0 · es el neutro del espacio vectorial , y por tanto, 0 · % 0. Proposición 4.1.5 Para todo elemento

de un espacio vectorial , (.1) es su opuesto.



148

Capítulo 4. Espacios vectoriales

Demostración. Tenemos que ! (.1) % 1 · ! (.1) % (1 ! (.1)) % 0 · % 0, en donde se ha utilizado (M1), (M3) y la Proposición 4.1.4. Puesto que el opuesto es único, 䊏 debido a la Proposición 4.1.3, queda probado el resultado. Proposición 4.1.6 En todo espacio vectorial , a · 0 % 0, donde a à ⺛ y 0 es el elemento neutro de . Demostración. a · 0 % a(0 ! 0) % a · 0 ! a · 0; sumando el opuesto de a · 0 en ambos la䊏 dos se tiene a · 0 % 0, que era lo que queríamos demostrar. 4.2. Base B 4.2. y dimensión ASE Y de DIMENSIÓN un espacio vectorial DE UN ESPACIO VECTORIAL

Sea un espacio vectorial sobre un cuerpo ⺛; un número finito de vectores v1, v2, ..., vn se dice que son linealmente e en iente si existen n elementos de ⺛, a1, a2, ..., an, no todos nulos, tales que a1v1 ! a2 v2 ! ñ ! an vn % 0.

(2.1)

Si los vectores v1, v2, ..., vn no son linealmente dependientes, se dice que son linealmente in e en iente ; por tanto, los vectores v1, v2, ..., vn son linealmente independientes si cualquier igualdad como la que aparece en (2.1) implica que los elementos de ⺛, a1, a2, ..., an, son nulos. Si en la igualdad (2.1) el escalar an es no nulo, podemos escribir vn %.

a1 a2 an.1 v1 . v2 . ñ . v ; an an an n.1

decimos entonces que vn, es una ombina i n lineal de los vectores v1, v2, ..., vn.1. En general, diremos que v es ombina i n lineal de los vectores v1, v2, ..., v si existen números a1, a2, ..., a de ⺛ tales que v % a1v1 ! a2 v2 ! ñ ! a v . Un conjunto finito de vectores {v1, v2, ..., v } de un espacio vectorial se dice que es un i tema e genera ore e si todo elemento de puede escribirse como una combinación lineal de los vectores v1, v2, ..., v . Antes de exponer algunos ejemplos es conveniente realizar algunas observaciones. En primer lugar, observamos que to o on nto inito e ve tore e ontiene al elemento ne tro e linealmente e en iente; basta observar que a · 0 ! 0 · v2 ! ñ ! 0 · v n % 0 para cualquier a à ⺛. En segundo lugar, observaremos que to o on nto inito e ve tore linealmente in e en iente no e e ontener n b on nto e ve tore e ean linealmente e en iente . En

Sección 4.2. Base y dimensión de un espacio vectorial

149

efecto, si v1, ..., vn son linealmente independientes y suponemos, por comodidad de notación, que v1, ..., v , m n, son linealmente dependientes tendríamos a1v1 ! a2 v2 ! ñ! a v % 0 con no todos los a igual a cero; basta observar que, entonces, a1v1 ! a2 v2 ! ñ ! a v ! 0v

!1 ! ñ ! 0vn % 0,

con lo cual los vectores originales serían linealmente dependientes. EJEMPLO A. Tres vectores no nulos en el conjunto linealmente dependientes. Para demostrarlo tomar % ( 1, tres vectores cualesquiera de

2.

2),

v % (v1, v2),

2

de los vectores en el plano son siempre %(

1,

2)

La igualdad a1 ! a2 v ! a3 % 0

se traduce en a1 a1

1 ! a2 v 1 ! a3

1%0

2 ! a2 v 2 ! a3

2%0

F

que es un sistema de dos ecuaciones con tres incógnitas. Puesto que el rango de la matriz de los coeficientes es inferior a 3, este sistema homogéneo posee infinitas soluciones. Basta elegir una no nula para tener el resultado deseado. Este resultado puede demostrarse también geométricamente como puede apreciarse en la figura 4.1. La recta que contiene a y la recta que es paralela a v, y pasa por el extremo de se

i

ra 4.1

150

Capítulo 4. Espacios vectoriales

cortan en un punto . Observar que si estas rectas no se cortan, y v son proporcionales y ya ! % ; por tanto: habríamos probado el resultado. En la figura se observa que a ! bv % , lo cual prueba el resultado deseado. Este mismo razonamiento muestra que dos vectores linealmente independientes cualesquiera de 2 son siempre un sistema de generadores de este espacio vectorial. EJEMPLO B. En general, n ! 1 vectores de ⺛n son linealmente dependientes; basta observar que esta afirmación se reduce a demostrar la existencia de soluciones no nulas de un sistema homogéneo de n ecuaciones con n ! 1 incógnitas (ver ejemplo A); este último resultado es cierto por el teorema de Rouché-Frobenius (Teorema 1.2.4). En ⺢3 puede darse una demostración geométrica de este resultado. Supongamos que 1, 2 y 3 3 son tres vectores de ⺢ linealmente independientes. Por el extremo de 4 se traza una paralela a 3 hasta que corte al plano que determinan 1 y 2. Tenemos que 4%

i

!

.

ra 4.2

Puesto que es un vector del plano determinado por 1 y % a3 Utilizando este resultado junto con el hecho de que

2 3

se tiene que se tiene que

% a1

1 ! a2 2 .

4 % a1 1 ! a2 2 ! a3 3.

Si los vectores 1, 2 y 3 fueran linealmente dependientes, se tendría una igualdad de la forma a1 1 ! a2 2 ! a3 3 % 0 y, por tanto, los cuatro vectores serían linealmente dependientes, ya que tendríamos la igualdad a1

1 ! a2 2 ! a3 3 ! 0 ·

4 % 0.

Este razonamiento muestra, además, que tres vectores cualesquiera linealmente independientes de ⺢3 son siempre un sistema de generadores de este espacio vectorial.

Sección 4.2. Base y dimensión de un espacio vectorial

151

EJEMPLO C 1) Las funciones 0( ) % 1, 1( ) % , 2( ) % 2, ..., dientes, ya que si tenemos la igualdad a01 ! a1 ! a2

2

n(

! ñ ! an

)% n

n

son linealmente indepen-

%0

para todo à ⺢, se ha de tener a0 % a1 % a2 % ñ % an % 0 (véase el ejercicio 15 de la sección 2.4). 2) Las funciones ( ) % cos2 , g( ) % sen2 y ( ) % 1 son linealmente dependientes en ([0, 2n]), ya que cos2 ! sen2 % 1 *

*

*

Definición 4.2.1 Un conjunto finito de vectores {e1, e2, ..., en} se dice que es una base de un espacio vectorial si se cumplen las dos siguientes condiciones: 1) Los vectores e1, e2, ..., en son linealmente independientes. 2) Todo elemento de es una combinación lineal de los vectores e1, e2, ..., en.

Observar que la condición 2) de esta definición es equivalente al hecho de que el conjunto de vectores {e1, e2, ..., en} sea un sistema de generadores de . Sin embargo, no todo sistema de generadores de un espacio vectorial es una base; convénzase el lector por su propia cuenta de que tres vectores en 2, dos de los cuales son linealmente independientes, son un sistema de generadores de 2; sin embargo, no pueden formar una base de 2, ya que son linealmente dependientes, como se ha mostrado en el ejemplo A. EJEMPLO D. Si e % (0, ..., 1, ..., 0) à ⺛n, donde el 1 ocupa el lugar , se tiene que {e1, e2, ..., en} son linealmente independientes, ya que si n

; a e % (0, 0, ..., 0)

%1

se tiene que (a1, a2, ..., an) % (0, 0, ..., 0). Por tanto, a1 % a2 % ñ % an % 0. Además, si % ( 1, 2, ..., n) à ⺛n se tiene que n

%;

e.

%1

Por tanto, {e1, e2, ..., en} es una base de ⺛n, que recibe el nombre de ba e an ni a de este espacio. EJEMPLO E 1) El conjunto {1, , 2, ..., n} es una base de (n) ⺛ [ ], ya que son linealmente independientes de acuerdo con el resultado del ejemplo C, y todo polinomio de grado inferior o igual a n puede escribirse de la forma ( ) % a0 1 ! a1 ! a2

2

! ñ an n.

152

Capítulo 4. Espacios vectoriales

2) El conjunto {1, , 2, ..., n} no es una base de no es combinación lineal de estos. EJEMPLO F.

⺛[

], ya que el polinomio ( ) %

n!1

Las matrices 1%

A B 1 0

0 , 0

2%

A B 0 0

1 , 0

3%

A B 0 1

0 0

y

4%

A B 0 0

0 1

son una base de ᏹ2#2(⺛). Son linealmente independientes, ya que a1

1 ! a2

2 ! a3

3 ! a4

4%

A

B A B

a1 a2 0 % a3 a4 0

0 0

implica a1 % a2 % a3 % a4 % 0. Además, si %

A B a

b

podemos escribir %a

1!b 2!

*

*

3!

4.

*

Si {e1, e2, ..., en} es una base de un espacio vectorial y v es cualquier elemento de podemos escribir v como combinación lineal de e1, e2, ..., en de la forma v % v1e1 ! v2 e2 ! ñ ! vn en con v à ⺛. Los números v1, v2, ..., vn se denominan om onente (o oor ena a ) e v con respecto a la base {e1, e2, ..., en}. Las componentes de un vector v con respecto a una base son únicas, ya que si tenemos v % v1e1 ! v2 e2 ! ñ ! vn en y v % vñ1e1 ! vñ2e2 ! ñ ! vñnen , se tiene también que 0 % (v1 . vñ1)e1 ! (v2 . vñ2)e2 ! ñ ! (vn . vñn)en . Puesto que e1, e2, ..., en son linealmente independientes hemos de tener v1 % vñ1, v2 % vñ2, ..., vn % vñn, que era lo que queríamos demostrar. *

*

*

Un mismo espacio vectorial puede poseer varias bases; nuestro próximo objetivo es demostrar que todas ellas han de poseer el mismo número de elementos. Proposición 4.2.2 Si es un espacio vectorial que posee una base con n elementos, cualesquiera n ! 1 vectores de son linealmente dependientes.

Sección 4.2. Base y dimensión de un espacio vectorial

Demostración. Sea {e1, e2, ..., en} una base de n ! 1 vectores de ; podemos escribir n 1%

;

%1

n 1e

2%

,

y sean

1,

2,

...,

n 2e

;

%1

, ...,

n%

;

%1

n,

n!1

153

cualesquiera

n ne

,

n!1 %

;

%1

, n!1e

ya que todo elemento de es una combinación lineal de los vectores de la base. Tratamos de demostrar que podemos encontrar a1, a2, ..., an, an!1, no todos nulos, tal que a1 1 ! a2

2 ! ñ ! an n ! an!1 n!1 % 0

(2.2)

Esto es equivalente a escribir a1

A

B A

n

;

%1

1e ! a2

n

;

%1

B

2e ! ñ ! an

A

n

;

%1

B

ne ! an!1

A

n

;

%1

, n!1e

B

% 0.

Igualando las componentes se tiene a1

1 ! a2

2 ! ñ ! an

n ! an!1 , n!1 % 0,

% 1, 2, ..., n,

que es un sistema de n ecuaciones con n ! 1 incógnitas; puesto que el sistema es homogéneo, 䊏 siempre ha de poseer una solución no trivial; esto demuestra el resultado. De esta proposición se deduce un resultado un poco más general: en n e a io ve torial e o ee na ba e on n elemento , ale iera m ve tore e , on m b n, on linealmente e en iente . Basta observar que n ! 1 de los m vectores dados han de ser linealmente dependientes, debido a la Proposición 4.2.2, y por tanto, todos ellos han de formar un conjunto de vectores linealmente dependiente. Este resultado se aplica en la demostración del siguiente teorema: Teorema 4.2.3 Todas las bases de un mismo espacio vectorial

poseen el mismo número de elementos.

Demostración. Sean {e1, e2, ..., en} y {eñ1, eñ2, ..., eñm} dos bases de ; por el razonamiento anterior m m n, ya que en caso contrario los vectores de la segunda base serían linealmente dependientes. Similarmente, n m m, ya que en caso contrario los vectores de la primera base 䊏 serían linealmente dependientes. Se tiene, por tanto, que m % n.

Definición 4.2.4 El número de elementos que posee una base cualquiera de un espacio vectorial bre de dimensi n de ; este número será designado mediante dim ( ).

recibe el nom-

Si el espacio vectorial solo contiene un elemento, que necesariamente ha de ser su elemento neutro, es decir, % {0}, diremos que tiene imen i n ero. De los ejemplos que hemos realizado anteriormente podemos deducir los siguientes resultados:

154

Capítulo 4. Espacios vectoriales

1) la dimensión de ⺛n es n, 2) la dimensión de (n) ⺛ [ ] es n ! 1, 3) la dimensión de ᏹ2#2(⺛) es 4. En general, tenemos que la dimensión de ᏹm#n(⺛) es m # n. Proposición 4.2.5 Sea un espacio vectorial de dimensión n. Todo conjunto de n vectores de linealmente independientes son una base de .

que sean

Demostración. Sean 1, 2, ..., n, n vectores linealmente independientes; si v es cualquier otro vector de , los vectores v, 1, 2, ..., n son linealmente dependientes por la Proposición 4.2.2; por tanto, existen a0, a1, ..., an à ⺛ tal que a0v ! a1

1 ! a2 2 ! ñ ! an n % 0

con algún a Ç0. El número a0 debe ser no nulo, ya que en caso contrario los vectores serían linealmente dependientes. Por tanto:

y queda probado que { 1,

2,

v %.

a1 a0

...,

es un sistema de generadores de .

n}

1.

a2 a0

2.ñ.

an a0

EJEMPLO G. Los vectores 1%(1, 0, 1, 0), 2%(0, 1, 0, 0), son linealmente independientes en ⺢4, ya que

A

1 0 r 1 0

0 1 0 0

1 .1 0 0

1,

2,

...,

n

n

3%(1,

.1, 0, 0) y

䊏 4%(0,

0, 1, .1)

B

0 0 %4 .1 .1

Por la Proposición 4.2.5 son una base de ⺢4, ya que dim (⺢4) % 4. *

*

*

Una forma de encontrar una base de un espacio vectorial es «añadir» vectores a un conjunto de vectores linealmente independientes de ; la forma de «añadirlos» se explica en la demostración de la siguiente proposición: Proposición 4.2.6 Sea un espacio vectorial de dimensión finita n; todo conjunto de vectores linealmente independientes de puede completarse para obtener una base, es decir, dados vectores e1, e2, ..., e , a n, de , linealmente independientes, existen n . vectores e !1, ..., en de tal que el conjunto {e1, e2, ..., e , e !1, ..., en} es una base de . Demostración. Puesto que es inferior a n podemos encontrar un elemento de linealmente independiente con e1, e2, ..., e ; en caso contrario, los vectores e1, e2, ..., e , formarían una

Sección 4.2. Base y dimensión de un espacio vectorial

155

base de , lo que contradice el Teorema 4.2.3. Sea e !1 este vector. El razonamiento se repite con el conjunto {e1, ..., e , e !1} hasta encontrar n vectores linealmente independientes, que han 䊏 de ser necesariamente una base, por la Proposición 4.2.5. *

*

*

Supongamos que es un espacio vectorial de dimensión finita n; acabamos de probar que vectores linealmente independientes de pueden «completarse» para obtener una base. Demostraremos a continuación que si es un sistema de generadores de , de él puede extraerse una base de . Antes de demostrar este resultado necesitamos el siguiente lema: Lema 4.2.7 Supongamos que dim ( ) % n; sea un sistema de generadores de y supongamos que % 1 é 2, donde 1 y 2 son disjuntos. Si los elementos de 2 son combinación lineal de los elementos de 1, entonces 1 es también un sistema de generadores de . Demostración. Supongamos, para evitar complicaciones de notación, que 1 % {e1, ..., el} y 2 % {el!1, ..., em}. Puesto que los elementos de 2 son combinación lineal de los elementos de 1 tenemos que l

e % ; ai ei,

% l ! 1, ..., m.

i%1

Si

à , puesto que

es un sistema de generadores de , se tiene que m

%;

i ei.

i%1

Por tanto, l

%;

m %l!1

i%1 l

%; i%1

Esto prueba que

1

l

i ei ! ; l i ei !

; i%1

A

i ei ! ;

%l!1

i%1 m

;

%l!1

ai

A

m

e %;

B

l

ei % ; i%1

A

l

i%1

i!

B

; ai ei % m

;

%l!1

ai

B

ei . 䊏

es un sistema de generadores de .

Proposición 4.2.8 Sea un sistema de generadores de un espacio vectorial contrar un subconjunto 1 de que sea una base de .

de dimensión n; podemos en-

Demostración. Elegir 1 à tal que 1 Ç 0; esto siempre puede hacerse salvo en el caso en que % {0} (si % {0} la proposición es una trivialidad). Elegir a continuación 2 à tal que 2 es independiente con 1. Suponiendo que hemos elegido 1, 2, ..., , elegir !1 à que sea linealmente independiente con los anteriores. Este proceso se continúa hasta que es imposible encontrar vectores de linealmente independientes con los anteriores. Sea 1 % { 1,

2,

..., l}

156

Capítulo 4. Espacios vectoriales

el subconjunto de obtenido de esta manera. Por el Lema 4.2.7, 1 es un sistema de generadores de . Debido a la elección realizada, los vectores de 1 son linealmente independientes; por 䊏 tanto, 1 es una base de . Se termina así la demostración de la Proposición 4.2.8. *

*

*

Terminamos esta sección haciendo unos comentarios acerca de la dependencia o independencia lineal de subconjuntos infinitos de un espacio vectorial. Un on nto in inito de elementos de un espacio vectorial se dice linealmente in e en iente si cualquier subconjunto finito de es linealmente independiente. En caso contrario, se dice linealmente e en iente; es decir, es linealmente dependiente si existe un subconjunto finito de él que es linealmente dependiente. Un espacio vectorial en el que se puede encontrar un subconjunto linealmente independiente y con infinitos elementos, se dice que tiene imen i n in inita. Los espacios vectoriales ⺛[ ] y ([0, 2n]), introducidos en la sección anterior, son espacios vectoriales de dimensión infinita. El conjunto % { n : n à ⺞} es un conjunto linealmente independiente en ⺛[ ]. El conjunto % {cos n , sen m }n, mà⺞ es un conjunto linealmente independiente en ([0, 2n]). De las dos últimas afirmaciones anteriores la primera es sencilla de demostrar; la segunda es más complicada y se pide su demostración por parte del lector en el ejercicio 13 de la sección 4.3; en este ejercicio se dan las sugerencias adecuadas para facilitar su resolución. 4.3. Cambio 4.3. CAMBIO de base DE BASE

Supongamos que un espacio vectorial

de dimensión finita posee dos bases

% {e1, e2, ..., en}

y

ñ % {eñ1, eñ2, ..., eñn}.

Denominaremos ba e antig a a la primera de ellas y ba e n eva a la segunda. Como todo elemento de la base nueva se escribe como combinación lineal de los elementos de la base antigua podemos escribir: eñ1 % a11 e1 ! a21 e2 ! ñ ! an1 en eñ2 % a12 e1 ! a22 e2 ! ñ ! an2 en ó eñn % a1n e1 ! a2n e2 ! ñ ! ann en.

(3.1)

Puesto que es conveniente que el lector se familiarice con notaciones abreviadas escribiremos (3.1) de la forma n

eñ % ; ai ei,

% 1, 2, ..., n.

i%1

Diremos entonces que la n eva ba e e obtiene e la antig a me iante la matri

A

a11 a12 a a % 21 22 ó ó an1 an2

ñ ñ ñ

B

a1n a2n ó ann

Sección 4.3. Cambio de base

157

donde la -ésima columna de son las componentes del vector eñ con respecto a la base antigua, % 1, 2, ..., n. La matriz se denomina matri el ambio e ba e e a ñ. Cuando, por necesidades de notación sea necesario hacer constar las bases y ñ escribiremos ñ

%

Si y ñ coinciden se tiene que % n#n. La matriz n#n es invertible; esto sucede para cualquier matriz de un cambio de base, como se demuestra en la siguiente proposición. Proposición 4.3.1 La matriz del cambio de base de a ñ es invertible y su inversa es la matriz del cambio de base de ñ a . Podemos, por tanto, escribir: ñ .1

ñ%(

)

%

.1

Demostración. Para demostrar que es invertible es suficiente demostrar que su determinante es no nulo (ver Teorema 2.4.1). Ciertamente, el determinante de es no nulo, ya que de lo contrario sus columnas y, por consiguiente, los vectores eñ1, eñ2, ..., eñn de la base ñ, serían linealmente dependientes. Sea ñ % (añi )i, i%1, ..., n la matriz del cambio de base de ñ a ; hemos de demostrar que ñ % .1. Por definición de ñ tenemos n

e % ; añi eñi,

% 1, 2, ..., n;

i%1

por definición de

tenemos n

eñi % ; a i e ,

i % 1, 2, ..., n.

%1

Por tanto, n

e % ; añi i%1

A

n

; a ie %1

B

n

% ;

%1

A

n

B

; a i añi e .

i%1

n

Puesto que ; a i añi es el elemento que ocupa el lugar ( , ) en el producto de las matrices

y

i%1

ñ se tiene que n#n %

ya que las coordenadas de e en la base

%

ñ,

son únicas. Esto demuestra el resultado deseado. 䊏 *

*

*

Tratemos ahora de relacionar entre sí las coordenadas de un mismo vector en las bases nueva ñ y antigua . Supongamos que à , % 1e 1 !

2 e 2 ! ñ ! n en

(3.2)

% 1ñ eñ1 ! ñ2 eñ2 ! ñ ! nñ eñn

(3.3)

y además:

158

Capítulo 4. Espacios vectoriales

Sustituyendo en (3.3) las expresiones dadas en (3.1) obtenemos

A

n

B A

B

n

A

B

n

% ñ1 ; ai1ei ! ñ2 ; ai2 e1 ! ñ ! ñn ; ain ei % i%1

i%1

i%1

% (a11 ñ1 ! a12 ñ2 ! ñ ! a1n ñn)e1 ! (a21 ñ1 ! a22 ñ2 ! ñ ! a2n ñn)e2 ! ! ñ ! (an1 ñ1 ! an2 ñ2 ! ñ ! ann ñn)en . Comparando esta última igualdad con (3.2) podemos escribir ñ ! ñ ! a1n ñn 1 % a11 ñ1 ! a12 2 ñ ! ñ ! a2n ñn 2 % a21 ñ1 ! a22 2 ó % an1 ñ1 ! an2 2ñ ! ñ ! ann ñn. n

(3.4)

Si convenimos en escribir

AB

%

2

ó

ñ%

y

n

para las componentes del vector escribe brevemente de la forma

AB ñ 1

1

ñ 2

ó ñ n

en la antigua y en la nueva base, respectivamente, (3.4) se %

ñ

llamada e a i n matri ial el ambio e ba e (de a ñ). Esto nos permite obtener las coordenadas del vector en la base antigua conociendo las coordenadas del mismo vector en la nueva base. EJEMPLO A.

Sea {e1, e2, e3} una base de ⺢3. Dadas las bases 1 % e 1 ! e 3,

2 % e 2,

3 % e2 ! e 3

y ñ1 % e1 . e2,

ñ2 % e2,

ñ3 % 2e1 ! e3 ,

encontrar las coordenadas del vector % 3 1 ! 2 2 en la base { ñ1, ñ2, ñ3}. Comenzar observando que ambos conjuntos son bases de ⺢3. Podemos escribir % 3(e1 ! e3) ! 2e2 % 3e1 ! 2e2 ! 3e3. El problema queda reducido a encontrar la matriz del cambio de base de {e1, e2, e3} a { ñ1, ñ2, ñ3}. De las expresiones dadas deducimos que la matriz del cambio de base es

A

1 % .1 0

0 1 0

B

2 0 . 1

Sección 4.3. Cambio de base

159

Escribiendo % ñ1 ñ1 ! ñ2 ñ2 ! ñ3 ñ3, por los resultados anteriores tenemos que

A B A BA B A B A B A B A BA B A B 3 1 2 % .1 3 0

ñ1 1 ñ2 % .1 ñ3 0

ú

0 1 0

.1

2 0 1

0 1 0

2 0 1

3 1 2 % 1 3 0

ñ 1 ñ 2

ú

ñ 3

0 1 0

.2 .2 1

3 .3 2 % .1 . 3 3

Por tanto, %.3 ñ1 . ñ2 ! 3 ñ3. EJEMPLO B. Sean e1, e2 dos vectores perpendiculares unitarios en ⺢2 en la dirección de los ejes de coordenadas cartesianas. Girando los ejes de coordenadas un ángulo h en sentido positivo (contrario a las agujas del reloj) se obtiene una nueva base eñ1, eñ2. ¿Cuál es la matriz del cambio de base? En la figura 4.3 se observa que eñ1 % (cos h)e1 ! (sen h)e2 eñ2 % cos

A B

A B

n n ! h e1 ! sen ! h e2 %. (sen h)e1 ! (cos h)e2 , 2 2

con lo que la matriz del cambio de base es %

A

B

cos h .sen h . sen h cos h

i

ra 4.3

Las coordenadas antiguas a través de las nuevas vienen dadas por

AB A 1 2

%

BA B

á

*

*

cos h .sen h sen h cos h

ñ1 ñ2

*

ñ cos h . ñ2 sen h 1% 1 ñ sen h ! ñ2 cos h 2% 1

160

Capítulo 4. Espacios vectoriales

EJERCICIOS (Secciones 4.1, 4.2 y 4.3) Decir si el conjunto % { à ([0, 1]) : 2 (0) % (1)} es un espacio vectorial con las mismas operaciones que las definidas en ([0, 1]). b) Decir si el conjunto

1. a)

%

EA B a

b

à ᏹ2#2(⺢) : a . b ! ! % 0

F

es un espacio vectorial con las mismas operaciones que las definidas en ᏹ2#2(⺢). 2. Estudiar si las siguientes familias de vectores son linealmente dependientes o independientes: a)

{(1, 2), (0, 1)} Ñ ⺢2.

b)

{(1, i), (i, .1)} Ñ ⺓2 (como espacio vectorial sobre ⺓).

c)

{eint, ein(t.1), ein(t!1)} Ñ ⺓([0, 1]), donde definidas en [0, 1] con valores en ⺓.

d)

EA

BA

.1 1 , 1 .1

1 0

BF

0 1

e) {sen nt, sen 2nt} Ñ

⺓([0,

1]) denota las funciones continuas

Ñ ᏹ2#2(⺢).

⺢([0,

1]).

3. Encontrar los valores de para los cuales los vectores ( , 1, 0), (1, , 1) y (0, 1, ) son linealmente dependientes en ⺓3. 4. Demostrar que en ⺓2 puede definirse una estructura de espacio vectorial real. ¿Cuál es la dimensión de este espacio? 5. Estudiar si los siguientes conjuntos son bases del espacio vectorial dado: a) b) c)

{1, ! 3, ( ! 3)2, ( ! 3)3} en

(3) ⺢ [

].

EA B A B A B A BF EA B A BA BA 1 1

0 0 , 1 1

1 1

1 1 , 1 .1

1 1 , 1 0

1 1 , 1 1

.1 .1 , 1 1

1 0

en ᏹ2#2(⺢).

1 .1 , .1 0

0 1

BF

en ᏹ2#2(⺢).

6. Encontrar una base de ⺢4 que contenga a los vectores (0, 0, 1, 1) y (1, 1, 0, 0). 7. Estudiar si las aplicaciones lineales 2( 1, 2) % ( 1, 2), 3( 1, 2) % (2 1, L(⺢2, ⺢2). 8. Sean

1(

),

2(

), ...,

1, 2)

2,

y

3

4( 1,

y

4

dadas por

2) % ( 1 ! 2 2,

( ) polinomios y supongamos que

G

1(a1)

2(a1)

1(a2)

2(a2)

ñ ñ

ó 1(a )

ó 2(a )

ñ

G

(a1) (a2) Ç0 ó (a )

2) % ( 1, . 2), forman una base de

1( 1, 2)

Sección 4.3. Cambio de base

para algunos números reales a distintos. Demostrar que el conjunto { 1( ), es linealmente independiente en ⺢[ ].

2(

161

), ...,

( )}

à ᏹn#n(⺛) definimos su tra a como la suma de los elementos de su

9. Dada una matriz

n

diagonal principal; es decir, si

%1, ..., n, traza ( ) % ; aii. Demostrar que

% (ai )i,

i%1

% { à ᏹn#n(⺛) : traza ( ) % 0} es un espacio vectorial con las operaciones definidas en ᏹn#n(⺛). ¿Cuál es la dimensión del espacio ? 10. a)

Demostrar que los siguientes conjuntos son bases de ⺢4: 1 % {v1 % (1,

1, 0, 0), v2 % (0, 1, 0, 0), v3 % (0, 0, 1, 1), v4 % (0, 0, 0, 1)},

2 % { 1 % (1,

2, 0, 0),

2 % (0,

1, 2, .1),

3 %(1,

.1, .1, .1),

4 % (0,

1, 1, 0)}.

b) Encontrar las componentes del vector v % 3v1 . v3 ! 2v2 con respecto a la base 11. Sea {e1, e2, ..., en} una base de ⺢n y sea n % e n. a)

Demostrar que { 1,

2,

...,

n}

1 % e 2 . e 1,

2 % e3 . e 2,

...,

2.

n.1 % en . en.1,

es una base de ⺢n.

b) Expresar el vector % e1 ! e2 ! ñ ! en como una combinación lineal de los vectores 1, 2, ..., n. 12. Demostrar que el conjunto % {( ! 1), ( . 1), 2 . 1, 2 ! 1} es un sistema de generadores de (2) que sea una base de (2) ⺢ )[ ]. Encontrar un subconjunto 1 de ⺢ [ ]. 13. Demostrar que el conjunto % {cos n , sen m }n, mà⺞ es linealmente independiente en ([0, 2n]). [ geren ia: observar que

I

2n

I

2n

(cos2 n )

Ç 0,

0

I

2n

(sen2 m )

Ç 0, n, m à ⺞

0

y que (cos n )(cos m )

%

0

I I

2n

%

%

(sen n )(sen m )

%0

2n

0

si n Ç m, n, m à ⺞.]

(cos n )(sen m )

0

162

Capítulo 4. Espacios vectoriales

14. Sea un espacio vectorial de dimensión n y % {e1, ..., en} una base de . Sea % (ai )i, %1, ..., n una matriz de orden n con determinante no nulo. Demostrar que n

eñ % ; ai ei,

% 1, 2, ..., n

i%1

es una base de . (Como consecuencia, to a matri invertible e la matri e ba e.) 1 % (a,

15. Decir para qué valores de a los vectores forman una base de ⺢3.

0, 1),

2 % (0,

1, 1) y

e n ambio 3 % (2,

.1, a)

16. Considerar el conjunto ⺓2 % {( , u) : , u à ⺓}. Demostrar que ⺓2 tiene dimensión 4 como espacio vectorial sobre ⺢ y dimensión 2 como espacio vectorial sobre ⺓. 4.4. Subespacios 4.4. SUBESPACIOS vectoriales. Intersección VECTORIALES. y suma de subespacios INTERSECCIÓN vectoriales Y SUMA

DE SUBESPACIOS VECTORIALES Algunos subconjuntos de un espacio vectorial son a su vez espacios vectoriales con las operaciones definidas en ; estos subconjuntos especiales reciben el nombre de be a io ve to riale de .

Definición 4.4.1 ( ubespacio ectorial) Un subespacio ectorial de un espacio vectorial es un subconjunto un espacio vectorial con las operaciones definidas en .

1,

de , que a su vez es

Para demostrar que un subconjunto es un subespacio vectorial no es necesario comprobar de nuevo que satisface todas las propiedades de espacio vectorial. En realidad, es suficiente demostrar que la suma de dos elementos de 1 es otro elemento de 1 y que la multiplicación de un elemento de 1 por un elemento del cuerpo ⺛ es otro elemento de 1; es decir: 1) Si , v à 1, ! v à 1 . 2) Si a à ⺛ y à 1, a à 1. En efecto, las propiedades (S1), (S2), (M1), (M2), (M3) y (M4) se cumplen en 1 por cumplirse en el espacio más grande ; además, 0 · % 0 à 1 y (.1) %. à 1 debido a 2), lo cual prueba que las propiedades (S3) y (S4) son también ciertas en 1. EJEMPLO A a) Todas las rectas y planos que pasan por el origen son subespacios vectoriales de ⺢3. (n) b) ⺢ [ ] es un subespacio vectorial de ⺢[ ]; a su vez, ⺢[ ] es un subespacio vectorial de (⺢), el espacio de funciones continuas de ⺢ en ⺢. c) Los subconjuntos {0} y son siempre subespacios vectoriales de ; estos reciben el nombre de be a io ve toriale im ro io de y el resto se denominan ro io . *

*

*

Sección 4.4. Subespacios vectoriales. Intersección y suma de subespacios vectoriales

Además de ser intuitivamente claro no es difícil demostrar que si de dimensión finita n, al ier be a io 1 e tiene imen i n EJEMPLO B. nimos

Sea % { 1,

2,

...,

L( ) % L( 1,

2,

...,

n}

163

es un espacio vectorial e no era a n.

un conjunto de vectores de un espacio vectorial . Defi-

n) %

E

F

n

; a

%1

: a à ⺛,

% 1, 2, ..., n .

El conjunto L( ) es un subespacio vectorial de , ya que n

; a

%1

n

n

!; b

% ; (a ! b )

%1

%1

à L( )

y n

n

% ; (aa )

a ; a %1

%1

à L( ).

Este subespacio vectorial recibe el nombre de be a io ve torial genera o or . Los vectores 1, 2, ..., n son un sistema de generadores de L( ); de ellos se puede elegir unos cuantos que sean base de L( ) (Proposición 4.2.8). Por tanto, la dimensión de L( ) no supera a n. Por ejemplo, los vectores 1 % (1, 0, 1), 2 % (.1, 1, 0) y 3 % (1, 1, 2) son linealmente dependientes en ⺢3, ya que

G Por tanto, L( 1,

2,

3)

1 0 1

.1 1 0

1 1 2

G G G 5.2 1

2!2

% P.6

1

1 0 1

1 1 2

1 1 2

5.2 1 2%

% P.6

3

0.

es un subespacio vectorial de ⺢3 de dimensión inferior a 3. Puesto

que

G

1 0

G

.1 % 1, 1

1 y 2 son linealmente independientes, mientras que 3 depende linealmente de los dos primeros. Por tanto, L( 1, 2) % L( 1, 2, 3) y este subespacio vectorial tiene dimensión 2.

EJEMPLO C. Dada una matriz de m filas y n columnas y de rango r todas las soluciones del sistema de ecuaciones homogéneo % 0,

à ⺢n

(4.1)

son de la forma % a1

1 ! a2 2 ! ñ ! a

donde % n . r, a à ⺢ y los vectores son linealmente in e en iente (véase Proposición 1.2.6). Por tanto, la ol ione el i tema omog neo (4.1) on tit yen n be a io ve to rial e imen i n % n . r e ⺢n. Además, 1, 2, ..., es una base de este subespacio.

164

Capítulo 4. Espacios vectoriales

Recíprocamente, todo subespacio vectorial de ⺢n puede determinarse por un sistema de ecuaciones lineales homogéneas. Sea 1 un subespacio de ⺢n de dimensión y sea {eñ1, eñ2, ..., eñ} una de sus bases. Completamos esta base hasta obtener una base {eñ1, eñ2, ..., eñ, eñ !1, ..., eñn} de ⺢n. Es claro que si % ñ1eñ1 ! ñ2 eñ2 ! ñ ! ñn eñn , el vector

pertenece a

1

si y solo si

ñ !1 % 0, ..., ñn % 0. Además, si % 1e1 ! 2 e2 ! ñ ! nen, donde {e1, ..., en} es una base dada de ⺢n, realizando el cambio de base adecuado, se tiene que 0 % ñ !1 % a !1, 1 1 ! ñ ! a !1, n 0 % ñ !2 % a !2, 1 1 ! ñ ! a !2, n ó an1 1 ! ñ ! ann 0 % ñn %

n n

n

que es un sistema homogéneo de n . ecuaciones con n incógnitas que determina el subespacio 1. * * * También podemos usar el algoritmo de Gauss-Jordan (sección 1.1) junto con el teorema de Rouché-Frobenius (Teorema 1.2.4) para calcular las ecuaciones implícitas de un subespacio 1 de base {eñ1, ..., eñ} en un espacio vectorial de base {e1, ..., en}. Veámoslo en un ejemplo. EJEMPLO D.

Sea

1

el subespacio de ⺢5 de base eñ1 % (1, 2, 0, 1, 0) % e1 ! 2e2 ! e4 eñ2 % (1, 1, 1, 1, 1) % e1 ! e2 ! e3 ! e4 ! e5.

Para cada v % ( 1,

2,

3,

4,

5) % 1e1 ! 2e2 ! 3e3 ! 4e4 ! 5e5

A B

1 2 % 0 1 0

1 1 1 1 1

en

1,

la matriz

1 2 3 4 5

tiene que tener rango exactamente 2, por el teorema de Rouché-Frobenius. Aplicando el método de Gauss-Jordan a obtenemos una matriz escalonada

A

1 0 0 0 0

1 1 0 0 0

1

2 1. 2 2 1. 2. . 1! 4 2 1. 2.

3

5

B

Sección 4.4. Subespacios vectoriales. Intersección y suma de subespacios vectoriales

que tiene que tener rango 2. Luego v está en 2 1.

2. 3%0

que son las ecuaciones implícitas de

1

Dados dos subespacios vectoriales inter e i n 1ç

si y solo si

1

. 1!

,

165

4%0

2 1.

,

2 . 5 % 0,

en la base {e1, e2, e3, e4, e5} de ⺢5.

1

2%{

*

*

y

2

à

* de un espacio vectorial

: à

1

à

y

podemos definir su

2}

ma

y su

1!

2%{ 1!

2:

1

à

1,

2

à

2}.

Como puede comprobarse fácilmente estos dos nuevos subconjuntos son también subespacios vectoriales de . La relación que existe entre las dimensiones de estos subespacios vectoriales y las dimensiones de los subespacios 1 y 2 queda plasmada en el siguiente resultado: Proposición 4.4.2 (

rmula de

rassmann)

dim ( 1) ! dim ( 2) % dim ( para cualesquiera subespacios vectoriales finita.

1

y

de

1

2

l!1,

2) ! dim ( 1 ç

2)

de un espacio vectorial



Demostración. Sea {e1, ..., el } una base de base {e1, ..., el,

1!

2;

...,

de dimensión

completar esta base hasta obtener una }

y una base {e1, ..., el, gl!1, ..., gm}

de

2.

Demostraremos que % {e1, ..., el,

es una base de

1!

2.

l!1,

...,

, gl!1, ..., gm}

De aquí se deducirá que

dim (

1!

2) % l ! (

. l) ! (m . l) % ! m . l %

% dim ( 1) ! dim ( 2) . dim (



2),

que era lo que queríamos demostrar. Para demostrar que es una base de 1 ! 2 basta demostrar que es un conjunto de vectores linealmente independientes, ya que debido a la construcción realizada resulta claro que todo elemento de 1 ! 2 es una combinación lineal de elementos de . Supongamos, por tanto, que tenemos una expresión de la forma a1e1 ! ñ ! al el ! bl!1

l!1 ! ñ ! b

!

l!1gl!1 ! ñ ! m gm % 0.

166

Capítulo 4. Espacios vectoriales

El vector v%a1e1!ñ!al el!bl!1 l!1!ñ!b à 1 coincide con . l!1gl!1.ñ. mgm à 2 y, por tanto, es un elemento de 1 ç 2. Como 1 ç 2 está generado por los vectores e1, ..., el, hemos de tener l!1 % ñ % m % 0. Por tanto, la igualdad anterior se transforma en a1e1 ! ñ ! al el ! bl!1

l!1 ! ñ ! b

Puesto que {e1, ..., el, l!1, ..., } es una base de % bl!1 % ñ % b % 0. Esto termina la demostración.

1

% 0.

deducimos que a1 % ñ % al % 䊏

EJEMPLO E. Dos subespacios vectoriales 1 y 2 en ⺢3, ambos de dimensión 2, que se cortan en una recta, han de tener una suma que coincida con todo ⺢3, ya que dim (

1!

2) % dim ( 1) ! dim ( 2) . dim ( 1 ç

*

*

2) % 2 ! 2 . 1 % 3.

*

Definición 4.4.3 Un espacio vectorial 1) 2)

1! 1ç

es suma directa de dos de sus subespacios

1

y

2

si:

2%

. % {0}. 2

Utilizaremos la notación vectoriales 1 y 2.

%

1S

2

para indicar que

es suma directa de los subespacios

Observaciones 1) El plano ⺢2 puede escribirse como suma directa de dos rectas no coincidentes que pasan por el origen.

2) El espacio ⺢3 puede escribirse como suma directa de un plano que pasa por el origen y una recta que le corta en este punto. 3) De la Proposición 4.4.2 deducimos que si % 1 S 2 se tiene que dim ( ) % dim (

1S

2) % dim ( 1) ! dim ( 2)

ya que el subespacio vectorial impropio {0} tiene dimensión 0. Si % 1 ! 2 , todo elemento v à puede escribirse de la forma v % v1 ! v2 con v1 à 1 y v2 à 2. Si la suma es directa, esta descomposición es única, como prueba el siguiente resultado.

167

Sección 4.4. Subespacios vectoriales. Intersección y suma de subespacios vectoriales

Proposición 4.4.4 Sean 1 y 2 subespacios vectoriales de un espacio vectorial . Las siguientes afirmaciones son equivalentes: 1) % 1 S 2. 2) Para todo v à existe una descomposición ni a de la forma v % v1 ! v2, con v1 à y v2 à 2.

1

Demostración. Para demostrar que 1) implica 2) es suficiente probar la unicidad; supongamos que v % v1 ! v2 y v % 1 ! 2 con v1, 1 à 1 y v2, 2 à 2. Tenemos v 1 ! v2 %

1!

v1 .

2 . v2.

2

o bien 1%

La parte izquierda de esta igualdad es un elemento de 1, mientras que la parte derecha es un elemento de 2. Puesto que 0 es el único vector que 1 y 2 tienen en común, deducimos que v1 .

1%

2 . v2 % 0.

Por tanto 1 % v1

2 % v2 ,

y

que era lo que queríamos demostrar. Para demostrar que 2) implica 1) es suficiente demostrar que podemos escribir



2 % {0}.

Si v à



2,

v % v ! 0 % 0 ! v. Puesto que la descomposición ha de ser única se tiene que v % 0. Esto prueba el resultado de䊏 seado. *

*

*

También podemos definir la intersección, la suma y la suma directa de más de dos subespacios vectoriales. En general, dados n subespacios vectoriales 1, 2, ..., n de un espacio vectorial definimos n

Y

%1

%{ à

à

:

para todo

% 1, ..., n}

y n

;

%1

%

E

n

;

%1

:

à

F

, % 1, ..., n

que reciben el nombre de inter e i n y ma, respectivamente, de los subespacios vectoriales dados. Estos dos nuevos subespacios son también subespacios vectoriales de . La definición de ma ire ta de varios subespacios vectoriales es un poco más complicada en general, que si solamente hay dos. La definición más razonable es la que guarda similitud

168

Capítulo 4. Espacios vectoriales

con la afirmación 2) de la Proposición 4.4.4. Diremos que vectoriales 1, 2, ..., n, y escribiremos %

1S

es

2SñS

ma ire ta de los subespacios

n

o bien n

%S

i

i%1

n

si todo vector v de

tiene una descomposición ni a de la forma v % ; vi, con vi à

i,

i%1

i % 1, 2, ..., n. Si n % 2, la Proposición 4.4.4 muestra que esta definición de suma directa y la dada anteriormente son equivalentes. Si n n 3 se pide demostrar en el ejercicio 6 al final de esta sección que una condición equivalente de suma directa es la siguiente: n

;

i%



y

i%1

A B ;

Çi

% {0} para todo i % 1, 2, ..., n.

A partir de aquí puede demostrarse que

A B n

dim S

i%1

i

n

% ; dim ( i), i%1

lo cual se obtiene aplicando repetidas veces el resultado ya conocido cuando n es igual a 2.

EJERCICIOS 4.4 1. Los siguientes subconjuntos y familias de vectores de algunos espacios vectoriales son subespacios y bases de estos. Verificar la verdad o falsedad de esto en los ejemplos siguientes: a)

{(a, b) à ⺢2 : b % 1}; {(2, 1)}.

b)

{ ( )à

c)

com ( ) % { à ᏹ2#2(⺢) :

(3) ⺓ [

] : ( . 1) divide a ( )}; { . 1, %

} con

%

2

. 1}.

A B EA B A BF 2 0

1 ; 2

2 0

1 0 , 2 1

1 0

.

2. Estudiar si los siguientes subconjuntos de ᏹ2#2(⺢) son subespacios vectoriales: a) b)

% { à ᏹ2#2(⺢) : r( ) % 1} donde r( ) designa el rango de . % { à ᏹ2#2(⺢) : traza ( ) % 0}, donde traza ( ) denota la suma de los elementos de la diagonal principal de .

3. Encontrar la dimensión del subespacio generado por los siguientes conjuntos de vectores: a)

{(1, 2), (0, 1), (.1, 3)} en ⺢2.

b)

EA

i 0

BA

BF

1 1!i 1.i , 1!i 0 2

en ᏹ2#2(⺓).

Sección 4.5. El espacio vectorial cociente

169

4. Hallar en cada uno de los ejemplos siguientes la suma y la intersección del par de subespacios dados, y comprobar que se verifica la fórmula de Grassmann dim ( 1) ! dim ( 2) % dim ( a)

1 % com

com ( )). b)

A B 2 0

1%{

( )à 2%{ ( ) à

1 , 2

(3) ⺓ [ (3) ⺓ [

2 % com

A B 2 1

0 2

1!

2) ! dim ( 1 ç

2).

(ver el ejercicio 1 para la definición de

] : ! 1 divide a ( )}, ] : . 1 divide a ( )}.

c) L({sen t, cos t}), L({eit, e.it}) considerados ambos como subespacios del espacio vectorial real ⺓([0, 1]). 5. Decir cuáles de los siguientes pares de subespacios se suman directamente y cuál es la suma (directa o no) en cada caso: a)

᏿ % { à ᏹ2#2(⺓) : % t} (matrices simétricas) Ꮽ % { à ᏹ2#2(⺓) : %. t} (matrices antisimétricas)

b)

% { : [.1, 1] r ⺢ : (.t) % (t)} (funciones pares) % { : [.1, 1] r ⺢ : (.t) %. (t)} (funciones impares) [ geren ia: g(t) % (g(t) ! g(.t))/2 ! (g(t) . g(.t))/2]

c)

1%{

: [.1, 1] r ⺢ : (t) % 0, t n 0} 2 % { : [.1, 1] r ⺢ : (t) % 0, t m 0}.

6. Sean 1, 2, ..., n subespacios vectoriales de un espacio vectorial n n 3 las siguientes afirmaciones son equivalentes:

. Demostrar que si

n

a)

%S

i

i%1 n

b)

%; i%1

7.

i

y



A B ;

% {0} para todo i % 1, ..., n.



Sean 1, 2 subespacios vectoriales de un espacio vectorial L( 1 é 2) % 1 ! 2.

. Demostrar que

4.5. El espacio 4.5. EL ESPACIO vectorial cociente VECTORIAL COCIENTE

Un concepto importante en matemáticas es el de on nto o iente. Para definirlo se necesita un conjunto y una relación ᑬ en , es decir, una ley que nos permita decidir si dos elementos de están o no relacionados. Cuando dos elementos a, b à están relacionados escribimos a ᑬ b. Una relación ᑬ en se dice que es de e ivalen ia si cumple las siguientes propiedades: 1) Reflexiva: a ᑬ a para todo a à . 2) Simétrica: si a, b à y a ᑬ b, entonces b ᑬ a. 3) Transitiva: si a, b, à , a ᑬ b y b ᑬ , entonces a ᑬ .

170

Capítulo 4. Espacios vectoriales

Denotemos por [a] al conjunto {b à : b ᑬ a}, que llamamos la e e e ivalen ia del elemento a. Cualquier elemento de esta clase de equivalencia se dice que es un re re entante de [a]. Todo elemento a à está en una clase de equivalencia, a saber [a], por la propiedad reflexiva. Además, si a ᑬ b las propiedades simétrica y transitiva implican que [a] % [b]. Una propiedad importante de las clases de equivalencia es que si a no está relacionado con b entonces, [a] ç [b] % Y. Para probar este resultado supongamos que existiera à [a] ç [b]. Entonces ᑬ a y ᑬ b. Con la propiedad simétrica deducimos a ᑬ y por la propiedad transitiva tenemos a ᑬ b, contrariamente a nuestra suposición. Esto implica que es unión disjunta de sus clases de equivalencia. Llamamos on nto o iente, y lo denotamos por /ᑬ, al conjunto de todas las clases de equivalencia, es decir, /ᑬ % {[a] : a à }. EJEMPLO A. Sea ⺪ el conjunto de los números enteros y n un número natural, n b 1. Dos números 1, 2 à ⺪ decimos que están relacionados (módulo n) si al dividirlos entre n ambos dan el mismo resto, o equivalentemente 1 . 2 % n5 , donde n5 es una notación para indicar que el resultado es un múltiplo de n. Escribimos entonces 1 zn 2 para indicar esta relación. Si à ⺪, la clase de equivalencia [ ] está formada por todos los números enteros que se obtienen sumando a un múltiplo entero de n. De esta manera, el conjunto cociente es / zn % {[ ] : % 0, 1, ..., n . 1}. *

*

*

Cuando el conjunto es un espacio vectorial sobre un cuerpo ⺛ y vectorial de , podemos definir la siguiente relación: v1 V v2

á

v1 . v 2 à

es un subespacio

.

Puede comprobarse que esta relación cumple las propiedades reflexiva, simétrica y transitiva, por lo que es una relación de equivalencia. Observar que v1 V v2 si y solo si existe à tal que v1 . v2 % , por lo que v1 % v2 ! . Por lo tanto, para cada v à , su clase de equivalencia es el conjunto [v] % v !

% {v !

à

:

}.

Escribiremos / % {[v] : v à

}

para denotar el conjunto cociente /V. Observar que [0] % . Como es un espacio vectorial podemos sumar sus elementos y multiplicarlos por escalares del cuerpo ⺛. También pueden definirse dos operaciones de este tipo en / de la siguiente forma: (v1 !

) ! (v2 !

) % (v1 ! v2) ! ,

y si a à ⺛, a · (v ! si

) % (av) ! .

Hay que comprobar que estas operaciones están bien e ini a . Por ejemplo, para la suma, à v1 ! y 2 à v2 ! se tiene 1 % v1 ! 1 y 2 % v2 ! 2 con 1, 2 à ; entonces,

1

1!

y por lo tanto (

2 % v1 !

1!

2) !

1 ! v2 !

2 % v1 ! v2 ! (

% (v1 ! v2) ! .

1!

2)

à v 1 ! v2 !

Sección 4.5. El espacio vectorial cociente

171

El lector puede comprobar que las operaciones de suma y multiplicación por escalares definidas en el conjunto cociente / satisfacen (S1) a (S4) y (M1) a (M4) de la definición de espacio vectorial 4.1.1. Por todo ello / es un espacio vectorial sobre ⺛ que se denomina espacio ectorial cociente. EJEMPLO B. Considerar en ⺢2 la recta vectorial L de ecuaciones % t, y % 0, t à ⺢. Observar que si (a, b) à ⺢2 se tiene (a, b) ! L % {(a, b) ! (t, 0) : t à ⺢} % {(0, b) ! (t ! a, 0) : t à ⺢} % (0, b) ! L por lo que (a, b) ! L, que es la recta paralela al eje horizontal L que pasa por (a, b), coincide con la recta paralela a L que pasa por (0, b). Por tanto ⺢2/L % {[(0, b)] : b à ⺢} % {(0, b) ! L : b à ⺢}.

i

ra 4.4

EJEMPLO C. Considerar en ⺢2 la recta vectorial L de ecuaciones paramétricas % 3t, y % 2t, t à ⺢. Observar que (3, 2) ! L % {(3, 2) ! (3t, 2t) : t à ⺢} % {(3(t ! 1), 2(t ! 1) : t à ⺢} % L y de manera similar j(3, 2) ! L % L para cada j à ⺢. Por otro lado (1, 1) ! L es la recta paralela a L que pasa por (1, 1), pero como 1 (1, 1) ! L % (1, 1) . (3, 2) ! L % (0, 1/3) ! L 3 también es la recta de ⺢2 paralela a L que pasa por el punto (0, 1/3). De manera similar a (a, b) ! L % (a, b) . (3, 2) ! L % (0, b . (2a/3)) ! L 3 es la recta paralela a L que pasa por (0, b.(2a/3)). Por tanto, los vectores de la forma va%(0, a), cuando a à ⺢, son un conjunto de representantes del espacio cociente ⺢2 / L, es decir ⺢2/L % {[va] : a à ⺢}.

172

Capítulo 4. Espacios vectoriales

i

*

ra 4.5

*

*

Sea un espacio vectorial de dimensión finita n, por lo que todas sus bases tienen n elementos. Considerar un subespacio vectorial de . En el resto de esta sección aprenderemos a encontrar una base de / , lo que nos permitirá conocer la dimensión de / en función de las dimensiones de y de . Para conseguir este objetivo comenzaremos demostrando el Teorema de Steinitz, que nos permite encontrar una base de que incluya un conjunto de vectores linealmente independientes inicialmente dados. Teorema 4.5.1 ( teinitz) Sea un espacio vectorial sobre un cuerpo ⺛. Sea {e1, ..., en} una base de . Si {v1, ..., v } es un conjunto de vectores de linealmente independiente, entonces existe un subconjunto de % {1, ..., n} de cardinal tal que {vi}i%1, ..., é {e }

à

es una base de . Demostración. Haremos la demostración por inducción en . Si % 1, entonces v1 % j1e1 ! ñ ! jnen. Sea i0 un índice con ji0 Ç 0. Probaremos a continuación que {v1} é {e } à {i0} es una base de . Como este conjunto tiene n elementos, basta probar que son linealmente independientes. Supongamos, por tanto, que tenemos una combinación lineal de la forma a1v1 ! n

à

;

b e % 0.

{i0}

Como v1 % ; j e se tiene %1

0 % a1

A

n

B

; je !

%1

à

; {i0}

b e % a1ji0ei0 !

à

;

(a1j ! b )e .

{i0}

{i0}. Como ji0 Ç 0 Como {e1, ..., en} es una base de , a1ji0 % 0 y a1j ! b % 0 para à se tiene a1 % 0 de la primera ecuación. Sustituyendo a1 % 0 en las restantes se deduce b % 0 para à 8i0}.

Sección 4.5. El espacio vectorial cociente

Supongamos ahora que existe un conjunto L Ñ de cardinal . 1 tal que {v } %1, ..., é {eᐉ}ᐉ à L es una base de . En esta base podemos escribir

173 .1 é

.1

v % ; c v ! ; jᐉ eᐉ. %1

ᐉà

(5.1)

L

L, fueran cero, el conjunto {v1, ..., v } sería linealmente dependiente. Si todos los jᐉ, ᐉ à L tal que jᐉ0 Ç 0. Solo falta probar Como estamos suponiendo que no lo es, debe existir ᐉ0 à que {v } %1, ..., é {eᐉ}ᐉ à (L é {ᐉ0}) es una base de . Como en el caso % 1 basta probar que son linealmente independientes. Consideremos, por tanto, una combinación lineal de la forma ; av !

%1

ᐉà

;

(L é {ᐉ0})

bᐉ eᐉ % 0.

Usando (5.1) podemos escribir .1

0% ; a v !a %1

A

B

.1

; c v ! ; jᐉ eᐉ !

%1

ᐉà

L

ᐉà

.1

% ; (a ! a c )v ! a jᐉ0 eᐉ0 ! %1

ᐉà

;

(L é {ᐉ0})

;

(L é {ᐉ0})

bᐉ eᐉ %

(a jᐉ ! bᐉ)eᐉ.

Como {v } %1, ..., .1 é {eᐉ}ᐉ à L es una base de , se debe tener a jᐉ0 % 0, a ! a c % 0 para % 1, ..., . 1, y a jl ! bᐉ % 0 para ᐉ à (L é {ᐉ0}). Como jᐉ0 Ç 0 de la primera ecuación se deduce a % 0. Sustituyendo este valor en las restantes ecuaciones obtenemos a % 0 䊏 (L é {ᐉ0}). para % 1, ..., . 1 y bᐉ % 0 para ᐉ à EJEMPLO D.

Considerar en ⺢4 la base dada por:

e1 % (1, 2, 0, 0),

e2 % (1, 1, 0, 1),

e3 % (0, 0, 1, 0), e4 % (1, 1, 1, 2).

Vamos a seguir la demostración del teorema de Steinitz (Teorema 4.5.1) para hallar una base de ⺢4 que incluya a los vectores v1 % (4, 7, 1, 2) y v2 % (4, 7, 2, 2), que son linealmente independientes. Observemos que v1 % 3e1 ! e4. Luego {v1, e2, e3, e4} es una base de ⺢4 en la que está v1. En esta base v 2 % v1 ! e 3 , por lo que {v1, e2, v2, e4} es una base de ⺢4 obtenida siguiendo el método dado en la demostración del teorema de Steinitz.

Definición 4.5.2 Sean 1 y 2 dos subespacios vectoriales de un espacio vectorial . Diremos que complementarios si % 1 S 2.

1

y

2

son

174

Capítulo 4. Espacios vectoriales

Observar que si {e1, ..., en} es una base de y {v1, ..., v } es una base de un subespacio vectorial de , según el Teorema 4.5.1 existe un conjunto de índices Ñ de cardinal , tal que el subespacio generado por {e } à es un complementario de . EJEMPLO E.

Considerar el subespacio de ⺢5 dado por % {( 1,

2,

3,

4,

5)

à ⺢5 :

1 . 5 % 0,

2 ! 3 ! 4 % 0},

donde las coordenadas están dadas en una base de ⺢5 fijada {e1, e2, e3, e4, e5}. Queremos hallar un complementario de . Observamos que {v1 % (0, 1, .1, 0, 0),

v2 % (0, 0, 1, .1, 0),

v3 % (1, 0, 0, 0, 1)}

es una base de . Usamos la demostración del teorema de Steinitz para hallar una base de ⺢5 que contenga a esta base de . Como v1 % e2 . e3, {e1, v1, e3, e4, e5} es una base de ⺢5. Como v2 % e3 . e4, {e1, v1, v2, e4, e5} es una base de ⺢5. Como v3 % e1 ! e5, el conjunto {v3, v1, v2, e4, e5} es una base de ⺢5, obtenida siguiendo el método dado en la demostración del teorema de Steinitz. Por lo tanto L({e4, e5}) es un complementario de . *

*

*

Para calcular una base del espacio vectorial cociente / se puede proceder de la siguiente manera. Si tiene como base {v1, ..., v }, elegimos una base cualquiera de , {e1, ..., en}, y aplicamos el teorema de Steinitz. Así obtenemos que el subespacio de generado por {e } à , es decir L ({e } à ), es un complementario de y también las clases {[e ]}

à

son una base de / . En efecto, como {e1, ..., en} es una base de , se tiene que {[e ]} à es un conjunto linealmente independiente de / . Pues si, para unos ai no todos nulos se da: ; ai [ei] %



entonces ; ai ei à ià

C

D

; ai ei % [0],



% L({v1, ..., v }), por lo que {vi}i%1, ..., é {e }

linealmente independiente de . También es un conjunto generador, pues cada clase [v] à /

C

D

à

no sería un conjunto

se puede expresar como

[v] % ; ji vi ! ; j e % ; j [e ] i%1

à

à

donde (j1, ..., jn) son las coordenadas de v en la base {vi}i%1, ..., é {e } à de . Luego es una base. Como consecuencia se tiene la siguiente fórmula para las dimensiones dim / % n . % dim . dim

.

Sección 4.5. El espacio vectorial cociente

175

EJEMPLO F. Considerar en ⺢3 una base {e1, e2, e3}. Tomemos la recta L generada por v1 % e1 ! e2 ! e3. Entonces {v1, e2, e3} es una base de ⺢3 en la que está v1. El espacio vectorial cociente ⺢3/L tiene por base: % {[e2], [e3]}. Además ⺢3/L % {a[e2] ! b[e3] : a, b à ⺢} % {

(a, b) ! L : a,

b à ⺢},

donde (a, b) % (0, a, b). Es decir ⺢3/L es la familia de todas las rectas de ⺢3 paralelas a L. Como hemos visto, esta familia tiene estructura de espacio vectorial con las dos operaciones siguientes: ( (a, b) ! L) ! (añ, bñ) ! L) % (a!añ, b!bñ) ! L, t·(

(a, b) ! L) % ( (ta, tb) ! L),

para cada t à ⺢.

EJERCICIOS 4.5 1. En los casos siguientes, dado un espacio vectorial y uno de sus subespacios vectoriales , describir las clases de equivalencia y el conjunto cociente / determinados por la relación de equivalencia v1 V v 2 á v1 . v 2 à . a)

% ⺢2,

% {(0, y) : y à ⺢}.

b)

%⺢ ,

% {( , y, 0) : , y à ⺢}.

c)

%

3

3 ⺢(

) % {a ! b !

2

!

3

: a, b, ,

à ⺢},

%{ à

3 ⺢(

) : a % 0}.

2. En cada uno de los apartados siguientes comprobar que los vectores dados con respecto a la base canónica de ⺢4 son linealmente independientes y seguir la demostración del Teorema de Steinitz para hallar una base de ⺢4 que los contenga: a)

v1 % (3, 5, 1, 1), v2 % (0, 1, 2, .2), v3 % (1, 0, .3, 4).

b)

v1 % (0, 0, 1, 1), v2 % (0, 1, .3, 2).

3. Considerar el subespacio vectorial de ⺢4 dado por % {( 1,

2,

3,

4)

à ⺢4 :

1 . 4 % 0,

1 . 3 % 0},

donde las coordenadas están dadas con respecto a la base canónica de ⺢4. Describir las ecuaciones paramétricas de un complementario de . 4. En ⺢3 considerar una base {e1, e2, e3} y el subespacio vectorial generado por los vectores v1 % e1 ! e2, v2 % e2 . e3. Hallar una base del espacio vectorial cociente ⺢3/ y dar una descripción de este espacio vectorial. 5. Considerar el subespacio vectorial de ⺢4 dado por % {( 1,

2,

3,

4)

à ⺢4 :

1 . 4 % 0,

1 . 3 % 0},

donde las coordenadas están dadas con respecto a la base canónica de ⺢4 (ver ejercicio 3). Hallar una base de ⺢4/ .

a

Capítulo 5

Aplicaciones lineales entre espacios vectoriales. 5.1. Definición de aplicación lineal. Ejemplos. 5.2. Matriz de una aplicación lineal. Operaciones con aplicaciones lineales. 5.3. Aplicaciones lineales y cambio de base. 5.4. Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal. 5.5. El espacio dual de un espacio vectorial.

178

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

5.1. Definición 5.1. DEFINICIÓN de aplicación lineal. DE Ejemplos APLICACIÓN LINEAL. EJEMPLOS

En la sección 1.3 hemos definido el concepto de aplicación lineal de ⺢n en ⺢m. Recordamos que en ese contexto toda aplicación lineal quedaba determinada por una matriz de m filas y n columnas; además, las siguientes propiedades caracterizan una aplicación lineal entre estos espacios: ( ! y) % ( ) ! (y) para todo , y à ⺢n. (r ) % r ( ) para todo à ⺢n y todo número real r.

1) 2)

(Ver los Teoremas 1.3.1 y 1.3.2.) Utilizaremos esta caracterización para definir las aplicaciones lineales entre dos espacios vectoriales cualesquiera. En la siguiente sección mostraremos que, fijadas dos bases en los espacios vectoriales, toda aplicación lineal queda determinada por una matriz.

Definición 5.1.1 ( plicaci n lineal) Sean y tal que: 1) 2)

espacios vectoriales; una aplicaci n lineal

de

en

es una aplicación :

r

(v ! ) % (v) ! ( ) para todo v, à . (av) % a (v) para todo a à ⺛ y todo v à .

Nota. Observar que ambos conjuntos cuerpo ⺛.

y

deben ser espacios vectoriales sobre el mismo

En el Capítulo 1 se han dado varios ejemplos de aplicaciones lineales entre los espacios vectoriales ⺢n y ⺢m. Recordamos únicamente los giros en el plano y la simetría con respecto a un eje en ⺢2. EJEMPLO A. Dado un número real a, la aplicación que asocia a cada polinomio del conjunto ⺢[ ] su valor para % a es una aplicación lineal; esta aplicación queda definida mediante las siguientes expresiones: : El hecho de que

⺢[

] r ⺢,

( ( )) % (a).

es una aplicación lineal se deduce de las siguientes igualdades:

( ( ) ! ( )) % (( ! )( )) % ( ! )(a) % (a) ! (a) % % ( ( )) ! ( ( )) y ( ( )) % ( ( )) % ( )(a) % ( (a)) % para todo número real . EJEMPLO B.

Dada la matriz %

A

i 1 0 1 i 1

B

( ( ))

Sección 5.1. Definición de aplicación lineal. Ejemplos

179

de elementos complejos, podemos definir la aplicación : ⺓3 r ⺓2 dada por (( 1,

2,

3)) % (i 1 ! 2,

1 ! i 2 ! 3).

Puesto que

AB 1

(( 1,

2,

3)) %

2

,

3

donde en la parte derecha se realiza una multiplicación de matrices, es fácil demostrar que una aplicación lineal. En general, dada una matriz à ᏹm#n(⺛), la aplicación

es

: ⺛n r ⺛m dada por

AB 1

(( 1,

2,

...,

n)) %

2

ó

m

es una aplicación lineal, que recibe el nombre de a li a i n lineal a o ia a on la matri EJEMPLO C. decir: :

Sea ⺢[

]r

.

la aplicación que a cada polinomio le hace corresponder su derivada, es ⺢[

(a0 ! a1 ! ñ ! an n) % a1 ! 2a2 ! ñ ! nan

],

n.1

.

Esta es una aplicación lineal, ya que la derivada de una suma de funciones es la suma de las derivadas de cada una de las funciones y la derivada de un número real por una función coincide con el producto del número real por la derivada de la función. Observar que si el conjunto inicial de esta aplicación es (n) ⺢ [ ], como conjunto final pode[ ]; esto es cierto ya que la derivada de un polinomio de mos tomar el mismo, o incluso (n.1) ⺢ grado no superior a n es otro polinomio de grado no superior a n . 1. EJEMPLO D. La aplicación que a cada matriz cuadrada le hace corresponder su determinante no es una aplicación lineal, ya que, en general, el determinante de una suma de matrices no coincide con la suma de los determinantes de cada una de ellas. Baste como ejemplo el siguiente: .1 % det

AA B A BB 0 0

1 0 ! 0 1

0 0

*

Ç det *

A B 0 0

A B

1 0 ! det 0 1

0 % 0. 0

*

Aplicando repetidas veces las propiedades 1) y 2) de la definición de aplicación lineal entre espacios vectoriales se consigue demostrar que la imagen, mediante una aplicación lineal, de

180

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

una combinación lineal de vectores del espacio vectorial inicial es una combinación lineal de vectores del espacio vectorial final. De forma más precisa:

A

n

;

%1

B

n

v %;

(v )

%1

donde à ⺛ y v à para todo % 1, 2, ..., n. Otras propiedades que se deducen inmediatamente de la definición de aplicación lineal son las siguientes: Proposición 5.1.2 Sea una aplicación lineal entre los espacios vectoriales resultados:

y

. Se tienen los siguientes

1) La imagen del elemento neutro de mediante es el elemento neutro de , es decir, (0) % 0. 2) La imagen mediante del opuesto de un elemento v de es el opuesto de (v), es decir, (.v) %. (v). Demostración. Para demostrar 1) escribimos (0) % (0 ! 0) % (0) ! (0) y restamos (0) en ambos lados. Para demostrar 2) basta observar que (.v) % ((.1)v) % (.1) (v) %. (v).



Un concepto importante es el de n leo e na a li a i n lineal; dada una aplicación lineal : r , definimos el núcleo de , que se denota mediante Ker ( ), como el conjunto de todos los v à tal que (v) % 0; es decir: Ker ( ) % {v à

: (v) % 0}.

Nota. En algunos textos se utiliza ( ) en lugar de Ker ( ); la notación Ker ( ) es la que se utiliza en toda la literatura matemática inglesa; esta notación viene de la palabra inglesa er nel, que significa «núcleo». El subconjunto Ker ( ) nunca es vacío, ya que 0 à Ker ( ); esto se deduce de que (0) % 0, como se ha demostrado en la Proposición 5.1.2. El subconjunto Ker ( ) es, además, un subconjunto distinguido de ; se tiene el siguiente resultado: Proposición 5.1.3 Si : r es una aplicación lineal entre espacios vectoriales, Ker ( ) es un subespacio vectorial de . Demostración. Si tanto:

e y son elementos de Ker ( ) se tiene que ( ) % 0 y (y) % 0; por ( ! y) % ( ) ! (y) % 0 ! 0 % 0,

181

Sección 5.1. Definición de aplicación lineal. Ejemplos

de donde deducimos que ! y à Ker ( ). Si ( )% de donde se deduce que

à Ker ( ) y

à ⺛ se tiene que

( ) % · 0 % 0, 䊏

à Ker ( ). Estos dos resultados prueban la proposición.

En la sección 1.3 demostramos que la imagen de una recta mediante una aplicación lineal de ⺢n en ⺢m es otra recta o un punto. Para aplicaciones lineales entre espacios vectoriales se tiene el siguiente resultado: Proposición 5.1.4 Sea : r una aplicación lineal entre espacios vectoriales. La imagen mediante cualquier subespacio vectorial de es un subespacio vectorial de . Demostración. Sea 1 un subespacio vectorial de mediante . Recordamos que 1%

y sea

1%

y puesto que v1 ! vñ1 à 1, por ser Tomemos ahora a à ⺛ y 1 à

ñ% 1 1

( 1) la imagen de

1

( 1) % { (v1) : v1 à }.

Sean 1, 1ñ à 1; existen, por tanto, dos vectores v1, vñ1 à (vñ1) % 1ñ . Entonces 1!

de

1

tal que

(v1) %

1

y

(v1) ! (vñ1) % (v1 ! vñ1)

un subespacio vectorial de , se tiene que 1 ! ñ1 à existe v1 à 1 tal que (v1) % 1. Por tanto,

1.

1;

a

1%a

(v1) % (av1)

y puesto que av1 à 1, por ser 1 un subespacio vectorial de , se tiene que a 1 à 1. Estos dos resultados son suficientes para probar que 1 es un subespacio vectorial 䊏 de . *

*

*

Si el subespacio 1 tiene {v1, ..., v } como base, todo elemento de ( 1) puede escribirse como combinación lineal de los vectores (v1), ..., (v ). Esto es cierto ya que tomando v à 1 tal que (v) % se tiene que % (v) %

A

;

%1

B

v %;

(v ).

%1

Por tanto, 1 coincide con el subespacio generado por los vectores (v1), ..., (v ), es decir, 1 % L( (v1), ..., (v )). En consecuencia, la dimensión de 1 no puede superar . Hemos probado el siguiente resultado: Proposición 5.1.5 La imagen mediante una aplicación lineal de un subespacio vectorial de dimensión un subespacio vectorial de dimensión no superior a .

es

182

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Para finalizar esta sección demostramos que una aplicación lineal queda determinada cuando se conocen las imágenes de los elementos de una base del espacio inicial. El enunciado preciso de esta afirmación se da en el siguiente teorema: Teorema 5.1.6 Sea % {e1, e2, ..., en} una base de un espacio vectorial y sean 1, 2, ..., n vectores cualesquiera de otro espacio vectorial . En estas condiciones, existe una única aplicación lineal de en tal que (e ) %

% 1, 2, ..., n.

,

n

Demostración. Definimos

de la siguiente manera: dado v à

podemos escribir v% ; v e

con v à ⺛; entonces definimos

%1

n

(v) % ; v

.

%1

A partir de aquí es un simple ejercicio comprobar que (e ) % , % 1, 2, ..., n.

es la única aplicación lineal tal que 䊏

5.2. Matriz 5.2. MdeATRIZ una aplicación DE UNA lineal. Operaciones APLICACIÓN con aplicaciones LINEAL. lineales OPERACIONES CON APLICACIONES LINEALES

En esta sección, y mientras no se indique lo contrario, y denotarán dos espacios vectoriales sobre el mismo cuerpo ⺛ y una aplicación lineal de en . Sea % {e1, e2, ..., en} una base de y 1 % { 1, 2, ..., m} una base de . El elemento (e1) es un vector de y, por tanto, podemos escribir (e1) % a11 1 ! a21 2 ! ñ ! am1 m. Análogamente, (e2) % a12 1 ! a22 2 ! ñ ! am2 m ó ó ó ó (en) % a1n 1 ! a2n 2 ! ñ ! amn m . Estas igualdades se escriben abreviadamente de la forma m

(e ) % ; ai i%1

i

,

% 1, 2, ..., n.

Sección 5.2. Matriz de una aplicación lineal. Operaciones con aplicaciones lineales

183

En estas condiciones diremos que

A

B

ñ ñ

a11 a12 a a22 % 21 ó ó am1 am2

a1n a2n ó amn

ñ

es la matri e la a li a i n on re e to a la ba e y 1. Observar que la -ésima columna de la matriz de la aplicación lineal son las componentes de (e ) con respecto a la base 1 de . Para ser precisos sería necesario designar la matriz con un símbolo que incluyera las ba1 ( ). Nosotros preferimos denominar a la matriz con la ses y 1 ; este símbolo podría ser misma letra que a la aplicación, siempre que esta economía en la notación no sea causa de incomprensión. Dado à , podemos escribir n

m

%;

e

y % ( ) % ; yi i.

e

%1

i%1

La relación entre las coordenadas yi y

viene dada por la matriz . En efecto, la igualdad

m

; yi i % ( ) % i%1

A

n

%;

%1

m

A

B

n %1

; ai

i%1

n

e %;

;

i

B

%1

m

%; i%1

A

(e ) %

n

; ai

%1

B

i

implica las siguientes igualdades: n

yi % ; ai

,

%1

i % 1, 2, ..., m.

(2.1)

Con notación matricial, podemos escribir

AB AB y1 y2 % ó ym

1 2

ó

.

n

No solo toda aplicación lineal puede representarse mediante una matriz con respecto a dos bases dadas, sino que recíprocamente, i a a ba e % {e1, ..., en} y 1 % { 1, ..., m} en lo e a io ini ial y inal, re e tivamente, y a a al ier matri e or en m # n ai à ⺛

% (ai )i%1, ..., m , %1, ..., n

e i te na ni a a li a i n lineal

e tiene a

n

omo matri : si % ;

%1

m

( ) % ; yi i%1

i

donde y1, y2, ..., ym, están dados por las relaciones que aparecen en (2.1).

e definimos

184

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Nota. Si los espacios vectoriales y coinciden y en ambos se toma la misma base para representar una aplicación , su matriz se dice que está dada con respecto a la base . EJEMPLO A. Sea a la rotación o giro de ángulo a, en el plano, alrededor del origen en sentido positivo (contrario al giro de las agujas de un reloj). Se tiene que a es una aplicación lineal de ⺢2 en ⺢2 que, referida a la base canónica del plano, % {e1, e2}, satisface a(e1) % (cos a)e1 ! (sen a)e2 a(e2) % (.sen a)e1 ! (cos a)e2

(ver ejemplo B de la sección 4.3). Por tanto tiene como matriz a%

Si consideramos la base ñ % { 1,

2}

A

cos a sen a

con

B

.sen a . cos a

1 % e 2,

2 % e1,

la rotación

a

satisface

a( 1) %

a(e2) % (.sen a)e1 ! (cos a)e2 % (.sen a) 2 ! (cos a) 1

a( 2) %

a(e1) % (cos a)e1 ! (sen a)e2 % (cos a) 2 ! (sen a) 1 .

Por tanto, la matriz de

a

con respecto a la base ñ de ⺢2 es ñ% a

Observar que la matriz

A

B

cos a .sen a

sen a . cos a

del cambio de base de la canónica a ñ es %

cuyo determinante es 8 8 %.1.

A B 0 1

1 , 0

EJEMPLO B. En el espacio vectorial real ⺢3 consideramos una base % {e1, e2, e3} y el subespacio 1 % {( 1, 2, 0) : 1, 2 à ⺢}. Si es la simetría con respecto al subespacio vectorial 1, se tiene que (e1) % e1,

(e2) % e2,

i

ra 5.1

(e3) %.e3.

Sección 5.2. Matriz de una aplicación lineal. Operaciones con aplicaciones lineales

Por tanto, su matriz con respecto a la base

185

es

A

1 % 0 0

B

0 1 0

0 0 . .1

Observar que las simetrías pueden definirse con respecto a cualquier subespacio vectorial de ⺢3. EJEMPLO C. En el espacio vectorial real ⺢3 consideramos la base canónica % {e1, e2, e3} y sea la roye i n ortogonal sobre el plano % 0; es una aplicación lineal de ⺢3 y puesto que (e1) % e1, (e2) % e2 y (e3) % 0,

i

su matriz con respecto a la base

ra 5.2

es

A B

1 % 0 0

0 1 0

0 0 . 0

EJEMPLO D. Dados dos espacios vectoriales y , la a li a i n n la que envía todo vector de al elemento neutro de es una aplicación lineal, cuya matriz es la matriz nula con respecto a cualesquiera bases de y . En un mismo espacio vectorial , la aplicación que lleva todo vector de en sí mismo se denomina a li a i n i enti a . Es fácil comprobar que, fijada una base de , la matriz de la aplicación identidad es

si el espacio vectorial tiene dimensión n. EJEMPLO E. Sea la aplicación eriva i n del ejemplo C de la sección 5.1 y consideremos (n.1) [ ]. Sea % {1, , 2, ..., n} una base de (n) como una aplicación de (n) ⺢ [ ] en ⺢ ⺢ [ ] y 2 n.1 (n.1) 1 % {1, , , ..., } una base de ⺢ [ ]. Tenemos (1) % 0,

( ) % 1,

( 2) % 2 ,

( 3) % 3 2, ...,

( n) % n

n.1

.

186

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Por tanto, la matriz de por

y 1 es la matriz de orden n # (n ! 1) dada

con respecto a las bases

A

0 0 0 % 0 ó 0

1 0 0 0 ó 0

0 2 0 0 ó 0

0 0 3 0 ó 0

ñ ñ ñ ñ ñ

B

0 0 0 . 0 ó n

EJEMPLO F. Tratamos de encontrar una base en ⺢3 de manera que la matriz de la simetría con respecto al subespacio vectorial 1 % {( , y, ) à ⺢3 : ! y ! % 0} sea

A

1 0 0

B

0 1 0

i

0 0 . .1

ra 5.3

En el ejemplo B se ha resuelto el caso en que el subespacio vectorial coincida con el plano % 0. Un estudio detallado del ejemplo citado nos da la idea adecuada para resolver el problema planteado aquí: basta tomar dos vectores cualesquiera de 1 que sean linealmente independientes y un tercero que sea perpendicular a 1. Por ejemplo, 1 % (1,

.1, 0),

2 % (0,

*

*

1, .1),

3 % (1,

1, 1).

*

Ya hemos mencionado anteriormente que si en los espacios vectoriales y , de dimensión finita n y m, respectivamente, se fijan bases, existe una correspondencia biunívoca entre las aplicaciones lineales de en y el conjunto de las matrices ᏹm#n(⺛), de orden m # n sobre el cuerpo ⺛. Puesto que el conjunto ᏹm#n(⺛) posee una estructura de espacio vectorial, no es de extrañar que en el conjunto de todas las aplicaciones lineales entre dos espacios vectoriales puedan definirse dos operaciones que le den estructura de espacio vectorial. Estas operaciones ya han sido definidas en la sección 1.3 cuando los espacios vectoriales son ⺢n y ⺢m. Las operaciones que daremos aquí son una copia de aquellas. Sean y dos espacios vectoriales sobre el mismo cuerpo ⺛; el conjunto de todas las aplicaciones lineales de en se designará mediante el símbolo L( ,

).

Sección 5.2. Matriz de una aplicación lineal. Operaciones con aplicaciones lineales

Si

y

son elementos de L( ,

ma mediante

), definimos su

( ! )(v) % (v) ! (v)

para todo v à .

) y es un elemento de ⺛, definimos la m lti li a i n e

Si es un elemento de L( , mediante (

)(v) % ( (v))

187

or

para todo v à .

Las operaciones que acabamos de definir tienen ciertas propiedades que coinciden con las enumeradas para matrices en la sección 1.3. Una forma elegante y rápida de enumerar estas propiedades se da en el siguiente teorema: Teorema 5.2.1 Sean y dos espacios vectoriales sobre un mismo cuerpo ⺛; el conjunto L( , ) de las aplicaciones lineales entre y , con las operaciones anteriormente definidas, es un espacio vectorial sobre el cuerpo ⺛. La demostración completa de este resultado se deja para el lector; nosotros observaremos que el elemento neutro de este espacio es la aplicación nula y el opuesto de una aplicación es la aplicación . definida por (. )( ) %.( ( )). Si y coinciden escribimos L( ) en lugar de L( , ). Puesto que toda aplicación lineal puede representarse mediante una matriz y recíprocamente, el siguiente resultado no debe extrañar al lector. Teorema 5.2.2 Sean y espacios vectoriales de dimensiones n y m, respectivamente; entonces, el espacio vectorial L( , ) tiene dimensión n # m. Demostración. Hemos de exhibir n # m elementos de L( , ) que formen una base de este espacio. Fijadas % {e1, ..., en} bases de

y

1 % { 1, ...,

y

m}

, respectivamente, definimos, para % 1, ..., n, i % 1, ..., m, i(e

)%

E

i

0

F

% Ç

si si

,

% 1, 2, ..., n.

Esta definición se simplifica, en cuanto a su notación, si utilizamos un símbolo denominado elta e rone er: d %

E

si si

% Ç

i(e

)%d

i

1 0

F

,

% 1, 2, ..., n, % 1, 2, ..., n.

Entonces podemos escribir ,

% 1, 2, ..., n.

188

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Puesto que i ha sido definido para los elementos de una base de , determina una única aplicación lineal de en , que seguiremos denotando por i; este resultado se ha demostrado en el Teorema 5.1.6. Para finalizar la demostración del teorema es necesario probar que %{

i} %1, ..., n i%1, ..., m

es una base de L( , ). Sea n

m i%0

; ; ai

%1 i%1

una combinación lineal nula de los elementos de para todo % 1, 2, ..., n, n

(0 designa la aplicación nula de

en

);

m

m

i(e ) % ; a

; ; ai

%1 i%1

i%1

i i%0

à

.

Puesto que 1 es una base de se deduce que a i % 0, i % 1, 2, ..., m. Esto prueba que es un conjunto de aplicaciones lineales linealmente independiente. Falta probar que es un sistema de generadores de L( , ). Sea à L( , ) y sea % (ai ) su matriz con respecto a las bases y 1 ; para todo e à tenemos n

m

(e ) % ; ai i%1

Puesto que

i (e

m

i % ; ai

i(e ) % ;

i%1

i%1

i (ai

e ).

) % 0 si Ç , podemos escribir m

m

n

(e ) % ; ;

i%1 %1

n

i (ai e ) % ; ; ai i%1 %1

i (e

).

De aquí se deduce que n

m

% ; ; ai i%1 %1

i

ya que ambas aplicaciones coinciden sobre los elementos de una base de . Esto termina la demostración del Teorema 5.2.2.



Nota. Más adelante se dará otra demostración del Teorema 5.2.2 estableciendo una correspondencia biyectiva entre L( , ) y ᏹm#n(⺛) de manera que se conserve la dimensión. (Ver sección 5.4.) *

*

*

Con la misma situación que al comienzo de esta sección, sean y ñ dos aplicaciones lineales de en . Sean ( ), ( ñ), ( ! ñ) y ( ) las matrices de las aplicaciones lineales , ñ, ! ñ y con respecto a las bases y 1 de y , respectivamente. En estas condiciones se tiene que ( ! ñ) % ( ) !

( ñ)

y (

)%

( ),

à ⺛.

Sección 5.3. Aplicaciones lineales y cambio de base

189

Estas igualdades expresan que la matriz de la aplicación lineal «suma» coincide con la suma de las matrices de cada una de las aplicaciones y que la matriz de la aplicación lineal coincide con el producto de la matriz por el escalar . Las demostraciones de estos resultados son análogas a las realizadas en la sección 1.3 para aplicaciones lineales de ⺢n en ⺢m y, por tanto, se dejan para el lector. *

*

*

Con dos matrices se puede definir su producto siempre que concurran circunstancias favorables. El producto de matrices corresponde a la om o i i n e a li a ione lineales, que definimos a continuación. Dadas à L( , ) y à L( , ) definimos la om o i i n e y mediante (

o

Dadas las condiciones impuestas sobre

)(v) % ( (v)). y

es fácil comprobar que

o

à L( , ).

Proposición 5.2.3 Si los espacios vectoriales , y ( ) y ( o ) las matrices de , antemano fijadas, se tiene (

tienen dimensión finita y si denotamos por ( ), y o , respectivamente, con respecto a bases de o

)%

( )·

( ).

Demostración. La demostración es análoga a la de la Proposición 1.3.4 para aplicaciones lineales entre espacios vectoriales de la forma ⺢n. La repetimos aquí para conveniencia del lector. Sean {ei}ni%1, { }m%1, {g } %1 bases de , y , respectivamente. La i-ésima columna de la matriz de o son las componentes del vector ( o )(ei) con respecto a la base {g } %1; por tanto, si escribimos % (b ) %1, ..., % (a i) %1, ..., m , %1, ..., m

i%1, ..., n

se tiene o

(ei) % ( (ei)) % m

% ; ai %1

m

A

A

m

; ai

%1

; b g %1

B

B

% ;

%1

m

% ; ai ( )% %1

A

m

B

; b ai g

%1

Esto prueba que ; b a i es el elemento que ocupa el lugar ( , i) de la matriz

(

o

); este

%1

valor coincide con el valor del elemento que ocupa el lugar ( , i) en el producto de matrices 䊏 ( ) · ( ). 5.3. Aplicaciones 5.3. APLICACIONES lineales y cambio LINEALES de base Y CAMBIO DE BASE

Sean y dos espacios vectoriales, sobre el mismo cuerpo, de dimensiones n y m, respectivamente. Sea una aplicación lineal de en con matriz con respecto a las bases %{e1, ..., en} y 1 % { 1, ..., m} de y , respectivamente.

190

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Deseamos conocer la matriz ñ de la misma aplicación , con respecto a dos nuevas bases ñ % {eñ1, ..., eñn} y 1 ñ % { ñ1, ..., ñm} de y , respectivamente. En este razonamiento usaremos la notación para indicar que en el espacio vectorial estamos considerando la base .

i

ra 5.4

En el diagrama de la Figura 5.4 se cumple %i

.1 o

oi

donde i denota la aplicación identidad en el espacio vectorial . La Proposición 5.2.3 nos da la igualdad matricial .1

ñ%

· ·

(3.1)

donde es la matriz del cambio de base de 1 a 1 ñ y es la matriz del cambio de base de a ñ. La fórmula (3.1) nos permite calcular la matriz ñ de la aplicación con respecto a las bases ñ y 1 ñ, conocida la matriz de la misma aplicación con respecto a las bases y 1 y las matrices y del cambio de base de a ñ y de 1 a 1 ñ, respectivamente. En muchos casos los espacios inicial y final de una aplicación coinciden. Si, además, y 1 coinciden y ñ y 1 ñ coinciden la fórmula del cambio de base es más sencilla. Si es la matriz de la aplicación à L( ) con respecto a una base de , la matriz ñ de la misma aplicación con respecto a una base ñ de está dada por .1

ñ%

(3.2)

donde es la matriz del cambio de base de a ñ. Observar que, en este caso, 8 ñ8 % 8 8, ya que el determinante de un producto de matrices es el producto de los determinantes de cada una de ellas. EJEMPLO A. Una aplicación lineal dimensión 2, la matriz

tiene, en una base {e1, e2} de un espacio vectorial de

%

A

B

.2 . .1

6 6

Queremos determinar la matriz de esta aplicación lineal en la base eñ1%e1!2e2, eñ2%2e1!3e2. Puesto que la matriz del cambio de base es %

A B 1 2

2 3

Sección 5.3. Aplicaciones lineales y cambio de base

191

la matriz ñ de esta aplicación en la base {eñ1, eñ2} es .1

A B A

1 ñ% 2 EJEMPLO B.

Sea

2 3

.2 .1

6 6

BA B A B 1 2

2 2 % 3 0

0 . 3

: ⺢3 r ⺢3 la aplicación dada por ( 1,

2,

3) % ( 1 ! 2,

3,

2 . 3)

donde ( 1, 2, 3) son las coordenadas de un vector à ⺢3 con respecto a la base canónica en ⺢3. Sea ñ la base {e3, e1, e2} que se ha obtenido permutando los elementos de la base canónica. Puesto que la matriz de en la base canónica es

A

1 % 0 0

B

1 0 1

0 1 , .1

y la matriz del cambio de base es

A B

0 % 0 1 la matriz ñ de

1 0 0

0 1 , 0

en la base ñ es

A B A BA B A BA B A B

0 ñ% 0 1

1 0 0

0 .1 1 1 0 0 0

1 0 1

0 1 .1

0 % 1 0

0 0 1

1 0 0

1 0 0

1 .1 0 % 0 1 1

0 1 .1 *

*

0 0 1

1 0 0

0 1 % 0

0 1 0

1 1 . 0

*

EJEMPLO C. Queremos encontrar las ecuaciones de la simetría con respecto al subespacio vectorial 1 % {( , y, )} : . y ! 2 % 0}, referida a la base canónica de ⺢3. La estrategia consiste en encontrar en primer lugar una base de ⺢3 en la cual la matriz de la simetría sea lo más sencilla posible y a continuación realizar un cambio de base para pasarla a la base canónica.

i

ra 5.5

192

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

En la base ñ % { 1 % (1, 1, 0), 2 % (0, 2, 1), 3 % (1, .1, 2)} determinada por dos vectores de 1 y un vector, 3, perpendicular a él, la matriz ñ de es

A

1 ñ% 0 0 ya que ( 1) % 1, ( 2) % base canónica a ñ es

2

0 1 0

0 0 .1

B

y ( 3) %. 3. Puesto que la matriz del cambio de base de la

A

1 % 1 0 se tiene que .1

ñ%

B

0 2 1

1 .1 2

á

%

.1

ñ

.

Por tanto:

A A

Así pues, ( 1, donde ( 1,

2,

2,

3)

BA BA B BC A BD A

1 % 1 0

0 2 1

1 .1 2

1 0 0

1 % 1 0

0 2 1

.1 1 .2

5 1 .2 6 1

3) %

A

2 3

1!

1 3

2.

0 1 0

2 3

0 0 .1

3,

1 1 0

1 2 .1

1 3

1!

0 2 1

1 .1 2

.1

.2 2 2

1 % 6

2 3

2 3

son las coordenadas de un vector

2!

3,

% 4 2 .4

.

2 4 4

2 3

1!

B

.4 4 . .2

2 3

2.

1 3

B

3

à ⺢3 respecto a la base canónica.

EJERCICIOS (Secciones 5.1, 5.2 y 5.3) 1. Estudiar cuáles de las siguientes aplicaciones son lineales entre los espacios vectoriales dados: a)

: ᏹ 2#2(⺢) r ᏹ 2#1(⺢) dada por

b)

: ᏹ 2#2(⺢) r ᏹ 2#2(⺢) dada por

c)

: ᏹ 2#2(⺢) r ᏹ 2#2(⺢) dada por

d)

( )%

con

( )% ! ( )%

1 : ᏹ m#n(⺓) r ᏿ dada por ( ) % ( ! 2

t

.

con

%

A B

1 . .1

à ᏹ 2#2(⺢) fija. con

%

A B 2 0

1 . 2

) donde ᏿ % { à ᏹ n#n(⺓) : % t}.

Sección 5.3. Aplicaciones lineales y cambio de base

e)

t

: ᏹ 2#2(⺢) r ᏿n(⺢) dada por ( ) %

f)

:

g)

:

(n) ⺓ [ (n) ⺓ [

]r ]r

(n) ⺓ [ (n) ⺓ [

193

.

] dada por ( ( )) % ( ! 1). ] dada por ( ( )) % ( ) ! 1.

2. Sea : ⺢3 r ⺢3 dada por ( 1, 2, 3) % ( 1 ! 2, 3, 1 ! 3). Encontrar la matriz de con respecto a la base canónica. Hallar la imagen mediante de los siguientes subespacios vectoriales de ⺢3: a)

1 % {( 1,

2,

b)

2 % {( 1,

2,

c)

3 % {( 1,

2,

3)

à ⺢3 :

0) : 1,

1 ! 2 ! 3 % 0}.

à ⺢}.

2

3) % t(1,

.1, 1) : t à ⺢}.

En cada caso indicar la dimensión del subespacio y la dimensión de su imagen mediante . 3. Encontrar las matrices de las siguientes aplicaciones lineales con respecto a las bases canónicas de los espacios vectoriales dados: y

a) b)

:

c)

:

(2) ⺢ [ (3) ⺓ [

del ejercicio 1. ] r ⺢4 dada por ( ( )) % ( (0), (1), (2), (3)). ]r

(3) ⺓ [

] dada por ( ( )) % ( ! 1).

4. Respecto de la base canónica en ⺢3 hallar las matrices de las siguientes aplicaciones lineales: a)

Giro de a grados con respecto al eje .

b)

Simetría con respecto a la recta % 0, y % 0.

c)

Simetría con respecto a la recta % y, % 0.

d)

Proyección sobre el plano . y ! % 0.

e)

Simetría con respecto a la recta ( , y, ) % t(1, 1, 1).

5. La tra a de una matriz cuadrada se define como la suma de los elementos de su diagonal principal y se designa por traza( ). Demostrar que la aplicación : ᏹ n#n(⺛) r ⺛ dada por ( ) % traza( ) es lineal. Dar una base de ᏹ n#n(⺛) y encontrar la matriz de con respecto a esta base y a la base canónica de ⺛. 6. Dadas : ⺢3 r ⺢3 mediante ( 1, 2, 3)%( 2, 3, 0) y : ⺢3 r ⺢2 dada por ( 1, 2, 3)% n o para todo n à ⺞ y o . [ geren ia: encontrar las % ( 1 ! 3, 2) calcular n % o ñ matrices de y .] 7. Sabiendo que la aplicación 1 % (1,

lleva los vectores 0, 0),

2 % (1,

1, 0)

y

1, 2),

2 % (3,

1, 2)

y

3 % (1,

1, 1)

de ⺢3 en los vectores 1 % (2,

respectivamente, encontrar la matriz de a) La base canónica de ⺢ . b) La base { 1 2, 3}. 3

3 % (6,

en las siguientes bases:

2, 3)

194

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

8. Encontrar las ecuaciones de las siguientes aplicaciones lineales realizando cambios de base adecuados: a)

Simetría con respecto a la recta ( , y, ) % t(1, 1, 1).

b) Proyección ortogonal sobre el plano . y ! % 0. c) Giro de 90o con respecto a la recta ! y % 0, % 0. (3) 9. Sea : (3) (1)% 2!1, ( )%. , ( 2)% 3 y ( 3)% 2! .1. ⺢ [ ] r ⺢ [ ] tal que Calcular ( 2 ! 2 ! 1) y (( . 2)2 ! 3). Encontrar la matriz de con respecto a la base {1, , 2, 3} de (3) ⺢ [ ].

10. Sea à L( , ); si 1 es un subespacio vectorial de , la aplicación puede considerarse como una aplicación lineal de 1 en ; esta aplicación recibe el nombre de re tri i n e a 1, y se designa con el símbolo 8 1. En los siguientes casos encontrar una base del subespacio vectorial dado y la matriz de la aplicación dada restringida a este subespacio con respecto a esta base: : ⺢3 r ⺢2 dada por ( 1, 2, 3) % ( 1 ! 2, 2 ! 3) con 1 . 2 2 ! 3 3 % 0}. : ⺓2 r ⺓3 dada por ( 1, 2) % ( 1 ! 2, i 2, i 1) con 1 % {( 1,

a) b) 11. Dada

1%{( 1,

2,

3) :

2) : 1 % i 2}.

à L( ) y j à ⺛, demostrar que el conjunto (j) % { à

: ( )%j }

es un subespacio vectorial de . En los siguientes casos encontrar una base de (j): a) b)

: ⺢3 r ⺢3 dada por ( 1, : ⺢4 r ⺢4 tal que

A

1 0 ( 1, 2, 3, 4) % 0 0 c)

: ⺓ r ⺓ dada por ( 1, 3

3

3) % (.2 1,

2,

0 1 0 0 2,

2 .1 1 0

.6 3 3 2

. 2, . 1 ! 3),

BA B

3) % (2 1 ! 3,

j %.1.

1 2

;

j % 2; j % 1.

3 4

n

i

. 2, .3 1 . 3); j % e3 .

12. Sea ᏿n(⺛) el espacio vectorial de las matrices simétricas de orden n con elementos en el cuerpo ⺛. Definimos : ᏹ n#n(⺛) r ᏿n(⺛) 1 mediante ( ) % ( ! 2 a)

t

).

Encontrar una base de ᏿n(⺛).

b) Encontrar la matriz de con respecto a la base canónica de ᏹ n#n(⺛) y a la base de ᏿n(⺛) encontrada en a). 13. Sea una aplicación lineal de ⺢n en ⺢m; demostrar que transforma subespacios vectoriales -dimensionales de ⺢n en subespacios vectoriales l-dimensionales de ⺢m, con l m .

Sección 5.4. Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal

195

En las siguientes aplicaciones lineales hallar la imagen de los subespacios vectoriales dados: a)

: ⺢2 r ⺢3 dada por ( 1,

2) % ( 1 ! 2,

b)

: ⺢3 r ⺢3 dada por la matriz

A

1 % .1 0 y

% {( 1,

2,

1,

0 1 1

2)

y

1 0 1

% {( 1,

2) : 1 % 2}.

B

3) : 1 . 2 2 ! 3 % 0}.

14. Sea el espacio vectorial de las funciones reales de variable real generado por sen y cos . Calcular el determinante de la aplicación «derivación» definida en . 5.4. Aplicaciones 5.4. APLICACIONES lineales inyectivasLINEALES y suprayectivas.INYECTIVAS Núcleo y rango de una Y SUPRAYECTIVAS. aplicación lineal NÚCLEO Y RANGO DE UNA APLICACIÓN LINEAL

Sean y dos espacios vectoriales sobre el mismo cuerpo ⺛ y una aplicación lineal de en raye tiva . Recordamos que es inye tiva si ( ) % (y) implica % y; la aplicación es existe à tal que ( ) % y o equivalentemente ( ) % , donde ( ) si para todo y en denota la imagen de mediante ; finalmente, recordamos que es biye tiva si es a la vez inyectiva y suprayectiva. En el caso de aplicaciones lineale cada uno de los tipos anteriores recibe un nombre especial: una aplicación lineal inye tiva recibe el nombre de monomor i mo; si la aplicación lineal es raye tiva se le da el nombre de e imor i mo; finalmente, si la aplicación lineal es biye ti va se dice que es un i omor i mo. El objetivo de esta sección es encontrar condiciones sencillas que sirvan para determinar si una aplicación lineal es de cualquiera de los tipos anteriores. Comenzamos con las aplicaciones lineales inyectivas. En este caso jugará un papel importante el concepto de núcleo que se definió en la sección 5.1. Recordar que el núcleo de una aplicación lineal: : r se define como Ker ( ) % {v à y que Ker ( ) es un subespacio vectorial de

: (v) % 0}

(Proposición 5.1.3).

Proposición 5.4.1 Una aplicación lineal :

que

r

es inyectiva si y solo si Ker ( ) % {0}.

Demostración. Supongamos que es inyectiva; si es lineal, (0) % 0, y, por tanto, podemos escribir ( ) % 0 % (0).

à Ker ( ) se tiene ( ) % 0; puesto

196

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

es inyectiva, % 0; esto prueba que

Puesto que

Ker ( ) % {0}. es inyectiva. Si ( ) % (y), se

Supongamos ahora que Ker ( ) % {0} y probemos que tiene que ( . y) % ( ) . (y) % 0;

por tanto, . y à Ker ( ); como Ker ( ) % {0} deducimos que . y % 0, o equivalentemente 䊏 % y, que era lo que deseábamos demostrar. EJEMPLO A. Para estudiar si : ⺢2 r ⺢3 dada por ( 1, 2) % (2 1 ! 2, 1 ! 2 2, 3 1) es una aplicación lineal inyectiva hemos de encontrar Ker ( ). Si ( 1, 2) à Ker ( ) hemos de tener ( 1, 2) % (0, 0, 0); esta igualdad se transforma en

F

2 1! 2%0 1!2 2%0 3 1!2 2%0

que es un sistema homogéneo de tres ecuaciones y dos incógnitas. Puesto que la matriz de sus coeficientes tiene rango 2, que coincide con el número de incógnitas, la única solución posible es la trivial 1 % 2 % 0. Por tanto, Ker ( ) % {(0, 0)} y es inyectiva. EJEMPLO B.

Tratemos de encontrar el núcleo de la aplicación

A

1 % 0 1

1 1 0

1 0 1

1 .1 2

B

1 1 . 0

Se trata, por tanto, de encontrar todos los vectores % ( 1, 1! 2! 3!

4! 5%0

2! 3.

5%0

2!

5%0

1!

4! ! 2 3 4!

: ⺢5 r ⺢3 cuya matriz es

2,

F

3,

4,

5)

tales que

.

El rango de la matriz de los coeficientes de este sistema es 2 (observar que la tercera ecuación es combinación lineal de las dos primeras). Utilizando las dos primeras ecuaciones e introduciendo los parámetros 3 % 1, 4 % 2, 5 % 3 tenemos que 2% 2. 3

y 1 %.( 2 . 3) . 1 . 2 . 3 %. 1 . 2 2 .

Así pues, ( 1,

2,

3,

4,

5) % (. 1 . 2 2,

2 . 3,

1,

2,

3) %

% 1(.1, 0, 1, 0, 0) ! 2(.2, 1, 0, 1, 0) ! 3(0, .1, 0, 0, 1),

Sección 5.4. Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal

197

que son las ecuaciones paramétricas de Ker ( ). Observar que el núcleo de esta aplicación tiene dimensión 3. *

*

*

Supongamos ahora que la aplicación lineal es suprayectiva, es decir, que es un epimorfismo; en estas condiciones se ha de cumplir que ( ) % , donde ( ) es la imagen de mediante la aplicación . El conjunto ( ) recibe el nombre de imagen e , y se designará, de ahora en adelante, mediante Img ( ). Por tanto, es suprayectiva si y solo si Img ( ) %

.

Por la Proposición 5.1.4 sabemos que la imagen de cualquier subespacio vectorial de es un subespacio vectorial de ; en particular, Img ( ), que es la imagen de mediante , es un be a io ve torial e . EJEMPLO C. Queremos encontrar la imagen de la aplicación del ejemplo B y decidir si es suprayectiva. La estrategia más sencilla es observar que la imagen de una base cualquiera de ⺢5 es un sistema de generadores de Img ( ). En efecto, si % {e1, e2, e3, e4, e5} es una base de 5

⺢5 y

à Img ( ) existe v % ; v e à ⺢5 tal que (v) % ; así pues, %1

%

A

B

5

5

; v e % ; v (e )

%1

%1

con lo cual queda probado el resultado. (Relacionado con este resultado, ver el ejercicio 9 al final de esta sección.) Por tanto, (e1) % (1, 0, 1),

(e2) % (1, 1, 0),

(e4) % (1, .1, 2),

(e3) % (1, 0, 1),

(e5) % (1, 1, 0)

son un sistema de generadores de Img ( ); de este sistema de generadores es necesario extraer el mayor número de ellos linealmente independientes, y así podremos encontrar una base de Img ( ). Puesto que la matriz que tiene a estos vectores por columnas es y ya sabemos que tiene rango 2, solamente es posible encontrar dos vectores linealmente independientes. Podemos tomar Img ( ) % L((1, 0, 1), (1, 1, 0)). Debido a que Img ( ) tiene imen i n 2, llegamos a la conclusión de que no es suprayectiva. Si queremos encontrar las ecuaciones cartesianas de Img ( ) hemos de eliminar los parámetros 1 y 2 de las ecuaciones (y1, y2, y3) % 1(1, 0, 1) ! 2(1, 1, 0). Así pues, 1 ! 2 % y1 2 % y2 1 ! 2 % y3

F

.

198

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

De aquí deducimos y2 ! y3 % y1 sin más que sustituir las dos últimas ecuaciones en la primera. *

*

*

En los ejemplos B y C se observa la siguiente relación entre las dimensiones del núcleo de y de su imagen: dim (Ker ( )) ! dim (Img ( )) coincide con la dimensión del espacio inicial de . Este resultado es cierto en un contexto más general; lo enunciaremos y demostraremos a continuación. Después obtendremos algunas de sus consecuencias relacionadas con las aplicaciones lineales inyectivas y suprayectivas. Teorema 5.4.2 Sean y dos espacios vectoriales de los cuales : r una aplicación lineal. Entonces,

es de dimensión finita y sea

dim (Ker ( )) ! dim (Img ( )) % dim ( ). Demostración. Sea % dim (Ker ( )) y n % dim ( ). Elegimos una base {v1, ..., v } de Ker ( ) y la completamos con vectores v !1, ..., vn hasta obtener una base de . Es suficiente probar que % { (v !1), ..., (vn)} es una base de Img ( ), ya que entonces dim (Ker ( )) ! dim (Img ( )) % ! (n . ) % n % dim ( ). Probamos en primer lugar que es un sistema de generadores de Img ( ); si elegimos v à tal que (v) % ; puesto que

à Img ( ),

n

v% ;

%1

v

se tiene que

A

% (v) %

B

n

n

v %;

;

%1

(v ).

%1

Debido a que v1, ..., v son elementos de Ker ( ) se tiene que (v ) % 0 si 1 m m ; por tanto, n

% ;

(v )

% !1

y queda probado que es un sistema de generadores de Img ( ). Finalmente, probamos que los elementos de son linealmente independientes. Supongamos que tenemos una relación de la forma n

;

% !1

(v ) % 0.

(4.1)

Sección 5.4. Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal

199

Utilizando la linealidad de , la igualdad anterior se escribe de la forma

A

n

;

% !1

B

v % 0.

n

Esto implica que el vector

;

% !1

v à Ker ( ). Puesto que Ker ( ) está generado por los vecto-

res v1, ..., v podemos escribir

!1v !1 ! ñ ! nvn % 1v1 ! ñ !

v.

la igualdad anterior solamente es posible si Puesto que {v1, ..., vn} es una base de % ñ % % % ñ % % 0. En particular, la igualdad (4.1) solamente es cierta cuando 1 n !1 䊏 todos los son nulos. Se termina así la demostración del teorema. Para deducir algunos corolarios de este teorema es necesario hacer uso del concepto de rango de una matriz estudiado en los Capítulos 1 y 2. Sea una aplicación lineal entre los espacios vectoriales y , ambos de dimensión finita n y m, respectivamente. Sea la matriz de la aplicación lineal en dos bases cualesquiera de y ; para encontrar el núcleo de es necesario resolver el sistema homogéneo

A B AB 0 ó % ó 0 n 1

donde 1, ..., n son las coordenadas de un vector de con respecto a la base elegida. Debido a la Proposición 1.2.6 este sistema posee n . r( ) soluciones linealmente independientes que generan todas las restantes, donde r( ) denota el rango de la matriz . Podemos, por tanto, concluir que dim (Ker ( )) % dim ( ) . r( ). Comparando esta igualdad con la del Teorema 5.4.2 se deduce que dim (Img ( )) % r( ). Puesto que Img ( ) no depende de las bases que se elijan en y para encontrar su matriz, de la igualdad anterior se deduce que todas las matrices de la aplicación tienen el mismo rango. Podemos, por tanto, definir el rango e na a li a i n lineal , que seguiremos escribiendo mediante r( ), como el rango de una cualquiera de sus representaciones matriciales. Una vez hechos estos comentarios el lector no tendrá ninguna dificultad en demostrar los siguientes resultados:

Corolario 5.4.3 Sean y Entonces: a) b)

espacios vectoriales de dimensión finita y :

es inyectiva si y solo si r( ) % dim ( ). es suprayectiva si y solo si r( ) % dim ( ).

r

una aplicación lineal.

200

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

EJEMPLO D. Supongamos que y son espacios vectoriales de dimensión finita y : r una aplicación lineal. Si es inye tiva, Ker ( ) % {0} y, por tanto, dim ( ) % dim (Img ( )); como Img ( ) es un subespacio vectorial de concluimos que dim ( ) m dim ( ). Si

es

raye tiva, del Teorema 5.4.2 se deduce que dim ( ) n dim (Img ( )) % r( ) % dim ( ).

En particular, una aplicación lineal de ⺢3 en ⺢2 no puede ser inyectiva y una aplicación lineal de ⺢3 en ⺢4 no puede ser suprayectiva. *

*

*

Para terminar esta sección estudiamos las aplicaciones lineales biye tiva o i omor i mo entre espacios vectoriales. Supongamos que y son espacios vectoriales de dimensión finita, y que es un isomorfismo entre ellos. Del corolario anterior deducimos que dim ( ) % r( ) % dim ( ). Otras consecuencias sencillas de algunos resultados anteriores se recogen en el siguiente teorema. Teorema 5.4.4 Sean y espacios vectoriales de dimensión finita n y sea : lineal. Las siguientes condiciones son equivalentes:

r

una aplicación

a) es biyectiva. b) es inyectiva. c) Ker ( ) % {0}. d) es suprayectiva. e) El rango de es n. Demostración. Entre b), c), d) y e) se tienen las siguientes equivalencias:

Por tanto, todas ellas son equivalentes entre sí. Finalmente, a) ú b), ya que toda aplicación biyectiva es inyectiva y puesto que b) y d) son equivalentes en este contexto y ambas implican a) se tiene que a) y b) son equivalentes. Esto 䊏 termina la demostración. Diremos que dos espacios vectoriales cualesquiera son i omor o si podemos encontrar un isomorfismo entre ellos. Para que esto ocurra entre espacios vectoriales de dimensión finita ya sabemos que ambos han de ser de la misma dimensión. El recíproco también es cierto.

Sección 5.4. Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal

201

Teorema 5.4.5 Dado cualquier número natural n, todos los espacios vectoriales de dimensión n sobre un mismo cuerpo son isomorfos. Demostración. Sean y espacios vectoriales de dimensión n sobre el mismo cuerpo y sean % {v1, ..., vn} y 1 % { 1, ..., n} bases de y , respectivamente. Para definir un isomorfismo entre y basta definirlo sobre los elementos de la base . Pongamos (v ) % , % 1, 2, ..., n. Por el Teorema 5.1.6, se extiende a una aplicación lineal de en . Puesto que r( ) % n, ya 䊏 que 1 es una base de , del teorema anterior deducimos que es un isomorfismo. EJEMPLO E 1) Todos los espacios vectoriales reale de dimensión n son isomorfos a ⺢n y todos los espacios vectoriales om le o de dimensión n son isomorfos a ⺓n. En general, todos los espacios vectoriales de dimensión n sobre un cuerpo ⺛ son isomorfos a ⺛n. 4 2) Los espacios vectoriales ᏹ 2#2(⺢) y (3) ⺢ [ ] y ⺢ son isomorfos entre sí. EJEMPLO F. Sean y espacios vectoriales de dimensiones n y m, respectivamente, sobre un mismo cuerpo ⺛. Deseamos probar que los espacios vectoriales ᏹ m#n(⺛) son isomorfos. Puesto que un isomorfismo entre

es isomorfo a ⺛n y ᏹ m#n(⺛)

L( ,

y

y

)

es isomorfo a ⺛m es suficiente con encontrar L(⺛n, ⺛m)

(ver el ejercicio 10 al final de esta sección). La elección más natural de este isomorfismo es la siguiente: dada à ᏹ m#n definimos ( ) : ⺛n r ⺛m dada por

( )( ) % · ,

para todo à ⺛n. Observar que ( ) es la aplicación que tiene como matriz en las bases canónicas de ⺛n y ⺛m y, por tanto, ( ) à L(⺛n, ⺛m). Es necesario probar que es un isomorfismo; como es claramente una aplicación lineal, hemos de probar que es biyectiva. Comenzamos encontrando su núcleo: si ( ) % 0 se tiene que 0 1 ó % ó à ⺛n 0 n

A B AB

para todo % ( 1, ..., n) à ⺛n; eligiendo % e para % 1, 2, ..., n, deducimos que ai % 0 para todo i % 1, 2, ..., m; por tanto, coincide con la matriz cero, que es por tanto el único elemento del núcleo de . Finalmente, hemos de probar que es suprayectiva; dada una aplicación lineal de ⺛n en ⺛m con matriz ( ) con respecto a las bases canónicas, basta observar que ( ( )) % .

202

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Puesto que los espacios ᏹ m#n(⺛) y L( , ) son isomorfos y ᏹ m#n(⺛) tiene dimensión m # n deducimos que dim (L( , )) % dim (ᏹ m#n(⺛)) % m # n Hemos dado otra demostración del Teorema 5.2.2. *

*

*

Observación. Supongamos que es un isomorfismo entre dos espacios vectoriales y de dimensión n; debido al Teorema 5.4.4 su rango es n y, por tanto, la matriz ( ) de en cualesquiera bases de y es invertible. La inversa de ( ) es la matriz de la aplicación inversa de , es decir ( ).1 % ( .1).

EJERCICIOS 5.4 1. Dadas las siguientes aplicaciones lineales encontrar las ecuaciones paramétricas del núcleo y la imagen comprobando en cada caso la ecuación dim (Ker) ! dim (Img) % dimensión del espacio inicial, e indicar si son inyectivas o suprayectivas: a)

: ⺢3 r ⺢3 dada por ( 1,

2,

b)

: ⺓ r ⺓ dada por ( 1,

2) % (i 1 ! 2,

c)

: ⺢ r ⺢ dada por ( 1,

2) % ( 1,

d)

: ⺓ r ⺓ tal que

2

2

3

2

4

3

3) % ( 1 ! 3,

2,

1 ! 2 ! 3).

1 ! i 2).

1 ! 2,

2 1,

1 ! 2 2).

tiene como matriz

A

B

1 i 0 % 0 1 2 . i .1 0 2. Describir el núcleo y la imagen de las siguientes aplicaciones lineales, indicando si son inyectivas, suprayectivas o biyectivas: : ᏹ 2#2(⺢) r ᏹ 2#1(⺢) tal que

a)

( )% %

: ᏹ 2#2(⺢) r ᏹ 2#2(⺢) tal que

b)

:

(3) ⺢ [

]r

(3) ⺢ [

] tal que (1) %

d) La aplicación derivación de

(n) ⺢ [

A B

1 . .1

( )% %

c)

con

2

.

con

A B 1 0

1 . 1

! 1, ( ) % ! 2, ( 2) %

] en

(n.1) [ ⺢

3

. , ( 3) % 1.

].

3. Describir el núcleo y la imagen de la aplicación lineal tra a e indicar las dimensiones de cada uno de ellos. (La definición de la aplicación tra a se ha dado en el ejercicio 5 de la sección anterior.)

Sección 5.4. Aplicaciones lineales inyectivas y suprayectivas. Núcleo y rango de una aplicación lineal

à L( ,

4. Dada 2

a)

%

o

), demostrar los siguientes resultados: % 0 si y solo si Img ( ) Ñ Ker ( ).

b) Ker ( ) Ñ Ker ( 2) Ñ Ker ( 3) Ñ ñ Ñ Ker ( c)

203

Img ( ) Ö Img ( 2) Ö Img ( 3) Ö ñ Ö Img (

n.1

) Ñ Ker ( n) Ñ ñ

n.1

) Ö Img ( n) Ö ñ

5. Construir aplicaciones que sean isomorfismos entre los siguientes pares de espacios vectoriales: a) ⺓5 y ⺢10. (n) n!1 . b) ⺓ [ ] y ⺓ 6 c) ᏹ 3#2(⺢) y ⺢ . 6. Sea : r una aplicación lineal y 1 un subespacio vectorial de ; denotaremos por 8 1, la restricción de a 1. Demostrar que: a) Ker ( 8 1) % (Ker ( )) ç 1. b) Img % Img ( 8 1) si 1 ! Ker ( ) % . 7. Sean

à L( ,

)y

à L( , ).

a) Demostrar que Img ( o ) Ñ Img ( ) y que Ker ( b) Demostrar que r( o ) m r( ) y r( o ) m r( ).

o

) Ö Ker ( ).

8. Sea un espacio vectorial de dimensión n y un espacio vectorial arbitrario. Dados dos subespacios vectoriales 1 de y 1 de tal que dim

1 ! dim

r

demostrar que existe una aplicación lineal :

1%n

tal que Ker ( )%

1

e Img ( )%

1.

9. Sea un isomorfismo de los espacios vectoriales y , ambos de dimensión finita. Demostrar que toda base de se transforma en una base de . 10. Sean y espacios vectoriales sobre un cuerpo ⺛ de dimensiones n y m respectivamente. Demostrar que L( , ) es isomorfo a L(⺛n, ⺛m). En los siguientes problemas

y

son espacios vectoriales de dimensión finita.

11. Sea à L( , ) una aplicación lineal inyectiva; demostrar que toda base de se transforma mediante en un conjunto de vectores linealmente independientes. Deducir de este resultado que si existe una aplicación lineal inyectiva entre dos espacios vectoriales y de dimensión finita, se ha de tener dim ( ) m dim ( ) (ver ejemplo D). 12. Sea ñ à L( , ) una aplicación lineal suprayectiva; demostrar que toda base de se transforma mediante ñ en un sistema de generadores de . Deducir de este resultado que si existe una aplicación lineal suprayectiva entre dos espacios vectoriales y de dimensión finita, se ha de tener dim ( ) n dim ( ) (ver ejemplo D). 13. Dar un ejemplo de espacios vectoriales una base de tal que: a) b)

y

y aplicaciones lineales

sea inyectiva y ( ) no sea base de . ñ sea suprayectiva y ñ( ) no sea base de

y ñ à L( ,

. (Ver los ejercicios 11 y 12.)

)y

204

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

14. Sea

un isomorfismo de

en

.

a) Demostrar que toda base de b) Demostrar que toda base de

se transforma en una base de se transforma en una base de

Deducir de a) o de b) que si

son isomorfos, dim % dim

y

mediante . mediante .1. .

5.5. El espacio 5.5. EL ESPACIO dual de un espacio DUAL vectorial DE UN ESPACIO VECTORIAL

Dado un espacio vectorial sobre un cuerpo ⺛, podemos considerar el conjunto L( , ⺛) de todas las aplicaciones lineales de en el espacio vectorial ⺛. Obsérvese que ⺛ es un espacio vectorial de dimensión 1 sobre ⺛. Este espacio ha sido estudiado con mayor generalidad en la sección 5.2. En particular, el Teorema 5.2.1 nos permite concluir que L( , ⺛) es un espacio vectorial sobre ⺛. Este espacio vectorial recibe el nombre de e a io al del espacio vectorial y se utiliza comúnmente el símbolo en lugar de L( , ⺛), para indicarlo. Por tanto, es el espacio vectorial de todas las aplicaciones lineales de en ⺛. Los elementos de son aplicaciones lineales y, por tanto, se indicarán con letras mayúsculas. Algunos autores prefieren utilizar letras minúsculas seguidas de un * en la parte superior derecha, tal como v , e , etc. La primera de estas notaciones será la que se utilice en el teorema que se enuncia en esta sección. Si es un espacio vectorial de dimensión finita n, del Teorema 5.2.2 se deduce que el espacio dual tiene dimensión n. El siguiente teorema exhibe una base asociada de manera única y natural a una base fijada de . Obsérvese que la demostración de un teorema más general, que incluye a este, se ha dado en la sección 5.2 (Teorema 5.2.2): incluimos la demostración porque este caso particular puede servir para aclarar el caso más general anteriormente descrito. Teorema 5.5.1 Sea un espacio vectorial de dimensión finita n y % {e1, e2, ..., en} una base de . Existe una única base % { 1, 2, ..., n} de tal que i(ei) % 1 para todo i % 1, 2, ..., n, y denomina ba e al e .

(ei) % 0 si i Ç . La base

se

Nota. La propiedad de enunciada en el teorema se escribe más fácilmente utilizando el símbolo denominado elta (d) e rone er que se ha introducido en la demostración del Teorema 5.2.2. Recordemos que d i, , i à ⺞, es un número definido como sigue: di%

E

1 0

si si

Con esta notación los elementos de la base dual de (ei) % d i;

i% . iÇ satisfacen

, i % 1, 2, ..., n.

Sección 5.5. El espacio dual de un espacio vectorial

205

n

Demostración. Para %1, 2, ..., n definimos

de la siguiente manera: dado v% ; v e à i%1

tomamos

(v) % v

es decir, la -ésima coordenada de v en la base . Es fácil comprobar que à para todo % 1, ..., n, y que satisface la propiedad requerida en el teorema. Únicamente falta demostrar que % { 1, 2, ..., n} es una base de *. Si tenemos una igualdad de la forma n

%0

;

%1

donde 0 representa la aplicación lineal nula, se tiene que n

(ei) % 0

;

%1

para todo i % 1, 2, ..., n. Por tanto, i % 0, i % 1, 2, ..., n, ya que (ei) es no nulo solamente si % i. Esto prueba que es un conjunto de aplicaciones lineales linealmente independientes. Finalmente, dada à se tiene que n

%;

(e )

%1

n

ya que si v % ; v e tenemos que %1 n

;

%1

Por tanto,

n

A

n

(e ) (v) % ;

(e )v % ;

%1

%1

es un sistema de generadores de

(v e ) %

n

B

; v e % (v).

%1

y queda demostrado el teorema.

EJEMPLO A. Tratemos de encontrar la base dual de la base canónica La aplicación lineal 1 satisface 1(e1) % 1,

1(e2) % 0,

Por tanto, 1( 1, 2, 3) % 1( 1e1 ! 2 e2 ! De manera similar se concluye que 2( 1,

2,

3) % 2



% {e1, e2, e3} de ⺢3.

1(e3) % 0.

3 e 3) % 1.

y

3( 1,

2,

3) % 3.

EJEMPLO B. Sea % { 1 % (1, 1, 0), 2 % (0, 1, 1), 3 % (1, 0, 1)} una base de ⺢3; queremos encontrar la base dual, , de . Denotemos por U1, U2, U3 los elementos de . Por definición de tenemos que U1( 1) % 1,

U1( 2) % 0,

U1( 3) % 0.

Por tanto, U1(e1 ! e2) % 1,

U1(e2 ! e3) % 0,

U1(e1 ! e3) % 0.

206

Capítulo 5. Aplicaciones lineales entre espacios vectoriales

Debido a la linealidad de U1 tenemos que

F

U1(e1) ! U1(e2) ! U1(e2) % 1 U1(e2) ! U1(e3) % 0 . U1(e1) ! U1(e2) ! U1(e3) % 0 Resolviendo este sistema se obtiene 1 U1(e1) % U1(e2) % , 2

1 U1(e3) %. . 2

Por tanto, U1( 1,

2,

3) %

1 2

1!

1 2

2.

1 2

3.

De manera similar se obtienen los otros dos elementos de la base U2 ( 1 ,

2,

3) %.

U3( 1,

2,

3) %

*

1 2

1 2

1!

1.

*

1 2

1 2

2!

2!

1 2

1 2

:

3

3.

*

EJERCICIOS 5.5 1. Encontrar la base dual de

%{

1 % (1,

2, 1),

2 % (0,

2. Encontrar la base dual de % {1, ! 1, 2 . 2, todos los polinomios de grado no superior a 3. 3. Sea

% ⺢3 y 1( 1,

2,

3

1, 1),

3 % (1,

1, 1)} en ⺢3.

. 2} en el espacio vectorial

la base canónica de . Se consideran las aplicaciones lineales 3) % 1 ! 2 ! 3,

2( 1,

2,

3) % 2,

3( 1,

2,

3) % 1 ! 2 .

i) Demostrar que { 1, 2, 3} es una base de *. ii) Calcular las coordenadas de 1, 2, y 3 respecto de la base *, dual de . iii) Hallar la base de respecto de la cual { 1, 2, 3 } es base dual. 4. En

(2) ⺢ [

(3) ⺢ [

] consideramos las aplicaciones lineales dadas por: 0

( ( )) % (0),

1

( ( )) % ñ(0),

2

( ( )) % ññ(0),

para cada ( ) à (2) ⺢ [ ]. i) Comprobar que { 0, 1, 2} es base del espacio dual de (2) ⺢ [ ]. (2) 0 1 2 ii) Calcular la base de ⺢ [ ] de la cual { , , } es dual.

] de

Capítulo 6

Valores y vectores propios. Forma de Jordan. 6.1. Introducción. 6.2. Subespacios invariantes. Valores y vectores propios de una aplicación lineal. 6.3. Forma de Jordan de matrices de orden 2. 6.4. Ejemplos de formas de Jordan de matrices de orden 3. 6.5. El polinomio característico. 6.6. Aplicaciones lineales y subespacios invariantes. 6.7. El Teorema de Jordan. 6.8. Obtención de la forma de Jordan compleja de una matriz. 6.9. Forma de Jordan real de matrices reales con autovalores complejos.

208

Capítulo 6. Valores y vectores propios. Forma de Jordan

6.1. Introducción 6.1. INTRODUCCIÓN

En el ejemplo A de la sección 5.3 se demostró que si la aplicación lineal A tiene como matriz A%

A

.2 .1

6 6

B

con respecto a una base {e1, e2}, la misma aplicación A con respecto a la base eñ1 % e1 ! 2e2, eñ2 % 2e1 ! 3e2 tiene como matriz Añ %

A B 2 0

0 . 3

Tenemos, pues, que Añ % C.1AC o equivalentemente A % CAñC.1, donde C es la matriz del cambio de base. La matriz de la aplicación lineal A en la base {eñ1, eñ2} es mucho más sencilla que la correspondiente en la base {e1, e2}. La matriz Añ es diagonal. A la vista de este ejemplo podemos preguntarnos si, dada una aplicación lineal A, siempre puede encontrarse un cambio de base de manera que la matriz de A con respecto a la nueva base sea diagonal. Un ejemplo muy sencillo nos hace perder la esperanza de resolver afirmativamente esta pregunta: la matriz A%

A B 1 0

1 1

no puede diagonalizarse. En efecto, supongamos que existe una matriz C % nante 8C8 Ç 0, tal que C.1AC % Añ %

A B a c

b de cambio de base, con determid

A B a 0

0 . b

Tenemos, pues, que

A B A BA BA A B A B A

A%C %

a 0

aa ca

0 .1 a C % b c

bb 1 d db 8C8 .c

b d

a 0

0 b

d .c

B

1 .b · % a 8C8

1 ada . bcb .b % 8C8 cda . cdb a

B

.aba ! abb . .bca ! adb

Comparando la primera y la última de estas matrices se tiene: 1%

1 (ada . bcb) 8C8

(1.1)

0%

1 cd(a . b) 8C8

(1.2)

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

209

1%

1 ab(.a ! b) 8C8

(1.3)

1%

1 (.bca ! adb). 8C8

(1.4)

De (1.2) se deduce que o bien c % 0, o bien d % 0, o bien a % b. Si c % 0, de (1.1) y (1.4) se deduce que a % 8C8/ad % b, y sustituyendo esto en (1.3) se obtiene la contradicción 1 % 0. Si d % 0 se obtiene la misma contradicción mediante un razonamiento semejante. Finalmente, si a % b, (1.3) es claramente una contradicción. A pesar de que no todas las matrices son diagonalizables, el objetivo de este capítulo es encontrar la forma «más sencilla» en la que una matriz dada puede transformarse mediante un cambio de base; esta forma «más sencilla» se denominará matriz de Jordan de la matriz dada. (El nombre se debe al matemático Camille Jordan —Lión, 1838-Milán, 1922—, que ayudó a comprender la clasificación de las aplicaciones lineales.) No solo puede utilizarse la forma de Jordan de una matriz para clasificar las aplicaciones lineales en un espacio vectorial, sino que podemos utilizarla para realizar operaciones con matrices. Como ilustración tratemos de encontrar la sexta potencia de la matriz A%

A

B

.2 . .1

6 6

Debido al ejemplo A de la sección 5.3 podemos escribir: A%C

A B 2 0

0 .1 C 3

con

C%

A B 1 2

2 . 3

Entonces:

CA B D A B A BA BA B A A B

2 A % C 0 6

%

%

1 2

2 3

0 .1 C 3 26 0

0 36

.3 · 26 ! 4 · 36 .3 · 27 ! 2 · 37

6

2 %C 0 .3 2

0 3

6

C.1 % C

2 26 % 7 2 .1

A

26 0

2 · 36 37

BA

B

0 C.1 % 36 .3 2

B

2 % .1

27 . 2 · 36 . 28 . 37

6.2. Subespacios 6.2. SUBESPACIOS invariantes. Valores INVARIANTES. y vectores propios de Vuna ALORES aplicacion lineal Y VECTORES

PROPIOS DE UNA APLICACIÓN LINEAL Dado un espacio vectorial V y una aplicación lineal A: V r V, es decir, A à L(V), un subespacio vectorial W de V se llama invariante respecto a A si A(W) Ñ W, es decir, la imagen A(x) de todo vector x à W es un elemento de W.

210

Capítulo 6. Valores y vectores propios. Forma de Jordan

EJEMPLO A. Sea A à L(⺢2) una aplicación lineal en ⺢2 cuya matriz respecto de una base {e1, e2} de ⺢2 está dada por A%

A B 2 0

0 . 1

Entonces, W1 % {x1e1: x1 à ⺢} y W2 % {x2 e2: x2 à ⺢} son invariantes respecto de A. En efecto, A(x1e1) % x1A(e1) % x1(2e1) % (2x1)e1 à W1 y A(x2 e2) % x2 A(e2) % x2 e2 à W2. EJEMPLO B. Sea Ra una rotación de ángulo a Ç 0 en ⺢3 con respecto al eje OZ. Geométricamente se observa que el plano XOY y la recta OZ son invariantes con respecto a esta aplicación. Para comprobar algebraicamente que el plano XOY es invariante observar que la matriz de Ra con respecto a la base canónica de ⺢3 es

A

.sen a cos a 0

cos a R % sen a 0

B

0 0 . 1

Si x % x1 e1 ! x2 e2 es un elemento del plano XOY se tiene que

A

BA B A

cos a .sen a 0 sen a cos a 0 0 0 1

B

x1 x1 cos a . x2 sen a x2 % x1 sen a ! x2 cos a 0 0

y, por tanto, Ra(x) % (x1 cos a . x2 sen a)e1 ! (x1 sen a ! x2 cos a)e2 que es de nuevo un elemento del plano XOY. EJEMPLO C. Sea P la proyección ortogonal de ⺢3 sobre el plano XOY; todo plano n que contiene al eje OZ es invariante. En efecto, como la matriz de P es

A B

1 P% 0 0

0 1 0

0 0 0

con respecto a la base canónica, y los elementos de n son de la forma v % x1(je1 ! ke2) ! x3 e3, j, k à ⺢, tenemos que

A BA B A B

1 P(v) % 0 0

0 1 0

0 0 0

jx1 jx1 kx1 % kx1 . x3 0

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

i

211

ra 6.1

El elemento x1(je1 ! ke2) es de nuevo un elemento del plano n. Otros subespacios invariantes de esta proyección ortogonal son el plano XOY, el eje OZ y cualquier recta del plano XOY que pase por el origen de coordenadas. *

*

*

Para cualquier aplicación lineal A à L(V) el subespacio E % {0}, formado solo por el elemento nulo, es invariante ya que A(0) % 0 y el propio espacio vectorial V es también invariante. Proposición 6.2.1 La intersección y la suma de subespacios invariantes respecto de una aplicación lineal A à L(V) son subespacios invariantes respecto de A. Demostración. Sean W1, W2 subespacios vectoriales de V que son invariantes respecto de A; si x à W1 ç W2 se tiene que x à W1 y x à W2; como W1 y W2 son invariantes tenemos que A(x) à W1 y A(x) à W2; así pues, A(x) à W1 ç W2. Esto prueba que W1 ç W2 es invariante. Sea ahora x % x1 ! x2 à W1 ! W2; como A es lineal y W1, W2 son invariantes respecto de A, se tiene que A(x) % A(x1 ! x2) % A(x1) ! A(x2) à W1 ! W2 , con lo que se demuestra que W1 ! W2 es también invariante. El razonamiento es similar si se 䊏 consideran más de dos subespacios vectoriales. Si W es un subespacio vectorial de V de dimensión 1, y es invariante respecto de una aplicación lineal A à L(V) tenemos que si x à W, no nulo, A(x) % jx; si y es otro vector de W, y % ax con a à ⺛; así pues, A(y) % A(ax) % aA(x) % a(jx) % j(ax) % jy y, por tanto, satisface la misma ecuación que x. Esto nos conduce a la siguiente definición:

212

Capítulo 6. Valores y vectores propios. Forma de Jordan

Definición 6.2.2 ( alores

ectores propios)

Un vector x Ç 0 de un espacio vectorial V sobre ⺛ se llama vector propio o autovector de una aplicación lineal A à L(V) si existe un escalar j à ⺛ tal que A(x) % jx; este escalar j se denomina valor propio o autovalor de la aplicación A correspondiente al vector x.

ota Observar que, por el razonamiento realizado antes de la Definición 6.2.2, si x es un vector propio de A con autovalor j, todo elemento no nulo del subespacio unodimensional generado por x es un autovector de A con el mismo autovalor j. Supongamos que una aplicación lineal A en un espacio V de dimensión n tiene n vectores propios linealmente independientes e1, e2, ..., en con valores propios j1, j2, ..., jn à ⺛, respectivamente; tomando{e1, e2, ..., en} como una base de V se tiene que A(e1) % j1e1, A(e2) % j2 e2, ..., A(en) % jn en y, por tanto, la matriz de A con respecto a esta base es la matriz diagonal

A B 0

j1

A%

j2

0

..

.

.

jn

Recíprocamente, toda aplicación lineal que tiene una matriz diagonal en una cierta base tiene a los elementos de esta base como vectores propios. Si decimos que una aplicación lineal A à L(V) es diagonalizable si existe una base de V en la cual la matriz de A es diagonal, hemos probado el siguiente resultado: Proposición 6.2.3 Sea V un espacio vectorial sobre un cuerpo ⺛. Una aplicación lineal A à L(V) es diagonalizable sobre ⺛ si y solo si existe una base de V formada por vectores propios.

Definición 6.2.4 Una matriz A à ᏹ n#n(⺛) se dice diagonalizable sobre ⺛ si la aplicación lineal A: ⺛n r ⺛n que la tiene como matriz es diagonalizable sobre ⺛.

De esta definición se deduce que A à ᏹ n#n(⺛) es diagonalizable sobre ⺛ si existe una matriz C à ᏹ n#n(⺛), con determinante no nulo, tal que Añ % C.1AC es una matriz diagonal.

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

213

EJEMPLO D. Demostrar que x % e1 ! 2e2 e y % 2e1 ! 3e2 son vectores propios de la aplicación lineal A de matriz

A

.2 .1

6 6

A%

B

con respecto a la base {e1, e2} de ⺢2 y encontrar sus autovalores. ¿Es esta matriz diagonalizable sobre ⺢? Puesto que 6 6

A

.2 .1

BA B A B A B

A

6 6

.2 .1

1 2 1 % %2 2 4 2

y

BA B A B A B

2 6 2 % %3 , 3 9 3

se tiene que A(x) % 2x, A(y) % 3y, con lo que x e y son vectores propios de A con valores propios 2 y 3, respectivamente. Como {x, y} forman una base de ⺢2 ya que

G G 1 2

2 % 3 . 4 %.1 Ç 0, 3

la matriz A es diagonalizable en ⺢ y su matriz diagonal asociada es

A B 2 0

*

0 . 3

*

*

A continuación mostramos cómo se calculan autovalores y autovectores de una aplicación lineal. Supongamos que x es un vector propio de una aplicación lineal A en un espacio vectorial V sobre un cuerpo ⺛ y que j à ⺛ es un autovalor, es decir, A(x) % jx. Sea {e1, e2, ...., en} una base de V y x % x1e1 ! ñ ! xn en. Si A % (aij)i, j%1, ..., n es la matriz de A con respecto a esta base tenemos que n

n

; jxj ej % j ; xj ej % jx % A(x) % A j%1

j%1 n

A B

n

j%1

n

A

n

n

% ; xj A(ej) % ; xj ; aij ei % ; j%1

j%1

i%1

B A

; xj e j %

i%1

B

n

; aij xj ei. j%1

Puesto que {e1, e2, ..., en} es una base de V hemos de tener

F

a12 x2 ! ñ ! a1n xn % 0 (a11 . j)x1 ! a2n xn % 0 a21x1 ! (a22 . j)x2 ! ñ ! . ó ó ó ó an2 x2 ! ñ ! (ann . j)xn % 0 an1x1 !

(2.1)

214

Capítulo 6. Valores y vectores propios. Forma de Jordan

Puesto que (2.1) es un sistema homogéneo, para que posea una solución no nula se ha de tener que el determinante de la matriz de sus coeficientes sea nulo, esto es:

G

a11 . j a21 ó an1

a12 a22 . j ó an2

G

ñ ñ

a1n a2n % 8A . jI8 % 0, ó ann . j

ñ

(2.2)

donde I denota la matriz identidad. La igualdad (2.2) es una ecuación en j de grado n y sus soluciones en ⺛ son los autovalores de A. A partir de ahora restringiremos nuestra atención a espacios vectoriales sobre el cuerpo ⺢ o sobre ⺓. Si V es un espacio vectorial complejo, la ecuación (2.2) tiene n soluciones complejas contando cada una con su multiplicidad, debido al teorema fundamental del álgebra (ver sección 3.4). Si V es un espacio vectorial real no podemos asegurar que la ecuación (2.2) tenga n soluciones reales. EJEMPLO E. Determinar los valores y vectores propios de la aplicación lineal de ⺢2 en ⺢2 que tiene como matriz A%

A B 1 5

2 . 4

Los valores propios se determinan resolviendo la ecuación 0 % 8A . jI8 %

GA B A BG G 1 5

2 1 .j 4 0

0 1

%

1.j 5

% (1 . j)(4 . j) . 10 % j . 5j . 6. 2

G

2 % 4.j

Sus raíces son j1 % 6, j2 %.1 y, por tanto, estos son los autovalores de A. El subespacio invariante correspondiente a j1 % 6 satisface las ecuaciones A

AB AB x1 x1 %6 x2 x2

o equivalentemente

(A . 6I)

A B AB

x1 0 % ; x2 0

esto es:

A

.5 5

BA B A B

2 .2

x1 0 % 0 x2

y, por tanto, .5x1 ! 2x2 % 0 (la otra ecuación es combinación lineal de ésta). Así pues los vectores propios correspondientes a j1 % 6 son de la forma a (2, 5). Para j2 %.1 tenemos

A BA B A B 2 5

2 5

x1 0 % , x2 0

y por tanto, 2x1 ! 2x2 % 0; así pues, los vectores propios correspondientes a j2 %.1 son de la forma b(1, .1).

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

215

Como (2, 5) y (1, .1) forman una base de ⺢2 la Proposición 6.2.3 nos permite deducir que 6 0 A es diagonalizable sobre ⺢, con matriz diagonal y el cambio de base viene dado por 0 .1 la matriz 2 1 . C% 5 .1

A

B

A

*

B

*

*

El polinomio (2.2) se denomina polinomio característico de la aplicación A o de la matriz A. Para poder hablar propiamente de «polinomio característico» es necesario demostrar que el polinomio (2.2) no depende de la base elegida en V para escribir su matriz. Para demostrar esto, sea pB(j)%8A.jI8 el polinomio característico de la aplicación A en la base B % {e1, e2, ..., en} y sea pBñ(j) % 8Añ . jI8 el polinomio característico de A en la base Bñ % {eñ1, eñ2, ..., eñn}; si C es la matriz del cambio de base de B a Bñ sabemos que Añ % C.1AC y, por tanto, pBñ(j) % 8Añ . jI8 % 8C.1AC . jI8 % 8C.1AC . C.1jIC8 % % 8C.19A . jI9C8 % 8A . jI8 % pB(j). Esto prueba que el polinomio característico no depende de la base elegida en V para representar A. *

*

*

A continuación realizamos más ejemplos de cálculo de autovalores y autovectores. EJEMPLO F.

La rotación Ra de ángulo a en el plano tiene como matriz Ra %

A

B

.sen a cos a

cos a sen a

con respecto a la base canónica de ⺢2 (ver ejemplo A de la sección 5.2). Sus autovalores son las soluciones de la ecuación 0 % 8Ra . jI8 %

G

cos a . j sen a

G

.sen a % (cos a . j)2 ! sen2 a % cos a . j

% j . 2(cos a)j ! 1. 2

Sus soluciones son j1 % cos a ! i sen a, j2 % cos a . i sen a. Estas soluciones son números complejos excepto si a % 2kn ó a % (2k ! 1)n con k un número entero, en cuyo caso los valores propios son reales. Si a % 2kn se tiene que Ra %

A B 1 0

0 1

que es la aplicación identidad; en este caso todo vector de ⺢2 es un vector propio con valor propio 1. Si a % (2k ! 1)n se tiene que Ra %

A

.1 0

B

0 . .1

216

Capítulo 6. Valores y vectores propios. Forma de Jordan

Esta es la matriz de una simetría respecto al origen de coordenadas; sus vectores propios se determinan de la ecuación (Ra . (.1)I)(x) % 0, esto es, 0 · x % 0; por tanto, todos los vectores no nulos de ⺢2 son vectores propios de esta simetría; su autovalor es .1. EJEMPLO G. matriz

La rotación Ra de ángulo a, en el espacio, alrededor del eje OZ tiene como

A

cos a Ra % sen a 0 Su polinomio característico es

.sen a cos a 0

G

B

0 0 . 1

G

cos a . j .sen a 0 0 % sen a cos a . j 0 % (1 . j)(j2 . 2(cos a)j ! 1), 0 0 1.j cuyas soluciones son j1 % 1, j2 % cos a ! i sen a, j3 % cos a . i sen a. Los vectores propios para j1 % 1 son las soluciones en ⺢3 de las ecuaciones

A

cos a . 1 sen a 0

esto es:

BA B A B

.sen a 0 cos a . 1 0 0 0

x1 0 x2 % 0 ; x3 0

F

(cos a . 1)x1 . (sen a)x2 % 0 . (sen a)x1 ! (cos a . 1)x2 % 0 Puesto que

G

cos a . 1 sen a

(2.3)

G

a sen a % (cos a . 1)2 ! sen2 a % 2 . 2 cos a % 4 sen2 , 2 cos a . 1

el sistema (2.3) tiene únicamente la solución x1 % x2 % 0 si a Ç 2kn con k entero. En este caso los vectores propios correspondientes a j1 % 1 son de la forma (0, 0, x3). Si a % 2kn se trata de la aplicación identidad y en este caso todos los vectores de ⺢3 son invariantes. Si a % (2k ! 1)n, j2 % j3 %.1 y sus vectores propios son todos los del plano XOY; en este caso tenemos una simetría con respecto al eje OZ. *

*

*

La Proposición 6.2.3 nos da una condición necesaria y suficiente para saber cuándo una aplicación lineal es diagonalizable sobre el cuerpo ⺛, a saber, que exista una base del espacio vectorial V formada por vectores propios; en algunos casos puede resultar laborioso encontrar esta base. Una condición que es suficiente para poder asegurar la diagonalización de una matriz está contenida en la proposición siguiente: Proposición 6.2.5 Los vectores propios de una aplicación lineal A correspondientes a valores propios distintos dos a dos son linealmente independientes. En particular, si V es un espacio vectorial de dimensión n sobre ⺛ (% ⺢ ó ⺓) y A: V r V tiene n valores propios distintos dos a dos, la aplicación A es diagonalizable sobre ⺛.

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

217

Nota. Daremos dos demostraciones de esta proposición; una de ellas a continuación y la otra al final de esta sección. Demostración. Realizaremos la demostración por inducción según el número de autovalores. Si solo hay un autovalor j1 y x1 es uno de sus autovectores, x1 es linealmente independiente puesto que x1 Ç 0 por definición de vector propio. Supongamos que existen dos autovalores j1, j2 con vectores propios x1, x2, respectivamente, y que j1 Ç j2. Si x1, x2 fueran linealmente dependientes podríamos encontrar a1, a2 no nulos a la vez, tal que a1x1 ! a2 x2 % 0. (2.4) Aplicando A a ambos miembros de (2.4) tenemos a1A(x1) ! a2 A(x2) % a1j1x1 ! a2 j2 x2 % 0

(2.5)

y multiplicando (2.4) por j2 tenemos a1j2 x1 ! a2 j2 x2 % 0.

(2.6)

Restando (2.6) de (2.5) obtenemos a1(j1 . j2)x1 % 0; como j1 Ç j2, hemos de tener a1 % 0; sustituyendo a1 en (2.4) obtenemos a2 % 0, lo cual es una contradicción. Para demostrar la proposición por inducción supongamos que es válida para cualesquiera k . 1 valores propios y que tenemos k valores propios j1, j2, ..., jk à ⺛ distintos dos a dos con vectores propios x1, x2, ..., xk, respectivamente. Supongamos que tenemos una combinación lineal de la forma a1x1 ! a2 x2 ! ñ ! ak xk % 0.

(2.7)

Aplicando A a ambos miembros de (2.7) tenemos A

A

k

B

k

k

; aj xj % ; aj A(xj) % ; aj jj xj % 0. j%1

j%1

(2.8)

j%1

Multiplicando (2.7) por jk tenemos k

; aj jk xj % 0.

(2.9)

j%1

Restando (2.9) de (2.8) obtenemos k.1

; aj (jj . jk)xj % 0. j%1

Puesto que los jj son distintos dos a dos, la hipótesis de inducción nos permite concluir que a1, a2, ..., ak.1 son cero; sustituyendo en (2.7) se obtiene ak % 0 y, por tanto, {x1, ..., xk} son lineal䊏 mente independientes. EJEMPLO H.

Estudiaremos si la matriz

A

6 A% 6 0 es diagonalizable.

.2 .1 0

1 1 1

B

218

Capítulo 6. Valores y vectores propios. Forma de Jordan

Su polinomio característico es

G

G

6.j .2 1 6.j 0% 6 .1 . j 1 % (1 . j) 6 0 0 1.j

G

G

.2 % (1 . j)(j . 2)(j . 3), .1 . j

con lo que sus valores propios son j1 % 3, j2 % 2, j3 % 1; sean e1, e2, e3 vectores propios correspondientes a j1, j2 y j3, respectivamente; como los autovalores son distintos dos a dos, e1, e2, e3 son linealmente independientes; por estar en un espacio de dimensión 3 forman una base y por la Proposición 6.2.5 la matriz A es diagonalizable. *

*

*

Observación. Una matriz A puede ser diagonalizable y tener autovalores múltiples, por ejemplo, la matriz identidad es diagonalizable y tiene como único autovalor 1. EJEMPLO I.

Tratemos de encontrar los valores de a à ⺢ para los que la matriz

A B

0 A% 0 a es diagonalizable sobre ⺢3. Su polinomio característico es

G

.j 0% 0 a

0 a 0

0 0 0

G

0 a.j 0

0 0 % (.j)(a . j)(.j) % (a . j)j2. .j

Los autovalores de A son j % a (simple) y j % 0 (doble). Si a % 0, A es la matriz nula, que es diagonal y, por tanto, diagonalizable. Si a Ç 0, hemos de estudiar si existe una base de autovectores para poder utilizar la Proposición 6.2.3. Los autovectores correspondientes a j % a satisfacen:

A

BA B A B

.a 0 0 0 0 0 a 0 .a

x1 0 x2 % 0 x3 0

á

E

F

ax1 % 0 ax1 . ax3 % 0

á

x1 % 0,

x3 % 0;

por tanto, son de la forma x % (0, x2, 0),

x2 à ⺢.

(2.10)

Los autovectores correspondientes a j % 0 satisfacen:

A BA B A B 0 0 a

0 0 a 0 0 0

x1 0 x2 % 0 x3 0

á

E

ax2 % 0 ax1 % 0

F

á

x1 % 0,

x2 % 0;

por tanto, son de la forma

y % (0, 0, x3),

x3 à ⺢.

(2.11)

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

219

Con los vectores que aparecen en (2.10) y (2.11) no puede obtenerse una base de ⺢3 y, en consecuencia, la matriz A no es diagonalizable si a Ç 0. En resumen, la matriz A es diagonalizable si a % 0 y no es diagonalizable si a Ç 0. *

*

*

Sea A à L(V), donde V es un espacio vectorial de dimensión finita sobre ⺛ y sea j0 un autovalor de A, con j0 à ⺛. Denominamos subespacio propio correspondiente a j0 al subconjunto E(j0) % Ker (A . j0 I). Observar que E(j0) contiene todos los vectores propios correspondientes al valor propio j0 junto con el vector 0. Puesto que el núcleo de cualquier aplicación lineal es un subespacio vectorial de V, tenemos que E(j0) es un subespacio vectorial de V. Además, de los resultados de la sección 5.4 se deduce que dim (E(j0)) % dim Ker (A . j0 I)) % dim (V) . dim (Img (A . j0 I)) % % dim (V) . r(A . j0 I). El siguiente ejemplo queda como ejercicio para el lector. EJEMPLO J. como matriz

Encontrar los subespacios propios de la aplicación lineal A à L(⺢3), que tiene

A B

3 A% 0 0 *

1 7 0

*

5 0 7

*

El siguiente ejemplo sirve para mostrar que una matriz con elementos reales puede no ser diagonalizable sobre ⺢ y, sin embargo, ser diagonalizable sobre ⺓. EJEMPLO K.

La matriz A%

A

0 1

.1 0

B

es diagonalizable sobre ⺓, ya que sus autovalores son j1 % i y j2 %. i, que son distintos (ver Proposición 6.2.5). Sin embargo, el lector puede comprobar directamente que la matriz A no es diagonalizable sobre ⺢. *

*

*

Demostración alternativa de la ro osición .2. . Supongamos que A à L(V), donde V es un espacio vectorial de dimensión n, y sea B%{e1, e2, ..., en} una base de V. Sean j1, j2, ..., jn à ⺛ autovalores de A distintos dos a dos y sean v1, v2, ..., vn autovectores correspondientes a j1, j2, ..., jn, respectivamente. Para demostrar que v1, v2, ..., vn son linealmente independientes hemos de demostrar que una relación de la forma n

; ai vi % 0, i%1

ai à ⺛

(2.12)

220

Capítulo 6. Valores y vectores propios. Forma de Jordan

implica ai % 0, para todo i % 1, 2, ..., n. Aplicando A a ambos miembros de la igualdad (2.12) se deduce que n

; ai ji vi % 0.

(2.13)

i%1

De manera similar se obtienen las relaciones n

n

; ai j2i vi % 0,

; ai jn.1 vi % 0. i

...,

i%1

i%1

n

Escribiendo vi % ; vik ek, las relaciones anteriores implican k%1 n

n

n

; ai vik % 0, ; ai ji vik % 0, i%1

...,

i%1

; ai jn.1 vik % 0, i i%1

para todo k % 1, 2, ..., n. Para cada k % 1, 2, ..., n, las igualdades anteriores determinan un sistema de ecuaciones lineales y homogéneo en las incógnitas (a1v1k, ..., an vnk). Puesto que la matriz de los coeficientes de este sistema es

An %

A

1 j1 ó

1 j2 ó

jn.1 jn.1 1 2

B

ñ ñ

1 jn ó

ñ

jn.1 n

su determinante es el determinante de Vandermonde y, por tanto, 8An8 %

<

(jk . jj)

1mjakmn

(ver la sección 2.3). Puesto que los jj son distintos dos a dos, 8An8 Ç 0, y, por tanto, el sistema anterior solo tiene la solución trivial. Así pues, ai vik % 0 para todo k % 1, 2, ..., n. De aquí deducimos que n

ai vi % ai ; vik ek % 0,

i % 1, 2, ..., n.

k%1

Puesto que los vi son no nulos, ya que son autovectores, concluimos que ai % 0 para todo i % 1, 2, ..., n. Esto prueba que los autovectores v1, v2, ..., vn son linealmente independientes, 䊏 que era lo que queríamos demostrar.

EJERCICIOS 6.2 1. Hallar los autovalores reales y autovectores de ⺢n de las siguientes matrices: a)

A

4 .3

B

6 .5

b)

A

5 4

B

.1 1

c)

A

2 3

B

.1 1

Sección 6.2. Subespacios invariantes. Valores y vectores propios de una aplicacion lineal

d)

A

g)

A

B

.1 0 0 .1

2 0 .1

e)

B

.1 1 1 0 1 0

)

A A

B A B A

0 1 .2

0 .2 3

.1 .1 1

0 0 .1

.1 .1 1

2 0 .3

f)

2 0 .1

i)

2 0 3

221

B

.1 1 0

2 .2 0

B

.1 0 . 1

2 2 1

2. En los casos del ejercicio anterior en los que sea posible, hallar una base de ⺢n formada por autovectores, y la matriz, en esa base, de la aplicación dada. 3. Demostrar que el subespacio generado por los vectores e1 ! 2e2 y e2 ! e3 ! 2e4 es invariante mediante la aplicación que en la base {e1, e2, e3, e4} tiene como matriz

A

1 0 A% 2 2

0 1 .1 .1

B

.1 .2 . 1 2

2 4 0 .1

4. Encontrar los autovalores reales y autovectores correspondientes de las aplicaciones lineales de ⺢n en ⺢n que están dadas por las siguientes matrices:

a)

A

2 5 .1

B

.1 2 .3 3 0 .2

A

4 5 6

b)

.5 .7 .9

B

2 3 4

A B 1 0 0 1

c)

0 0 0 0

0 0 0 0

0 0 . 0 1

5. Decir cuáles de las siguientes matrices pueden reducirse a una matriz diagonal y encontrar una matriz de cambio de base P:

a)

A

.1 .3 .3

3 5 3

B

.1 .1 1

b)

A

4 1 1

.1 2 .1

B

.1 .1 2

c)

A B 0 0 0 1

0 0 1 0

0 1 0 0

1 0 . 0 0

6. Encontrar los autovalores reales y autovectores de la aplicación derivación, D, en P(3) ⺢ [x].

A

a 7. Determinar para qué valores de a, b à ⺢ la matriz A % 0 0 sobre ⺢.

A

1 8. Estudiar para qué valores reales de a la matriz A % 0 0 sobre ⺢.

.2 1 0

b .1 0

B

0 0 es diagonalizable 1

B

.2 . a es diagonalizable a 1

222

Capítulo 6. Valores y vectores propios. Forma de Jordan

9. Dada la matriz

A

2 A% 0 0

.2 a a

B

6 4.a , .a

probar que A es diagonalizable sobre ⺓ para todo a à ⺓ C {0, 1}; probar que también es diagonalizable para a % 1 y que no lo es para a % 0.

A B

0 10. Encontrar los valores de a, b à ⺢ para que la matriz A % 0 a sobre ⺢.

0 b 0

1 0 sea diagonalizable 0

A B

a b es simétrica. b c Probar que los autovalores de A son reales y distintos, a menos que a % c y b % 0, en cuyo caso A % aI y a es el único autovalor. Encontrar los autovalores y autovectores de la 4 2 matriz A dada por A % en la base canónica. 2 1

11. Sea A à L(⺢2) tal que existe una base de ⺢2 en la que su matriz A %

A B

A

B

a b , con a2 ! b2 % 1, la matriz de una aplicación lineal S en la base cab .a nónica. Hallar los autovectores y autovalores de S. ¿Existe alguna interpretación geométrica de la aplicación S?

12. Sea S %

A

B

a b , con a2 ! b2 % a, la matriz de P à L(⺢2) en la base canónica. Hab 1.a llar los autovalores y autovectores de P. ¿Existe alguna interpretación geométrica de la aplicación P?

13. Sea P %

14. Si A es una matriz triangular de orden n cuyos elementos de la diagonal principal son todos diferentes, probar que A es diagonalizable. 15. Sea A una aplicación lineal en ⺢n con n autovalores reales distintos. Sea B cualquier aplicación lineal en ⺢n que conmute con A. Demostrar que B es diagonalizable en la misma base que A. Concluir que todo autovector de A es un autovector de B. 16. Dada una suma directa V % W S Z podemos definir la aplicación lineal E en V como E(v) % z si v % w ! z con w à W, z à Z; equivalentemente E(v) à Z y (I . E)(v) à W. a)

Probar que E2 % E, W % Ker (E) y Z % Img (E).

b) Encontrar los autovalores de la aplicación E. 6.3. Forma 6.3. FdeORMA Jordan de DE matrices JORDAN de orden 2 DE MATRICES DE ORDEN 2

Dadas dos matrices A, B à ᏹ n#n(⺛), con ⺛ % ⺢ ó ⺓, diremos que son equivalentes si existe una matriz P à ᏹ n#n(⺛) invertible, llamada matriz de cambio, tal que B % P.1AP.

Sección 6.3. Forma de Jordan de matrices de orden 2

223

Según el diagrama de la figura 5.4 y la fórmula (3.1) de la sección 5.3 esto corresponde a considerar A y B como las matrices de una misma aplicación lineal de ⺛n en ⺛n en dos bases distintas, mientras que P es la matriz del cambio de base. Esto justifica que P sea llamada matriz de cambio. La matriz «más sencilla» equivalente a una matriz dada A à ᏹ n#n(⺛) se llama forma de Jordan de A y se suele representar por J (ó JA cuando sea necesario indicar A). Se tendrá por tanto J % P.1AP o equivalentemente A % PJP.1. Ya hemos observado en la sección 6.1 que la «matriz más sencilla» equivalente a una dada no es siempre una matriz diagonal. En esta sección mostraremos cómo se halla la forma de Jordan sobre ⺛ (⺢ ó ⺓) de una matriz A à ᏹ 2#2(⺛), así como una matriz de cambio. Hay importantes diferencias según ⺛ sea ⺢ ó ⺓. *

*

*

Sea A à ᏹ 2#2(⺛) dada por A%

A

B

a11 a12 . a21 a22

Su polinomio característico es pA(j) %

G

a11 . j a21

G

a12 % (a11 . j)(a22 . j) . a12a21 % j2 . (a11 ! a22)j ! 8A8, a22 . j

con lo que pA(j) % 0 es una ecuación de segundo grado en la variable j. Si ⺛ % ⺓ tenemos dos casos diferentes: Las raíces del polinomio característico son distintas. Las dos raíces del polinomio característico coinciden. Si ⺛ % ⺢ tenemos tres casos diferentes: Las dos raíces del polinomio característico están en ⺢ y son distintas. Las dos raíces del polinomio característico coinciden y están en ⺢. El polinomio característico no tiene raíces reales. Estudiaremos cada caso por separado, incluyendo ejemplos de cada uno de ellos. Las raíces del polinomio característico son distintas: j Ç k, con j, k à ⺛. En este caso la matriz A es diagonalizable sobre ⺛ (Proposición 6.2.5), su forma de Jordan es

A B j 0

0 k

y la matriz P del cambio tiene como primera columna las coordenadas de un vector x que satisface (A . jI)x % 0 (esto es, x à Ker (A . jI)) y como segunda columna las coordenadas de un vector y que satisface (A . kI)y % 0 (esto es, y à Ker (A . kI)). EJEMPLO A. cambio.

Encontrar la forma de Jordan J sobre ⺢ de A %

A

3 2

B

.4 y la matriz del .3

224

Capítulo 6. Valores y vectores propios. Forma de Jordan

Como 0%

G

G

3.j .4 % (3 . j)(.3 . j) ! 8 % j2 . 1 2 .3 . j

sus autovalores son j1 % 1, j2 %.1; su matriz de Jordan es J%

A

.4 .4

BA B A B

Si j1 % 1, tenemos

A

2 2

(A . I)x % 0 á

1 0

B

0 . .1

x1 0 % x2 0

á

2x1 . 4x2 % 0;

así pues, Ker (A . I) % {c(2, 1): c à ⺢}. Para j2 %.1 tenemos

A

4 2

BA B A B

.4 .2

x1 0 % x2 0

á

x1 % x2;

luego, Ker (A ! I) % {c(1, 1) : c à ⺢}. Tomando u1 % (2, 1) como base de Ker (A . I) y u2 % (1, 1) como base de Ker (A ! I) obtenemos A%

A BA 2 1

1 1

1 0

.1

BA B

0 .1

2 1

1 1

.

Observar que en este caso A se ha diagonalizado sobre ⺢. EJEMPLO B.

Tratemos de hallar la forma de Jordan sobre ⺓ de la matriz A%

A

1 .1

B

4 . 1

Su polinomio característico es

G

1.j .1

G

4 % (1 . j)2 ! 4 % j2 . 2j ! 5, 1.j

y las soluciones de j2 . 2j ! 5 % 0 son j1 % 1 . 2i, j2 % 1 ! 2i. Ambas raíces son complejas y distintas y por tanto la forma de Jordan de A sobre ⺓ será la matriz compleja J%

A

B

1 . 2i 0 . 0 1 ! 2i

Sección 6.3. Forma de Jordan de matrices de orden 2

225

Una base de autovectores (complejos) se halla calculando E(1 . 2i) % Ker (A . (1 . 2i)I) y E(1 ! 2i) % Ker (A . (1 ! 2i)I):

A

2i .1

A

4 2i

BA B A B BA B A B x1 0 % x2 0

.2i 4 .1 .2i

á

x1 0 % x2 0

á

2ix1 ! 4x2 % 0

ú

.2ix1 ! 4x2 % 0

E1(1 . 2i) % {c(2, .i) : c à ⺓} ú E(1 ! 2i) % {c(2, i) : c à ⺓}.

Podemos tomar u1 % (2, .i) y u2 % (2, i) como vectores de la nueva base, por lo que P%

A

2 .i

2 i

B

es la matriz de cambio que diagonaliza a A sobre los números complejos. Observar que en este ejemplo, aunque A es una matriz real, su matriz diagonal de Jordan es compleja. Más adelante se expondrá cómo obtener una forma de Jordan real de una matriz con coeficientes reales que tenga autovalores complejos. Observar también que, en este caso, 8P8 % 4i à ⺓C⺢, por lo que no puede existir una matriz R con coeficientes reales de forma que A % RJR.1. Si así fuera, R se obtendría de P mediante un cambio R % C.1PC y se tendría 8P8 % 8CRC.18 % 8R8 à ⺢. *

*

*

Las raíces j y k del polinomio característico coinciden: j % k, j à ⺛. En este caso calculamos Ker (A . jI). Si Ker (A . jI) tiene dimensión 2 podemos encontrar una base de autovectores de A y por la Proposición 6.2.3 la matriz A es diagonalizable sobre ⺛; su forma de Jordan es J%

A B j 0

0 j

y la matriz del cambio queda determinada por cualquier base de Ker (A . jI). Si, por el contrario, Ker (A . jI) tiene dimensión 1 no podemos encontrar una base de autovectores en V; en este caso observamos que se tiene el siguiente resultado: Lema 6.3.1 Si A à ᏹ2#2(⺛) tiene dos autovalores iguales j, (A . jI)2 % 0. Demostración. La demostración es solo un ejercicio de cálculo; si A % valores satisfacen la ecuación 0%

G

G

A B a b

c , sus autod

a.j c % (a . j)(d . j) . bc % j2 . (a ! d)j ! ad . bc. b d.j

226

Capítulo 6. Valores y vectores propios. Forma de Jordan

Si ambas soluciones de esta ecuación coinciden se ha de tener (a ! d)2 . 4(ad . bc) % 0

a!d 2

y

j%

j%

a!d . 2

o equivalentemente, (a . d)2 ! 4bc % 0

y

(3.1)

Al calcular (A . jI)2 encontramos (A . jI)2 %

A

a.j b

c d.j

B A 2

%

(a . j)2 ! cb (a . j)c ! c(d . j) b(a . j) ! b(d . j) bc ! (d . j)2

B

que coincide con la matriz cero si utilizamos las igualdades (3.1).



Sea E1 % Ker (A . jI) y E2 % Ker (A . jI)2; el Lema 6.3.1 nos dice que E2 coincide con el espacio vectorial V que estamos considerando y que es de dimensión dos. Como E1 tiene dimensión 1 podemos encontrar u2 à E2 . E1; tomar u1 % (A . jI)(u2). Los vectores u1, u2, son linealmente independientes puesto que u2 â E1 y u1 à E1 (ya que (A.jI)(u1)%(A.jI)2(u2) % % 0(u2) % 0) y ninguno de ellos es el vector nulo. Como V es un espacio de dimensión 2, {u1, u2} es una base de V. En esta base tenemos (A . jI)(u1) % 0

á

A(u1) % ju1

(A . jI)(u2) % u1 á

A(u2) % u1 ! ju2

con lo que la matriz de la transformación lineal cuya matriz es A en esta nueva base es

A B j 0

1 . j

Esta no es una matriz diagonal, pero es casi diagonal, y es la forma de Jordan de la matriz A sobre ⺛ en este caso. Podemos resumir estos resultados sobre la forma de Jordan de matrices complejas en el siguiente teorema: Teorema 6.3.2 (Teorema de ordan para matrices comple as de orden 2) Dada una matriz A à ᏹ 2#2(⺓) siempre puede encontrarse una matriz J à ᏹ 2#2(⺓) de una cualquiera de las formas

A B j 0

0 k

o

A B j 0

1 j

,

j, k à ⺓

y una matriz P à ᏹ 2#2(⺓) de determinante no nulo, tal que A % PJP.1. La matriz J se denomina matriz de Jordan de A sobre ⺓.

Sección 6.3. Forma de Jordan de matrices de orden 2

EJEMPLO C.

Reducir la matriz A %

A

227

B

0 .2

2 a su forma de Jordan. 4

El polinomio característico de la matriz A es

G

.j .2

G

2 % (4 . j)(.j) ! 4 % j2 . 4j ! 4 % (j . 2)2, 4.j

que tiene como raíz j % 2. Con j % 2 se tiene que E1 % Ker (A . 2I) % {(x1, x2): x1 % x2} % {c(1, 1): c à ⺛} ya que

A

BA B A B

.2 .2

2 2

x1 0 % 0 x2

á

x1 % x2.

Sabemos, debido al Lema 6.3.1, que E2 % Ker (A . 2I)2 tiene dimensión 2; elegimos u2 de manera que u2 no esté en E1; por ejemplo: u2 % (1, 0). Entonces, u1 % (A . 2I)(u2) %

i

La matriz de Jordan es J % de tener

A

A

.2 .2

2 2

BA B A B

1 .2 % . 0 .2

ra 6.2

A B 2 0

0 .2

A

1 .2 y la matriz del cambio es P % 2 .2

B A

2 .2 % 4 .2

1 0

BA BA 2 0

1 2

.2 .2

B

1 ; así pues, hemos 0

.1

B

1 0

lo cual puede comprobarse fácilmente. Observar que la forma de Jordan de A, así como la matriz del cambio, son reales. *

*

*

228

Capítulo 6. Valores y vectores propios. Forma de Jordan

Si A es una matriz con coeficientes reales tenemos un caso adicional. El polinomio característico de A no tiene raíces reales. Como el polinomio característico pA(j) % 8A . jI8 es de grado 2, sus raíces son números complejos de la forma j % a . ib, j1 % a ! ib con a, b à ⺢, b Ç 0. Consideramos el sistema (A . jI)z % 0, es decir (a11 . j)z1 ! ( . j)a12z2 % 0 a21z1 ! (a22 . j)z2 % 0

F

(3.2)

donde z % (z1, z2). Este sistema es compatible indeterminado. Sea z1 % x1 ! iy1, z2 % x2 ! iy2 una solución no nula de (3.2) con x1, x2, y1, y2 à ⺢. Sustituyendo estos valores en (3.2) e igualando las partes reales e imaginarias se obtiene

A

y

A

BA B A B A B

a11 a21

a12 a22

a11 a12 a21 a22

x1 x1 y1 %a !b x2 x2 y2

BA B

(3.3)

AB AB

y1 x1 y1 %.b !a . y2 x2 y2

(3.4)

Combinando (3.3) y (3.4) se obtiene

La matriz J %

A

B AB AB

A

A

a11 a12 a21 a22

a .b b a

B

BA B A BA x1 x2

y1 x % 1 y2 x2

y1 y2

B

a .b . b a

(3.5)

se llama matriz de Jordan real de A en este caso. La matriz

x 1 y1 , formada por las partes reales e imaginarias de z1 y z2 es invertible. Si no lo x 2 y2 fuera, sus vectores columna serían linealmente dependientes, por lo que existiría c à ⺢ tal que y1 x1 %c . De la ecuación (3.3) se deduciría y2 x2

P%

A

AB AB AB

AB

x1 x1 y1 x1 %a !b % (a ! bc) , x2 x2 y2 x2

lo que implicaría que A tendría a ! bc à ⺢ como autovalor, en contra de lo que hemos supuesto. La igualdad (3.5) puede entonces escribirse de la forma A % PJP.1. bser aci n Escribiendo

J%

A

B

a .b % ∂a2 ! b2 b a

y tomando h à [0, 2n) tal que cos h %

a ∂a ! b 2

2

A

.b

a

∂a ! b 2

2

∂a2 ! b2

b

a

∂a ! b 2

y sen h %

2

∂a ! b2 2

b ∂a ! b2 2

,

B

Sección 6.3. Forma de Jordan de matrices de orden 2

229

se observa que A es una matriz que en la base de Jordan de ⺢2 corresponde a un giro de ángulo h (ver ejemplo A de la sección 5.2) seguido de una homotecia o dilatación de razón ∂a2 ! b2. Podemos resumir los resultados obtenidos sobre la forma de Jordan real de matrices reales en el siguiente teorema: Teorema 6.3.3 (Teorema de ordan para matrices reales de orden 2) Dada una matriz A à ᏹ2#2(⺢) siempre puede encontrarse una matriz J à ᏹ2#2(⺢) de una cualquiera de las formas

A B A B A j 0

0 k

,

j 0

1 j

,

B

.b a

a b

j, k, a, b à ⺢, b no nulo,

,

y una matriz P à ᏹ2#2(⺢) de determinante no nulo, tal que A % PJP.1. La matriz J se denomina matriz de Jordan real de A.

EJEMPLO D.

Tratemos de encontrar la forma de Jordan real de la matriz A%

A

9 .4

B

10 . .3

El polinomio característico es 8A . jI8 %

G

9.j .4

G

10 % (9 . j)(.3 . j) ! 40 % j2 . 6j ! 13. .3 . j

Las raíces del polinomio característico son j % 3 . 2i y j1 % 3 ! 2i. Una solución (compleja) no nula del sistema

F A

(9 . (3 . 2i))z1 ! (.3 . (3 . 10z2 % 0 .4z1 ! (.3 . (3 . 2i))z2 % 0

A

B

B

5 0 3 .2 y J% , que es la matriz .3 .1 2 3 de Jordan real de A. El lector puede comprobar que se cumple la igualdad A % PJP.1.

es z1 % 5, z2 %.3 . i. Tenemos entonces P %

EJEMPLO E. Encontrar todas las funciones x(t) que coinciden con su derivada segunda, esto es, xññ(t) % x(t). Si llamamos y(t) % xñ(t) podemos escribir xñ(t) % y(t) yñ(t) % x(t),

230

Capítulo 6. Valores y vectores propios. Forma de Jordan

que en forma matricial se escribe como

A B A BA B A B G G xñ(t) 0 % yñ(t) 1

Encontramos la forma de Jordan de A %

0 1

1 0

x(t) . y(t)

1 ; como 0

.j 1 % j2 . 1 % (j ! 1)(j . 1) 1 .j

la matriz A es diagonalizable (sus autovalores son distintos) con matriz de Jordan J%

A

B

1 0

0 . .1

Para encontrar la matriz del cambio de base calculamos E(1) % Ker (A . I) y E(.1) % Ker (A ! I):

A BA B A B A BA B A B .1 1

1 1

1 .1

1 1

x1 0 % x2 0

x1 0 % x2 0

á

á

x1 % x2

á

x1 %.x2 á

E(1) % {c(1, 1) : c à ⺢},

E(.1) % {c(.1, 1) : c à ⺢}.

Podemos tomar u1 % (1, 1) y u2 % (.1, 1) como vectores de la nueva base. Tenemos entonces

A B A A 0 1

A

B

1 0

0 .1

1 1

1 1

.1 1

1 0

0 .1

1/2 .1/2

BA

1/2 1/2 .1/2 1/2

A B A

xñ(t) 1 % yñ(t) 1

o equivalentemente,

BA BA

.1 1

%

Por tanto,

BA BA

1 1 % 0 1

1/2 1/2 .1/2 1/2

BA

.1 1

1 0

BA B A

xñ(t) 1 % yñ(t) 0

0 .1

0 .1

.1 1

.1

%

B

1/2 . 1/2

BA B

BA

x(t) y(t)

BA B

1/2 1/2 .1/2 1/2

x(t) y(t)

1 1 1 1 Si hacemos u(t) % x(t) ! y(t), v(t) %. x(t) ! y(t) tenemos uñ % u, vñ %.v, de donde se 2 2 2 2 deduce u(t) % u0 et, v(t) % v0 e.t. Como x(t) % u . v tenemos x(t) % u0 et . v0 e.t que son todas las funciones buscadas, donde u0 y v0 son dos constantes cualesquiera.

Sección 6.4. Ejemplos de formas de Jordan de matrices de orden 3

231

EJERCICIOS 6.3 1. Encontrar la forma de Jordan sobre ⺢ de A %

A B 1 1

1 y calcular A5. 0

2. Probar por inducción que %

A B A

an 0

A

3 .1

1 1

a 0

1 a

n

B

nan.1 an

y calcular

B

10

.

3. Hallar la forma de Jordan sobre ⺢ de las matrices A%

A B 1 2

4 3

,

B%

A

4 .1

1 2

B

,

C%

A

3 .1

B

4 , 1

indicando en cada caso la matriz P del cambio. N

4. Dado un polinomio p(x) % ; an xn, definimos n%0 N

p(A) % ; an An. n%0

Dada A % dan de A.

A

.6 .6

B

2 y p(x) % x2 ! 5x ! 6, calcular p(A) haciendo uso de la forma de Jor1

5. Si pA(x) es el polinomio característico de la matriz A, demostrar que pA(A) % 0, donde A à ᏹ 2#2(⺓). (Este resultado se conoce con el nombre de Teorema de Cayley-Hamilton; un resultado análogo es cierto para matrices de orden superior (Teorema 6.5.2).) 6. Sea A una matriz de orden 2 tal que A2 % 0. Demostrar que para todo j, 8A . jI8 % j2. 6.4. Ejemplos 6.4. EJEMPLOS de formas de Jordan DE FORMAS de matrices de DE orden JORDAN 3 DE MATRICES

DE ORDEN 3 En esta sección realizaremos varios ejemplos de obtención de formas de Jordan de matrices (reales o complejas) de orden 3. Además de practicar, el objetivo es que esta sección sirva al lector para comprender los resultados teóricos necesarios para la obtención de formas de Jordan de matrices de orden n, o, equivalentemente, de aplicaciones lineales entre espacios vectoriales de dimensión n.

232

Capítulo 6. Valores y vectores propios. Forma de Jordan

EJEMPLO A.

Intentaremos reducir la matriz

A

0 2 A% .2

B

3 .1 .1

1 .1 .1

a una forma de Jordan. Sus autovalores satisfacen la ecuación

0 % 8A . jI8 %.j3 . 2j2 ! 4j ! 8 %.(j . 2)(j ! 2)2, y, por tanto, son j % 2 (simple)

y

k %.2 (doble).

Calculemos E1(2)%Ker (A.2I), que es el subespacio vectorial definido por las ecuaciones

A

BA B A B A

.2 3 1 2 .3 .1 .2 .1 .3

x1 0 x2 % 0 x3 0

á

BA B A B

0 0 0 2 .3 .1 0 .4 .4

x1 0 x2 % 0 x3 0

á

E

F

2x1.3x2. x3%0 ; .4x2.4x3%0

tomando x3 %.1 se tiene x2 % 1, x1 % 1, con lo que u1 % (1, 1, .1) es un autovector correspondiente a j % 2; además, tenemos que dim (E1(2)) % 1. Para k %.2, E1(.2) % Ker (A ! 2I) es el subespacio vectorial definido por las ecuaciones

A

2 2 .2

BA B A B A A

3 1 1 .1 .1 1

con lo que

x1 0 x2 % 0 x3 0

á

2 2 0

3 1 0

á

2 0 0

3 .2 0

BA B A B BA B A B

1 .1 0

1 .2 0

x1 0 x2 % 0 x3 0

á

x1 0 x2 % 0 , x3 0

E1(.2) % {a(1, .1, 1) : a à ⺛}. Como E1(2) ! E1(.2) no llena todo el espacio vectorial ⺛3 no podemos elegir una base de autovectores. Es necesario en este caso realizar un truco análogo al realizado en el caso de raíces iguales para matrices de orden 2. Calculamos E2(.2) % Ker (A ! 2I)2, que es el subespacio vectorial que tiene por ecuaciones

A

2 2 .2

BA B AB A

3 1 1 .1 .1 1

2

x1 0 x2 % 0 x3 0

á

8 8 .8

8 8 .8

0 0 0

BA B A B x1 0 x2 % 0 x3 0

á

x1 %.x2;

por tanto, E2(.2) % {a(1, .1, 0) ! b(0, 0, 1) : a, b à ⺛} que es un subespacio de dimensión 2. Como E1(2) ! E2(.2) llena todo el espacio, podemos elegir una base de ⺛3 de manera que la matriz de A sea, en esta base, bastante sencilla. La forma de elegir esta base se muestra a continuación.

233

Sección 6.4. Ejemplos de formas de Jordan de matrices de orden 3

Sea u3 % (0, 0, 1) un vector de E2(.2) que no esté en E1(.2) y tomemos

AB A

0 2 2 u2 % (A ! 2I) 0 % 1 .2

3 1 .1

BA B A B

1 .1 1

0 1 0 % .1 à E1(.2). 1 1

Fácilmente se comprueba que {u1, u2, u3} es una base y en esta base la expresión de la aplicación A que tiene a A como matriz es A(u1) % 2u1,

A(u2) %.2u2,

A(u3) % u2 . 2u3

con lo que

La matriz de la derecha de esta expresión es una matriz de Jordan de A. *

*

*

A

B

1 0 0 0 .1 a una forma de Jordan. EJEMPLO B. Reducir la matriz A % 1 1 .1 0 2 Como 8A . jI8 % (1 . j)(j . 1) % (1 . j)(j ! 1)(j . 1), los autovalores de A son j % 1 (doble), k %.1 (simple). Para j % 1,

A

0 1 1

y, por tanto,

BA B A B

0 0 .1 .1 .1 .1

x1 0 x2 % 0 x3 0

á

x1 % x2 ! x3

E1(1) % Ker (A . I) % {a(1, 1, 0) ! b(1, 0, 1) : a, b à ⺛}. Para j %.1,

A

2 1 1

BA B A B A

0 0 1 .1 .1 1

x1 0 x2 % 0 0 x3

á

2 1 2

0 1 0

0 .1 0

BA B A B x1 0 x2 % 0 0 x3

á

E

x1 % 0 x1 ! x2 % x3

y, por tanto, E1(.1) % Ker (A ! I) % {a(0, 1, 1) : a à ⺛}. Como E1(1) ! E1(.1) llena todo el espacio ⺛3 la matriz A es diagonalizable y se tiene

*

*

*

F

234

Capítulo 6. Valores y vectores propios. Forma de Jordan

EJEMPLO C.

Tratemos de encontrar una forma de Jordan de la matriz

A

.2 A % .1 0

B

.1 0 . .3

1 .1 1

Puesto que 8A . jI8 %.j3 . 6j2 . 12j . 8 %.(j ! 2)3, los autovalores de A son j %.2 (triple). Como 0 1 .1 x1 0 á x1 % x2 % x3 , .1 1 0 x2 % 0 0 1 .1 x3 0

A

se tiene que

BA B A B

E1(.2) % Ker (A ! 2I) % {a(1, 1, 1) : a à ⺛}. Como no existe una base de autovectores procedemos a calcular E2(.2) % Ker (A ! 2I)2:

A

0 .1 0

1 1 1

BA B AB A

.1 0 .1

2

x1 0 x2 % 0 0 x3

á

.1 .1 .1

0 0 0

BA B A B

1 1 1

x1 0 x2 % 0 0 x3

á

x1 % x 3

E2(.2) % {a(1, 0, 1) ! b(0, 1, 0) : a, b à ⺛}.

Puesto que con E2(.2) no se llena todo el espacio ⺛3 calculamos E3(.2) % Ker (A ! 2I)3; como (A ! 2I)3 % 0, lo cual puede comprobarse fácilmente, formamos la cadena de subespacios. E1(.2) Ü E2(.2) Ü E3(.2) % ⺛3 y elegimos u3 à ⺛3 de manera que u3 â E2(.2); por ejemplo, u3 % (1, 0, 0). Tomamos u2 % (A ! 2I)u3 , u1 % (A ! 2I)u2 ; tenemos

A

0 u2 % .1 0

1 1 1

BA B A B

.1 0 .1

1 0 0 % .1 0 0

,

A

0 u1 % .1 0

1 1 1

1 0 0

BA B A B 0 .1 .1 % .1 0 .1

con lo que {u1, u2, u3} es una base. Se tiene A(u1) %.2u1 ,

A(u2) % u1 . 2u2 ,

A(u3) % u2 . 2u3 ,

con lo cual deducimos

A

B A

.1 0 1 .1 .1 0 .1 0 0

.1

.1 A .1 .1 *

BA

1 .2 0 % 0 0 0

0 .1 0 *

*

1 .2 0

B

0 1 . .2

Sección 6.4. Ejemplos de formas de Jordan de matrices de orden 3

EJEMPLO D.

235

Encontrar una forma de Jordan de la matriz

A

.2 A% 0 .1

B

0 .1 0

1 0 . 0

Sus autovalores son j %.1 (triple) puesto que 8A . jI8 %.(j ! 1)3. Las ecuaciones de E1(.1) % Ker (A ! I) son

A

.1 0 .1

por tanto,

BA B A B

0 0 0

1 0 1

x1 0 x2 % 0 x3 0

á

x1 % x3;

E1(.1) % {a(1, 0, 1) ! b (0, 1, 0) : a, b à ⺛}. Puesto que E1(.1) no llena todo el espacio vectorial ⺛3 encontramos E2(.1) % Ker (A ! I)2:

A

.1 0 .1

0 0 0

B A B A B A BA B A B

1 0 1

2

x1 0 x2 % 0 x3 0

0 0 0

á

0 0 0

0 0 0

x1 0 x2 % 0 . x3 0

Tenemos la cadena E1(.1) Ü E2(.1) % ⺛3, con lo cual podemos elegir u3 à ⺛3 \ E1(.1): por ejemplo, u3 % (1, 0, 0). Tomamos ahora u2 % (A ! I)u3:

A

.1 u2 % 0 .1

0 0 0

1 0 1

BA B A B

1 .1 0 % 0 . 0 .1

Como E1(.1) es un espacio de dimensión 2 aún podemos elegir u1 à E1(.1) de manera que {u1, u2, u3} sea una base de ⺛3; tomar, por ejemplo, u1 % (0, 1, 0). En esta base, A(u1) %.u1,

A(u2) %.u2,

A(u3) % u2 . u3

y, por tanto,

A

0 1 0

B A

.1 1 0 0 .1 0

.1

0 A 1 0

.1 0 .1 *

EJEMPLO E.

BA

1 .1 0 % 0 0 0

*

0 .1 0

B

0 1 . .1

*

Tratemos de hallar ahora una forma de Jordan de la matriz

A

3 A% 0 0

.5 0 2

B

.5 .1 . 2

236

Capítulo 6. Valores y vectores propios. Forma de Jordan

Su polinomio característico es 8A . jI8 % (3 . j)(j2 . 2j ! 2) cuyas raíces son j1 % 3

j2 % 1 . i

,

,

j3 % 1 ! i.

Se puede proceder ahora de dos maneras: Hallar una forma de Jordan sobre ⺓. Hallar una forma de Jordan sobre ⺢. Se considera que A es la matriz de una aplicación lineal de ⺓3 en ⺓3. Entonces los subespacios E1(3)%Ker(A.3I), E1(1.i)%Ker (A.(1.i)I) y E1(1!i)%Ker(A.(1!i)I) se consideran como subespacios de ⺓3. Para E1(3) se tiene

A

0 0 0

BA B A B

.5 .5 .3 .1 2 .1

z1 0 z2 % 0 z3 0

á

z2 % z3 % 0.

Podemos tomar u1 % (1, 0, 0) como generador de E1(3). Para E1(1 . i) se tiene

A

BA B A B

2!i .5 .5 0 .1 ! i .1 0 2 1!i

z1 0 z2 % 0 0 z3

á

E

F

(4.1)

F

(4.2)

z1 % (1 ! 2i)z2 . z3 % (.1 ! i)z2

Podemos tomar u2 % (1 ! 2i, 1, .1 ! i) como generador de E1(1 . i). Para E1(1 ! i) se tiene

A

BA B A B

2.i .5 .5 0 .1 . i .1 0 2 1.i

z1 0 z2 % 0 z3 0

á

E

z1 % (1 . 2i)z2 . z3 % (.1 . i)z2

Observar que la matriz del sistema de la izquierda de (4.2) es la conjugada de la matriz del sistema de la izquierda de (4.1). Podemos tomar u3 % (1 . 2i, 1, .1 . i) como generador de E1(1 ! i). Como tenemos tres vectores linealmente independientes, una forma de Jordan de A sobre ⺓ es

siendo

A

1 P% 0 0 la matriz del cambio.

1 ! 2i 1 . 2i 1 1 .1 ! i .1 . i

B

Sección 6.4. Ejemplos de formas de Jordan de matrices de orden 3

237

Se considera que A es la matriz de una aplicación lineal de ⺢3 en ⺢3. Los cálculos del caso anterior nos permiten escribir E1(3) % {c(1, 0, 0): c à ⺢} por lo que podemos elegir v1 % (1, 0, 0). Para calcular los otros dos vectores se procede como en el Caso III de la sección 6.3 (ver también Ejemplo D de la misma sección). El trabajo ya se ha hecho al resolver el sistema de la parte izquierda de (4.1) por lo que basta tomar v2 % Real u2 % (1, 1, .1)

v3 % Img u2 % (2, 0, 1).

,

Los vectores {v1, v2, v3} son linealmente independientes sobre ⺢. En esta base la matriz de A es

y la matriz de paso

A

1 R% 0 0

1 1 .1

B

2 0 . 1

EJERCICIOS 6.4 1. Hallar una forma de Jordan y la matriz del cambio correspondiente de las siguientes matrices:

A A

3 A% 1 1

B A B A

.1 .1 1 .1 , .1 1

0 .1 .2 E% 1 3 1 , 1 0 3

B%

1 2 .1

2 1 1

B A B A

1 1 , 0

4 C% 2 1

.2 0 .1 F% .1 .1 .1 , 1 0 0

.1 1 .1

B A B A

.2 .2 , 1

3 D% 0 0

3 2 .3 G% 4 10 .12 , 3 6 .7

2 4 1

B

.2 .1 , 2

B

0 1 .1 H% 1 0 1 . 1 .1 2

2. Hallar C 6. 3. Hallar una forma de Jordan real y la matriz del cambio correspondiente para las siguientes matrices:

A

2 A% 0 1

0 .1 0

.3 0 1

B

,

A

2 B% 0 0

.4 0 1

B

.7/2 .1/2 . 1

238

Capítulo 6. Valores y vectores propios. Forma de Jordan

4. Hallar subespacios invariantes de la aplicación A: ⺢3 r ⺢3 dada por la matriz

A

4 A% 2 .1

A B

.2 0 1

B

2 2 . 1

a j k 5. Sea A % j b l la matriz de A à L(⺢3) en la base canónica; supongamos que k l c rango (A) % 1 y tr (A) % a ! b ! c % 1. Hallar los autovalores y autovectores de A. 6.5. El polinomio 6.5. EL POLINOMIO característico CARACTERÍSTICO

Sea A à ᏹn#n(⺛) una matriz de orden n con elementos de un cuerpo ⺛. Dado un polinomio no nulo p(x) % a0 ! a1x ! ñ ! adxd à P⺛[x] con a0, a1, ..., ad à ⺛ definimos p(A) como p(A) % a0In ! a1A ! ñ ! adAd, donde In es la matriz identidad de orden n. Es decir se reemplaza x por la matriz A y el término a0 se multiplica por In. Si p(A) es la matriz nula decimos que A satisface la ecuación p(x) % 0. En 1858 Arthur Cayley (1821-1895) afirmó que toda matriz A à ᏹn#n(⺛) satisface su polinomio característico pA(x) % 8A . xI8. Arthur Cayley solo pudo demostrar este resultado para matrices de orden 2. La primera demostración completa de este resultado fue publicada por William Hamilton (1805-1865). Actualmente se conoce como teorema de Cayley-Hamilton. EJEMPLO A.

A B B A B A

La matriz A %

A

0 .1

1 0

2

!

0 .1

1 satisface el polinomio pA(x) % x2 ! 1, ya que 0

B A B A B

0 .1 % 1 0

1 0

0 1 ! .1 0

0 0 % 1 0

0 . 0

Observar que el polinomio característico de la matriz A es pA(j) % j2 ! 1, por lo que se tiene pA(A) % 0. Para matrices de orden 2, la demostración del teorema de Cayley-Hamilton es sencilla. Si a b A% à ᏹ2#2(⺛) su polinomio característico es c d

A B

p(x) % 8A . xI8 % Como

G

a.x c

G

b % x2 . (a ! d)x ! (ad . cb). d.x

A2 . (a ! d)A ! (ad . cb)I % %

A

B A

a2 ! bc ab ! bd a2 ! ad . ca ! cd cb ! d 2 ac ! db

se obtiene que pA(A) % 0.

B

A B A B

ab ! bd 1 2 ! (ad . cb) ad ! d 0

0 0 % 1 0

0 0

Sección 6.5. El polinomio característico

239

La demostración del teorema de Cayley-Hamilton requiere más trabajo. Antes de dar su enunciado y la demostración comenzaremos con un lema. Lema 6.5.1 Sea A à ᏹn#n(⺛) una matriz de orden n con elementos en ⺛ y p(x) à P⺛[x] un polinomio de grado n con coeficientes en ⺛. Si p(x)In % (A . xI)Q(x) con Q(x) % Q0 ! Q1x ! ñ ! Qn.1xn.1, donde Qj à ᏹn#n(⺛) para j % 0, 1, ..., n . 1, entonces p(A) % 0. Demostración. Sea p(x) % a0 ! a1x ! ñ ! anxn. La igualdad p(x)In % (A . xIn)Q(x) se transforma en p(x)In % a0 In ! a1In x ! ñ ! an In xn % (A . xIn)Q(x) % AQ0 ! (AQ1 . Q0)x ! ñ ! (AQn.1 . Qn.2)xn.1 . Qn.1xn. Igualando los términos de igual grado obtenemos a0 In % AQ0 a1In % AQ1 . Q0 ó an.1In % AQn.1 . Qn.2 an In %.Qn.1. Multiplicar la segunda igualdad por A, la tercera por A2, ..., y la última por An. Si sumamos la parte izquierda de todas las igualdades se obtiene a0 In ! a1A ! ñ ! an.1An.1 ! an An % p(A), mientras que al sumar la parte derecha de todas las igualdades se obtiene AQ0 ! A(AQ1 . Q0) ! ñ ! An.1(AQn.1 . Qn.2) . AnQn.1 % 0, de donde se deduce el resultado.



Teorema 6.5.2 (Teorema de Ca le - amilton) Si A à ᏹn#n(⺛) y pA(j) % 8A . jIn8 es su polinomio característico, se tiene que pA(A) % 0. Demostración1 Consideremos la matriz A . xIn cuyos elementos son polinomios de grado 1. Sea B(x) la matriz de cofactores de A . xIn (ver sección 2.4). La matriz B(x) es una 1 Demostración tomada del libro de J. M. Aroca, M. J. Fernández-Bermejo, Álgebra lineal y geometría. Ed. Universidad de Valladolid, (1998).

240

Capítulo 6. Valores y vectores propios. Forma de Jordan

matriz cuyos elementos son polinomios de grado menor o igual que n . 1. Por tanto, podemos escribir B(x) % B0 ! B1x ! ñ ! Bn.1xn.1 donde Bi à ᏹn#n(⺛), i % 0, 1, 2, ..., n . 1. Se tiene (A . xIn)B(x)t % 8A . xIn8 In % pA(x)In (ver la demostración del Teorema 2.4.2). Por el Lema 6.5.1 con Q(x) % B(x)t se deduce que 䊏 pA(A) % 0, que es lo afirmado en el enunciado del teorema. EJEMPLO B.

Considerar la aplicación lineal A: ⺢4 r ⺢4 dada por A(x1, x2, x3, x4) % (x1, x2, x3 ! x4, .x3 ! x4).

Con respecto a la base canónica la matriz de la aplicación lineal A es

A

1 0 A% 0 0

0 1 0 0

0 0 1 .1

B

0 0 . 1 1

Su polinomio característico es, por tanto, pA(A)%(1.j)2(j2.2j!2)%2.6j!7j2.4j3!j4. El Teorema de Cayley-Hamilton afirma que PA(A) % 2I4 . 6A ! 7A2 . 4A3 ! A4 % 0 à ᏹ4#4(⺢). Sin embargo, es necesario resaltar que hay polinomios m(x) à P⺢[x] de grado estrictamente menor que 4 que cumplen m(A) % 0. Por ejemplo, m(x)%(1.x)(x2 .2x!2)%2.4x!3x2 .x3 cumple m(A) % 2I4 . 4A ! 3A2 . A3 % 0 à ᏹ4#4(⺢), como puede comprobarse directamente. *

*

*

Dada una matriz A à ᏹn#n(⺛) consideremos el conjunto IA de todos los polinomios p(x) à P⺛[x] no nulos tales que p(A) % 0. Por el Teorema de Cayley-Hamilton el polinomio característico de A, pA(x), es un elemento de IA, por lo que IA es no vacío. Llamamos polinomio mínimo de A, y escribimos mA(x), al polinomio mónico de grado más pequeño entre los del conjunto IA. Lema 6.5.3 Sea A à ᏹn#n(⺛) y mA(x) su polinomio mínimo. Las siguientes condiciones son equivalentes: 1) p(x) à IA

2)

mA(x) divide a p(x)

Demostración. 1) ú 2). Al dividir p(x) entre mA(x) se tendría p(x) % c(x)mA(x) ! r(x) con r(x) % 0 o el grado de r(x) menor que el grado de mA(x). Como p(x) à IA se tiene p(A) % 0;

Sección 6.5. El polinomio característico

241

como mA(A) % 0 se tiene r(A) % 0. Por tanto r(x) à IA, lo que resulta imposible por definición de polinomio mínimo, salvo que r(x) % 0. En este caso, p(x) % c(x)mA(x) y por tanto mA(x) divide a p(x). 2) ú 1). Como mA(x) divide a p(x) podemos escribir p(x) % c(x)mA(x). Como mA(A) % 0 䊏 deducimos p(A) % 0 y por tanto p(x) à IA. bser aci n Del Lema 6.5.3 se deduce fácilmente que el polinomio mínimo es único. EJEMPLO C.

Tratemos de hallar el polinomio mínimo de la matriz

A

1 A% 1 1

B

0 0 .1

0 .1 . 0

Su polinomio característico es pA(x) % 8A . xI8 % (1 . x)(x2 . 1) %. (x . 1)2(x ! 1). Sabemos que el polinomio mínimo debe dividir a (x . 1)2(x ! 1). Los factores de grado 1 de este polinomio son (x . 1) y (x ! 1). Es claro que A . I2 Ç 0 y A ! I2 Ç 0. Los factores de grado 2 son (x . 1)2

(x . 1)(x ! 1).

y

Se cumple que

A

0 (A . I2)(A ! I2) % 1 1

0 .1 .1

BA

0 .1 .1

2 1 1

0 1 .1

BA B

0 0 .1 % 0 1 0

0 0 0

0 0 0

por lo que mA(x) % (x . 1)(x ! 1) es el polinomio mínimo de A. El procedimiento seguido en el ejemplo C para hallar el polinomio mínimo depende de que conozcamos la factorización del polinomio característico. Esto no siempre es posible. De hecho, casi nunca es posible, excepto cuando los ejemplos están preparados, como en este libro. Hay una forma de calcular el polinomio mínimo sin tener que factorizar el polinomio característico. Para entender el resultado debemos usar la identidad de Bezout para el máximo común divisor de varios polinomios. Lema 6.5.4 ( dentidad de ezout) Sean m1(x), ..., mr(x) à P⺛[x], r n 2 y sea d(x) su máximo común divisor. Existen a1(x), ..., ar(x) à P⺛[x] tales que d(x) % a1(x)m1(x) ! ñ ! ar(x)mr(x). La demostración de la Identidad de Bezout para r % 2 puede hacerse a partir del algoritmo de Euclides para hallar el máximo común divisor de dos polinomios. Para r b 2 puede demostrarse por inducción. El desarrollo del algoritmo de Euclides y la demostración de la Identidad de Bezout para números enteros puede verse en la sección 2.2 de J. Dorronsoro, E. Hernández, Números, grupos y anillos, Addison-Wesley/Universidad Autónoma de Madrid, (1996). La adaptación para polinomios con coeficientes en ⺛ (% ⺢ ó ⺓) es una sencilla modificación.

242

Capítulo 6. Valores y vectores propios. Forma de Jordan

Lema 6.5.5 Sean p(x) y m(x) dos polinomios y D(x) y G(x) dos matrices cuadradas de polinomios tal que p(x)D(x) % m(x)G(x). Si el máximo común divisor de los elementos no nulos de D(x) es 1 se tiene que m(x) divide a p(x). Demostración. Sea I el conjunto de índices (i, j) tales que dij(x) Ç 0, donde dij(x) es el elemento (i, j) de la matriz D(x). Por la identidad de Bezout 1 % ; aij(x)dij(x) (i, j) à I

con aij(x) à P⺛[x]. Entonces, si G(x) % (gij(x))i, j p(x) % ; p(x)aij(x)dij(x) % ; aij(x)m(x)gij(x) % (i, j) à I

(i, j) à I

% m(x) ; aij(x)gij(x). (i, j) à I



De aquí se deduce que m(x) divide a p(x) ya que ; aij(x)gij(x) es un polinomio. (i, j) à I

Ya podemos enunciar y demostrar un resultado que nos permite calcular el polinomio mínimo sin necesidad de saber factorizar el polinomio característico de una matriz. Teorema 6.5.6 Sea pA(x) % 8A . xIn8 el polinomio característico de una matriz A à ᏹn#n(⺛). El polinomio mínimo de A es mA(x) %

pA(x) q(x)

donde q(x) es el máximo común divisor de los cofactores no nulos de la matriz A . xIn. Demostración. Sean Cij(x) los cofactores de A . xIn, i, j % 1, ..., n. Sabemos (ver (4.1) del Capítulo 2) que pA(x) % 8A . xI8 % (a11 . x)C11(x) ! a12C12(x) ! ñ ! a1nC1n(x).

(5.1)

Como q(x) es el máximo común divisor de los Cij(x) no nulos, Cij(x) % q(x)Dij(x) con Dij(x) à P⺛[x]. Sustituyendo en (5.1) se tiene pA(x) % q(x) [(a11 . x)D11(x) ! a12D12(x) ! ñ ! a1nD1n(x)] % q(x)m(x)

(5.2)

donde m(x) es un polinomio con coeficientes en ⺛. Veamos que m(A) % 0. Sea C(x)t la traspuesta de la matriz de cofactores de A . xIn. Se tiene que (A . xIn)C(x)t % 8A . xIn8In % pA(x)In

(5.3)

Sección 6.5. El polinomio característico

243

(ver la demostración del Teorema 2.4.2). Escribamos C(x)t % D(x)q(x) donde D(x) es una matriz de polinomios cuyo máximo común divisor es 1. De (5.2) y (5.3) obtenemos m(x)q(x)In % pA(x)In % (A . xIn)D(x)q(x). Tenemos, por tanto m(x)In % (A . xIn)D(x). Del Lema 6.5.1 se deduce m(A) % 0. Por tanto m(x) à IA. Por el Lema 6.5.3, mA(x) divide a m(x). Basta probar que también m(x) divide a mA(x). Consideremos otra indeterminada y sobre el cuerpo ⺛. Como yd . xd % (y . x)(yd.1 ! yd.2x ! ñ ! yxd.2 ! xd.1), el polinomio mA(y) . mA(x) en las variables y, x es divisible por y . x. Luego mA(y) . mA(x) % g(x, y)(y . x). En consecuencia, como mA(A) % 0 se tiene .mA(xIn) %.mA(x)In % g(xIn, A)(A . xIn).

(5.4)

De esta igualdad, (5.2) y (5.3) se deduce mA(x)D(x) % mA(x)

C(x)t C(x)t %.g(xIn, A)(A . xIn) q(x) q(x)

%.g(xIn, A)

pA(x) %.g(xIn, A)m(x). q(x)

Como D(x) es una matriz cuyos elementos no nulos tienen máximo común divisor 1, del Lema 䊏 6.5.5 se deduce que m(x) divide a mA(x). EJEMPLO D. Usemos ahora el resultado expuesto en el Teorema 6.5.6 para hallar el polinomio mínimo de la matriz

A

1 A% 1 1

0 0 .1

B

0 .1 0

ya calculado, por otro procedimiento, en el ejemplo C. Su polinomio característico es pA(x) % (1 . x)(x2 . 1). La matriz A . xI3 es

A

1.x A . xI3 % 1 1 Sus cofactores son C11(x) % x2 . 1

,

C21(x) % 0 C31(x) % 0

0 .x .1

B

0 .1 . .x

C12(x) % x . 1

,

C13 %.1 ! x

, C22(x) %.x(1 . x)

,

C23 % 1 . x

, C32(x) % 1 . x

,

C33 %.x(1 . x).

244

Capítulo 6. Valores y vectores propios. Forma de Jordan

El máximo común divisor de estos cofactores no nulos es 1 . x. Por el Teorema 6.5.6 (1 . x)(x2 . 1) % (x ! 1)(x . 1). mA(x) % (1 . x) *

*

*

Tanto en el ejemplo B como en el ejemplo C los factores irreducibles del polinomio característico son también factores irreducibles del polinomio mínimo. Esto sucede siempre y puede demostrarse usando la igualdad (5.4). Proposición 6.5.7 Los factores irreducibles del polinomio característico de una matriz A à ᏹn#n(⺛) son también factores irreducibles de su polinomio mínimo. Demostración. Partiendo de (5.4) y tomando determinantes se obtiene (.1)n[mA(x)]n % 8g(xIn, A)8 pA(x). Por tanto, si r(x) divide a pA(x) también divide a [mA(x)]n. Si r(x) es irreducible también debe dividir a mA(x). Esto se deduce de que si r(x) divide a un producto p(x)q(x) de dos polinomios y es irreducible, entonces r(x) divide a p(x) ó r(x) divide a q(x). Esto último se demuestra usando la identidad de Bezout. En efecto, si p(x)q(x) % r(x)c(x) con r(x) irreducible y suponemos que r(x) no divide a p(x), el máximo común divisor de r(x) y p(x) sería 1. Por la identidad de Bezout (Lema 6.5.4) existirían a1(x), a2(x) à P⺛[x] tales que 1 % a1(x)r(x) ! a2(x)p(x). Luego q(x) % a1(x)r(x)q(x) ! a2(x)p(x)q(x) % % [a1(x)q(x) ! a2(x)c(x)]r(x) 䊏

y tendríamos que r(x) divide a q(x).

bser aci n Es fácil deducir de la Proposición 6.5.7 que si el polinomio característico no tiene factores múltiples, coincide con su polinomio mínimo. También, que todos los valores propios son raíces del polinomio mínimo. *

*

*

Sea V un espacio vectorial de dimensión n sobre un cuerpo ⺛ y A: V r V una aplicación lineal. Denotamos por A à ᏹn#n(⺛) a la matriz de A en una base fijada. Sabemos que si A tiene exactamente n valores propios distintos dos a dos, la aplicación lineal A es diagonalizable (ver Proposición 6.2.5). A continuación demostraremos un resultado que nos da un criterio algebraico para saber cuando A es diagonalizable en función del polinomio característico pA(x) % 8A . xIn8 de la matriz A.

Sección 6.5. El polinomio característico

245

Lema 6.5.8 Sea A: V r V una aplicación lineal en un espacio vectorial V de dimensión n. Sea j un valor propio de A. Si s es la multiplicidad de j como raíz del polinomio pA(x) % 8A . xIn8, entonces, dim (Ker (A . jI)) m s. Demostración. Sea r % dim (Ker (A . jI)) y {v1, ..., vr} una base de Ker (A . jI). Tomemos vr!1, ..., vn en V tales que B % {v1, ..., vr, vr!1, ..., vn} sea una base de V (un algoritmo para obtener esta base lo proporciona el Teorema de Steiniz, Teorema 4.5.1). En la base B la aplicación lineal A tiene como matriz

donde N es una matriz de tamaño (n . r) # (n . r). Como el polinomio característico no depende de la base elegida en V, pA(x) % pM(x) % (.1)r(x . j)rpN(x), y como pN(x) puede tener (x . j) como factor, la multiplicidad de j como raíz del polinomio 䊏 pA(x) es al menos r. Teorema 6.5.9 (Teorema de diagonalizaci n) Sea A: V r V una aplicación lineal en un espacio vectorial V de dimensión n sobre un cuerpo ⺛. Son equivalentes: a) A es diagonalizable. b) El polinomio característico de A se descompone en P⺛[x] en factores lineales, r

pA(x) % c < (x . ji)ni, ji Ç jj, y además dim (Ker (A . ji I)) % ni, i % 1, 2, ..., r. i%1

Demostración. a) ú b). Supongamos que A es diagonalizable. Por la Proposición 6.2.3 existe una base B formada por vectores propios de A con respecto a la cual la matriz de A es diagonal. Sea

esta matriz diagonal, en donde hemos reordenado la base B para poder escribir D de esta manera. Observar que n % n1 ! ñ ! nr. Escribamos B % B1 é B2 é ñ é Br con Bi % {ui1, ui2, ..., uini}, i % 1, 2, ..., r, donde Aui j % jiuij, j % 1, ..., ni. Por tanto, Bi Ñ Ker (A . ji I). Como Bi es parte de una base de V, Bi es un conjunto de vectores linealmente independientes. Luego ni m dim (Ker (A . ji I)),

i % 1, 2, ..., r.

(5.5)

246

Capítulo 6. Valores y vectores propios. Forma de Jordan

Como el polinomio característico no depende de la base elegida en V, r

pA(x) % pD(x) % < (ji . x)ni,

ji Ç jj, ji à ⺛,

j%1

por lo que pA(x) se descompone en P⺛[x] en factores lineales. Además, la multiplicidad de ji es ni. Por el Lema 6.5.8 dim (Ker (A . ji I)) m ni,

i % 1, 2, ..., r.

(5.6)

De (5.5) y (5.6) se deduce dim (Ker (A . ji I)) % ni, i % 1, 2, ..., r. b) ú a).

Como dim (Ker (A . ji I)) % ni, elijamos Bi % {ui1, ..., uini},

i % 1, 2, ..., r,

una base de Ker (A . ji I). Sea B % B1 é B2 é ñ é Br. r

Como n1 ! n2 ! ñ ! nr % n porque pA(x) % c < (x . ji)ni y pA(x) es un polinomio de i%1

grado n, basta probar que B es un conjunto de vectores linealmente independiente, ya que entonces B es base de V formada por vectores propios. Por la Proposición 6.2.3, A será diagonalizable. Probaremos que B es linealmente independiente por inducciónh en r. Si r % 1, el resultado es cierto porque B1 es base de Ker (A . j1 I). Supongamos que B1 é B2 é ñ é Bt.1, 2 a t m r es linealmente independiente. Sea ni

t

; ; aij uij % 0

(5.7)

i%1 j%1

una combinación lineal de los elementos de B1 é ñ é Bt. Aplicando A a (5.7) se deduce ni

t

; ; aij ji uij % 0

(5.8)

i%1 j%1

y multiplicando (5.7) por jt obtenemos ni

t

; ; aij jt uij % 0.

(5.9)

i%1 j%1

Restando (5.8) y (5.9) podemos escribir t.1

ni

; ; aij (ji . jt)uij % 0. i%1 j%1

Como B1 é ñ é Bt.1 es linealmente independiente por la hipótesis de inducción, de esta igualdad se deduce aij (ji . jt) % 0. Puesto que ji Ç jt, 1 m i a t, obtenemos aij % 0, i % 1, ..., t . 1, j % 1, ..., ni. Sustituyendo en (5.7) obtenemos nt

; atj utj % 0, j%1

de donde deducimos que atj % 0, j % 1, ..., nt, puesto que Bt es base de Ker (A . jt I).



Sección 6.5. El polinomio característico

EJEMPLO E.

247

Considerar la aplicación lineal A: ⺛4 r ⺛4 dada por A(x1, x2, x3, x4) % (x1, x2, x3 ! x4, .x3 ! x4).

Por el ejemplo B tenemos pA(x) % (1 . x)2(x2 . 2x ! 2). Si ⺛ % ⺢, como x2 . 2x ! 2 es irreducible sobre ⺢ (no tiene raíces en ⺢), pA(x) no puede descomponerse en factores lineales sobre ⺢. Por el Teorema 6.5.9 la aplicación lineal A no es diagonalizable sobre ⺢. Pero x2 . 2x ! 2 % 0 tiene como raíces j % 1 . i, j % 1 ! i en ⺓. Por tanto, si ⺛ % ⺓, pA(x) % (x . 1)2(x . (1 . i))(x . (1 ! i)) puede descomponerse en factores lineales. Si j % 1 Ker (A ! I4) % {(x1, x2, x3, x4) à ⺓4: x3 % 0, x4 % 0} por lo que dim (Ker (A . I)) % 2. Como Ker (A . jI) Ç {0} para j % 1 . i, j % 1 ! i, entonces dim (Ker (A . jI)) n 1. Por otro lado como j % 1 . i, j % 1 ! i tienen multiplicidad 1, por el Lema 6.5.8. dim (Ker (A . (1 . i)I)) % 1

dim (Ker (A . (1 ! i)I)) % 1.

y

En resumen Autovalor j

1

1.i

1!i

Multiplicidad

2

1

1

dim (Ker (A . jI))

2

1

1

Por el Teorema 6.5.9, A es diagonalizable sobre ⺓.

EJERCICIOS 6.5 1. Demostrar directamente que las siguientes matrices satisfacen su polinomio característico:

a)

A B

1 A% 4 7

2 5 8

3 6 9

A B

1 2 b) B % 0 0

1 3 0 0

0 0 4 6

2. Determinar todas las matrices A tales que A2 % 3. Determinar todas las matrices A tales que A2 %

0 0 5 7

c)

A

0 C% 2 .2

3 .1 .1

B

1 .1 . .1

A B A B 0 0

0 . 0

1 0

0 . 1

4. Explicar por qué la siguiente demostración del Teorema de Cayley-Hamilton es incorrecta: «Como pA(x) % 8A . xI8 si sustituimos x por A se tiene pA(A) % 8A . AI8 % 8A . A8 % 0».

248

Capítulo 6. Valores y vectores propios. Forma de Jordan

5. Hallar el polinomio mínimo de la matriz de la aplicación lineal A: ⺢4 r ⺢4 dada por A(x1, x2, x3, x4) % (x1, x2, x3 ! x4, .x3 ! x4). (Observar que la aplicación A es la del ejemplo B de esta sección). 6. Hallar el polinomio mínimo de las siguientes matrices:

a)

A B

2 A% 0 0

0 2 0

0 0 2

b)

A B

2 B% 0 0

1 2 0

0 0 2

c)

A B

2 C% 0 0

1 2 0

0 1 . 2

7. Decidir razonadamente si las siguientes aplicaciones lineales son diagonalizables sobre ⺢: a)

A(x1, x2, x3) % (x2, .x1 ! 2x2, .2x1 ! 2x2).

b)

A(x1, x2, x3, x4) % (x1 ! x2, x1 ! x2, .x3 ! x4, x3 . x4).

c)

A(x1, x2, x3) % (x2 ! 3x3, 2x1 . x2 . x3, .2x1 . x2 . x3).

6.6. Aplicaciones 6.6. APLICACIONES lineales y subespacios LINEALES invariantes Y SUBESPACIOS INVARIANTES

Consideremos A: V r V una aplicación lineal no nula en un espacio vectorial V de dimensión n sobre un cuerpo ⺛. Si A no es inyectiva, siempre existen dos subespacios propios invariantes: el núcleo y la imagen de A. Es decir, siempre se tiene A(Ker A) Ñ Ker A

y

A(Im (A)) Ñ Im(A).

La comprobación de estos hechos se deja al lector. En esta sección daremos algunos resultados sobre subespacios invariantes de las aplicaciones lineales que nos a ayudarán en la demostración del Teorema de Jordan sobre la reducción de aplicaciones lineales a su forma «más sencilla». Lema 6.6.1 Sea A: V r V una aplicación lineal en un espacio vectorial V de dimensión n sobre un cuerpo ⺛. Si j es un valor propio de A, para todo r % 1, 2, 3, ... Ker ((A . jI)r) es invariante por A. Demostración. Recordar que (A . jI)r es la composición de (A . jI) con sí misma r veces. Si v à Ker ((A . jI)r) podemos escribir Av % (A . jI)v ! jv y, por tanto, basta demostrar que (A . jI)v à Ker ((A . jI)r). Pero (A . jI)r((A . jI)v) % (A . jI)r!1v % (A . jI)(A . jI)r v % 0, lo cual prueba el resultado deseado.



Sección 6.6. Aplicaciones lineales y subespacios invariantes

249

Si A: V r V es una aplicación definida en un espacio vectorial complejo de dimensión finita, con matriz A respecto de una base fijada, el polinomio característico pA(j) % 8A . jI8 de esta aplicación tiene tantas soluciones complejas contadas con su multiplicidad como el grado del polinomio (este resultado se conoce con el nombre de teorema fundamental del álgebra y ha sido enunciado con anterioridad en el Capítulo 3). Si j0 es una solución de pA(j) % 0 y v0 es un autovector correspondiente a j0, el subespacio L(v0) % {av0 : a à ⺓} es invariante: A(av0) % aA(v0) % aj0 v0 à L(v0). Hemos probado el siguiente resultado: Proposición 6.6.2 Toda aplicación lineal en un espacio vectorial complejo V de dimensión finita posee un subespacio invariante de dimensión 1. En el caso de que la aplicación lineal esté definida sobre un espacio vectorial real, su polinomio caracteristico puede tener todas las soluciones complejas y en este caso no podemos realizar el razonamiento anterior para obtener un subespacio de dimensión 1. Observar que si j % a ! ib es un número complejo y ponemos z % x ! iy à ⺓, la aplicación lineal f : ⺓ r ⺓ dada por f (z) % jz se transforma en la aplicación lineal r: ⺢2 r ⺢2 dada por r(x, y) % (ax . by, bx ! ay).

A

B

a .b . b a Análogamente, si A % U ! iV es una matriz compleja de orden n con U y V matrices reales y z % x ! iy à ⺓n, la aplicación lineal f : ⺓n r ⺓n dada por f (z) % Az se transforma en la aplicación lineal r: ⺢2n r ⺢2n dada por La matriz de r en la base dada es

r(x, y) % ((U x . V y)t, (V x ! Uy)t ). La matriz de r en las bases fijadas es

A

U V

B

.V . U

En particular, si A es una matriz real, es decir si V % 0, la matriz de r es

A B U 0

0 . U

Proposición 6.6.3 Toda aplicación lineal A en un espacio vectorial real V de dimensión finita posee un subespacio invariante de una o dos dimensiones.

250

Capítulo 6. Valores y vectores propios. Forma de Jordan

Demostración. Si el polinomio característico pA(j) % 8A . jI8 de la aplicación A tiene al menos una raíz real, se procede como en el caso complejo para encontrar un subespacio invariante de dimensión uno. Supongamos, por el contrario, que pA(j) no posee raíces reales y sea j0 % a ! ib una de sus raíces complejas con b Ç 0. Consideremos la aplicación lineal f : ⺓n r ⺓n que tiene por matriz la matriz real A, es decir, f (z) % Az. Así obtenemos que los elementos de Ker (A . j0 I) como subespacio de ⺓n satisfacen las ecuaciones matriciales

debido a los comentarios previos a esta proposición y a que j0 In % aIn ! ibIn. En consecuencia, si z0 % x0 ! iy0 es un autovector complejo correspondiente a j0, el subespacio W % L(x0, y0) Ñ ⺢n es invariante por A pues se tiene Ax0 % ax0 . by0

Ay0 % bx0 ! ay0.

,

(6.1)

Falta probar que W tiene dimensión 2. Si x0 e y0 fueran proporcionales tendríamos y0 % cx0 con c à ⺢, c Ç 0. Entonces Ax0 % (a . cb)x0 䊏 con lo que A tendría un valor propio real, en contra de lo supuesto. ota Si se mira la demostración anterior, se deduce de (6.1) que la matriz de A restringida a W con respecto a la base {x0, y0} es

A

B

a b . .b a

Sin embargo, con respecto a la base {x0, .y0} la matriz de A es

A

1 0

A

B

BA

0 .1

a .b

BA

b a

1 0

B A

0 a % .1 b

B

.b a

1 0 es la matriz del cambio de base y C.1 % C (ver observación anterior al 0 .1 Teorema 6.3.3).

ya que C %

EJEMPLO A.

El polinomio característico de la matriz

A

1 A% 5 2

.1 3 0

B

0 0 .4

es pA(j) % 8A . jI8 % (.4 . j)(j2 . 4j ! 8). El autovalor real j %.4 nos permite obtener un subespacio invariante de A de dimensión 1, a saber E1(.4) % Ker (A ! 4I). Como 5 .1 0 x1 0 5 7 0 x2 % 0 á x1 % 0, x2 % 0 2 0 0 x3 0

A

BA B A B

E1(.4) % Ker (A ! 4I) % {a(0, 0, 1): a à ⺢}

es un subespacio invariante de A de dimensión 1.

251

Sección 6.6. Aplicaciones lineales y subespacios invariantes

Para uno de sus autovalores complejos k1 % 2 ! 2i, resolvemos

A

BA B A B E

.1 . 2i .1 0 5 1 . 2i 0 2 0 .6 . 2i

z1 0 z2 % 0 z3 0

á

á

F

5(1!2i)z1 ! z2 %0 %0 5z1!(1.2i)z2 .(6!2i)z3%0 2z1

E

F

á

z2 %. (1 ! 2i)z1 . z1 % (3 ! i)z3

Una solución no nula es z1 % (3 ! i, .1 . 7i, 1). Tomamos los vectores (reales) x1 % (3, .1, 1)

, y1 % (1, .7, 0).

Estos generan un subespacio W % {a(3, .1, 1) ! b(1, .7, 0) : a, b à ⺢} de dos dimensiones en ⺢3 que es invariante por A. Con respecto a esta base {x1, y1} tenemos

A

A8W %

B

2 .2

2 . 2

El lector puede comprobar que si se hace el razonamiento anterior para el valor propio k2 % 2 . 2i se obtiene el mismo subespacio W. *

*

*

La otra observación que haremos en esta sección se refiere a la matriz de una aplicación lineal A: V r V en un espacio vectorial V el cual puede descomponerse en suma directa de dos o más subespacios invariantes respecto de A. Supongamos que V % W1 S W2 es suma directa de los subespacios W1, W2 que son invariantes respecto de A; recordemos que V % W1 S W2 si y solo si V % W1 ! W2 y W1 ç W2 % {0}. Sea {e1, ..., er} una base de W1 y {er!1, ..., en} una base de W2; como W1 y W2 son invariantes tenemos: r

A(ei) % ; aki ek

1 m i m r,

,

k%1 n

A(ej) % ;

akj ek

,

r ! 1 m j m n.

k%r!1

Luego la matriz de A respecto de la base {e1, ..., er, er!1, ..., en} tiene la forma A%

A

A1 0

B

0 A2

con A1 matriz de dimensión r y A2 matriz de dimensión n . r. Se tiene, pues, que, en este caso, la matriz de A puede dividirse en «cajas» que corresponden a las matrices de A restringida a cada uno de los subespacios invariantes. Los elementos que están fuera de estas «cajas» son todos ceros.

252

Capítulo 6. Valores y vectores propios. Forma de Jordan

Si se conocen m subespacios invariantes de A, que llenan todo V mediante una suma directa, la matriz de A puede escribirse de la forma

A B 0

A1

A%

A2

..

.

0

Am

en una base convenientemente elegida. La demostración de este último resultado es muy similar a la demostración del resultado anterior; el lector no tendrá ninguna dificultad para realizarla por sí solo.

EJERCICIOS 6.6 1. En los casos siguientes, hallar los autovalores (reales o complejos) y los correspondientes autovectores de ⺓n, y cuando haya un valor propio complejo k hallar el correspondiente subespacio invariante en ⺢n, y la matriz respecto de la base {Real u, Img u} de la restricción a este subespacio, donde u es un autovector complejo de autovalor k.

a)

A

0 0 3

1 1 1

B

.1 0 0

b)

A

1 3

.2 1

B

c)

A

0 0 1 0

0 0 1 1

.1 0 0 0

1 .1 0 0

B

d)

A

1 .i

B

1!i . 1.i

2. Sea A à L(V) una aplicación lineal invertible y W un subespacio vectorial de V invariante por A. Demostrar que W es también invariante por A.1. 3. a)

Sea p(x) % x3 ! a2x2 ! a1x ! a0 un polinomio. Demostrar que el polinomio característico de la matriz

A

0 A% 1 0 es .p(x). b)

B

Sea p(x) % x4 ! a3x3 ! a2x2 ! a1x ! a0 un polinomio. Demostrar que el polinomio característico de la matriz

A

0 1 A% 0 0 es p(x). c)

.a0 .a1 .a2

0 0 1

0 0 1 0

0 0 0 1

.a0 .a1 .a2 .a3

B

Generalizar los resultados anteriores para polinomios mónicos de grado n.

4. Considerar las siguientes afirmaciones: i)

Todo polinomio p(x) à P⺛[x] tiene todas sus raíces en ⺛.

Sección 6.7. El Teorema de Jordan

ii)

253

Toda aplicación lineal A: V r V, donde V es un subespacio vectorial sobre ⺛ de dimensión finita, posee un subespacio invariante de dimensión 1.

El mismo argumento usado para demostrar la Proposición 6.6.2 permite probar que i) ú ii). Demostrar que ii) ú i) (por lo que i) y ii) son equivalentes). Sugerencia: usar el apartado c) del ejercicio 3 de esta sección. 5. Sea A % U ! iV una matriz compleja de orden n. Consideremos la aplicación lineal r: ⺢2n r ⺢2n inducida por A, es decir r(x, y) % ((U x . V y)t, (V x ! U y)t ). Demostrar que A es real, es decir V % 0, si y solo si S o r % r o S donde S es la aplicación de ⺢2n que tiene como matriz S%

A

In 0

B

0 . .In

6.7. El Teorema 6.7. EL TdeEOREMA Jordan DE JORDAN

Con la experiencia acumulada en los ejemplos que hemos realizado en las secciones precedentes, nos disponemos a demostrar a continuación el Teorema de Jordan para matrices y aplicaciones lineales, que es uno de los teoremas más profundos del álgebra lineal. El lector que desee comenzar aprendiendo cómo se obtienen matrices de Jordan de una matriz compleja puede pasar directamente a la sección 6.8. Para matrices reales debe esperar hasta la sección 6.9. Es conveniente, sin embargo, que lea el enunciado del Teorema de Jordan que se expone a continuación. Denominaremos matriz elemental de Jordan de orden k y autovalor j à ⺛ a la matriz Jk(j) de orden k cuyos elementos son todos nulos, excepto los de la diagonal principal, que valen j, y los situados inmediatamente encima de la diagonal principal, que son unos. Por ejemplo:

J1(j) % (j),

J2(j) %

A B j 0

1 , j

A B

j J3(j) % 0 0

1 j 0

0 1 , j

A B

j 0 J4(j) % 0 0

1 j 0 0

0 0 1 0 j 1 0 j

y así sucesivamente. Llamaremos matriz de Jordan a cualquier matriz cuadrada formada por yuxtaposición de matrices elementales de Jordan a lo largo de la diagonal, de la forma

254

Capítulo 6. Valores y vectores propios. Forma de Jordan

Teorema 6.7.1 (Teorema de ordan) Sea A: V r V una aplicación lineal en un espacio vectorial V de dimensión finita n sobre un cuerpo ⺛. Sean j1, ..., jr los valores propios distintos de A en ⺛. Sean m1, ..., mr números naturales no nulos tales que r

< (A . ji I)mi % 0.

(7.2)

i%1

Entonces, existe una base B, llamada base de Jordan de V para A, respecto de la cual la matriz de A es de la forma (7.1). Reflexionemos sobre la condición (7.2). Al escribir (A . ji I)mi estamos usando una notación para escribir la composición de A . ji I con sí misma mi veces. Al escribir r

< (A . ji I)mi i%1

estamos usando una notación para escribir la composición (A . j1 I)m1 o ñ o (A . jr I)mr. Observar que, aunque la composición de aplicaciones no es conmutativa, en este caso sí conmutan ya que A conmuta con sí misma y con la identidad. De forma más general, si A es una aplicación lineal como en el Teorema de Jordan y p(x), q(x) à P⺛[x] son dos polinomios con coeficientes en ⺛, entonces p(A) o q(A) % q(A) o p(A).

(7.3)

La demostración se deja para el lector (ver ejercicio 5b)) observando que basta verificar A o q(A) % q(A) o A para cualquier polinomio q(x) à P⺛[x] y luego proceder por inducción en el grado del polinomio p(x) à P⺛[x]. r

La condición (7.2) dice que la aplicación < (A . ji I)mi es la aplicación nula. Si A es la i%1

matriz de la aplicación A en una cierta base, (7.2) dice que el producto de las matrices (A . ji I)mi, i % 1, 2, ..., n, es la matriz nula. El Teorema de Cayley-Hamilton (Teorema 6.5.2) asegura que pA(A) % 0 donde pA(x) % 8A . xI8 es el polinomio característico de A. Si pA(x) pudiera factorizarse en ⺛, es decir, r

pA(x) % c < (x . ji)mi

,

j1, ..., jr à ⺛,

i%1

tendríamos satisfecha la condición (7.2). Esto sucede si ⺛ % ⺓ ya que por el Teorema fundamental del álgebra todas las raíces de un polinomio con coeficientes complejos estan en ⺓ y son tantas como el grado del polinomio (contando su multiplicidad). Si ⺛ % ⺢ esto no sucede siempre, y por tanto, no siempre podrá usarse el Teorema de Jordan. Comenzaremos enunciando y demostrando algunos resultados que nos serán útiles en la demostración del Teorema de Jordan.

Sección 6.7. El Teorema de Jordan

255

Lema 6.7.2 Sea A: V r V una aplicación lineal como en el Teorema de Jordan. Si q1(x), ..., qr(x) à P⺛[x] son polinomios con coeficientes en ⺛ tales que m.c.d. (qi(x), qj(x)) % 1

i Ç j,

si

entonces Ker qi (A) ç

A

B

r

; Ker qj (A) % {0}, j%1 jÇi

i % 1, ..., r.

Demostración. Comenzaremos demostrando que si fijamos i0 à {1, ..., r}, para cada l à {1, ..., r} \ {i0} se tiene Ker ql (A) Ñ Ker

A

B

< qj (A) . jÇi0

(7.4)

En efecto, si v à Ker ql (A), se tiene que ql (A)(v) % 0, y usando (7.3) concluimos

A

B A

< qj (A) (v) % jÇi0

< qj (A) jÇi0, l

B

oq

l (A)(v) %

A

B

< qj (A) (0) % 0. jÇi0, l

Como la suma de subespacios vectoriales contenidos en uno fijo W es un subespacio vectorial de W, de (7.4) concluimos ; Ker ql (A) Ñ Ker lÇi0

A

B

< qj (A) . jÇi0

(7.5)

Ahora bien, nuestra hipótesis implica que qi0(x) y < qj (x) son polinomios primos entre sí. Por jÇi0

la identidad de Bezout (Lema 6.5.4) existen a(x), b(x) à P⺛[x] tales que a(x)qi0(x) ! b(x) < qj (x) % 1. jÇi0

Luego a(A) o qi0(A) ! b(A) o < qj (A) % I. jÇi0

Entonces, si v à Ker qi0(A) ç Ker

A

B

< qj (A) se tiene jÇi0

v % I(v) % a(A) o qi0(A)(v) ! b(A) o < qj (A)(v) % 0 ! 0 % 0. jÇi0

Esto prueba que Ker qi0(A) ç Ker

A

B

< qj(A) % {0}. jÇi0

De (7.5) y (7.6) se deduce la conclusión del lema.

(7.6) 䊏

256

Capítulo 6. Valores y vectores propios. Forma de Jordan

Corolario 6.7.3 Sea A: V r V una aplicación lineal como en el Teorema de Jordan. Si j1, ..., jr à ⺛ son valores propios distintos de A y m1, ..., mr son números naturales no nulos Ker (A . ji I)mi ç

A

B

r

; Ker (A . jj I)mj % {0}, i%1 jÇi

i % 1, ..., r.

Demostración. Aplicar el Lema 6.7.2 con qi(x) % (x . ji)mi, i % 1, 2, ..., r, observando 䊏 que los qi (x) son primos entre sí. Lema 6.7.4 Sean A1, A2: V r V dos aplicaciones lineales en un espacio vectorial V de dimensión finita sobre un cuerpo ⺛ que conmutan. Entonces dim Ker (A1 o A2) m dim Ker (A1) ! dim Ker (A2). Demostración. conmutan,

(7.7)

Sea W % Ker (A1 o A2) y consideremos A3 i % Ai8W, i % 1, 2. Como A1 y A2 A3 i: W r W,

i % 1, 2.

Por el Teorema 5.4.2 dim W % dim Im (A3 2) ! dim Ker (A3 2)

(7.8)

Pero A3 1 o A3 2 % 0 en W por definición de W. Entonces Im (A3 2) Ñ Ker (A3 1) ya que si v à Im (A3 2), v % A3 2(u) con u à W y se tiene A3 1(v) % A3 1 o A3 2(u) % 0. Luego dim Im (A3 2) m dim Ker (A3 1), por lo que de (7.8) se deduce dim W m dim Ker (A3 1) ! dim Ker (A3 2) m dim Ker (A1) ! dim Ker (A2).



A continuación mostramos que el Lema 6.7.4 puede extenderse al caso de que se consideren varias aplicaciones lineales. Lema 6.7.5 Sean A1, ..., Ar: V r V aplicaciones lineales en un espacio vectorial V de dimensión finita sobre un cuerpo ⺛ que conmutan entre sí. Entonces r

dim Ker (A1 o ñ o Ar) m ; dim Ker (Aj). j%1

Demostración. El Lema 6.7.4 nos da el resultado para dos aplicaciones lineales. Supongamos, por inducción, que el resultado es cierto para cualquier número s de aplicaciones

Sección 6.7. El Teorema de Jordan

257

lineales B1, ..., Bs en un espacio vectorial con s a r. Tomemos ahora A1, ..., Ar. Sea Wr % Ker (A1 o ñ o Ar) y consideremos A3 1 % A18Wr o ñ o Ar.18Wr

A3 2 % Ar8Wr .

,

Como las Ai conmutan entre sí Aj: Wr r Wr y por tanto A3 i: Wr r Wr

i % 1, 2.

,

Aplicamos el Lema 6.7.4 a A3 1, A3 2 y Wr para obtener dim Ker (A3 1 o A3 2) m dim Ker (A3 1) ! dim Ker (A3 2). Por la hipótesis de inducción para A18Wr, ..., Ar.18Wr deducimos n.1

dim Ker (A3 1 o A3 2) m ; dim Ker (Aj8Wr) ! dim Ker (A28Wr) j%1 r

m ; dim Ker (Aj). j%1

Pero Ker (A3 1 o A3 2) % Wr % Ker (A1 o ñ o Ar) por lo que queda probado el resultado.



Lema 6.7.6 Sea A: V r V una aplicación lineal como en el Teorema de Jordan. Sean q1(x), ..., qr(x) à P⺛[x] polinomios con coeficientes en ⺛ tales que m.c.d. (qi (x), qj (x)) % 1

i Ç j.

si

r

Si q1(A) o ñ o qr(A) % < qj (A) % 0 se tiene que j%1

V % Ker q1(A)S ñ SKer qr (A). Demostración. Las aplicaciones qj (A), j % 1, ..., r, conmutan entre sí por (7.3). Por el Lema 6.7.5. dim Ker

A

r

B

r

< qj (A) m ; dim (Ker qj (A)). j%1

r

Puesto que < qj (A) % 0, se da la igualdad Ker j%1

j%1

A

B

r

< qj (A) % V y tenemos j%1

r

dim (V) m ; dim (Ker qj (A)). j%1

La conclusión del Lema 6.7.2 y la fórmula de Grassmann (Proposición 4.4.2) nos permiten escribir r

dim (V) m ; dim Ker qj (A) % dim j%1

A

r

B

; Ker qj (A) . j%1

258

Capítulo 6. Valores y vectores propios. Forma de Jordan r

r

Pero ; Ker qj (A)ÑV por lo que la desigualdad anterior nos permite concluir V% ; Ker qj (A). j%1

j%1

Que esta sea una suma directa es debido a la conclusión del Lema 6.7.2.



Corolario 6.7.7 Sea A: V r V una aplicación lineal como en el Teorema de Jordan. Si j1, ..., jr son valores propios distintos de A y m1, ..., mr son números naturales no nulos tales que (A . j1 I)m1 o ñ o (A . jr I)mr % 0, entonces V % Ker (A . j1 I)m1 S ñ S Ker (A . jr I)mr. Demostración. Aplicar el Lema 6.7.6 con qi (x) % (x . ji)mi, i % 1, ..., r, observando que 䊏 los qi (x) son primos entre sí. *

*

*

Avancemos en la demostración del Teorema de Jordan (Teorema 6.7.1). Si j es un valor propio de la aplicación A y s es un número natural no nulo, escribiremos Es(j) % Ker (A . jI)s para simplificar la escritura, como ya hicimos en secciones precedentes. Con esta notación, el Corolario 6.7.7 nos permite escribir r

V % S Emi(ji). i%1

Por el Lema 6.6.1, los Emi (ji) son invariantes por A. En consecuencia (ver la observación del final de la sección 6.6) cada elección de una base Bi de Emi (ji), i % 1, ..., r, nos da una base B % B1 é ñ é Br de V respecto de la cual la matriz de A es diagonal por cajas de la forma

donde cada Jji es la matriz de la restricción de A a cada subespacio invariante Emi (ji). Ahora tenemos que elegir, para cada i % 1, ..., r, una base adecuada Bi de Emi (ji) de manera que Jji sea una matriz diagonal por cajas y cada caja sea una matriz elemental de Jordan. Fijemos un valor propio j de A y formemos la sucesión de núcleos E1(j) Ñ E2(j) Ñ ñ Ñ En(j) Ñ ñ Ñ V.

Sección 6.7. El Teorema de Jordan

259

Como todos ellos están contenidos en un espacio vectorial de dimensión finita existe un número natural no nulo s tal que Es(j) % Es!1(j); sea m el menor de estos números naturales. Este número tiene la propiedad de que a partir de él todos los subespacios Em!1(j), Em!2(j), ..., coinciden con Em(j). Este resultado está contenido en el siguiente lema: Lema 6.7.8 Si Em(j) % Em!1(j), entonces Em(j) % Eq(j) para todo q b m. Demostración. La demostración la realizamos por inducción en r, donde q % m ! r. Si r % 1 la conclusión coincide con la hipótesis y no es necesario demostrar nada. Supongamos que el lema es cierto para q % m ! r y demostrémoslo para q % m ! r ! 1. Sea x à Em!r!1(j), es decir, (A . jI) m!r(A . jI)x % (A . jI) m!r!1x % 0. Por tanto, (A . jI)x à Em!r (j) % Em (j) (por la hipótesis de inducción); entonces 0 % (A . jI)m(A.jI)x%(A.jI) m!1x y, por tanto, x à Em!1(j)%Em(j). Hemos probado que Em!r!1(j) Ñ Em(j), de donde se deduce la igualdad puesto que la otra inclusión es trivial 䊏 de verificar. Para cada i % 2, 3, ..., m consideremos la aplicación lineal Li : Ei (j)/Ei.1(j) r Ei.1(j)/Ei.2(j) entre espacios cociente dada por Li (v ! Ei.1(j)) % (A . jI)(v) ! Ei.2(j). Cada Li es una aplicación inyectiva, i % 2, 3, ..., m. En efecto, si Li (v ! Ei.1(j)) % 0 ! Ei.2(j) se tendría (A . jI)(v) à Ei.2(j) y por tanto (A . jI)i.2(A . jI)(v) % 0. Es decir, v à Ei.1(j), luego v ! Ei.1(j) % 0 ! Ei.1(j). En consecuencia, la imagen por Li de una base de Ei (j)/Ei.1(j) es un conjunto de vectores linealmente independiente en Ei.1(j)/Ei.2(j). Sea pi % dim Ei (j), i % 1, 2, ..., m. Con p0 % 0 se tiene qi % dim Ei(j)/Ei.1(j) % pi . pi.1,

i % 1, 2, ..., m.

Además, por ser cada Li inyectiva, i % 2, ..., m, se tiene qm m qm.1 m ñ m q2 m q1 % p1 . p0 % p1 % dim E1(j). Escribamos la secuencia de aplicaciones inyectivas Li como L

L

L

m m.1 2 Em(j)/Em.1(j) ∫º Em.1(j)/Em.2(j) ∫º Em.2(j)/Em.3(j) r ñ r E2(j)/E1(j) ∫º E1(j).

260

Capítulo 6. Valores y vectores propios. Forma de Jordan

Construyamos ahora la base de Jordan que nos permitirá escribir cada matriz Jj de (7.9) como una matriz diagonal por cajas y que cada caja sea una matriz elemental de Jordan. er

Tomemos Sm % {vm, 1, ..., vm, qm} en Em(j) tales que {vm, 1 ! Em.1(j), ..., vm, qm ! Em.1(j)}

sea una base de Em(j)/Em.1(j) (ver sección 4.5). Como Lm es inyectiva, los vectores vm.1, 1 ! Em.2(j) % Lm(vm, 1 ! Em.1(j)) ó vm.1, qm ! Em.2(j) % Lm(vm, qm ! Em.1(j)) son linealmente independientes en Em.1(j)/Em.2(j). Sea Sm.1 % {vm.1, 1, ..., vm.1, qm} Ñ Em.1(j). o

A los vectores de Sm.1 obtenidos en el paso anterior añadir vectores vm.1, qm!1, ..., vm.1, qm.1, en Em.1(j) tales que m.1 {vm.1, j ! Em.2(j)}qj%1

sea una base de Em.1(j)/Em.2(j) (ver sección 4.5). Como Lm.1 es inyectiva, los vectores vm.2, 1 ! Em.3(j) % Lm.1(vm.1, 1 ! Em.2(j)) ó vm.2, qm.1 ! Em.3(j) % Lm.1(vm.1, qm.1 ! Em.2(j)) son linealmente independientes en Em.2(j)/Em.3(j). Construimos así Sm.2 % {vm.2, 1, ..., vm.2, qm.1} Ñ Em.2(j). Continuaríamos este proceso m . 2 veces, habiendo elegido S2 % {v2, 1, ..., v2, q3} Ñ E2(j) de manera que v2, 1 ! E1(j), ..., v2, q3 ! E1(j) sean linealmente independientes en E2(j)/E1(j). En el siguiente paso se añaden vectores v2, q3!1, ..., v2, q2 en E2(j) tales que 2 {v2, j ! E1(j)}qj%1

sea una base de E2(j)/E1(j) (ver sección 4.5).

Sección 6.7. El Teorema de Jordan

261

Como L2 es inyectiva, los vectores v1, 1 % L2(v2, 1 ! E1(j)), ..., v1,q2 % L2(v2, q2 ! E1(j)) son linealmente independientes en E1(j). Construimos así S1 % {v1, 1, ..., v1, q2} Ñ E1(j) que es un conjunto de vectores linealmente independiente en E1(j). Finalizar añadiendo vectores v1, q2!1, ..., v1, q1 en E1(j) de manera que {v1, 1, ..., v1, qm , ..., v1, q2!1 , ..., v1, q1} sea una base de E1(j). Es conveniente que el lector observe el gráfico de la figura 6.3 en donde se esquematiza la construcción realizada. Tomemos los vectores de la tabla de la figura 6.3 por columnas de izquierda a derecha, y dentro de cada columna de abajo a arriba. Es decir Bj % {v1, 1, ..., vm, 1, ..., v1, qm, ..., vm, qm} é é {v1, qm!1, ..., vm.1, qm!1, ..., v1, qm.1, ..., vm.1, qm.1} é ñ é é {v1, q3!1, v2, q3!1, ..., v1, q2, v2, q2} é {v1, q2!1, ..., v1, q1}.

(7.10)

El cardinal del conjunto Bj es qm ! qm.1 ! ñ ! q2 ! q1 % (pm . pm.1) ! (pm.1 . pm.2) ! ñ! ! (p2 . p1) ! (p1 . p0) % pm . p0 % pm % dim Em(j). Luego Bj será una base de Em(j) si demostramos que Bj es un conjunto de vectores linealmente independiente. Para ello supongamos que tenemos una combinación lineal de la forma m

qi

; ; ci, j vi, j % 0. i%1 j%1

Observar que i, j recorren los índices de los vectores de Bj. Si no todos los cij fueran cero sea r el máximo índice tal que cr, s Ç 0 para algún s. Por tanto qr

r.1

qi

; cr, j vr, j ! ; ; ci, j vi, j % 0. j%1

i%1 j%1

En el espacio cociente Er(j)/Er.1(j) se tiene la igualdad qr

r.1

qi

; cr, j (vr, j ! Er.1(j)) ! ; ; ci, j (vi, j ! Er.1(j)) % 0 ! Er.1(j). j%1

i%1 j%1

Pero vi, j à Er.1(j) para i % 1, ..., r . 1, por lo que la igualdad anterior se transforma en qr

; cr, j(vr, j ! Er.1(j)) % 0 ! Er.1(j). j%1 r Los vectores {vr, j ! Er.1}qj%1 son base de Er(j)/Er.1(j) por lo que concluimos que cr, j % 0 para todo j % 1, ..., qr. Esto contradice que cr, s Ç 0 para algún s. Por tanto ci, j % 0 para todo i, j.

262

Capítulo 6. Valores y vectores propios. Forma de Jordan

Sección 6.7. El Teorema de Jordan

263

Veamos ahora cuál es la matriz de A8Em(j) en la base Bj. Para los vectores de la primera columna de la izquierda de la tabla de la figura 6.3 tenemos

F

A(v1, 1) % (A . jI)(v1, 1) ! jv1, 1 % 0 ! jv1, 1 % jv1, 1 A(v2, 1) % (A . jI)(v2, 1) ! jv2, 1 % v1, 1 ! jv2, 1 . ó ó ó A(vm, 1) % (A . jI)(vm, 1) ! jvm, 1 % vm.1, 1 ! jvm, 1

(7.11)

Esto produce una matriz elemental de Jordan de orden m y autovalor j

El resto de las columnas del bloque 1 de la figura 6.3 también producen cajas de la forma Jm(j) sin mezclarse entre sí. Tenemos, por tanto, qm matrices elementales de Jordan de la forma Jm(j) colocadas en la diagonal de Jj. Análogamente, el bloque 2 de la figura 6.3 produce qm.1 . qm matrices elementales de Jordan de la forma Jm.1(j) colocadas en la diagonal de Jj. Finalmente, el último bloque de la figura 6.3 produce q1 . q2 matrices elementales de Jordan de la forma J1(j) % (j) colocadas en la diagonal de Jj. 䊏 Poniendo este resultado en (7.9) queda demostrado el Teorema de Jordan. *

*

*

Sea A: V r V una aplicación lineal en un espacio vectorial V de dimensión finita n sobre un cuerpo ⺛. Supongamos que el polinomio característico de A puede factorizarse en P⺛[x] con factores lineales, es decir r

pA(x) % c < (x . ji)si

(7.12)

i%1

con ji Ç jj y si números naturales no nulos (recordar que esto es siempre cierto cuando ⺛ % ⺓, pero no cuando ⺛ % ⺢). Por el Teorema de Cayley-Hamilton (Teorema 6.5.2) se cumple la condición (7.2) del Teorema de Jordan. En consecuencia, se puede elegir una base B de V respecto de la cual la matriz de A es de la forma (7.1). Al construir la base B en la demostración del Teorema de Jordan hemos necesitado hallar para cada ji, i % 1, ..., r, el número natural no nulo mi para el cual la sucesión de núcleos E1(ji) Ñ E2(ji) Ñ ñ Ñ Emi(ji) Ñ ñ Ñ V se estabiliza; es decir Emi(j) % Eq(j) para todo q b mi y mi es el menor de estos números. Llamaremos a Emi(ji) autoespacio máximo asociado con ji. Aunque la condición para encontrar el autoespacio máximo asociado con ji es clara, puede resultar tediosa al tener que calcular las potencias de una matriz. El siguiente resultado nos dice

264

Capítulo 6. Valores y vectores propios. Forma de Jordan

que hemos hallado el autoespacio máximo Emi(ji) cuando dim Emi(ji) % si, donde si es la multiplicidad de ji en el polinomio característico pA(x) (ver (7.12)). Lema 6.7.9 Con las condiciones que acabamos de describir dim Emi(ji) % si,

i % 1, ..., r.

Demostración. En la base de Jordan B dada en (7.10) la matriz de A es de la forma (7.9) y cada Jji esta formada por yuxtaposición sobre su diagonal de matrices elementales de Jordan de distintos tamaños y autovalor ji. Como el polinomio característico no depende de la base elegida y cada caja Jji tiene orden pmi % dim Emi(ji) se tiene r

pA(x) % pJ(x) % < (ji . x) pmi,

ji Ç jj, si i Ç j.

i%1

Comparando esta expresión con (7.12) se deduce que si % pmi % dim Emi(ji), i % 1, ..., r.



EJERCICIOS 6.7 1. Escribir todos los tipos posibles de forma de Jordan de matrices de orden menor o igual que cuatro. 2. Sea A una matriz real de orden 2 y C la matriz de un cambio de base; demostrar directamente que traza (A) % traza (C.1AC), donde la traza de una matriz se define como la suma de los elementos de su diagonal principal. 3. a)

Si A es una matriz de orden 3 y C la matriz de un cambio de base, demostrar que traza (A) % traza (C.1AC). [Sugerencia: utilizar el hecho de que el polinomio característico no depende de la base elegida.]

b) Generalizar el resultado anterior para matrices de orden n. 4. a)

Demostrar que T k . j kI % (T . jI)(T k.1 ! jT k.2 ! ñ ! j k.1I).

b)

Si q(j) % a0 ! a1j ! ñ ! amjm y q(T) % a0 I ! a1T ! ñ ! amT m, demostrar que: j autovalor de T ú q(j) autovalor de q(T). (Este problema nos indica entre qué valores buscar los autovalores para casos sencillos.)

c)

Determinar los posibles autovalores que puede tener T si: 1) T 2 % T; 2) T 2 % I; 3) T n % I, n n 3; 4) T 2 %.I.

d) Si T es invertible y j es autovalor de T, demostrar que j.1 es autovalor de T.1.

Sección 6.8. Obtención de la forma de Jordan compleja de una matriz

5. a)

265

Supongamos que T y S conmutan, esto es, TS % ST. Demostrar que Ker (S) e Img (S) son invariantes por T.

b) Probar que si p y q son polinomios, entonces p(T)q(T) % q(T)p(T). En consecuencia, Ker (q(T)) e Img (q(T)) son invariantes por p(T). 6. Dados T, S à L(V), dim V % n, tales que ambos poseen n autovalores distintos dos a dos (no necesariamente iguales), probar que TS % ST á T y S tienen los mismos autovectores. 7. Si j0 no es un autovalor de A, demostrar que A . j0 I es un automorfismo de Ep(j), donde j es un autovalor de A y Ep(j) es su autoespacio máximo. *

*

*

Una aplicación lineal T se dice nilpotente si existe k à ⺞ tal que T k % 0; si, además, Ç 0, a k se le llama orden de nilpotencia de T. T Dada T à L(V) nilpotente, se dice que es nilcíclica si existe u à V tal que V % L(u, T u, T 2 u, ..., T k.1u), con T k.1u Ç 0. k.1

8. Si T es nilcíclica con orden de nilpotencia k y u à V es tal que V % L(u, T u, ..., T k.1u), demostrar que {u, Tu, ..., T k.1u} es una base de V. 9. Si u1 % T k.1u, u2 % T k.2 u, ..., uk.1 % Tu, uk % u, con u y T como en el ejercicio 8, encontrar la matriz de T en esta base.

A B

0 1 0 0 0 0 1 0 10. Si T % , calcular T n para todo n à ⺞. Demostrar que j % 0 es el único 0 0 0 1 0 0 0 0 autovalor de un operador nilpotente (ver ejercicio 4).

6.8. Obtención 6.8. OBTENCIÓN de la forma de Jordan DE LA compleja FORMA de unaDE matriz JORDAN COMPLEJA

DE UNA MATRIZ Ya hemos comentado en la sección anterior que el Teorema de Jordan se aplica cuando ⺛ % ⺓ porque todo polinomio con coeficientes en ⺓ puede factorizarse en factores lineales. En esta sección daremos ejemplos de cómo se obtiene la forma de Jordan compleja (a veces saldrá con elementos reales) de una aplicación lineal o de una matriz. Comenzaremos haciendo un resumen de cómo se obtiene la base de Jordan, a modo de guía para seguir en los ejemplos de esta sección.

266

Capítulo 6. Valores y vectores propios. Forma de Jordan

1) Dada una aplicación lineal A se comienza calculando los autovalores; sean estos j1, ..., jr à ⺓, con multiplicidades s1, ..., sr, respectivamente, con s1 ! ñ ! sr % n (n % dimensión del espacio vectorial V en el que está definida A). 2) Para cada autovalor j se calcula la cadena de subespacios E1(j) Ü E2(j) Ü ñ ÜEm(j) % Em!1(j) % ñ donde Es(j) % Ker (A . jI)s, s % 1, 2, ... La secuencia anterior se estabiliza después de un cierto número de pasos m (el subespacio Em(j) se denomina autoespacio máximo asociado a j). El valor de m puede obtenerse sabiendo que dim Em(j) % multiplicidad de j en pA(x). Nota.

Es conveniente ahora observar la figura 6.3.

3) Elegir vm, 1, ..., vm, qm en Em(j) tales que {vm, 1 ! Em.1(j), ..., vm, qm ! Em.1(j)} sea una base de Em(j)/Em.1(j) (qm % dim Em(j) . dim Em.1(j)). Estos vectores forman la primera fila de la tabla de la figura 6.3. 4) Hallar vm.1, 1 % (A . jI)vm, 1, ..., vm.1, qm % (A . jI)vm, qm que son los qm primeros vectores de la segunda fila de la tabla de la figura 6.3. Completar esta fila de la tabla con vectores vm.1, qm!1, ..., vm.1, qm.1 en Em.1(j) tales que m.1 {vm.1, j ! Em.2(j)}qj%1

sea una base de Em.1(j)/Em.2(j) (qm.1 % dim Em.1(j) . dim Em.2(j)). 5) Continuar el proceso anterior hasta obtener los elementos v1, 1, ..., v1, qm, v1, qm!1, ..., v1, qm.1, ..., v1, q3!1, ..., v1, q2 de E1(j) que estan en la última fila. Si fuera necesario estos elementos se completan con los vectores v1, q2!1, ..., v1, q1 de manera que todos ellos sean una base de E1(j). 6) Escribir la base Bj en el siguiente orden: por columnas de izquierda a derecha y en cada columna de abajo hacia arriba (ver figura 6.3). La matriz de A8Em(j) en la base Bj estará formada por matrices elementales de Jordan de la forma Jk(j) descritas al comienzo de la sección 6.7. 7) Repetir los pasos 2) a 6) para cada autovalor ji, i % 1, ..., r; por el Corolario 6.7.7, B % Bj1 é ñ é Bjr es la base de Jordan de A y en esta base la matriz de A es su forma de Jordan J. i

EJEMPLO A.

ra 6.4

Tratemos de encontrar una forma de Jordan J de

A

1 0 A% 0 0 y una matriz P tal que AP % PJ.

0 1 0 0

2 .1 1 0

.6 3 3 2

B

Sección 6.8. Obtención de la forma de Jordan compleja de una matriz

267

Puesto que 8A . jI8 % (j . 1)3(j . 2), los autovalores de A son j % 1 (triple) y k % 2 (simple). Calculamos E1(1) % Ker (A . I):

A

0 0 0 0 0 0 0 0

2 .1 0 0

BA B A B

.6 3 3 1

x1 0 x2 0 % x3 0 x4 0

á

E

F

x3 % 0 , x4 % 0

E1(1) % L {(1, 0, 0, 0) , (0, 1, 0, 0)}.

Calculamos E2(1) % Ker (A . I)2:

A

0 0 0 0 0 0 0 0

2 .1 0 0

B A B A B A BA B A B

.6 3 3 1

2

x1 0 x2 0 % x3 0 x4 0

á

0 0 0 0

0 0 0 0

0 0 0 0

0 0 3 1

x1 0 x2 0 % x3 0 x4 0

á

x4 % 0,

E2(1) % L {(1, 0, 0, 0) , (0, 1, 0, 0), (0, 0, 1, 0)}.

Como dim (E2(1)) % 3, que es la multiplicidad de j % 1, E2(1) es el autoespacio máximo correspondiente a j % 1. Como E2(1)/E1(1) tiene dimensión 3 . 2 % 1, tomamos v2, 1 % (0, 0, 1, 0) de manera que v2, 1 ! E1(1) es base de E2(1)/E1(1). Hallamos v1, 1 % (A . I)(v2, 1) % (2, .1, 0, 0) à E1(1). Finalmente elegimos v1, 2 % (1, 0, 0, 0) à E1(1) de manera que {v1, 1, v1, 2} sea base de E1(1). Para B1 % {v1, 1, v2, 1, v1, 2}, base de E2(1) se tiene A(v1, 1) % (A . I)v1, 1 ! v1, 1 % v1, 1 A(v2, 1) % (A . I)v2, 1 ! v2, 1 % v1, 1 ! v2, 1 A(v1, 2) % (A . I)v1, 2 ! v1, 2 % v1, 2 , luego en la base B1 la matriz de A8E2(1) es

268

Capítulo 6. Valores y vectores propios. Forma de Jordan

Finalmente calculamos E1(2) % Ker (A . 2I):

A

.1 0 0 0

0 .1 0 0

BA B A B

2 .6 .1 3 .1 3 0 0

x1 0 x2 0 % 0 x3 x4 0

á

E

.x1 . x2 ! 2x3 . 6x4 % 0 .x2 . x3 ! 3x4 % 0 . x3 ! 3x4 % 0

F E F á

x1 % 0 x2 % 0 , x3 % 3x4

E1(2) % L{(0, 0, 3, 1)}.

Tomando v4 % (0, 0, 3, 1) se tiene que B % {v1, 1, v2, 1, v1, 2, v4} es una base de Jordan de A y su matriz de Jordan es

A

2 .1 con P % 0 0

0 0 1 0

1 0 0 0

B

0 0 la matriz del cambio de base. 3 1

A B

1 0 EJEMPLO B. Reducir la matriz A % 0 0 0 tal que AP % PJ. Puesto que 8A . jI8 % (j . 1)4(j . 2), Calculamos E1(1) % Ker (A . I):

E

2x2 ! 3x3 % 0 2x3 % 0 2x4 % 0 x4 ! x5 % 0

F

2 1 0 0 0

3 2 1 0 0

0 0 2 2 0

0 0 0 a su forma de Jordan y encontrar P 1 1

los autovalores de A son j % 1 (cuádruple), k % 2.

á

x2 % x3 % x4 % x5 % 0,

E1(1) % L{(1, 0, 0, 0, 0)}.

Calculamos E2(1) % Ker (A . I)2:

A B

0 0 2 (A . I) % 0 0 0

0 0 0 0 0

4 0 0 0 0

6 4 2 1 0

0 0 2 . 1 0

Sección 6.8. Obtención de la forma de Jordan compleja de una matriz

269

Luego E2(1) tiene por ecuaciones implícitas 4x3 ! 6x4 % 0, x4 % 0, x5 % 0. Por tanto: E2(1) % L{(1, 0, 0, 0, 0), (0, 1, 0, 0, 0)}. Calculamos E3(1) % Ker (A . I)3:

A

0 0 3 (A . I) % 0 0 0 Por tanto,

0 0 0 0 0

0 0 0 0 0

14 4 2 1 0

B

6 4 2 . 1 0

E3(1) % L{(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0)}. Calculamos E4(1) % Ker (A . I)4:

A

0 0 4 (A . I) % 0 0 0 Por tanto,

B

0 0 14 14 0 0 4 4 0 0 2 2 . 0 0 1 1 0 0 0 0

E4(1) % L{(1, 0, 0, 0, 0), (0, 1, 0, 0, 0) , (0, 0, 1, 0, 0), (0, 0, 0, 1, .1)}. Como dim E4(1) % 4 es la multiplicidad de j % 1, E4(1) es el autoespacio máximo. Como las dimensiones de Ei(1), i % 1, 2, 3, 4 son 1, 2, 3, 4, basta elegir v4, 1 % (0, 0, 1, .1) à E4(1) puesto que v4, 1 â E3(1). A continuación tomar v3, 1 % (A . I)v4, 1 % (0, 0, 2, 0, 0) à E3(1) v2, 1 % (A . I)v3, 1 % (6, 4, 0, 0, 0) à E2(1) v1, 1 % (A . I)v2, 1 % (8, 0, 0, 0, 0) à E1(1). Para el conjunto B1 % {v1, 1, v2, 1, v3, 1, v4, 1} se tiene A(v1, 1) % (A . I)v1, 1 ! v1, 1 % v1, 1 A(v2, 1) % (A . I)v2, 1 ! v2, 1 % v1, 1 ! v2, 1 A(v3, 1) % (A . I)v3, 1 ! v3, 1 % v2, 1 ! v3, 1 A(v4, 1) % (A . I)v4, 1 ! v4, 1 % v3, 1 ! v4, 1. Luego la matriz de A8E4(1) en la base B1 es

A B 1 0 0 0

1 1 0 0

0 1 1 0

0 0 . 1 1

270

Capítulo 6. Valores y vectores propios. Forma de Jordan

Calculamos Ker (A . 2I) % E1(2):

A

.1 0 0 0 0

BA B A B E

2 3 0 .1 2 0 0 .1 2 0 0 0 0 0 0

0 0 0 1 .1

x1 0 x2 0 x3 % 0 x4 0 x5 0

á

F

.x1 ! 2x2 ! 3x3 % 0 .x2 ! 2x3 % 0 , .x3 ! 2x4 % 0 x5 % 0

E1(2) % L{(14, 4, 2, 1, 0)}.

Tomar v5 % (14, 4, 2, 1, 0). En la base B % {v1, 1, v2, 1, v3, 1, v4, 1, v5}, que es una base de Jordan de A, la matriz de la aplicación A es

y la matriz del cambio de base es

A

8 0 P% 0 0 0

EJEMPLO C.

6 4 0 0 0

0 0 2 0 0

0 0 0 1 .1

*

*

*

B

14 4 2 . 1 0

Tratemos de hallar la forma de Jordan de la matriz

A

0 0 A% 1 0

1 .1 1 .2

B

.1 0 0 1 . 0 0 0 1

Sus autovalores satisfacen la ecuación (j2 ! 1)(j2 ! 1) % 0 y, por tanto, son j % i, k %.i (ambos dobles). Calculamos E1(i) % Ker (A . iI):

A

.i 0 1 0

1 .1 .1 . i 0 1 .i –2 0

BA B A B

0 1 0 1.i

z1 0 z2 0 % z3 0 z4 0

á

E1(i) % L{(i, 0, 1, 0)}.

E

F

.iz1 ! z2 . z3 % 0 z1 ! z2 . iz3 % 0 , z4 % (1 ! i)z2

Sección 6.8. Obtención de la forma de Jordan compleja de una matriz

271

Calculamos E2(i) % Ker (A . iI)2:

A

.2 .2.2i 0 .2!2i (A. iI)2 % .2i .2i 0 4i

BA B A B

2i 1 0 .2i .2 1 0 .2.2i

z1 0 z2 0 % z3 0 z4 0

á

E

F

(.1!i)z2 %iz4 , 2z1 !(1!i)z2 .2iz3 %0

E2(i) % L{(i, 0, 1, 0), (0, 1 ! i, 1, 2i)} .

Puesto que dim E2(i) % 2 % multiplicidad de i, aquí se estabiliza la cadena de subespacios. Tomamos

AB

A

0 .i 1 .1 1!i 0 .1 . i 0 v2, 1 % , v1, 1 % (A . iI)v2, 1 % 1 1 1 .i 2i 0 .2 0

BA B A B

0 1 0 1.i

La matriz de A8E2(i) en la base Bi % {v1, 1, v2, 1} es

0 i 1!i 0 % . 1 1 2i 0

A B i 0

1 . i

Para calcular E1(.i) % Ker (A ! iI) observamos que A ! iI % A . iI; luego el sistema (A ! iI)z % 0 es equivalente al sistema (A . iI)zz1 % 0, que coincide con el sistema utilizado para calcular Ker (A . iI) excepto que z es sustituido por z1 . Entonces E1(.i) % L{(.i, 0, 1, 0)}. De manera similar se tiene E2(.i) % L{(.i, 0, 1, 0), (0, 1 . i, 1, .2i)}, Aquí se estabiliza esta cadena de subespacios ya que dim E2(.i) % 2 % multiplicidad de .i. Podemos elegir u2, 1 % (0, 1 . i, i, .2i)

, u1, 1 % (.i, 0, 1, 0)

que son los vectores conjugados de v2, 1 y v1, 1 respectivamente. Como A(v1, 1) % (A . iI)v1, 1 ! iv1, 1 % iv1, 1 A(v2, 1) % (A . iI)v2, 1 ! iv2, 1 % v1, 1 ! iv2, 1 A(u1, 1) % (A ! iI)u1, 1 . iu1, 1 %.iu1, 1 A(u2, 1) % (A ! iI)u2, 1 . iu2, 1 %u1, 1 . iu2, 1

272

Capítulo 6. Valores y vectores propios. Forma de Jordan

la matriz

es la forma de Jordan (compleja) de A en la base B % {v1, 1, v2, 1, u1, 1, u2, 1}. * EJEMPLO D.

*

*

Considerar la aplicación lineal A: ⺓6 r ⺓6 dada por

A(x1, x2, x3, x4, x5, x6) % (3x1, 2x2, x2 ! 2x3, 4x4 . 4x5, x4, .x4 ! 3x5 ! 2x6) en una cierta base. La matriz de A con respecto a esta base es

Su polinomio característico es pA(x) % 8A . xI8 % (3 . x)(2 . x)5. Pongamos j1 % 3 (simple), j2 % 2 (quíntuple). Para j1 % 3 tenemos E1(3) % L{(1, 0, 0, 0, 0, 0)}, con lo que podemos tomar u1 % (1, 0, 0, 0, 0, 0). Para j2 % 2 calculamos E1(2) % Ker (A . 2I):

A

1 0 0 0 0 0

0 0 0 0 1 0 0 0 0 0 0 0

0 0 0 2 1 .1

BA B A B

0 0 0 0 0 0 .4 0 .2 0 3 0

x1 0 0 x2 0 x3 % x4 0 x5 0 x6 0

á

E F

x1 % 0 x2 % 0 , x4 % 0 x5 % 0

E1(2) % L{(0, 0, 1, 0, 0, 0), (0, 0, 0, 0, 0, 1)}.

Calculamos E2(2) % Ker (A . 2I)2:

Sección 6.8. Obtención de la forma de Jordan compleja de una matriz

A

1 0 0 (A . 2I)2 % 0 0 0

0 0 0 0 0 0

0 0 0 0 0 0

0 0 0 0 0 1

0 0 0 0 0 .2

B

0 0 0 ; 0 0 0

E

273

F

x1 % 0 , x4 . 2x5 % 0

E2(2) % {(x1, x2, x3, x4, x5, x6) à ⺓6: x1 % 0,

x4 . 2x5 % 0}.

Se comprueba que E3(2) % {(x1, x2, x3, x4, x5, x6) à ⺓6:

x1 % 0},

por lo que dim E3(2) % 5 % multiplicidad de j2. Tenemos las dimensiones (p1, p2, p3)%(2, 4, 5) por lo que la nomenclatura de la figura 6.3 es en este caso v3, 1 v2, 1

v2, 2

v1, 1

v1, 2

Elegimos v3, 1 % (0, 0, 0, 1, 0, 0) de manera que v3, 1 ! E2(2) es base de E3(2)/E2(2) porque v3, 1 à E3(2)CE2(2). Tomar v2, 1 % (A . 2I)v3, 1 % (0, 0, 0, 2, 1, .1) à E2(2). Elegir v2, 2 % (0, 1, 0, 0, 0, 0) à E2(2) de manera que {v2, 1 ! E1(2), v2, 2 ! E1(2)} es base de E2(2)/E1(2). Elegimos v1, 1 % (A . 2I)v2, 1 % (0, 0, 0, 0, 0, 1) à E1(2) v1, 2 % (A . 2I)v2, 2 % (0, 0, 1, 0, 0, 0) à E1(2) Se tiene A(v1, 1) % (A . 2I)v1, 1 ! 2v1, 1 % 2v1, 1 A(v2, 1) % (A . 2I)v2, 1 ! 2v2, 1 % v1, 1 ! 2v2, 1 A(v3, 1) % (A . 2I)v3, 1 ! 2v3, 1 % v2, 1 ! 2v3, 1 A(v1, 2) % (A . 2I)v1, 2 ! 2v1, 2 % 2v1, 2 A(v2, 2) % (A . 2I)v2, 2 ! 2v2, 2 % v1, 2 ! 2v2, 2 .

274

Capítulo 6. Valores y vectores propios. Forma de Jordan

Luego en la base B % {u1, v1, 1, v2, 1, v3, 1, v1, 2, v2, 2} la matriz de A es

EJERCICIOS 6.8 En los ejercicios siguientes hallar la forma de Jordan de la matriz dada y la matriz del cambio.

A A A

6 7 1. A % 8 1

.9 .13 .17 .2

3 0 2. B % 1 0

1 2 1 0

2 0 5 2 3. C % 3 1 1 0

A

1 1 4. D % 0 0 0

5 8 11 1

B B B

4 7 . 8 3

.1 .1 0 1 . 1 0 0 2 0 .2 0 0

.2 2 . .3 0

.1 .1 3 1 0 2 0 0 0 0

.1 1 0 1 1

B

.1 1 0 . .1 3

5. Calcular la forma de Jordan de la matriz A para los distintos valores de a à ⺢, donde

A

a 0 A% 0 0

a a 0 0

0 1 . 2a 1 0

B

0 1 . 2a . 0 1

6. Hallar la forma canónica de Jordan de la aplicación derivación, D, en P (3) ⺢ [x].

Sección 6.9. Forma de Jordan real de matrices reales con autovalores complejos

275

6.9. Forma 6.9. FdeORMA Jordan real DEdeJmatrices ORDAN realesREAL con autovalores DE MATRICES complejos REALES

CON AUTOVALORES COMPLEJOS Aunque una aplicación lineal esté definida en un espacio vectorial real, su forma de Jordan, obtenida como en las secciones 6.7 y 6.8, puede ser compleja. Dos muestras se tienen en el ejemplo B de la sección 6.3 y en el ejemplo C de la sección 6.8. En esta sección trataremos de dar una «forma de Jordan real» de toda aplicación lineal definida en un espacio vectorial real de dimensión finita. Si la forma de Jordan de una matriz A obtenida mediante el procedimiento de las secciones 6.7 y 6.8 es real, a esta se le llama forma de Jordan real de A; si, por el contrario, alguno de los autovalores de A es complejo se dará en esta sección su forma de Jordan real. Comencemos con una matriz real A de orden 2. Si su polinomio característico tiene una raíz compleja j % a . ib, b Ç 0, también su conjugada j1 % a ! ib es raíz. Hemos probado en la sección 6.3 que A es equivalente a la matriz J%

A

B

a .b b a

y mostrado cómo se halla el cambio de base tomando las partes reales e imaginarias de un autovector complejo del autovalor j. En el caso de matrices reales de orden 2 todas las posibilidades se han descrito en el Teorema 6.3.3. Estudiemos ahora el caso de una matriz real A de orden 3. Si su polinomio característico tiene una raíz compleja, debe tener su conjugada como raíz, ya que el polinomio tiene coeficientes reales. Por tanto, al menos una de sus raíces debe ser real. Sean j1 à ⺢, j2 % a . ib à ⺓, j3 % a ! ib % j1 2 à ⺓ con b Ç 0, los tres valores propios de A. Como son distintos, la matriz A es diagonalizable sobre ⺓ (ver Proposición 6.2.5). Sea u1 un autovector real de A con autovalor j1 y sean z2, z3 vectores propios complejos de A con valores propios j2 y j3 respectivamente. En la base {u1, z2, z3} la matriz de la aplicación A es

A

j1 0 0

B

0 0 j2 0 . 0 j3

Para hallar la forma de Jordan real de A se procede de la siguiente manera. Escribir z2 % x2 ! iy2 con x2, y2 vectores reales. De A(z2) % (a . ib)z2 se deduce A(x2) ! iA(y2) % (a . ib)(x2 ! iy2) % (ax2 ! by2) ! i(ay2 . bx2) por lo que se tiene

F

A(x2) % ax2 ! by2 . A(y2) % .bx2 ! ay2

276

Capítulo 6. Valores y vectores propios. Forma de Jordan

La matriz de A en la base B % {u1, x2, y2} es

que es una forma de Jordan real de A en este caso. Teniendo en cuenta también los casos en los que los valores propios sean reales, del Teorema de Jordan (Teorema 6.7.1) se deduce el resultado siguiente. Teorema 6.9.1 Dada una matriz A à ᏹ3#3(⺢) siempre puede encontrarse una matriz J à ᏹ3#3(⺢) de una cualquiera de las formas

con j1, j2, j3, a, b à ⺢, b Ç 0, y una matriz R à ᏹ3#3(⺢) con determinante no nulo tal que A % RJR.1. La matriz J se denomina matriz de Jordan real de A. Observación. El Teorema 6.9.1 tiene también una versión para aplicaciones lineales A: V r V, donde V es un espacio vectorial real de dimensión 3. Se invita al lector a que escriba el enunciado. EJEMPLO A.

Encontrar una forma de Jordan real J de

A

2 A% 0 1

0 .1 0

B

.3 0 .1

y una matriz real R tal que AR % RJ. La ecuación característica de A es .j3 . 1 % 0, con lo que sus autovalores son las soluciones de j3 %.1, es decir, j1 %.1,

j2 % e.ni/3 %

1 . i∂3 , 2

j1 2 % eni/3 %

1 ! i∂3 . 2

277

Sección 6.9. Forma de Jordan real de matrices reales con autovalores complejos

Al autovalor j1 %.1 le corresponde la matriz elemental de Jordan J1(.1) % (.1) y al par de autovalores conjugados j2 y j1 2 le corresponde la matriz

A

con lo que

1/2

.∂3/2

∂3/2

1/2

A F

Para encontrar R calculamos E1(.1)%Ker (A!I) y E1

A

A

BA B A B

3 0 .3 0 0 0 1 0 0

x1 0 x2 % 0 0 x3

E

á

3x1 % 3x3 x1 % 0

3/2!(∂3/2)i 0 .3 0 0 .3/2!(∂3/2)i 1 0 .3/2 .(∂3/2)i E1

A

B EA

1 . i∂3 %L 2

B

,

B A A

BB

1.i∂3 1.i∂3 %Ker A. I : 2 2 ú

E1(.1) % L{(0, 1, 0)}.

BA B A B E z1 0 z2 % 0 z3 0

3 ∂3 . i, 0, 1 2 2

z2 %0

á

BF

z1 %

A

B

3 ∂3 . i z3 2 2

F

ú

.

Tomando u1 % (0, 1, 0), x2 %

A

B

3 , 0, 1 , 2

A

y2 % .

B

∂3 , 0, 0 2

se tiene

A

0 R% 1 0

3/2 0 1

B

.∂3/2 0 . 0

El lector puede comprobar ahora que en la base {u1, x2, y2} la aplicación dada por A tiene como matriz J. *

*

*

Consideremos ahora A à ᏹn#n(⺢). Denotemos por A a la aplicación lineal definida en ⺢n que tiene a A como matriz en la base canónica de ⺢n, esto es A(x) % A · x. Si A tiene n autovalores reales (contando su multiplicidad) se puede aplicar el Teorema de Jordan (Teorema 6.7.1) y su forma de Jordan real es de la forma (7.1) con j1, ..., js à ⺢. Supongamos que al menos uno de sus autovalores es complejo. Sea j % a . ib (b Ç 0) este autovalor. Como A tiene elementos reales, j1 % a ! ib es también autovalor de A ya que si 8A . jI8 % 0 se tiene 8A . j1 I8 % 8A . jI8 % 0.

278

Capítulo 6. Valores y vectores propios. Forma de Jordan

La matriz A también define una aplicación lineal A: ⺓n r ⺓n dada por A(z)%A · z% A · (x ! iy) % A · x ! iA · y, cuya matriz en la base canónica de ⺓n sigue siendo A. Como las ecuaciones (A . jI)k · z % 0 son equivalentes a (A . j1 I)k · z % 0, las bases de los autoespacios máximos Em1(j) y Em2(j1 ), que producen la base de Jordan (ver figura 6.3) pueden elegirse conjugadas y m1 % m2. Recordar que cada columna de la tabla de la figura 6.3 producía una matriz de Jordan elemental. Vamos a mostrar como se obtiene una matriz de Jordan elemental real a partir de cada una de estas columnas para el autovalor j y su correspondiente columna de vectores conjugados para j1 . Sean E % {v1, ..., vm} , E1 % {w1, ..., wm} los vectores de esta columna, con wj conjugado de vj, j % 1, ..., m. Las relaciones (7.11) se escriben en este caso como A(v1) % jv1 A(vj) % vj.1 ! jvj A(w1) % j1 w1 A(wj) % wj.1 ! j1 wj

F

j % 2, ..., m

,

1 (v ! wj) 2 j 1 yj % Img (vj) % (vj . wj) 2i xj % Re (vj) %

F

j % 2, ..., m

,

Sean

,

F

,

(9.1) .

j % 1, ..., m,

(9.2)

vectores con coordenadas reales que son las partes reales e imaginarias de vj, respectivamente. El conjunto de vectores dado en (9.2) es linealmente independiente sobre ⺢; en efecto, si tenemos m

m

; aj xj ! ; bj yj % 0 , j%1

aj, bj à ⺢,

j%1

se tiene m

0 % ; aj j%1

%

m v j ! wj vj . wj ! ; bj 2 2i j%1

1 m 1 m ; (aj . ibj)vj ! ; (aj ! ibj)wj. 2 j%1 2 j%1

Como E é E1 es un conjunto de vectores linealmente independiente sobre ⺓ se tiene aj . ibj % 0, aj ! ibj % 0, de donde se deduce aj % bj % 0, j % 1, ..., m. Utilizando (9.1) se tiene 1 1 1 A(x1) % [A(v1) ! A(w1)] % (a . ib)v1 ! (a ! ib)w1 2 2 2 %a

v 1 ! w1 v1 . w1 !b % ax1 ! by1, 2 2i

Sección 6.9. Forma de Jordan real de matrices reales con autovalores complejos

A(y1) %

279

1 1 1 [A(v1) . A(w1)] % (a . ib)v1 . (a ! ib)w1 2i 2i 2i

%a

v1 . w1 v1 ! w1 .b % ay1 . bx1. 2i 2

De nuevo por (9.1) para k % 2, ..., m se tiene 1 1 1 A(xk) % [A(vk) ! A(wk)] % [vk.1 ! (a . ib)vk] ! [wk.1 ! (a ! ib)wk] % 2 2 2 % xk.1 ! axk ! byk , A(yk) %

1 1 1 [A(vk) . A(wk)] % [vk.1 ! (a . ib)vk] . [wk.1 ! (a ! ib)wk] % 2i 2i 2i

% yk.1 ! ayk . bxk . Por tanto, si elegimos B % {x1, y1, x2, y2, ..., xm, ym} la matriz de la aplicación A restringida al espacio vectorial real generado por B es

(9.3)

Esta matriz está formada por la yuxtaposición sobre su diagonal principal de las matrices a .b , que corresponden a matrices de la aplicación lineal A restringida a subespacios inb a variantes de dimensión dos asociados a j % a . ib, con matrices identidad de orden 2 encima de la diagonal principal y ceros en el resto. Las matrices (9.3) son matrices elementales de Jordan reales para el autovalor complejo j % a . ib (b Ç 0). Con las indicaciones dadas ya podemos hallar matrices de Jordan reales, como se muestra en el siguiente ejemplo. El enunciado del teorema, así como la demostración de que siempre se obtiene una base con el procedimiento descrito se muestran después del ejemplo.

A

B

280

Capítulo 6. Valores y vectores propios. Forma de Jordan

EJEMPLO B.

Sea

A

0 0 A% 1 0

1 .1 1 .2

.1 0 0 1 0 0 0 1

B

la matriz del ejemplo C de la sección 6.8. Sabemos que sus autovalores son j %.i, j % i (dobles) y los autoespacios máximos (complejos) son E2(.i), E2(i) y ambos tienen dimensión 2. Por el ejemplo C de la sección 6.8 una base de Jordan compleja para la aplicación definida por A es v1 % (.i, 0, 1, 0), v2 % (0, 1 . i, 1, .2i), w1 % (i, 0, 1, 0), w2 % (0, 1 ! i, 1, 2i). Tomando x1 % (0, 0, 1, 0), y1 % (.1, 0, 0, 0), x2 % (0, 1, 1, 0), y2 % (0, .1, 0, .2) se tiene que B % {x1, y1, x2, y2} es base de ⺢4 y en esta base la matriz de A es

Este resultado puede comprobarse directamente aplicando A a cada uno de los vectores de B ya que A(x1) % y1,

A(y1) %.x1,

A(x2) % x1 ! y2,

A(y2) % y1 . x2.

Teorema 6.9.2 (Teorema de ordan real) Dada una matriz A à ᏹn#n(⺢) siempre puede encontrarse una matriz J à ᏹn#n(⺢) formada por yuxtaposición sobre la diagonal principal de matrices elementales de Jordan Jk(j) y matrices de la forma (9.3) con b Ç 0, y una matriz R à ᏹn#n(⺢) con determinante no nulo tal que A % RJR.1. La matriz J se denomina matriz de Jordan real de A. El lector puede escribir este resultado para aplicaciones lineales definidas sobre un espacio vectorial real de dimensión finita. Demostración. El polinomio característico de A puede escribirse de la forma n1

n2

j%1

j%1

pA(x) % c < (x . jj)sj · < (x . kj)tj, jj à ⺢, kj à ⺓ \ ⺢ distintos.

(9.4)

Sección 6.9. Forma de Jordan real de matrices reales con autovalores complejos

281

Si kj % aj ! ibj, bj Ç 0, puesto que A es real sabemos que k6 j % aj . ibj es también raíz del polinomio característico. Como (x . kj)(x . k6 j) % (x . aj)2 ! b2j % qj(x), a partir de (9.4) podemos escribir n1

m2

j%1

j%1

pA(x) % c < (x . jj)sj · < [(x . aj )2 ! b2j ]tj,

(9.5)

que es la factorización real de pA(x). La factorización se ha elegido de manera que todos los factores son distintos. Puesto que pA(A) % 0 por el Teorema de Cayley-Hamilton (Teorema 6.5.2), por el Lema 6.7.6 podemos escribir V%

A

n1

B A

m2

S Ker (A . jj I)s S S Ker qj (A)t j

j%1

j%1

j

B

.

(9.6)

Sean n1

m2

E1 % S Ker (A . jj I)sj

E2 % S Ker qj (A)tj.

,

j%1

j%1

En cada subespacio Ker (A . jj I) puede encontrarse una base de Jordan como se indicó en la sección 6.7, que estará formada por vectores reales ya que jj à ⺢. Además, aplicando el Lema 6.7.9 a A8E1 se tiene que sj

dim Ker (A . jj I)sj % sj,

j % 1, ..., n1 .

(9.7)

La base que hallaremos en Ker qj (A)tj se hará siguiendo el procedimiento descrito antes del ejemplo B. Como n2

m2

m2

k%1

j%1

j%1

< (x . kk)tk % < (x . kj)tj < (x . k6 j)tj con 2m2 % n2 podemos considerar los autoespacios complejos Ker (A . kj I)tj

,

Ker (A . k6 j I)tj.

En cada uno de estos autoespacios tenemos una base de Jordan compleja E % {v1, ..., vtj} , E1 % {w1, ..., wtj} que pueden elegirse conjugadas, es decir wi es conjugado de vi, i % 1, ..., tj. El cardinal de cada una de estas bases es tj por el Lema 6.7.9. Escribimos ahora xi %

vi ! wi 2

,

yi %

vi . wi 2i

,

i % 1, ..., tj .

Un razonamiento similar al que sigue a (9.2) prueba que B % {x1, ..., xtj, y1, ..., ytj }

(9.8)

282

Capítulo 6. Valores y vectores propios. Forma de Jordan

es un conjunto de vectores linealmente independiente. Además B Ñ Ker qj (A)tj ya que 1 qj (A)tj (xi) % [qj (A)tj (vi) ! qj (A)tj (wi)] % 2 1 % [(A . k6 j I)tj (A . kj I)tj (vi) ! (A . kj I)tj (A . k6 j I)tj (wj)] % 2 %0 porque vi à Ker (A . kj I)tj, wi à Ker (A . k6 j I)tj. Nótese que en las igualdades anteriores se ha usado la propiedad de conmutación (7.3). Por tanto xi à Ker qj (A)tj. De manera similar se prueba que yi à Ker qj (A)tj, i % 1, ..., tj. Lo único que falta probar es que B, dada en (9.8), es base de Ker qj (A)tj. Ya sabemos que dim Ker qj (A)tj n 2tj ,

(9.9)

ya que B es un conjunto de vectores linealmente independiente en Ker qj (A)tj. De (9.5) n1

m2

j%1

j%1

n % ; sj ! 2 ; tj y de (9.6) y (9.7) n1

m2

n % ; dim Ker (A . jj I)sj ! ; dim Ker qj (A)tj % j%1

j%1

n1

m2

j%1

j%1

% ; sj ! ; dim Ker qj (A)tj. Luego m2

m2

j%1

j%1

; dim Ker qj (A)tj % ; 2tj y como se tiene (9.9) ha de ser dim Ker qj (A)tj % 2tj, j % 1, ..., m2. Por tanto, B es base de Ker qj (A)tj. La ordenación de los elementos de B para obtener matrices de Jordan del tipo (9.3) se hace siguiendo el orden señalado en la demostración del Teorema de Jordan (ver figura 6.3) y alter䊏 nando las partes reales e imaginarias como en la base en la que se tiene (9.3).

EJERCICIOS 6.9 1. Encontrar la forma de Jordan real de las siguientes matrices:

a)

A

0 0 3

1 1 1

B

.1 0 0

b)

A

1 3

.2 1

B

c)

A

0 0 1 0

0 0 1 1

.1 0 0 0

B

1 .1 . 0 0

Sección 6.9. Forma de Jordan real de matrices reales con autovalores complejos

A

283

B

a .b 0 2. Sea G % b a 0 la matriz de G à L(⺢3) en la base canónica, con a2 !b2 % 1. Hallar 0 0 1 los subespacios invariantes de G, así como los autovalores. 3. Sea G %

A

B

a .b con a2 ! b2 % 1 la matriz de G à L(⺢2) en la base canónica. b a

a)

Hallar los autovalores y autovectores de G.

b)

Probar que G es un giro de ángulo r determinado por a % cos r, b % sen r.

c)

Si z % u ! iv à ⺓2 es autovector de G, probar que la matriz de G en la base {u, v} es At ó A dependiendo de que el autovalor correspondiente sea j % a ! ib ó j1 % a . ib.

4. a)

Sea V un espacio vectorial real y sea V⺓ % {x1 ! ix2: x1, x2 à V} con las operaciones (x1 ! ix2) ! (y1 ! iy2) % (x1 ! y1) ! i(x2 ! y2), (a ! ib)(x1 ! ix2) % (ax1 . bx2) ! i(bx1 ! ax2). Demostrar que V⺓ es un espacio vectorial complejo.

b)

Si A à L(V), demostrar que A⺓ definida en V⺓ por A⺓(x1 ! ix2) % A(x1) ! iA(x2) es una aplicación lineal en V⺓.

5. Sea j un número complejo con Im j Ç 0. Sea J una aplicación lineal en ⺓4 tal que en la base {v1, v2, v3, v4} tiene por matriz

a) Demostrar que los vectores S % {v1, j v1, v3, j1 v3} son linealmente independientes sobre ⺢. b)

Pongamos (x . j)(x . j1 ) % x2 ! a1x ! a0. Demostrar que la matriz de J restringida al subespacio vectorial real L(S) es

Biografía amille ordan nació el 5 de enero de 1838 en Lyon y murió el 20 de enero de 1922 en Milán. Fue un matemático cuyos trabajos en grupos de permutaciones y en la teoría de ecuaciones hizo posible un perfecto entendimiento de las teorías del matemático francés Évariste Galois.

284

Capítulo 6. Valores y vectores propios. Forma de Jordan

Jordan comenzó trabajando en geometría. Su Traité des substitutions et des equations algébriques (1870) (Tratado sobre las permutaciones y ecuaciones algebraicas), por el cual obtuvo el premio Poncelet de la Academia de Ciencias de Francia, fue fundamental en el entendimiento de la teoría de Galois sobre los grupos de permutaciones, lo cual fue aplicado para la resolución de ecuaciones algebraicas. También resolvió un problema propuesto por Niels Henrick Abel acerca de la no solubilidad de una cierta ecuación algebraica mediante radicales. Jordan publicó sus lecciones y sus investigaciones en análisis en Cours d’analyse de l’École Polytechnique (3 vols., 1882) (Curso de análisis de la Escuela Politécnica). En la tercera edición (1909-1915) de su trabajo en análisis, la cual contiene muchas más investigaciones de Jordan que la primera, trató la teoría de funciones desde un punto de vista moderno, trabajando con funciones de variación acotada. Las álgebras de Jordan se llaman así en su honor. En topología, Jordan probó (1887) que un arco simple no divide al plano y que una curva cerrada simple divide a un plano en dos partes. A pesar de que estas afirmaciones son intuitivamente obvias, su demostración requiere sofisticados métodos. C. Jordan fue profesor de matemáticas en la École Polytechnique (París, 1876-1912). También fue editor de la revista matemática Journal de Mathématiques Pures et Appliquées (1885-1922).

Ejercicios de repaso

Capítulos 1 a 6.

A continuación presentamos varios ejercicios que pueden servir para repasar los conceptos introducidos anteriormente. Los ejercicios del 1 al 27 están ordenados de acuerdo con el orden de los capítulos de este libro. El resto son problemas que se han propuesto en varias convocatorias a los alumnos de primer curso de los estudios en Matemáticas y Físicas de la Universidad Autónoma de Madrid. 1. Utilizar el método de eliminación de Gauss para encontrar todas las soluciones del sistema: 1! 2 1. 4 1!

F

2.2 3!

1 4% . 2 ! 3 %.2 . 3 2 4 0 2.4 3!6 4%

2. Sea r el mayor número de soluciones linealmente independientes del sistema: 1!2 2!

4 3 1!5 2! 6 4 1!5 2. 2 3 1 ! 8 2 ! 24

3.

3 3. 4 3! 3 3 . 19

4%0 4%0 4%0 4%0

F

.

Hallar r y encontrar r soluciones linealmente independientes de este sistema. 3. Resolver el siguiente sistema:

F

1! 2! 3! 4! 5%1 1! 2! 3! 4! 5%2 1! 2! 3! 4! 5%3 1! 1!

2! 2!

3! 3!

4! 4!

5%4 5%1

.

286

Ejercicios de repaso: Capítulos 1 a 6

4. Estudiar la compatibilidad o incompatibilidad del sistema ! y!a %1 ! by ! % 1 2 ! y! %1

F

según los valores reales de a y b y encontrar sus soluciones en los casos en que sea compatible. 5. Sean a y b dos números reales, no nulos y distintos. Estudiar el rango de la siguiente matriz para los distintos valores de à ⺢:

A B A B b

b % a b

b a

a b b a . b b

6. Hallar la inversa de la siguiente matriz siempre que sea posible: 1

%

7. Encontrar todos los vectores ( 1, 8. a)

0 0 0

0 0

0 0 1 0 . 1 0

à ⺢3 tal que ( ) %. , donde 2,

3) % (.2 1 ! 3,

. 2, . 1).

Sean 1 % (1, 0, 1), 2 % (0, 1, 1) y 3 % (3, .1, a). Decir para qué valores de a à ⺢ el conjunto % { 1, 2, 3} es una base de ⺢3.

b) Si es la base anterior con a % 1 y ( 1ñ , ñ2, ñ3) son las coordenadas del vector ( 1, 2, 3) à ⺢3 respecto de la base , hallar la ecuación en coordenadas ( ñ1, ñ2, ñ3) del plano n: 2 1 . 2 ! 3 3 % 0. c)

Hallar un cambio de coordenadas ( ññ1 , ññ2 , 3ññ) tales que la ecuación de n sea ññ3 %0.

9. Calcular el siguiente determinante de orden n ! 1:

G

10. Probar que

G

1 1 1 1 ! a1 1 1 ó ó 1 1

a1 . b1 a2 . b1 a3 . b1 a4 . b1

1 1 1 ! a2 ó 1

a1 . b2 a2 . b2 a3 . b2 a4 . b2

ñ ñ ñ

G

1 1 1 . ó ñ 1 ! an

a1 . b 3 a2 . b 3 a3 . b 3 a4 . b 3

G

a1 . b 4 a2 . b 4 % 0. a3 . b 4 a4 . b 4

287

Ejercicios de repaso: Capítulos 1 a 6

11. Si

à ᏹ n#n(⺢) no es invertible, demostrar que existe % 0.

à ᏹ n#n(⺢),

Ç 0, tal que

12. En los siguientes casos hallar los valores de para los cuales el determinante de la matriz dada es nulo:

a)

3. 6 % 8

A

.1 .3. .6

0 2 5.

c)

3. 4 % 0 0

A

.4 .5 . 0 0

0 .2 3. 2

13. a)

B

b)

2 4 .2 .1 .

B

A

4. % 1 .4

.5 .4 . 0

7 9 5.

B

.

Encontrar la matriz del cambio de base de % {1, , 2, ñ % {1, . 1, ( . 1)2, ( . 1)3, ( . 1)4} en (4) ⺢ [ ].

3

,

4

}a

23. b) Encontrar las coordenadas del polinomio ( )%5!4 !3 2!2 3!

4

con respecto a la base ñ. 14. Encontrar la dimensión y una base del subespacio vectorial generado por los vectores 1 % (1,

0, 0, .1), 4 % (1,

2 % (2,

2, 3, 4),

3 % (1,

1, 1, 0), 5 % (0,

1, 1, 1),

1, 2, 3).

Encontrar la ecuaciones cartesianas de este subespacio. 15. Dados los vectores 1 % (2, 1, .1), 2 % (3, 0, 1) y 3 % (1, 2, .3), determinar el subespacio que generan y hallar la intersección de dicho subespacio con el generado por v1 % (5, 1, 0), v2 % (1, .1, 1). 16. a)

Encontrar las ecuaciones de la simetría ( , y, ) % t(.1, 1, 2).

26. b) Hallar las ecuaciones de la proyección 17. Si , :

r

18. Sean r probar que 19. a)

Sea

en ⺢3 con respecto a la recta

de ⺢3 sobre el plano ! y . % 0.

son aplicaciones lineales, demostrar que Ker ( ) ç Ker ( ) Ñ Ker ( ! ). r aplicaciones lineales. Si y son suprayectivas.

o

es suprayectiva y dim ( ) % dim ( ),

à L(⺢2n!1); demostrar que Ker ( ) Ç Img ( ).

b) Sea à L(⺢2n); demostrar que Ker ( ) % Img ( ) si y solo si dim (Img ( )) % n.

2

%

o

%0 y

288

Ejercicios de repaso: Capítulos 1 a 6

20. a)

: ⺢3 r ⺢3 está

Hallar las ecuaciones paramétricas de Ker ( ) y de Img ( ), si dada por ( 1,

2,

3) % ( 1 ! 2 2 ! 3,

. 1 ! 2 2, 2 2 ! 3).

30. b) Encontrar la intersección de Ker ( ) e Img ( ). 21. Encontrar la forma de Jordan de las matrices

A

.1 % 0 1

.3 .1 2

2 1 .1

B

A

0 % 1 1

y

B

.1 1 2

1 0 .1

indicando el cambio de base. 22. Encontrar la forma de Jordan de

A B

0 % 0 0

23. Decir si la matriz

1 0 0

A B

0 % 1 0

1 0 0

0 0 y calcular 2

3

.

0 2 es diagonalizable justificando la respuesta. 2

24. Encontrar la forma de Jordan de las matrices

%

A

0

.1 1

1

.1 .. .

..

.1 1

.

0

ambas de orden n.

A

2 % .1 3

25. Dada la matriz a)

3

!4

2

B

0 15 , calcular: 1

. 5 ! 2.

( ), donde ( ) %. 6 ! 4 5 . 5 4 ! 2 3 . 3.

A B

n 26. Sea n % 1 1 a)

b) Calcular c)

1 1 n 1 con n à ⺢. 1 n

Demostrar que Si

.1 n

.1 n

n

2 1

%

El polinomio característico y la forma de Jordan de .

b) . c)

0 1 0

B A ,

1

es diagonalizable para todo n.

cuando exista.

no existe, encontrar Ker ( n) e Img ( n).

0

3 2 1

ñ ñ ñ .. .

B

n n.1 n.2 ó 1

Ejercicios de repaso: Capítulos 1 a 6

27. Encontrar (razonadamente) los autovalores de

A

.1 2 .1

1 % .1 0 *

10

*

si

289

es la matriz

B

0 .1 . 1

*

28. Discutir, según los valores reales de a y b, el sistema a . y!2 %1 ! ay . 4 % 0 . ! y.2 %b

F

y resolverlo cuando sea compatible indeterminado. 29. Encontrar bases del núcleo y de la imagen de la aplicación lineal L: dada por L(a 3 ! b 2 ! 30. a)

(3) ⺓ [

]r

(2) ⺓ [

]

! ) % (a . ! 2 ) 2 ! (.2a ! b) ! (b . 2 ! 4 ).

Estudiar si la aplicación : ⺢3 r ⺢3 dada por ( 1,

2,

3) %

1 (.4 1 ! 4 2, 5 1 ! 4 2, . 1 . 2 2 . 6 3) 6

es diagonalizable. 42. b) Encontrar los subespacios invariantes de dimensión 1 de la aplicación . 31. La suma de tres números positivos no nulos es 10; el primero, más el doble del segundo, menos el triple del tercero es 5 y el primero, más el triple del segundo, menos 7 veces el tercero es 0. Encontrar estos tres números. 32. Dados los conjuntos de vectores ⺢3, determinar: a)

1 % {(1,

1, 0), (1, 0, 1)} y

2 % {(1,

1, 1), (0, 1, 1)} en

La relación de inclusión entre L( 1) y L( 2).

b) L( 1) ç L( 2). c)

L( 1) ! L( 2).

33. Encontrar la matriz, en la base canónica, de la transformación lineal lleva en v , donde 1 % (2,

3, 5),

v1 % (1, 1, 1),

2 % (0,

1, 2),

3 % (1,

de ⺢3 en ⺢3 que

0, 0),

v2 % (1, 1, .1), v3 % (2, 1, 2).

34. Estudiar para qué valores del parámetro a à ⺢, los vectores 1 % (1, .1, 1, .1), 2 % (a, 1, 1, a), 3 % (2, 0, 2, 0) y 4 % (.1, a, 1, a) son linealmente dependientes y encontrar la relación que existe entre estos vectores para los valores de a que los hagan linealmente dependientes.

290

Ejercicios de repaso: Capítulos 1 a 6

35. Se considera la base de ⺓3 siguiente: % {(1, 1, 1), (1, 1, 0), (0, .1, 2)} y la aplicación lineal , de ⺓3 en ⺓2, que cumple: (1, 1, 1) % (i, 1), a)

Determinar la matriz de

(1, 1, 0) % (1, .i),

(0, .1, 2) % (2 ! i, 1 . 2i).

en las bases canónicas de ⺓3 y ⺓2.

b) Determinar bases del núcleo y de la imagen de la aplicación .

A

a 36. Estudiar la posibilidad de diagonalizar la matriz 0 0 res de a.

.1 1 2

B

1 3 según los distintos valo2

Capítulo 7

La geometría del plano y del espacio. 7.1. Rectas en un plano. 7.2. Rectas y planos en el espacio. 7.3. Distancias y ángulos. Producto escalar. 7.4. Figuras sencillas en el plano y en el espacio: sus ecuaciones. 7.5. Áreas y volúmenes. Producto vectorial.

292

Capítulo 7. La geometría del plano y del espacio

La geometría es la rama de la matemática que estudia la forma y el tamaño de las figuras, así como las trasformaciones que sobre ellas se ejercen. Dependiendo de que las figuras estén en un plano o en el espacio se obtienen las geometrías planas o tridimensionales. La antigua civilización griega poseía muchos conocimientos acerca de la geometría. Estos conocimientos fueron recogidos por uno de sus mejores exponentes, Euclides, que los recopiló en un libro denominado Lo elemento . La traducción de este libro, que llegó a Europa a través de la civilización árabe, ha sido la base de todo el estudio de la geometría hasta finales del siglo XIX. Lo elemento están basados en un sistema de verdades evidentes, denominadas a ioma , a partir de las cuales se deducen las propiedades de las figuras mediante un razonamiento lógico. Ejemplos de propiedades de las figuras son los siguientes: 1) Los ángulos formados por rectas perpendiculares entre sí son iguales.

2) Las mediatrices de los catetos de un triángulo rectángulo se cortan en el punto medio de la hipotenusa.

En el siglo XVII el filósofo y matemático francés R. Descartes introdujo la noción de coordenadas de un punto; todo punto tiene una representación con respecto a unas rectas dadas que se cortan. Los trabajos de los matemáticos durante los dos siglos siguientes mostraron que las propiedades geométricas de las figuras pueden demostrarse más fácilmente útilizando el sistema de representación mediante coordenadas cartesianas. Esta forma de estudiar la geometría se denomina geometría analíti a. La geometría analítica sustituyó a la geometría de Lo elemento de Euclides a finales del siglo XIX y actualmente es la forma más extendida de estudiar la geometría. La geometría analítica del plano y del espacio ocupará gran parte de nuestra exposición en este capítulo; dedicaremos también alguna sección a estudiar propiedades de las figuras desde el punto de vista euclídeo.

Sección 7.1. Rectas en un plano

293

7.1. RECTAS EN UN PLANO 7.1. Rectas en un plano

Dadas dos rectas en un plano que se cortan en un punto , cualquier otro punto del plano queda determinado por dos números que reciben el nombre de om onente con respecto a las rectas dadas. Estas componentes se obtienen de la siguiente manera. Fijada una unidad de medida en cada una de las rectas l1, l2, todo punto del plano tiene como componentes e y, donde es la distancia, medida con la unidad , del punto a la recta l2 siguiendo una paralela a l1, e y es la distancia del punto a la recta l1 siguiendo una paralela a l2, midiendo la distancia con respecto a la unidad de medida (figura 7.1).

i

ra 7.1

Si las rectas l1 y l2 son perpendiculares, diremos que tenemos un sistema de coordenadas re tang lare o arte iana . La primera componente se denomina ab i a del punto y la segunda or ena a. De acuerdo con esta nomenclatura la recta l1 se denomina e e e ab i a y l2 se denomina e e e or ena a , denotándose también por y , respectivamente. A la izquierda de en la recta l1 y por debajo de en la recta l2 se toman medidas negativas. El punto de intersección se denomina origen e oor ena a (figura 7.2)

i

ra 7.2

294

Capítulo 7. La geometría del plano y del espacio

Un plano dotado de un sistema de coordenadas se designa por ⺢2. Otra forma de tratar a los puntos de ⺢2 es considerarlos como el extremo de un vector cuyo origen es el origen de coordenadas (véase la figura 7.3).

i

ra 7.3

El álgebra de los vectores se ha estudiado en la sección 1.2. La suma de los vectores v1 y v2 es la diagonal del paralelogramo que tiene como lados los vectores v1 y v2 (véase figura 7.4.a)). El producto de un vector v por un número real es otro vector cuyo extremo es el punto que tiene como componentes veces las componentes de v; el vector v tiene el mismo sentido que v si es positivo y distinto sentido si es negativo (ver figura 7.4.b)).

i

en

ra 7.4.

Dados dos puntos % ( 1, y1) y % ( 2, y2), se denomina vector y extremo en ; sus componentes son

, al vector con origen

% ( 2 . 1, y 2 . y 1) y, por tanto, es equivalente al vector que tiene como origen y extremo un punto de coordenadas ( 2 . 1, y2 . y1) (véase figura 7.5). Dado un vector v, el conjunto de puntos extremos tv, donde t es un número real, determina la recta que pasa por el origen de coordenadas y tiene a v como vector director (ver figura 7.6.a)).

Sección 7.1. Rectas en un plano

i

i

La recta r que pasa por el punto conjunto de puntos

295

ra 7.5

ra 7.6

y tiene a v como vector director se representa mediante el ! tv

donde t es un número real. Si escribe de la forma

% ( 1,

2)

y v % (v1, v2) cualquier punto ( , y) de la recta r se

( , y) % ( 1,

2) ! t(v1,

v2).

Igualando componentes se tiene: % y% que se denominan e a ione

1 ! tv 1 2 ! tv 2

F

aram tri a de la recta r.

EJEMPLO A. Para encontrar las ecuaciones paramétricas de la recta que pasa por los puntos % (.3, 2) y % (2, 1) y % (.1, 3) observamos que uno de sus vectores directores es puesto que pasa por el punto % (2, 1) se tiene ( , y) % (2, 1) ! t(.3, 2)

296

Capítulo 7. La geometría del plano y del espacio

o bien % 2 . 3t y % 1 ! 2t

i

F

ra 7.7

Nota. La representación paramétrica de una recta no es única; en el ejemplo anterior podríamos tomar 12 % v como vector director y como uno de los puntos de la recta; se obtendrían en este caso la ecuación

A

B

3 ( , y) % (.1, 3) ! t . , 1 2 que representa la misma recta. *

*

*

En la recta de ecuaciones paramétricas 1 ! tv 1

% y%

2 ! tv 2

F

podemos eliminar la variable real t despejándola en cada una de las ecuaciones e igualando los resultados; si v1 y v2 son no nulos, se tiene t%

. v1

1

,

t%

y. v2

2

y, por tanto: . v1

1

%

y. v2

2

siempre que v1 y v2 sean no nulos. La igualdad anterior puede escribirse de la forma v 2 . v 1y ! v 1

2 . v2 1 % 0

Sección 7.1. Rectas en un plano

297

o bien a ! by ! % 0, con a, b y números reales, que se denomina e a i n general o im lí ita e la re ta en coordenadas cartesianas, o e a i n arte iana. i v1 % 0, las ecuaciones paramétricas de una recta se escriben de la forma % y%

1 2 ! tv2

F

.

Puesto que de la primera de las ecuaciones ya se ha eliminado el parámetro t, la ecuación general de esta recta es %

1.

Si v2 % 0, la ecuación general de la recta es y % 2. Estos casos particulares corresponden a rectas paralelas a los ejes de coordenadas (ver figura 7.8).

i

ra 7.8

EJEMPLO B. Para encontrar las ecuación cartesiana de la recta que pasa por el punto %(2, 1) y tiene como vector director (.1, 5) escribimos sus ecuaciones paramétricas %2.t y % 1 ! 5t y eliminamos t: t%

F

(1.1)

.2 y.1 % . 5 .1

Por tanto: 5 ! y . 11 % 0. Otra forma de eliminar t en (1.1) es considerar que tenemos un sistema de dos ecuaciones con una incógnita t, mientras que e y son constantes, es decir, el sistema

F

.t % . 2 . 5t % y . 1

298

Capítulo 7. La geometría del plano y del espacio

Puesto que fijados e y este sistema tiene una sola solución en t, del teorema de Rouché-Frobenius (Teorema 1.2.4) se deduce que r Puesto que r

A B

A B A A G G

B B

.1 .1 %r 5 5

.2 . y.1

.1 .1 % 1 hemos de tener que r 5 5 .1 5

.2 % 1, y esto es equivalente a y.1

.2 % 0. y.1

Desarrollando este determinante se obtiene .y ! 1 . 5 ! 10 % 0, que es el mismo resultado que obtuvimos anteriormente. *

*

*

Dadas dos rectas en un plano pueden darse los siguientes casos: a) Las dos rectas se cortan en un solo punto. b) Las dos rectas son paralelas. c) Las dos rectas coinciden. Si se conocen las ecuaciones de las rectas en coordenadas cartesianas podemos determinar su posición relativa, es decir, cada uno de los casos anteriores, estudiando las soluciones del sistema formado por las dos ecuaciones. Si las ecuaciones son r1 z a1 ! b1 y ! r2 z a2 ! b2 y !

1%0 2%0

F

(1.2)

tendremos el caso a) si el sistema (1.2) posee una sola solución; por el teorema de RouchéFrobenius (Teorema 1.2.4) esto sucede solamente cuando

G

a1 a2

G

b1 Ç 0. b2

En el caso b) el sistema (1.2) no posee solución, y, por tanto, se ha de tener r

A

a1 a2

B A

b1 a Çr 1 b2 a2

b1 b2

. .

B

1

.

2

Finalmente, si las rectas coinciden el sistema (1.2) posee infinitas soluciones y, por tanto, se ha de tener que r

A

a1 a2

B A

b1 a b %r 1 1 b2 a2 b2

. .

1 2

B

a 2.

En los ejercicios no es conveniente memorizar los resultados obtenidos, sino obtenerlos en cada caso mediante la utilización del teorema de Rouché-Frobenius (Teorema 1.2.4).

Sección 7.1. Rectas en un plano

EJEMPLO C. ya que

299

Las rectas de ecuaciones 3 ! 2y . 7 % 0 y 6 ! 4y ! 1 % 0 son paralelas, r

A B 3 6

2 %1 4

r

y *

*

A

3 6

2 4

B

7 % 2. .1

*

Si las rectas están dadas por sus ecuaciones paramétricas podemos estudiar su posición relativa pasando a su ecuación general en coordenadas cartesianas. Sin embargo, también puede conocerse su posición a partir de sus ecuaciones paramétricas, como se muestra en el siguiente ejemplo. EJEMPLO D.

Dadas las rectas de ecuaciones r1 : ( , y) % (1, 0) ! t(.1, 2) r2 : ( , y) % (.2, 1) ! (.1, .3)

i

ra 7.9

ambas se cortan si y solo si existe un único valor de t y un único valor de obtiene el mismo resultado de e y. Por tanto, el sistema (1, 0) ! t(.1, 2) % (.2, 1) ! (.1, .3) tiene solución única en t y . Igualando componentes se tiene 1 . t %.2 . 2t % 1 . 3

F

á

Este sistema posee solución única, ya que

G

.1 2

G

F

.t ! %.3 . 2t ! 3 % 1

1 %.3 . 2 %.5 Ç 0. 3

para los cuales se

300

Capítulo 7. La geometría del plano y del espacio

Por tanto, las rectas dadas se cortan en un único punto. Para encontrar las coordenadas del punto de corte encontramos los valores de t y que satisfacen el sistema anterior y sustituimos en las ecuaciones de las rectas:

G

G

.3 1 1 3 .10 % %2 t% .5 .5 (1, 0) ! 2(.1, 2) % (.1, 4)

G

G

.1 .3 2 1 5 % % %.1 .5 .5

;

(.2, 1) ! (.1)(.1, .3) % (.1, 4).

;

Se trata, por tanto, del punto (.1, 4). Observar que solamente es necesario calcular el valor de t o el de , pero no ambos, para obtener el punto de corte. El hallar los dos valores sirve de adecuada comprobación. *

*

*

Supongamos que las rectas de ecuaciones ! t % ( 1,

2) ! t( 1,

! v % ( 1,

2) !

2)

(v1, v2)

son paralelas o coincidentes. En el primer caso el sistema 1!t 1% 2!t

1!

v1 ! v2 2

2!

F

no posee soluciones y en el segundo posee infinitas soluciones. En cualquier caso, aplicando el teorema de Rouché-Frobenius (Teorema 1.2.4) el rango de la matriz de los coeficientes del sistema ha de ser 1 y, por tanto, se tiene

G

1 2

G

.v1 %0 .v2

G

á

1 2

G

v1 % 0. v2

Puesto que los vectores y v son no nulos, por el teorema del menor básico (Teorema 2.5.2) se obtiene que es una combinación lineal de v, es decir: % v. Por tanto, los vectores y v son proporcionales. Recíprocamente, si y v son dos vectores proporcionales, las rectas que los tienen como vectores directores son paralelas o coincidentes. EJEMPLO E. Las rectas (1, 2) ! t(.1, 4) y (. 1, 0) ! (2, .8) son paralelas o coincidentes, ya que (2, .8) %.2(.1, 4). Para determinar si son paralelas o coincidentes escribimos el sistema que se obtiene de igualar las dos ecuaciones: 1 . t %.1 ! 2 2 ! 4t %.1 .8 Puesto que

G

F

.1 4

F

.t . 2 %.2 . 4t ! 8 %.2

;

G

.2 % 0, 8

Sección 7.1. Rectas en un plano

301

tenemos que r

A

.1 4

B

.2 % 1, 8

y puesto que

G

G

.1 4

.2 % 2 ! 8 % 10 Ç 0, .2

se tiene que r

A

.1 4

B

.2 8

.2 % 2. .2

*

*

Las rectas, por tanto, son paralelas. *

Para terminar esta sección observamos que la ecuación

G

1 1 1

a1 b1

G

y a2 % 0 b2

determina una recta que pasa por los puntos % (a1, a2) y % (b1, b2). Para probar este resultado observar que desarrollando el determinante por la primera fila se tiene:

G

a1 b1

G G G G G

a2 . b2

a2 1 !y b2 1

1 1

a1 % 0, b1

que es la forma general de la ecuación de una recta en coordenadas cartesianas; además, la recta pasa por los puntos % (a1, a2) y % (b1, b2), ya que al sustituir e y por los correspondientes valores de y se obtiene un determinante con dos filas iguales.

EJERCICIOS 7.1 1. Dados % (1, 0), % (.1, 2), % (1, .1) y v % (3, .2), hallar las ecuaciones paramétricas y cartesianas de las siguientes rectas, y dibujarlas: a)

Recta que pasa por

y tiene como vector director 2 .

b)

Recta que pasa por

y tiene como vector director ! v.

c)

Recta que pasa por

y tiene como vector director . 2v.

2. Demostrar que la ecuación de una recta que pasa por los puntos puede escribirse de la forma y. [ ota: El número (

2%

2.

2.

2

1.

1

2)/( 1 .

( . 1)

1),

si

1.

% ( 1,

2)

y

1 Ç 0.

se denomina en iente de la recta.]

% ( 1,

2)

302

Capítulo 7. La geometría del plano y del espacio

3. Determinar la posición relativa de los siguientes pares de rectas y encontrar el punto de intersección si se cortan: a) b)

( , y) % (2, 1) ! t(1, 1) y ( , y) % (1, 0) ! (.5, .5). ! y % 1 y 2 . y % 2.

c)

2 . y%4 y ( , y) % (2, 0) ! t(.2, .4).

d)

( , y) % t(.1, 2) y ( , y) % (1, 0) ! (2, 3).

4. Determinar ecuaciones paramétricas de las siguientes rectas, y dibujarlas: a)

. 2y % 5;

b)

2 . y % 3;

% 3;

c)

d)

y % 0.

[ ota: El resultado no es necesariamente único.] 5. Dada la recta de ecuación a ! by ! % 0, demostrar que todas las rectas paralelas a ella tienen una ecuación de la forma a ! by ! ñ % 0 con ñ à ⺢. [ ota: El conjunto de las rectas paralelas a una dada se denomina a e re ta con la propiedad citada.] Encontrar la ecuación del haz de rectas paralelas a la recta que pasa por (1, 2) y tiene (.1, 1) como vector director. 6. Encontrar las ecuaciones paramétricas y cartesianas de las siguientes rectas: a)

Paralela a ( , y) % (3, 3) ! t(2, 1) que pasa por (1, 0).

b)

Paralela a 2 . y % 5 que pasa por (1, .2).

c)

Paralela por el punto (.2, .3) a la recta que pasa por (1, 0) y (0, 1).

7. Demostrar que la recta que pasa por los puntos

y

tiene como ecuaciones paramétricas

(1 . t) ! t o bien !t

con

!t%1

con t y números reales. 8. Dadas las rectas secantes de ecuaciones a 1 ! b1 y !

1%0

a2 ! b2 y !

2%0

comprobar que para cada par de valores reales t, la ecuación t(a1 ! b1 y ! 1) ! (a2 ! b2 y ! 2) % 0 es una recta que pasa por el punto obtienen así.

(*)

de intersección de las anteriores y que todas ellas se

[ ota: ( ) se denomina la ecuación del a

e re ta que pasan por .]

Sección 7.2. Rectas y planos en el espacio

303

9. Utilizar el problema anterior para encontrar: a)

La recta que pasa por (1, 1) y por la intersección de ! y % 2, 2 ! y % 5.

b)

Ecuaciones del haz de rectas que pasan por el punto (1, 4).

c)

Ecuaciones del haz de rectas que pasan por el punto (0, 0).

7.2. Rectas 7.2. RyECTAS planos en el Yespacio PLANOS EN EL ESPACIO

De manera análoga a como se hizo en el plano puede introducirse en el espacio un sistema de coordenadas de manera que todo punto del espacio quede determinado por tres números, que se denominan sus oor ena a o om onente . Basta para ello considerar tres rectas que se cortan en un solo punto, que será el origen, y cualquier otro punto queda determinado por su «distancia» a cada uno de los planos que determinan dos de las rectas dadas tomada paralelamente a la tercera (ver figuras 7.10 y 7.11).

i

ra 7.10

i

ra 7.11

Si las rectas dadas, que se denominan e e e oor ena a , son perpendiculares, tenemos un sistema de coordenadas rectangulares o cartesiano. Cada punto del espacio queda determinado por sus tres componentes, que se denotan por ( , y, ) ó ( 1, 2, 3).

304

Capítulo 7. La geometría del plano y del espacio

En ⺢3 consideremos un sistema de coordenadas rectangulares. Todo punto de ⺢3 puede interpretarse como un vector que tiene como origen el origen de coordenadas y como extremo el punto . La suma de vectores y el producto de un vector por un número real tienen en ⺢3 la misma interpretación geométrica que en el plano (ver sección 7.1). Dados un punto à ⺢3 y un vector v à ⺢3, el conjunto de puntos que se representa de la forma ! tv, donde t es un número real, determina la re ta e a a or en la ire i n e v (ver figura 7.12). Si % ( 1, 2, 3) y v % (v1, v2, v3) podemos escribir sus ecuaciones paramétricas

F

% y% %

1 ! tv1

i

ra 7.12

2 ! tv2 3 ! tv3

.

(2.1)

EJEMPLO A. La recta que pasa por el punto % (1, 2, 3) y tiene a v % (.1, 1, 2) como vector director tiene como ecuaciones paramétricas

F

%1. t y%2! t . % 3 ! 2t * Dados dos puntos y ecuaciones paramétricas

*

*

en ⺢3, la ecuación de la recta que pasa por

y

tiene como

! t( . ) ya que uno de sus vectores de dirección es v % . . Por tanto, las ecuaciones paramétricas de una recta que pasa por y pueden escribirse de la forma (1 . t) ! t o bien !t

con

! t % 1.

Sección 7.2. Rectas y planos en el espacio

305

Dadas dos rectas en el espacio, existen cuatro posiciones en las cuales pueden encontrarse (ver figura 7.13). O bien se cortan en un solo punto, o se cruzan sin cortarse, o son paralelas en el sentido de que sus vectores directores son proporcionales o son coincidentes. La posición relativa de dos rectas en el espacio puede determinarse estudiando el sistema formado al igualar las correspondientes coordenadas de las dos rectas dadas y determinando si sus vectores directores son o no proporcionales en los casos segundo y tercero.

i

EJEMPLO B.

ra 7.13

Para determinar la posición relativa de las rectas ( , y, ) % (1, 0, 1) ! t(.1, 1, 0)

y ( , y, ) % (0, 1, 2) ! (2, 0, 1), igualamos las correspondientes coordenadas para obtener el sistema (1, 0, 1) ! t(.1, 1, 0) % (0, 1, 2) ! (2, 0, 1) o equivalentemente:

F

.t . 2 %.1 t.2 % 1 . . % 1 Puesto que

A B

.1 r 1 0 y

A

.2 0 .1

.1 1 % 3, 1

GG

.2 .2 .1

.1 .2 0 %.1 .1 1

.1 r 1 0 ya que

G

.1 1 0

.2 0 %2 .1

.2 .1 .1 0 1 % 0 .1 1 0

B

G

G

G

0 % 2 Ç 0, 1

306

Capítulo 7. La geometría del plano y del espacio

i

ra 7.14

el sistema no posee ninguna solución. Por tanto, las rectas dadas se cruzan o son paralelas. Puesto que sus vectores directores no son proporcionales (¿por qué?), ambas rectas se cruzan. *

*

*

Dada una recta por sus ecuaciones paramétricas como en (2.1), podemos despejar t de cada una de las igualdades para obtener: t%

. v1

1

t%

,

y. v2

2

,

t%

. v3

3

siempre que v1, v2 y v3 sean no nulos. Tenemos, por tanto, las igualdades . v1

1

%

y. v2

2

%

. v3

3

(2.2)

que se transforman en las tres igualdades siguientes: v2 . v1 y % v2 v 3 y . v 2 % v3 v 3 . v1 % v 3

1 . v1 2 2 . v2 3 1 . v1 3

F

cada una de las cuales es consecuencia de las otras dos como se deduce fácilmente de la forma en que se han obtenido. Por tanto, podemos escribir v2 . v1 y % v2 v 3 y . v 2 % v3

1 . v1 2 2 . v2 3

F

como las ecuaciones de la recta dada, que reciben el nombre de e a ione

(2.3) arte iana .

EJEMPLO C. Para hallar las ecuaciones cartesianas de la recta que pasa por los puntos % (1, 0, 1) y % (.2, 1, 2) escribimos su ecuación paramétrica ( , y, ) % (1, 0, 1) ! t(.3, 1, 1).

Sección 7.2. Rectas y planos en el espacio

307

Tenemos, por tanto: .1 y.0 .1 % % .3 1 1 o bien

F

! 3y . % 1 . ! y . %.1 *

*

*

Si alguna o algunas de las componentes del vector v son nulas (¡no todas pueden ser nulas!) se obtienen rectas en posiciones especiales con respecto a los ejes y planos coordenados. Por que pasa por el punto ejemplo, si v1 % v2 % 0, v3 Ç 0 se obtiene una recta paralela al eje % ( 1, 2, 3); esta recta tiene como ecuaciones cartesianas %

y%

1,

2.

Se invita al lector a buscar otros casos particulares. *

*

*

Dados dos vectores y v en ⺢3 no proporcionales y un punto que se representa de la forma

de ⺢3 el conjunto de puntos

!t ! v con t y números reales es un plano que pasa por el punto ire tore .

i

y tiene

y v como ve tore

ra 7.15

Si % ( 1, 2, 3), % ( 1, 2, 3) y v % (v1, v2, v3) el plano que pasa por como vectores directores puede describirse con las igualdades

y tiene

yv

308

Capítulo 7. La geometría del plano y del espacio

% y% %

F

1!t 1!

v1 2 ! t 2 ! v2 3 ! t 3 ! v3

(2.4)

que reciben el nombre de e a ione aram tri a del plano considerado. Si queremos encontrar las e a ione arte iana de este plano, es decir, ecuaciones que solamente contengan , y y y no los parámetros t y , basta con eliminar estos parámetros entre las tres ecuaciones de (2.4). Esto puede hacerse mediante el método de sustitución, pero es más conveniente considerar (2.4) como un sistema de tres ecuaciones con incógnitas t y que, fijadas , y, , solo posee una solución; por el teorema de Rouché-Frobenius (Teorema 1.2.4) se ha de tener

A B A v1 v2 % r v3

1

r

2 3

v1 v2 v3

1 2 3

. y. .

1 2 3

B

.

Para que esto se cumpla es necesario que

G

1 2 3

v1 v2 v3

. y. .

1 2 3

G

% 0.

Por la propiedad 3 de los determinantes (ver sección 2.2) para columnas se tiene

G

v1 v2 v3

1 2 3

GG

y .

1 2 3

v1 v2 v3

1 2 3

G

% 0.

Desarrollando el primero de los determinantes por la última columna se tiene

G

2 3

v2 v3

G G .

1 3

G G

v1 y! v3

1 2

v1 v2

G

.

G

1 2 3

v1 v2 v3

1 2 3

G

%0

que podemos escribir de la forma a ! by !

! % 0,

donde a, b y son números reales. Esta ecuación recibe el nombre de e a i n arte iana o im lí ita de un plano. Casos particulares de esta ecuación son, por ejemplo, %. ó % 0. El primero es un plano que contiene a todos los puntos de la forma (. , 2, 3) con 2, 3 cualesquiera números reales y, por tanto, es un plano paralelo al plano determinado por los ejes y que pasa a distancia . del origen (ver figura 7.16). El segundo es el plano determinado por los ejes y (ver figura 7.16). Se invita al lector a tratar de visualizar geométricamente otros casos particulares de la ecuación cartesiana de un plano.

Sección 7.2. Rectas y planos en el espacio

i

309

ra 7.16

% (1, 1, 0) y

EJEMPLO D. Las ecuaciones paramétricas del plano que pasa por el punto tiene como vectores directores % (.1, 0, 2) y v % (1, 3, 3) son %1. t! y%1. t!3 % . 2t ! 3

F

.

Su ecuación cartesiana es

G

.1 0 2

1 3 3

.1 1 .1 .1 0% 0 3 y.1 % 0 2 3 0

1 3 5

G

.1 y . 1 % 0.

Tenemos, por tanto:

G

GG

G

.1 3 %. y.1 5 !2 .2

G

G

y.1 % !2 .2

%.3 . 6 ! 6 ! 5y . 5 %.6 ! 5y . 3 ! 1. *

*

*

Las posibles posiciones relativas de dos planos en el espacio son las siguientes (ver figura 7.17): a) Los dos planos se cortan en una recta. b) Los dos planos son paralelos. c) Ambos planos coinciden. La posición relativa de dos planos puede determinarse a partir de sus ecuaciones, utilizando el teorema de Rouché-Frobenius (Teorema 1.2.4) para determinar el número de puntos en común que ambos poseen. Un estudio de este tipo se realiza en los dos próximos ejemplos.

310

Capítulo 7. La geometría del plano y del espacio

i

ra 7.17

EJEMPLO E. Para hallar la posición relativa de los planos de ecuaciones 2 ! 3y . % 1 y . . 2y ! % 0 estudiamos el sistema

F

2 ! 3y . % 1 . . . 2y ! % 0 Puesto que r

A

2 .1

B

A

3 .1 2 %2%r .2 1 .1

3 .2

B

.1 1 a 3 % número de incógnitas 1 0

A

B

2 3 es un menor básico de la matriz .1 .2 de los coeficientes, las soluciones dependen de un solo parámetro y, por tanto, los planos se cortan en una recta. Para determinar la ecuación de esta recta escribimos el sistema en la forma el sistema tiene infinitas soluciones. Puesto que

2 ! 3y % 1 ! . . 2y % .

F

y lo resolvemos utilizando la regla de Cramer (Teorema 2.4.3):

G

1! . % 2 .1

G

G

G

3 .2 .2 . 2 ! 3 % %2. 3 .1 .2

G

G

2 1! .1 . .2 ! 1 ! y% % % . 1. 2 3 .1 .1 .2

G

G

Sección 7.2. Rectas y planos en el espacio

311

Haciendo % t, se tiene ( , y, ) % (2 . t, t . 1, t) % (2, .1, 0) ! t(.1, 1, 1) que es la ecuación paramétrica de la recta intersección de los dos planos dados. * EJEMPLO F.

*

*

Dados los planos de ecuaciones paramétricas ( , y, ) % (1, 0, 1) ! t(1, 1, 0) ! (0, 1, .1) ( , y, ) % (0, 0, 3) ! l(1, 2, .1) ! m(2, 1, 1)

tratamos de determinar su posición relativa. Igualando las correspondientes coordenadas obtenemos el siguiente sistema: 1!t% l ! 2m t! % 2l ! m 1. %3. l! m Puesto que

F

á

F

t ! . l . 2m %.1 t ! . 2l . m % 0 . . ! l. m% 2

el rango de la matriz de los coeficientes del sistema anterior es 2. Por otro lado:

G

1 1 0

0 1 .1

GG

.1 1 0 % 0 2 0

0 1 .1

G

.1 1 %3 2

y, por tanto, el rango de la matriz ampliada es 3. Esto nos lleva a deducir que no existen soluciones del sistema anterior y, por tanto, los lano a o on aralelo . *

*

*

Observar que en el ejemplo F los vectores directores del segundo plano son combinación lineal de los vectores directores del primer plano, ya que (1, 2, .1) % (1, 1, 0) ! (0, 1, .1) y (2, 1, 1) % 2(1, 1, 0) . (0, 1, .1). Este resultado es cierto en general: i o lano on aralelo , lo ve tore ire tore e no e ello on ombina i n lineal e lo ve tore ire tore el otro y el re í ro o tambi n e ierto. La demostración de este resultado se pide en el ejercicio 7 al final de esta sección. EJEMPLO G. Tratemos de hallar el plano paralelo al de ecuación ! y ! % 0 que pasa por el punto % (1, 1, 1).

312

Capítulo 7. La geometría del plano y del espacio

Escribimos el plano dado en ecuaciones paramétricas; para ello basta con determinar tres de sus puntos que no estén alineados; por ejemplo: % (0, 0, 0),

% (1, .1, 0),

% (0, 1, .1).

Estos puntos no están alineados, ya que los vectores %

% (1, .1, 0)

v%

y

% (0, 1, .1)

no son proporcionales (¿por qué?). Puesto que el plano dado pasa por el punto tiene y v como vectores directores su ecuación paramétrica es

% (0, 0, 0) y

( , y, ) % (0, 0, 0) ! t(1, .1, 0) ! (0, 1, .1). Como vectores directores de un plano paralelo a este pueden tomarse y v y debido a que el plano pedido pasa por el punto % (1, 1, 1) su ecuación paramétrica es ( , y, ) % (1, 1, 1) ! t(1, .1, 0) ! (0, 1, .1). Su ecuación en coordenadas cartesianas es

G

1 0 % .1 0

GG

0 .1 1 0 1 y.1 % 0 1 .1 .1 0 .1

G

.1 ! y . 2 % . 1 ! ! y . 2 % ! y ! . 3, .1

es decir, ! y ! % 3. Otra forma de resolver este problema es utilizando el resultado del ejercicio 8 al final de esta sección; en él se pide demostrar que las ecuaciones de todos los planos paralelos al plano de ecuación a ! by ! ! % 0 pueden escribirse de la forma a ! by ! ! ñ % 0, donde ñ toma valores en los números reales. Aceptando este resultado, la ecuación del plano que se busca es de la forma !y! ! ñ%0; el valor de ñ se calcula imponiendo que el punto % (1, 1, 1) sea un punto de este nuevo plano; por tanto: 1 ! 1 ! 1 ! ñ % 0. La ecuación del plano buscado es !y! .3%0 que es el mismo resultado que se obtuvo anteriormente. * Observación 1.

*

*

Dados dos planos de ecuaciones a ! by ! % añ ! bñy ! ñ % ñ

(2.5)

Sección 7.2. Rectas y planos en el espacio

313

B

(2.6)

ambos determinan una recta si y solo si r

A

a b añ bñ

ñ

% 2.

Por tanto, dos ecuaciones de la forma que aparecen en (2.5) son también ecuaciones cartesianas de una recta siempre que se cumpla la condición (2.6). Observación 2. Son numerosos los diferentes ejercicios que pueden hacerse referentes a rectas y planos en el espacio. Al lector se le invita a que realice todos los ejercicios propuestos al final de esta sección y que también realice algunos de su propia cosecha. Es conveniente también que, siempre que sea posible, se realicen adecuadas representaciones geométricas de las rectas y planos que aparecen en un problema.

EJERCICIOS 7.2 1. Dados % (1, 1, .1), % (0, 1, 2), % (.1, 2, 0) y v % (1, .1, .1), hallar las ecuaciones paramétricas y cartesianas de las siguientes rectas en ⺢3, y dibujarlas: a)

Recta que pasa por

con vector director . v.

b)

Recta que pasa por

y

c)

Recta que pasa por

con vector director 3v.

.

2. Dados los siguientes pares de rectas en ⺢3, determinar su posición relativa y, si se cortan, encontrar el punto de intersección: a)

( , y, ) % (.1, 2, 1) ! t(4, 3, 2)

y

( , y, ) % (0, 1, 0) ! (1, 3, 2).

b)

( , y, ) % (0, 1, 5) ! t(1, 3, .2)

y

( , y, ) % (5, 5, 3) ! (4, 1, 0).

c)

2 ! 3y . % 3 . 3y % 4

F

F

!y% 2 . y . %.1

y

3. Hallar la ecuación de la recta paralela a la de ecuación 3 .y! %1 !y.3 %0

F

que pasa por el punto (1, 1, 1). 4. De todas las rectas que pasan por el punto ecuaciones

% (0, 2, .1), hallar la que corta a las rectas de

(1, 1, 2) ! t(2, .1, 0) y (0, 1, 1) ! (.3, 1, 2). 5. Dados % (1, 2, 3), % (.1, .2, .3), % (0, 1, .1), % (0, 1, .1) y v % (5, 1, 2), hallar las ecuaciones paramétricas y cartesianas de los siguientes planos: a)

Plano que pasa por ,

y .

314

Capítulo 7. La geometría del plano y del espacio

b) Plano que pasa por vector director. c)

y

y es paralelo a la recta que pasa por

y tiene . v como

en la dirección de ! 2v y 2 ! v.

Plano que contiene a

6. Determinar, si es posible, la intersección de los siguientes pares de planos en ⺢3: a)

. y ! % 1 y 2 ! 2y . 3 % 4.

b) ( , y, ) % t(1, 1, .1) ! (0, 1, .2) y ( , y, ) % (0, 1, 0) ! l(0, 1, .1) ! m(2, 3, 5). c)

( , y, ) % (2, 3, 1) ! (0, 1, 2) ! (3, 1, .5) y . 6y ! 3 ! 1 % 0.

7. Demostrar que dos planos son paralelos o coinciden si y solo si los vectores directores de uno de ellos son combinación lineal de los vectores directores del otro. 8. Demostrar que las ecuaciones de los planos paralelos al plano de ecuación a ! by ! ! % 0 pueden escribirse de la forma a ! by ! ! ñ % 0 con ñ un número real. 9. Escribir las ecuaciones paramétricas y cartesianas de los siguientes planos y rectas en ⺢3: a)

% (0, 2, 1) y es paralela al plano

Recta que pasa por

n: 3 . !2%0 y al plano que pasa por

% (1, 0, 1),

y el origen.

b) Plano paralelo a la recta r : (2, 1, 0) ! t (1, 2, 1) por el punto c)

y que contiene al punto (1, 3, 0).

Todas las rectas que pasan por

d) El plano que pasa por

y son paralelas a n y, entre ellas, la que corta a r.

% (2, 1, 1) y contiene a la recta :

F

3 ! y. %2 . .2y ! % 1

con la intersección de y el plano . y % 1.

e)

La recta que une

f)

Haz de rectas que une

con los puntos de .

g) Haz de planos que pasa por . [ geren ia: generalizar el problema 8 de la sección anterior.] 10. Demostrar que

G

1 1 1 1

a1 b1

y a2 b2

1

2

G

a3 %0 b3 3

es la ecuación de un plano que pasa por los puntos % ( 1, 2, 3).

% (a1, a2, a3),

% (b1, b2, b3) y

Sección 7.3. Distancias y ángulos. Producto escalar

315

7.3. Distancias 7.3. DISTANCIAS y ángulos. Producto Y ÁNGULOS. escalar PRODUCTO ESCALAR

Dados dos puntos

y

en el plano, de coordenadas % ( 1,

2)

% ( 1,

2)

con respecto a un sistema de coordenadas rectangulares, del teorema de Pitágoras se deduce que la distancia de a se puede calcular mediante la fórmula (ver figura 7.18). ( ,

1.

) % ∂(

i

Si los puntos

y

2 1) ! ( 2 .

2 2) .

ra 7.18

están en ⺢3 y tienen como coordenadas % ( 1,

2,

3)

% ( 1,

2,

3),

aplicando el teorema de Pitágoras a los triángulos rectángulos obtiene el siguiente resultado: ( ,

) % ∂(

1.

1)

2

!(

2.

2)

2

!(

y

3.

(ver figura 7.19), se

2 3) .

Dado un vector v % en el plano o en el espacio se denomina longit de v y se designa por 9v9 a la distancia entre y . Palabras sinónimas de longitud de un vector son m lo de un vector y norma de un vector.

316

Capítulo 7. La geometría del plano y del espacio

i

EJEMPLO A.

La longitud del vector v %

ra 7.19

, donde

% (1, .1, 2) y

% (3, 4, .5), es

9v9 % ∂(3 . 1)2 ! (4 ! 1)2 ! (.5 . 2)2 % ∂4 ! 25 ! 49 % ∂78. *

*

*

La longitud de un vector posee las siguientes propiedades: 9 v9 % 8 8 9v9, donde es un número real y 8 8 denota el valor absoluto de . 9 ! v9 m 9 9 ! 9v9. La segunda propiedad se denomina e ig al a triang lar y geométricamente se expresa diciendo que cualquier lado de un triángulo es menor que la suma de los otros dos. Esta propiedad puede demostrarse utilizando la ley del coseno, a saber: 9 ! v92 % 9 92 ! 9v92 . 29 99v9 cos ⱔ ( , v).

Puesto que cos ⱔ ( , v) n .1, se obtiene que 9 ! v92 m 9 92 ! 9v92 ! 29 99v9 % (9 9 ! 9v9)2, de donde se deduce el resultado tomando raíces cuadradas en ambos lados. El ng lo que forman dos vectores y v en ⺢2 o en ⺢3 puede obtenerse utilizando el teorema del coseno; ello nos permite calcular el coseno del ángulo que forman, el cual queda unívo-

Sección 7.3. Distancias y ángulos. Producto escalar

317

camente determinado si suponemos que 0 m ⱔ ( , v) m n. Puede obtenerse una fórmula para calcular cos ⱔ ( , v); si % ( 1, 2) y v % (v1, v2), del teorema del coseno se deduce que (v1 .

1)

2

! (v2 .

2 2) %

2 1!

2 2 2 2 ! v1 ! v 2 . 2 9

99v9 cos ⱔ ( , v).

Simplificando obtenemos .2 1v1 . 2 2 v2 %.29 99v9 cos ⱔ ( , v) de donde se deduce que cos ⱔ ( , v) %

1v 1 !

2 v2

9 99v 9

.

(3.1)

La expresión que aparece en el numerador de la parte derecha de esta fórmula recibe el nombre de ro to e alar de los vectores y v y se denota por ( , v). Si los vectores tienen dos componentes tenemos ( , v) %

1v 1 !

2v2.

Si tienen tres componentes se tendría ( , v) %

1v 1 !

2 v2 !

3 v3

y la fórmula para calcular el ángulo que forman es similar a la (3.1). EJEMPLO B. ⺢3 es

El coseno del ángulo que forman los vectores % (1, 1, 1) y v % (.1, 1, 1) en cos ⱔ ( , v) %

( , v) 1 · (.1) ! 1 · 1 ! 1 · 1 1 % % . 9 99v9 3 ∂3 ∂3

Observar que el ángulo es agudo, ya que su coseno es positivo. *

*

*

Nota. De acuerdo con la fórmula (3.1) o ve tore on er en i lare i y olo i ro to e alar e ero, ya que es en este caso cuando su coseno es cero y, por tanto, el ángulo que forman es n/2. De la definición de producto escalar pueden deducirse las siguientes propiedades: 1) 2) 3) 4)

( ( ( (

, v) % (v, ) para todo par de vectores y v. ! v, u) % ( , u) ! (v, u) para cualesquiera tres vectores , v y u. , v) % ( , v) para todo número real y todo par de vectores y v. , ) % 9 92 n 0 para todo vector .

318

Capítulo 7. La geometría del plano y del espacio

Con la noción de producto escalar pueden atacarse problemas en el plano y en el espacio sobre perpendicularidad y ángulos que forman algunas de las figuras anteriormente estudiadas. Lo que sigue es una serie de problemas relativos a estos temas; esta serie no es exhaustiva y sería conveniente que el lector se propusiera sus propios problemas sobre estas nociones. *

*

*

Comenzamos hallando las e a ione arte iana e na re ta en n lano sin necesidad de hallar sus ecuaciones paramétricas; supongamos que la recta pasa por el punto % ( 1, 2) y tiene a % ( 1, 2) como vector director. Un vector perpendicular a es v % (. 2,

1)

ya que ( , v) %.

i

Un punto

% ( 1,

2)

0%(

, v) %.( 1 .

1 2!

2 1 % 0.

ra 7.20

está en la recta pedida si y solo si 1) 2 ! ( 2 .

es perpendicular a v; por tanto:

2) 1 %. 2 1 !

1 2!

donde % 1 2 . 2 1. Esta es la ecuación cartesiana de la recta que tiene a v % (. 2, 1) como vector perpendicular y pasa por el punto . Un vector perpendicular a una recta dada se denomina también un ve tor ara terí ti o de la recta. Dada la ecuación a1 1 ! a2 2 % que determina una recta en un plano, un vector perpendicular a ella es a % (a1, a2). Para demostrar esto basta escribir la ecuación de la recta en la forma (a, ) % , donde % ( 1, 2); si % ( 1, 2) es un punto de la recta se tiene (a, ) % , con % ( 1, 2); por tanto, tenemos (a, ) % (a, ), o equivalentemente: (a, . ) % 0. Esto nos dice que (a, ) % es la ecuación de la recta que pasa por perpendicular.

y tiene a a como vector

Sección 7.3. Distancias y ángulos. Producto escalar

319

EJEMPLO C. Para hallar la ecuación de una recta que pasa por el punto % (1, .2) y tiene a % (1, 3) como vector director, observamos que v % (.3, 1) es un vector perpendicular a ; por tanto: (v, ) %.3 1 ! es la forma de la ecuación pedida; para determinar nemos

2%

sustituimos el punto

% (1, .2) y obte-

.3 . 2 % . Por tanto, .3 1 !

2 %.5

es la ecuación de la recta.

i

ra 7.21

*

*

*

Utilizando el producto escalar puede encontrarse la e a i n arte iana e n lano en el espacio cuando se conocen un punto del plano y un vector perpendicular a él. Si %( 1, 2, 3) es un punto del plano y %( 1, 2, 3) es un vector perpendicular a él, cualquier punto %( 1, 2, 3) del plano satisface ) % 0,

( ,

como puede fácilmente observarse en la figura 7.22. La igualdad anterior puede escribirse de la forma 1 1!

2 2!

i

3 3%

ra 7.22

.

320

Capítulo 7. La geometría del plano y del espacio

Recíprocamente, una fórmula como la anterior determina un plano que es perpendicular al vector % ( 1, 2, 3). La demostración es similar a la realizada para la recta en el plano y se deja como ejercicio. EJEMPLO D. El plano que pasa por el punto % (1, 3, .2) y tiene a % (2, .1, 4) como vector perpendicular o característico tiene como ecuación una expresión de la forma 2 1.

2!4 3%

.

El valor de se determina imponiendo que pertenezca al plano: 2 · 1 . 3 ! 4(.2) % %.9 % . Por tanto, 2 1 . 2 ! 4 3 %.9 es la ecuación del plano. *

*

*

Sea un vector cualquiera de ⺢2 ó ⺢3. El producto escalar puede utilizarse para descomponer todo vector v de ⺢2 ó ⺢3 en una suma de dos vectores v%a!b donde a es un múltiplo de

y b es perpendicular a

i

Puesto que a es un múltiplo de

(ver figura 7.23).

ra 7.23

hemos de tener a % v%

, con

à ⺢, y, por tanto:

! b.

Multiplicando escalarmente los dos lados de la igualdad anterior por (b, ) % 0, ya que b es perpendicular a , se tiene que

y teniendo en cuenta que

(v, ) % ( , ). De aquí deducimos que a%

%

(v, ) ( , )

(3.2)

y, por tanto: b%v.a%v.

(v, ) . 9 92

De la fórmula (3.2) y de la fórmula del coseno del ángulo que forman dos vectores deducimos que a%

9v9 [cos ⱔ ( , v)] 9 9

Sección 7.3. Distancias y ángulos. Producto escalar

y si

321

es un vector nitario, es decir, de longitud 1, se tiene a % 9v9[cos ⱔ ( , v)] ,

lo cual demuestra que a es un vector en la dirección de módulo (ver figura 7.24).

i

que tiene 9v9[cos ⱔ ( , v)] como

ra 7.24

EJEMPLO E. Para descomponer v % (1, 3, .1) en un vector paralelo a % (.1, 0, 1) y otro perpendicular a él, escribimos v%a!b%

! b,

donde b es perpendicular a . Del razonamiento anterior deducimos que %

(v, ) 1 · (.1) ! 3 · 0 ! (.1) · 1 .2 % % %.1. 9 92 (.1)2 ! 02 ! 12 2

Por tanto: a %.1 % (1, 0, .1) *

b % v . a % (0, 3, 0).

y *

*

Dado un punto se denomina roye i n de sobre una recta o un plano a un punto ñ, de la recta o del plano, tal que ñ es perpendicular a la recta o al plano dados (ver figura 7.25).

i

ra 7.25

El problema de hallar la proyección de un punto sobre una recta o un plano se resuelve con métodos análogos a los que se utilizaron para descomponer un vector en sus componentes paralela y perpendicular a un vector fijado. En lugar de encontrar fórmulas de manera teórica preferimos realizar algunos ejemplos.

322

Capítulo 7. La geometría del plano y del espacio

EJEMPLO F.

Queremos hallar la proyección del punto

% (1, 2) sobre la recta r de ecuación

.2 ! 3y %.6 en el plano. Un vector perpendicular a la recta dada es v % (.2, 3) y, por tanto, % (3, 2) es un vector director de la recta. Si tomamos un punto de la recta, por ejemplo, % (0, .2), ñ será de la forma: ñ % ! . Además, ñ es perpendicular a y, por tanto, 0%(

ñ, ) % (

!

, )%(

, )! ( , )%

% ((.1, .4), (3, 2)) ! ((3, 2), (3, 2)) %.11 ! · 13. De aquí deducimos que % 11/13 y, por tanto, ñ % (0, .2) !

A

B

11 33 4 (3, 2) % ,. . 13 13 13

i

ra 7.26

EJEMPLO G. Queremos hallar la proyección del punto % (1, 2, 3) sobre el plano n de ecuación ! y . 2 % 3; sabemos que un vector perpendicular a este plano es v % (1, 1, .2). Si ñ ñ % v; además (ver figura 7.25), si es la proyección de sobre el plano n hemos de tener ñ es perpendicular a v. Por es un punto del plano, por ejemplo, % (1, 2, 0), se tiene que tanto: 0%(

ñ, v) % (

!

ñ, v) % (

, v) ! (v, v) %

% ((0, 0, 3), (1, 1, .2)) ! ((1, 1, .2), (1, 1, .2)) %.6 ! 6 . Así pues, % 1 y

ñ % v % (1, 1, .2). Como ñ % !

ñ, se tiene

ñ % (1, 2, 3) ! (1, 1, .2) % (2, 3, 1). *

*

*

Sección 7.3. Distancias y ángulos. Producto escalar

323

Se denomina i tan ia e n nto a na re ta o a n lano a la menor de las distancias del punto a cada uno de los puntos de la recta o del plano. Utilizando el teorema de Pitágoras se demuestra que la distancia de a una recta o a un plano coincide con la distancia de a la proyección ñ de sobre la recta o el plano considerados. Para demostrar esto basta observar que si es otro punto de la recta o del plano (ver figura 7.27) se tiene 9

92 % 9

ñ92 ! 9 ñ 92 b 9

i

ñ92

ra 7.27

si Ç ñ. Puesto que ya sabemos calcular la proyección ñ de también sabemos calcular la distancia de un punto a una recta o a un plano. En los casos de la distancia de un punto a una recta en un plano o de un punto a un plano en el espacio se obtiene una fórmula sencilla.

Proposición 7.3.1 (Distancia de un punto a un plano) La distancia del punto % ( 1, está dada por la fórmula

2,

3)

( , n) %

al plano n de ecuación a1 1 ! a2

8a1

1 ! a2 2 ! a3 3 !

∂a21 ! a22 ! a23

8

2 ! a3 3 !

%0

.

Demostración. La ecuación del plano puede escribirse de la forma (a, ) ! % 0 donde a % (a1, a2, a3) y % ( 1, 2, 3). Puesto que a es un vector perpendicular al plano, la distancia ( , n) del punto al plano n es de la forma 9ta9, donde t debe de ser elegido de manera que (ver figura 7.28) ! ta % ñ à n. Para obtener t sustituimos en la ecuación del plano: 0 % (a,

ñ) ! % (a,

! ta) ! % (a,

) ! t(a, a) ! .

324

Capítulo 7. La geometría del plano y del espacio

i

ra 7.28

De aquí deducimos que t%

).

.(a, 9a9

2

y, por tanto,

G

.(a,

( , n) % 9ta9 %

). 9a9

2

G

a %

8(a,

)! 8 9a9 䊏

que coincide con la fórmula anunciada en la proposición.

Un razonamiento similar al anterior permite obtener el siguiente resultado, que se deja como ejercicio. Proposición 7.3.2 (Distancia de un punto a una recta en el plano) La distancia del punto por la fórmula

% ( 1,

2)

a la recta r de ecuación a1 1 ! a2

( , r) %

EJEMPLO H.

La distancia del punto

8a1

1 ! a2 2 !

∂a21 ! a22

8

2!

% 0 está dada

.

% (1, 3, .2) al plano de ecuación

n: 3 1.2 2!7 3%5 es ( , n) %

83 · 1 . 2 · 3 ! 7 · (.2) . 58 ∂3 ! (.2) ! 7 2

2

*

*

2

%

y

∂62

%

22 ∂62

.

*

Tratamos de hallar ahora las bi e tri e e o re ta plano como en el espacio sus ecuaciones serán de la forma !t

8.228

! v

a a que se cortan. Tanto en el

Sección 7.3. Distancias y ángulos. Producto escalar

325

es el vector director de una de las rectas y v es el vector director v de la otra recta. Puesto que y son vectores de igual longitud es fácil demostrar que 9 9 9v9 donde

es el punto de corte,

9 9

!

v 9v9

.

v 9v9

y 9 9

son vectores que tienen la dirección de cada una de las bisectrices buscadas. Basta para ello observar que los triángulos y de la figura 7.29 son isósceles y semejantes. Las ecuaciones de las bisectrices serán v u . !t 9 9 9v9

A

i

EJEMPLO I.

B

ra 7.29

Deseamos hallar las bisectrices de las rectas de ecuaciones r1 : . y %.1,

r2 : 2 ! y % 4.

Un vector perpendicular a r1 es (1, .1), luego un vector director de r1 es % (1, 1).

i

ra 7.30

326

Capítulo 7. La geometría del plano y del espacio

Un vector perpendicular a r2 es (2, 1), luego un vector director de r2 es v % (1, .2). Los vectores directores de las bisectrices serán 9 9

u

v (1, 1) (1, .2) % u . 9v9 ∂2 ∂5

Un punto por el que pasan las bisectrices es el punto de intersección de las rectas dadas; el lector puede comprobar que este punto es % (1, 2). Por tanto: ( , y) % (1, 2) ! t

A

1 ∂2

1

u

,

1

∂5 ∂2

u

.2 ∂5

B

son las ecuaciones paramétricas de las bisectrices. *

*

*

Para terminar esta sección recordamos que el ng lo e orman o lano se define como el ángulo que forman sus vectores perpendiculares (ver figura 7.31). Por tanto, el coseno del ángulo que forman dos planos puede calcularse mediante la fórmula obtenida al comienzo de esta sección. Si el lector desea realizar algún ejercicio relacionado con este concepto puede intentar hallar el ángulo que forman los planos de ecuaciones 3 . 2y ! % 0

y

i

2 !y.3 %0

ra 7.31

EJERCICIOS 7.3 1. Dados los puntos

% (1, 0),

% (.1, 1) y

% (2, 1) y las rectas

r1 : 3 ! y % 4, r2 : . 2y %.1 se pide: a)

Distancia de

a

.

b)

El coseno del ángulo que forman los vectores

y

.

Sección 7.3. Distancias y ángulos. Producto escalar

c)

El coseno del ángulo que forman las rectas r1, y r2.

d)

Ecuación cartesiana de la recta que pasa por

y es perpendicular a r1.

e)

Ecuación cartesiana de la recta que pasa por

y es perpendicular a r2.

f)

Descomponer el vector ella.

en un vector paralelo a la recta r1 y en otro perpendicular a sobre la recta r2.

g) Hallar la proyección del punto ) Hallar la distancia de i) )

327

a r2 y de

a r1.

con respecto a la recta r1.

Hallar el simétrico del punto

Encontrar las ecuaciones cartesianas de las bisectrices de r1 y r2.

2. Dados los puntos

% (1, 0, 0),

% (1, 0, 1) y

n1 : 3 . y ! % 3, se pide: a) Distancia de

a

y de

% (2, 3, .2) y los planos

n2 : ! 2y . % 2

a .

b)

El coseno del ángulo que forman los planos n1 y n2.

c)

Ecuación del plano perpendicular al vector

d)

La proyección del punto

sobre el plano n1.

e)

Descomponer el vector

en un vector perpendicular a n2 y otro paralelo a n2.

f)

Encontrar las ecuaciones cartesianas de la recta perpendicular al plano n1 que pasa por .

que pasa por .

g) Hallar la ecuación del plano perpendicular a la recta intersección de los dos planos dados y que pasa por . ) Distancia de i)

a n2 y de

a n1.

Hallar el punto simétrico de

3. Dados los puntos

% (0, 0, 1) y

respecto del plano n1. % (0, 3, 0) y las rectas de ecuaciones:

r1 : (1, 1, 0) ! t(2, 0, 1), r2 : (0, 0, . 2) ! (1, .1, 3) se pide: a)

Demostrar que r1 y r2 se cruzan.

b)

Ecuación del plano perpendicular a r1 que pasa por .

c)

Ecuaciones paramétricas y cartesianas de la recta paralela a r1 que corta a r2 en el punto (0, 0, .2).

d) Ecuaciones de las bisectrices de la recta r2 y la encontrada en el apartado anterior. e)

La proyección del punto

f)

Distancia de

a r1 y de

g) Descomponer el vector

sobre r1. a r 2. en un vector paralelo y otro perpendicular a r1.

) Ecuación del plano paralelo a r1 que contiene a r2. i)

Ecuación del plano paralelo a r2 que contiene a r1.

328

Capítulo 7. La geometría del plano y del espacio

)

Distancia de r1 a r2. [ geren ia: hallar la distancia entre los planos de los apartados ) e i).]

4. Utilizar vectores para demostrar que las diagonales de un rectángulo son perpendiculares si y solo si el rectángulo es un cuadrado. 5. Demostrar que las bisectrices de dos rectas que se cortan son perpendiculares. 6. Dadas las rectas de ecuaciones r1 :

F

.y! %1 , 2 !y%3

r2 :

F

y! %2 , . 2y ! % 0

demostrar que se cortan y hallar las ecuaciones paramétricas de sus bisectrices. 7. Hallar la ecuación del plano cuyo punto más cercano al origen es

% (1, .2, 1).

8. Hallar la ecuación de un plano que determine con los ejes coordenados segmentos de longitudes 2, 3 y 1, respectivamente. 9. Hallar la ecuación del plano paralelo al plano de ecuación 2 . 3y . 6 . 14 % 0 y que dista 5 unidades del origen. 10. Encontrar la ecuación del plano perpendicular al de ecuación . 2y . 2 ! 9 % 0 que pasa por los puntos %(2, .1, 6) y %(1, .2, 4). 7.4. Figuras 7.4. FIGURAS sencillas en el SENCILLAS plano y en el espacio: EN sus ELecuaciones PLANO Y EN EL ESPACIO:

SUS ECUACIONES En las secciones anteriores hemos estudiado las rectas y los planos por medio de sus ecuaciones. En esta sección estudiaremos otras figuras en el plano y en el espacio. En todas ellas se observará que si sus ecuaciones paramétricas solo dependen de un parámetro las figuras son curvas o trozos de curvas, mientras que si dependen de dos parámetros se trata de superficies o trozos de superficies. Comenzamos con el segmento que une los puntos y como en la figura 7.32, donde y pueden ser puntos del plano o del espacio. La recta que contiene a y tiene como ecuación paramétrica ! t(

) % ! t( . ) % (1 . t) ! t

donde t es un número real. Si imponemos la restricción 0mtm1

i

ra 7.32

Sección 7.4. Figuras sencillas en el plano y en el espacio: sus ecuaciones

se obtienen todos los puntos del segmento puede representarse de la forma

y solamente estos. Por tanto, el segmento

(1 . t) ! t Dado un punto ciente

con

0 m t m 1.

se denomina ra n e

en el segmento

329

r%

9 9

i

con re e to a

y

al co-

9 . 9

ra 7.33

La razón de un punto con respecto a otros dos es, por tanto, un número real positivo. Dado un número real positivo r siempre puede encontrarse un punto tal que su razón con respecto a dos puntos dados y distintos de sea r. Para encontrar observamos que r%

9 9

9 9

y además: % (1 . t) ! t % ! t para algún t à (0, 1). Para encontrar este valor de t sustituimos razón r y obtenemos t 9t 9 % . r% 9(1 . t) 9 1 . t

en la fórmula que nos da la

De aquí podemos despejar t en función de r: t%

r . 1!r

El punto medio del segmento es un punto cuya razón es 1 con respecto a es tanto, t % 1/2. De aquí deducimos que el punto medio de

A B

% 1.

1 2

!

1 2

%

! 2

y

y, por

.

EJEMPLO A. Queremos hallar un punto que tenga razón 2 con respecto a los puntos % (1, 2, 0) y % (.1, 0, 3). El punto será de la forma % (1 . t) ! t , donde t%

r 2 % . 1!r 3

Por tanto:

A B

% 1.

A

B

2 2 1 2 (1, 2, 0) ! (.1, 0, 3) % . , , 2 . 3 3 3 3

330

Capítulo 7. La geometría del plano y del espacio

Observar que

es un punto que dista

2 9 3

9 de *

*

y

1 9 3

9 de

.

*

Tres puntos no alineados , y , en el plano o en el espacio, determinan un triángulo como el de la figura 7.34. Los puntos del triángulo y su interior pueden describirse paramétricatienen como ecuación paramétrica mente. Los puntos del lado (1 . t) ! t , 0 m t m 1.

i

Uniendo la ecuación

con todos los puntos del lado

ra 7.34

se tiene el triángulo y su interior, que satisface

(1 . ) ! [(1 . t) ! t ] , 0 m m 1, 0 m t m 1. Esto puede escribirse de la forma (1 . ) ! (1 . t) ! t

,

0 m m 1, 0 m t m 1,

o bien a !b !

,

a!b! %1

,

0 m a, b, m 1.

La demostración de esta última afirmación se deja como ejercicio para el lector. Cuatro puntos , , y no coplanarios en el espacio determinan un poliedro de cuatro caras triangulares, es decir, un tetraedro, como el de la figura 7.35. Puede demostrarse con un razonamiento análogo al anterior que los puntos del tetraedro y de su interior se representan paramétricamente de la forma a !b !

!

,

a!b! ! %1

i

ra 7.35

,

0 m a, b, , m 1.

Sección 7.4. Figuras sencillas en el plano y en el espacio: sus ecuaciones

331

EJEMPLO B. Dados , y , tres puntos en el plano o en el espacio, queremos hallar las ecuaciones paramétricas de la región sombreada de la figura 7.36. El segmento que une con tiene como ecuaciones paramétricas (1 . t) ! t

i

0 m t m 1.

,

ra 7.36

Trazando las semirrectas que unen con cualquiera de los puntos del segmento tiene la región sombreada. Estas semirrectas tienen por ecuación (1 . ) ! [(1 . t) ! t ] , 0 m *

*

,

se ob-

0 m t m 1.

*

Dado un triángulo cualquiera, se denominan me iana a las rectas que unen un vértice con el punto medio del lado opuesto. Demostraremos a continuación que las tres medianas de un triángulo se cortan en un punto cuya distancia a cualquiera de los vértices del triángulo es 2/3 de la distancia del vértice al punto medio del lado opuesto. Para demostrar este resultado sean , y los vértices del triángulo; el punto medio del ! 2 es . El punto que se encuentra del vértice a de la distancia de al punto lado 2 3 medio del lado es (ver ejemplo A):

A B 1.

2 3

!

2 3

! 2

%

1 3

i

ra 7.37

!

! 3

%

! ! . 3

Realizando el razonamiento con cualquier otro vértice se obtendrá el mismo resultado. Esto demuestra nuestra afirmación. El punto donde se cortan las me iana de un triángulo se denomina bari entro o entro e grave a del triángulo.

332

Capítulo 7. La geometría del plano y del espacio

Otros puntos característicos de un triángulo se obtienen como intersección de sus alturas, sus bisectrices o sus mediatrices. Los resultados que a ellos les conciernen se proponen en los ejercicios del final de esta sección. * * * Pasamos a continuación a estudiar las figuras más sencillas en el plano y en el espacio que no pueden formarse con segmentos de rectas. En el plano tenemos la ir n eren ia, que es el lugar geométrico de los puntos que equidistan de un punto fijo, llamado entro. La distancia del centro a uno cualquiera de los puntos de la circunferencia recibe el nombre de ra io de la circunferencia. Si % ( 1, 2) es el centro de la circunferencia y r el radio, un punto % ( 1, 2) está en la circunferencia si y solo si ( , ) % r. Por tanto: ( 1 . 1)2 ! ( 2 . 2)2 % r2 es la e a i n arte iana de la circunferencia de centro

i

y radio r.

ra 7.38

Ecuaciones paramétricas de la circunferencia pueden encontrarse utilizando el ángulo a que forma el radio de la circunferencia con una recta fijada que pase por el centro de la circunferencia (ver figura 7.38). Se tiene que 1 . 1 % r cos a,

2 . 2 % r sen a.

Por tanto,

E

1 % 1 ! r cos a 2 % 2 ! r sen a

con 0 m a a 2n, son las ecuaciones paramétricas buscadas. La figura que tiene a 1 % 1 ! a cos a 2 % 2 ! b sen a

E

como ecuaciones paramétricas recibe el nombre de eli e (ver figura 7.39). Para encontrar su ecuación cartesiana observamos que cos a %

1. 1

a

y

sen a %

2. 2

b

.

Sección 7.4. Figuras sencillas en el plano y en el espacio: sus ecuaciones

333

Por tanto, ( 1 . 1) 2 ( 2 . 2) 2 1 % cos a ! sen a % ! . a2 b2 2

2

i

ra 7.39

Como se verá en el Capítulo 11, la elipse puede definirse de la siguiente manera: el lugar geométrico de los puntos de un plano cuya suma de distancias a dos puntos fijos, llamados focos, 1 y 2, es constante. * * * Otra curva que posee una definición «similar» a la de la elipse es la lemni ata e erno i lli: es el lugar geométrico de los puntos del plano cuyas distancias a dos puntos fijos, llamados focos, 1 y 2, tienen producto igual a 2, con 2 la distancia entre ambos focos. Si 1 % (.1, 0) y 2 % (1, 0), la lemniscata de Bernouilli tiene por ecuación [( ! 1)2 ! y2][( . 1)2 ! y2] % 1.

i

ra 7.40

Simplificando esta igualdad se obtiene ( 2 ! y2)2 . 2( 2 . y2) % 0. Escribiendo % r cos a, y % r sen a, con 0 m a a 2n, tenemos que r4 % 2r2(cos2 a . sen2 a). Por tanto: r2 % 2 cos 2a.

334

Capítulo 7. La geometría del plano y del espacio

Esta ecuación, denominada ecuación en coordenadas polares de la lemniscata de Bernouilli, permite obtener la representación gráfica de la figura 7.40. Observar que los valores de a en los intervalos (n/4, 3n/4) y (5n/4, 7n/4) no dan puntos con coordenadas reales. *

*

*

La curva que describe un punto de una circunferencia cuando rueda sin deslizar sobre una recta tiene unas ecuaciones paramétricas sencillas. Esta curva recibe el nombre de i loi e, y su gráfica se aprecia en la figura 7.41.

i

ra 7.41

Si la circunferencia tiene radio 1 y está situada inicialmente como se muestra en la figura 7.42, después de que el centro de la circunferencia haya recorrido una longitud t, el punto se transforma en ñ, cuyas coordenadas e y satisfacen

A B A B

% t . ( , ) % t . cos a % t . cos t .

n % t . sen t 2

y % 1 ! ( , ñ) % 1 ! sen a % 1 ! sen t .

i

ra 7.42

*

*

*

n % 1 . cos t. 2

Sección 7.4. Figuras sencillas en el plano y en el espacio: sus ecuaciones

335

En el espacio una de las figuras más importantes es la e era, que posee una definición similar a la de la circunferencia. La e era es el lugar geométrico de los puntos del espacio que equidistan de un punto fijo, llamado entro. La distancia del centro a un punto cualquiera de la esfera recibe el nombre de ra io de la esfera.

i

ra 7.43

Si % ( 1, 2, 3) es el centro de la esfera y r su radio, cualquier punto satisface la igualdad

% ( 1,

2,

3)

de ella

( , ) % r. Por tanto: ( 1 . 1)2 ! ( 2 . 2)2 ! ( 3 . 3)2 % r2 es la ecuación cartesiana de la esfera de centro y radio r. Ecuaciones paramétricas de la esfera pueden encontrarse en función de los ángulos a y b de la figura 7.43. Tenemos 3 . 3 % r cos b

mientras que 9

9 % r sen b. De aquí deducimos que

E

F

1 . 1 % r cos a sen b 2 . 2 % r sen a sen b 3.

3 % r cos b

,

0 m a a 2n, 0 m b a n,

que son las ecuaciones paramétricas buscadas. Observar que estas ecuaciones paramétricas dependen de dos parámetros, a y b, lo cual está en concordancia con el hecho de que determinan una superficie en el espacio.

336

Capítulo 7. La geometría del plano y del espacio

EJERCICIOS 7.4 en tres partes iguales, donde %(.1, 0, .3)

1. Encontrar los puntos que dividen al segmento y % (4, 3, 5).

2. Describir paramétricamente las regiones I, II, III y IV de la figura adjunta, donde , son tres puntos no alineados.

y

3. Hallar la intersección de las siguientes figuras en el plano: a)

La recta % y ! 1 y la circunferencia ( . 2)2 ! y2 % 6.

b)

El semiplano y .

c)

El sector (4, 1) ! (1 . . t)(1, 2), t b 0, b 0 y el semiplano ! 2y . 5 a 0.

1 ∂5

n

4 ∂5

y la circunferencia ( . 2)2 ! y2 % 6.

4. Demostrar que un criterio para que la recta ! t toque a la circunferencia en un solo punto es que se cumpla la igualdad r29 92 % donde % ( 1,

2)

y

% (a1, a2).

G

1

2

a1

a2

G

2

2

! y2 % r2

Sección 7.4. Figuras sencillas en el plano y en el espacio: sus ecuaciones

5. Demostrar que si ñ y ñ son los puntos medios de los segmentos 1 9 ñ ñ9 % 9 2

y

337

, se tiene que

9.

6. Se denomina me iatri de un segmento a la perpendicular por su punto medio. Demostrar que las tres mediatrices de los lados de un triángulo se cortan en un punto que coincide con el centro de la circunferencia circunscrita al triángulo. (Este punto recibe el nombre de ir n entro del triángulo dado.)

7. Demostrar que el circuncentro (ver ejercicio 6) de un triángulo rectángulo se halla en el punto medio de su hipotenusa. 8. Se denomina bi e tri de un ángulo a la recta que divide al ángulo en dos partes iguales. Demostrar que las bisectrices de los ángulos interiores de un triángulo se cortan en un solo punto que coincide con el centro de la circunferencia inscrita en él. (Este punto recibe el nombre de in entro del triángulo dado.)

9. Cada una de las rectas que pasan por el vértice de un triángulo y son perpendiculares al lado opuesto reciben el nombre de alt ra del triángulo de la figura adjunta. Estas alturas coinciden con las mediatrices del triángulo ñ ñ ñ de dicha figura. Deducir de este

338

Capítulo 7. La geometría del plano y del espacio

resultado y del ejercicio 6 que las alturas de un triángulo se cortan en un punto. (Este punto se denomina orto entro del triángulo dado.)

10. Dado el triángulo en el plano cuyos vértices tienen coordenadas % (2, 1) y % (0, 3), hallar: a) Las coordenadas del baricentro. b) El circuncentro y la ecuación de la circunferencia circunscrita. c) El incentro y la ecuación de la circunferencia inscrita. d) El ortocentro. (Ver los ejercicios 6, 8 y 9 para las definiciones.)

% (.3, 0),

11. Hallar las ecuaciones de la altura relativa al vértice del prisma de base triangular donde % (1, 1, 3), % (0, .1, 0), % (1, 0, 0) y % (0, 3, 1).

,

12. Encontrar las ecuaciones paramétricas y cartesianas de las siguientes figuras: a) La circunferencia que pasa por los puntos % (2, 1), % (0, 3) y % (.1, 0). b) La esfera que pasa por los puntos % (1, 2, 0), % (1, 0, 2), % (3, 0, 0) y % (2, 1, ∂2). 7.5. ÁreasÁ 7.5. y volúmenes. REAS Y Producto VOLÚMENES. vectorial PRODUCTO VECTORIAL

Comenzaremos encontrando una fórmula para determinar el área de un paralelogramo situado en el plano o en el espacio. Observamos, en primer lugar, que un paralelogramo queda determinado por dos vectores a y b que son linealmente independientes (ver figura 7.44).

i

ra 7.44

Sección 7.5. Áreas y volúmenes. Producto vectorial

339

Sabemos que el área de un paralelogramo se obtiene multiplicando la longitud de su base por la altura; por tanto: área % 9a9 · 9 9 donde es la proyección del punto sobre la recta que contiene a 9 9 % 9b9 sen ⱔ (a, b), deducimos que

y

. Puesto que

(área)2 % 9a92 9b92 sen2 ⱔ (a, b) % 9a92 9b92[1 . cos2 ⱔ (a, b)] %

C

% 9a92 9b92 1 .

D

(a, b)2 % 9a92 9b92 . (a, b)2. 9a92 9b92

Hemos obtenido el siguiente resultado: Proposición 7.5.1 Si a y b son dos vectores linealmente independientes en el plano o en el espacio, la superficie del paralelogramo determinado por los vectores a y b se obtiene mediante la fórmula % ∂9a92 9b92 . (a, b)2 %

JG

G

(a, a) (a, b) . (a, b) (b, b)

Si a % (a1, a2) y b % (b1, b2) son dos vectores linealmente independientes en el lano tenemos que 9a92 9b92 . (a, b)2 % (a21 ! a22)(b21 ! b22) . (a1b1 ! a2 b2)2 % % a21b21 ! a21b22 ! a22 b21 ! a22 b22 . a21b21 . 2a1b1a2 b2 . a22 b22 % % (a1b2 . a2 b1)2 %

G

G

a1 a2 2 . b1 b2

Por tanto, el rea e n aralelogramo en el lano oin i e on el valor ab ol to el eter minante orma o or la om onente e lo ve tore e lo eterminan. En el espacio también existe una fórmula sencilla, pero es necesario utilizar el concepto de producto vectorial que se introducirá más adelante. El área de un triángulo de vértices , y coincide con la mitad del área del paralelogray , como puede observarse en la figura 7.45. Por tanto, mo determinado por los vectores las fórmulas para el área de un triángulo se obtienen dividiendo entre 2 las fórmulas para el área del paralelogramo que él determina.

i

ra 7.45

340

Capítulo 7. La geometría del plano y del espacio

Finalmente, recordamos que el área de cualquier polígono es fácil calcular a partir del área de triángulos, ya que cualquier polígono puede triangularse (ver figura 7.46).

i

ra 7.46

EJEMPLO A. Tratemos de encontrar el área del triángulo de vértices y % (1, .3). Si consideramos los vectores a%

% (1, 2),

% (.2, 0)

% (0, .5)

y b%

% (.3, .2),

se tiene que

G

G

.5 %.15. .2

0 .3

Por tanto, el área pedida es 15/2.

i

ra 7.47

EJEMPLO B. Queremos encontrar el área del triángulo que tiene como vértices los puntos de intersección del plano de ecuación 2 ! y ! 3 % 6 con los ejes coordenados (figura 7.48). Estos puntos son % (3, 0, 0), como fácilmente puede comprobarse.

% (0, 6, 0)

y

% (0, 0, 2)

Sección 7.5. Áreas y volúmenes. Producto vectorial

i

341

ra 7.48

Si tomamos a % (.3, 0, 2)

y

b % (.3, 6, 0),

de la Proposición 7.5.1 deducimos que 1 1 % ∂(9 ! 0 ! 4)(9 ! 36 ! 0) . (9 ! 0 ! 0)2 % ∂13 · 45 . 81 % 2 2 1 % ∂504 % 3∂14. 2 Observar que en este caso no podemos utilizar el determinante, mientras que sí se utilizó en el ejemplo A. *

*

*

Una fórmula en la que interviene un determinante de orden 3 puede utilizarse para calcular el volumen de un paralelepípedo en el espacio. Un aralele í e o queda determinado por tres vectores linealmente independientes (ver figura 7.49). Si estos vectores son a % (a1, a2, a3),

b % (b1, b2, b3)

i

ra 7.49

y

% ( 1,

2,

3)

342

Capítulo 7. La geometría del plano y del espacio

demostraremos que el volumen del paralelepípedo que ellos determinan se obtiene como el valor absoluto del determinante de la matriz.

A

a1 (a, b, ) % b1

a2 b2

1

2

B

a3 b3 . 3

Para demostrarlo basta con encontrar un vector u perpendicular al plano determinado por los vectores a y b, ya que entonces tendremos que % volumen % (área de la base) · 9 98cos ⱔ ( , u)8 ya que la altura del paralelepípedo coincide con 9 98cos ⱔ ( , u)8. Para encontrar un vector u % ( 1, 2, 3) que sea perpendicular a a % (a1, a2, a3) y b % (b1, b2, b3) basta resolver el sistema (a, u) % a1 1 ! a2 (b, u) % b1 1 ! b2

2 ! a3 3 % 0 2 ! b3 3 % 0

F

.

Puesto que los vectores a y b son linealmente independientes: r

A

B

a1 a2 b1 b2

a3 %2 b3

y, por tanto, el sistema tiene infinitas soluciones. Supongamos que

y sea

3 % t;

G

a1 b1

G

a2 Ç0 b2

tenemos que u%

Tomando t %

G

G

1

G

a1 a2 b1 b2

G

AG t

.a3 .b3

G G

a2 a1 ,t b2 b1

G G

.a3 a1 ,t .b3 b1

a2 b2

GB

.

a1 a2 Ç 0, por ejemplo, se tiene que b1 b2 u%

que recibe el nombre de ro

AG

G G

a2 a3 a ,. 1 b2 b3 b1

GG

a3 a1 , b3 b1

a2 b2

GB

to ve torial e a y b.

Definición 7.5.2 (Producto ectorial de dos ectores) Dados los vectores a % (a1, a2, a3) y b % (b1, b2, b3) en el espacio, definimos su ro rial como el vector a2 a3 a a3 a1 a2 ,. 1 , . a#b% b2 b3 b1 b3 b1 b2

AG

G G

GG

GB

to ve to

Sección 7.5. Áreas y volúmenes. Producto vectorial

343

Una forma de recordar las componentes del vector producto vectorial de a y b es observar que corresponden al resultado de eliminar la primera, la segunda y la tercera columna, respectivamente, de la matriz

A

a1 b1

a2 a3 b2 b3

B

teniendo siempre cuidado de que a la segunda componente es necesario cambiarle el signo. Otra forma de recordarlo, procedente de la física, es la siguiente: sean i % (1, 0, 0), % (0, 1, 0) y % (0, 0, 1) los vectores coordenados unitarios; podemos escribir a % a1 i ! a2 ! a3 y b % b1 i ! b2 ! b3 .

El vector a # b se obtiene desarrollando «formalmente» el determinante

G

por la primera fila.

i a1 b1

a2 a3 b2 b3

G

EJEMPLO C. Tratemos de hallar la ecuación cartesiana del plano que pasa por el punto % (2, 1, 3) y tiene % (1, 0, .1) y v % (2, .1, 1) como vectores directores. Un vector perpendicular a y v es #v%

AG

0 .1

G G

GG

.1 1 ,. 1 2

.1 1 , 1 2

0 .1

GB

% (.1, .3, .1);

la ecuación de todos los planos perpendiculares a # v es . . 3y . % . El valor de se calcula con la condición de que el punto tenemos .2 . 3 . 3 %.8 % . La ecuación del plano es ! 3y ! % 8. *

*

*

pertenezca al plano; por tanto,

344

Capítulo 7. La geometría del plano y del espacio

El módulo o longitud del producto vectorial de dos vectores tiene una bonita interpretación geométrica. Si los vectores dados son a % (a1, a2, a3) y b % (b1, b2, b3), y calculamos 9a # b92 se tiene que 9a # b92 %

G

a2 b2

G G

a3 2 a ! 1 b3 b1

G G

a3 2 a ! 1 b3 b1

G

a2 2 % (a2 b3 . a3 b2)2 ! (a1b3 . a3 b1)2 ! b2

! (a1b2 . a2 b1)2 % a22 b23 ! a23 b22 ! a21b23 ! a23b21 ! a21b22 ! a22 b22 . . 2[a2 b3 a3 b2 ! a1b3 a3 b1 ! a1b2 a2 b1] % (a21 ! a22 ! a23)(b21 ! b22 ! b23) . . a21b21 . a22 b22 . a23 b23 . 2[a2 b3 a3 b2 ! a1b3 a3 b1 ! a1b2 a2 b1] % % (a21 ! a22 ! a23)(b21 ! b22 ! b23) . (a1b1 ! a2 b2 ! a3 b3)2 % % 9a92 9b92 . (a, b)2. De la Proposición 7.5.1 deducimos el siguiente resultado: Proposición 7.5.3 ( rea de un paralelogramo en el espacio) El área de un paralelogramo en el espacio determinado por dos vectores a y b coincide con el módulo del producto vectorial de los vectores, es decir: % 9a # b9 % 9a9 9b9 sen ⱔ (a, b)

i

ra 7.50

El área del triángulo del ejemplo B podemos calcularla ahora utilizando el producto vectorial. En efecto, tenemos que 1 1 % 9a # b9 % 2 2

CG G G 0 6

22 .3 ! 0 .3

G G

22 .3 ! 0 .3

1 1 % [144 ! 36 ! 324]1/2 % ∂504 % 3∂14, 2 2 que coincide con el resultado encontrado en el ejemplo B. *

*

*

0 6

GD

2 1/2

%

Sección 7.5. Áreas y volúmenes. Producto vectorial

345

El problema que nos ha conducido a los resultados anteriores es el de encontrar una fórmula para determinar el volumen de un paralelepípedo en ⺢3. Este problema puede ser resuelto ahora de una forma elegante. Para el paralelepípedo de la figura 7.51 se tiene que su volumen es 9 8cos ⱔ (a # b, )8.

% (área de la base) · 9

i

ra 7.51

Debido a la Proposición 7.5.3 se tiene que % 9a # b9 · 9 9 8cos ⱔ (a # b, )8. Si recordamos la fórmula para calcular el coseno del ángulo que forman dos vectores (ver sección 7.3), obtenemos que % 8(a # b, )8. El producto escalar de a # b con recibe el nombre de ro to mi to de los vectores a, b y . El producto mixto de tres vectores puede calcularse utilizando un determinante, ya que (a # b, ) %

AAG G

a % 2 b2

a2 b2 a3 b3

G G

GG

a3 a ,. 1 b3 b1

a3 a1 , b3 b1

G G

G G

a1 a3 1. b1 b3

GB

a2 , ( 1, b2

a1 2! b1

a2 b2

G

B

2,

G

3)

%

a1 3 % b1

a2 b2

1

2

Todos estos resultados quedan resumidos en la siguiente proposición:

G

a3 b3 . 3

346

Capítulo 7. La geometría del plano y del espacio

Proposición 7.5.4 ( olumen de un paralelep pedo) El volumen del paralelepípedo determinado por los vectores a, b y de calcularse mediante la fórmula

en el espacio pue-

% 8(a # b, )8 y coincide con el valor absoluto del determinante de la matriz

A

a1 b1

a2 a3 b2 b3

1

2

3

donde a % (a1, a2, a3), b % (b1, b2, b3) y % ( 1,

B 2,

3).

EJEMPLO D. El volumen del paralelepípedo determinado por los vectores a % (1, 2, .3), b % (0, 1, 2) y % (1, .2, .1) es el valor absoluto de

G Por tanto,

1 0 1

G

2 .3 1 1 2 % .2 .2 .1

G

G G

2 2 ! .1 1

G

.3 %.1 ! 4 ! 4 ! 3 % 10. 2

% 10. *

*

*

Utilizando la Proposición 7.5.4 puede calcularse el volumen de otras figuras en el espacio. Si se trata, por ejemplo, de un prisma triangular determinado por los vectores a, b y (véase figura 7.52) se tiene que su volumen es 1 % 8(a # b, )8 2 ya que dos de dichos prismas unidos por una de sus caras laterales forman un paralelepípedo determinado por los vectores a, b y .

i

ra 7.52

Sección 7.5. Áreas y volúmenes. Producto vectorial

347

Para hallar el volumen de una pirámide de base triangular determinada por los vectores a, b y , consideramos el prisma de base y con altura igual a la de la pirámide dada (ver figura 7.53).

i

ra 7.53

El prisma de base triangular de la derecha de la figura 7.53 puede dividirse en tres pirámides como se muestra en la figura 7.54.

i

ra 7.54

La pirámide 1 es igual a la original de la figura 7.53. Las pirámides 1 y 3 tienen igual volumen porque tienen igual base y altura. Las pirámides 2 y 3 también tienen igual volumen porque pueden interpretarse con vértice común en y con bases los triángulos coplanarios iguales y . Luego las tres pirámides tienen igual volumen. Por tanto, para la pirámide de la figura 7.53 su volumen es 1 % 8(a # b, )8. 6 Este razonamiento está tomado del Curso de geometría métrica1 (Lección 55, -§1). * 1

P. Puig Adam,

r o e geometría m tri a (1956).

*

*

348

Capítulo 7. La geometría del plano y del espacio

El producto vectorial, que nos ha aparecido al intentar calcular áreas y volúmenes de figuras tridimensionales, aparece de manera natural en algunos fenómenos físicos. Se justifica experimentalmente que una carga eléctrica positiva de magnitud , que se mueve con una velocidad v, dentro de un campo magnético de intensidad i , se encuentra sometida a una fuerza cuyo módulo y dirección están dados por % (v # i ).

Una corriente que circula por un hilo recto produce un campo magnético cuyo vector tiene el sentido del producto vectorial del vector que señala el sentido de la corriente, v, en el de la figura adjunta. hilo y el vector

Estudiaremos a continuación las propiedades del producto vectorial. Sabemos que el producto vectorial tiene dirección perpendicular a cada uno de los vectores y su módulo o longitud coincide con el área del paralelogramo que ambos vectores determinan. Sin embargo, esto no determina completamente el producto vectorial de a y b, ya que la dirección perpendicular a a y b posee dos sentidos opuestos. Se plantea entonces la pregunta de saber cuál es el sentido del vector a # b. Realizamos algunos ejemplos sencillos. Si e1 % (1, 0, 0), e2 % (0, 1, 0) y e3 % (0, 0, 1), tenemos que e1 # e 2 %

AG G G G G GB 0 1

0 1 ,. 0 0

0 1 , 0 0

0 1

% (0, 0, 1) % e3

y e2 # e1 %

AG G G G G GB 1 0

0 0 ,. 0 1

0 0 , 0 1

1 0

%.e3 .

Sección 7.5. Áreas y volúmenes. Producto vectorial

349

En estos ejemplos se observa que el sentido del producto vectorial de a y b está dado por el sentido de avance de un tornillo que gira yendo de a hacia b, con un ángulo inferior a 180o. Otra forma de recordar el sentido del producto vectorial es la regla e la mano ere a: el sentido de a # b es el sentido en el que apunta el dedo pulgar cuando los dedos de la mano derecha están curvados de a hacia b con un ángulo inferior a 180o (véase figura 7.55). Las propiedades que conocemos del producto vectorial lo determinan totalmente, es decir, el producto vectorial a # b de dos vectores a y b en ⺢3 que son linealmente independientes es el único vector que satisface las siguientes propiedades: 1) Es perpendicular a a y b. 2) Su longitud es el área del paralelogramo determinado por a y b. 3) Su sentido está dado por la regla el tornillo, o de la mano derecha.

i

ra 7.55

Proposición 7.5.5 (Propiedades del producto ectorial) Cualesquiera que sean los vectores a, b y

en ⺢3 se tiene:

a) a # b %.b # a. b) (a # b, a) % 0 y (a # b, b) % 0. c)

Si a y b son no nulos, a # b % 0 si y solo si a y b son paralelos.

d) (a ! b) # % a # ! b # . e)

(a # b, ) % (a, b # ) % (b, # a).

f)

a # (b # ) % (a, )b . (a, b) .

350

Capítulo 7. La geometría del plano y del espacio

Nota. Las propiedades a), b) y c) se deducen inmediatamente de las propiedades ya conocidas del producto vectorial. El resto de las propiedades pueden demostrarse directamente utilizando la definición de producto vectorial, y se dejan como ejercicio para el lector. Existen varias formas de calcular la distancia entre dos rectas que se cruzan en el espacio; una de ellas se sugiere en el apartado j) del ejercicio 3 de la sección 7.3. Otra de ellas puede obtenerse utilizando la Proposición 7.5.4 de esta sección. Dadas la rectas de ecuaciones !t

r1 :

! v

r2 :

y

formamos un paralelepípedo como se muestra en la figura 7.56. El volumen del paralelepípedo se obtiene multiplicando el área de la base por la altura a. De las Proposiciones 7.5.3 y 7.5.4 deducimos que )8 % 9 # v9 · a. % 8( # v,

i

ra 7.56

Puesto que la altura a del paralelepípedo coincide con la distancia de al plano que contiene a r1 y es paralelo a r2 y esta, a su vez, coincide con la distancia entre las rectas dadas, la distancia buscada es )8/9 # v9. (r1, r2) % a % 8( # v, EJEMPLO E.

Para calcular la distancia entre las rectas de ecuaciones r1 : (1, 0, 1) ! t(2, 0, 1)

r2 : (0, 1, 1) ! (1, 3, .1)

y

calculamos ( # v, y

G

2 )% 1 .1

0 3 1

GG

1 0 .1 % 0 0 .1

9 # v9 % 9(2, 0, 1) # (1, 3, .1)9 %

G AG

G

2 4 1

0 3

1 2 .1 %. 4 0

G G

1 2 ,. .1 1

% 9(.3, 3, 69 % (9 ! 9 ! 36)1/2 % ∂54. Por tanto, (r1, r2) % *

6 ∂54 *

*

%

2 ∂6

.

G

G

1 %6 .1

G G GBG

1 2 , .1 1

0 3

%

Sección 7.5. Áreas y volúmenes. Producto vectorial

351

Terminamos esta sección haciendo algunos comentarios sobre la orientación del plano y del espacio y el sentido positivo de giro. En un plano no hay una orientación privilegiada: podemos decir cuándo dos pares de vectores unitarios y perpendiculares entre sí tienen la misma orientación, pero no decir cuál es la orientación de cada uno de ellos. Sin embargo, decimos que hay un sentido positivo y un sentido negativo de giro porque siempre miramos nuestro plano de un lado fijo: el papel por el lado en que dibujamos o las agujas del reloj desde fuera del mismo. ¡Si usamos un plano transparente y lo miramos desde atrás, los sentidos de giro cambian!

i

ra 5.57

En el espacio no tiene sentido preguntar si el giro en torno a un eje es positivo o negativo y solo tiene una respuesta si se ha elegido un sentido positivo en el eje y el observador se sitúa en el sentido positivo de este eje. Sin embargo, siempre podemos decidir si tres vectores unitarios y perpendiculares entre sí están o itivamente orienta o : los vectores a, b y (unitarios y perpendiculares entre sí) están o itivamente orienta o si a # b % .

EJERCICIOS 7.5 1. Hallar el área de la figura de vértices % (.2, 0),

% (.1, .2),

, donde % (2, 1),

% (0, 1),

% (.1, 3).

352

Capítulo 7. La geometría del plano y del espacio

2. Hallar las ecuaciones cartesianas de los siguientes conjuntos de puntos: % (1, 2, 1),

a)

Plano que pasa por los puntos

b)

Recta perpendicular a las rectas (3, 3, 2) ! t(3, .1, 2)

y

% (.1, 3, 0) y

% (2, 1, 3).

(1, 1, 9) ! (5, 1, .5)

y que pasa por su punto de intersección. c) Plano perpendicular a la recta de ecuación (1, 2, 1) ! t(.1, 2, 0) que pasa por el punto (.1, 2, 3). 3. Demostrar que la distancia de un punto mediante la fórmula

G

a la recta 1

! t en el plano puede calcularse

2

a1 . b1 a2 . b2 % 9 9 donde

% (a1, a2),

% (b1, b2) y % ( 1,

G

2).

[ geren ia: utilizar que el área de un paralelogramo en el plano puede expresarse como un determinante.] 4. Dada la pirámide de base y vértice , donde %(2, 0, 0), %(3, 1, 0), %(0, 1, 0), % (.1, 0, 0) y % (1, 1, 3), hallar: a)

El área de la cara

b)

El área de la base.

c)

El volumen del prisma.

d)

La distancia entre las rectas

e)

El valor de la altura.

.

y

.

5. Hallar el volumen del prisma determinado por los vectores a % (1, 2, .1),

b % (0, 1, 2)

y

% (1, 2, .3).

6. Demostrar las siguientes propiedades del producto vectorial: a)

(a # b, ) % (a, b # ) % (b, # a).

b)

a # (b # ) % (a, )b . (a, b) .

Capítulo 8

Espacios euclídeos.

8.1. Espacios euclídeos. Longitudes, áreas y ortogonalidad. 8.2. Bases ortonormales en un espacio euclídeo. 8.3. Complemento ortogonal. Proyecciones. 8.4. Adjunta de una aplicación. Aplicaciones autoadjuntas. 8.5. Aplicaciones ortogonales. 8.6. Clasificación de aplicaciones ortogonales. 8.7. Estructura de las aplicaciones lineales no singulares. 8.8. Descomposición en valores singulares de una matriz.

354

Capítulo 8. Espacios euclídeos

8.1. Espacios 8.1. ESPACIOS euclídeos. Longitudes, EUCLÍDEOS. áreas y ortogonalidad LONGITUDES, ÁREAS

Y ORTOGONALIDAD Una gran variedad de hechos geométricos se basan principalmente en la posibilidad de medir las longitudes de segmentos y los ángulos entre ellos. Obsérvese que en la definición de espacio vectorial no se incluye ningún concepto de medida. Para introducir el concepto de longitud de un vector y de ángulo entre dos vectores fijémonos en el espacio vectorial de los vectores en el plano.

i

ra 8.1

i

ra 8.2

La idea intuitiva que poseemos de longitud de un vector en el plano, que designamos por 9 9, es 9 9 % ∂ 21 ! 22. Hemos visto en el Capítulo 7 que si a es el ángulo que forman e y, se tiene ( , y) , 0 m a m n, (1.1) cos a % 9 9 9y9 en donde ( , y) denota el ro to e alar de los vectores % 1e1 ! 2 e2 e y % y1e1 ! y2 e2. Recordar que el producto escalar de dos vectores en el plano ha sido introducido en la sección 7.3 y que la fórmula (1.1) ha sido demostrada en la misma sección. La fórmula (1.1) relaciona ángulos con medidas y con productos escalares y es la base para introducir axiomas en un espacio vectorial, de manera que en los nuevos espacios se puedan estudiar propiedades geométricas. Nuestra táctica es definir estos espacios, que serán los e a io e lí eo , a partir de una definición axiomática de «producto escalar». Después estudiaremos los conceptos de longitud, ángulo y ortogonalidad en estos espacios; finalmente estudiaremos diversos tipos de aplicaciones lineales entre ellos.

Definición 8.1.1 Un espacio eucl deo es un espacio vectorial real dotado de un producto escalar, es decir una regla que asigne a cada par de vectores , y à un número real, designado por ( , y), de manera que se cumplen las siguientes propiedades: a) b) c) d)

Simétrica: ( , y) % (y, ) para todo , y à . Distributiva: ( , y ! ) % ( , y) ! ( , ) para todo , y, à . (j , y) % j( , y) para todo , y à y todo j à ⺢. ( , ) b 0 para todo Ç 0. De b) y a) se deduce:

bñ)

( ! , y) % ( , y) ! ( , y) para todo , y, à .

Sección 8.1. Espacios euclídeos. Longitudes, áreas y ortogonalidad

355

De c) y a) se deduce: cñ)

( , jy) % j( , y) para todo , y à

y todo j à ⺢.

De bñ) se deduce que (y, ) % (0 ! y, ) % (0, ) ! (y, ) á (0, ) % 0. Por la propiedad simétrica ( , 0) % 0. En particular, ( , ) % 0 si % 0. EJEMPLO A.

El espacio vectorial ⺢2 con ( , y) % 1y1 !

donde % ( 1,

2),

2 y2,

y % (y1, y2), y en general el espacio vectorial ⺢n con ( , y) % 1y1 ! ñ !

n y n,

donde % ( 1, ..., n) e y % (y1, ..., yn), son ejemplos de espacios euclídeos. Las propiedades de la Definición 8.1.1 son fáciles de verificar y se dejan como ejercicio para el lector. EJEMPLO B.

Dados % ( 1,

2)

e y % (y1, y2) vectores en ⺢2, definimos

( , y) % ( 1,

2)

A BA B 1 1

1 2

y1 . y2

La aplicación que acabamos de definir de ⺢2 # ⺢2 en ⺢ es un producto escalar: las propiedades b) y c) se deducen de las propiedades de la multiplicación de matrices; para probar a) y d) observamos que ( , y) % 1y1 !

2 y1 ! y2 1 ! 2y2 2;

de aquí se deduce la propiedad simétrica; para probar la propiedad d) observar que ( , )%

2 2 2 2 1 ! 2 1 2 ! 2 2 % ( 1 ! 2) ! 2.

Por tanto, tenemos una nueva estructura de espacio euclídeo en ⺢2. EJEMPLO C. Si % ( 1, 2), y % (y1, y2) à ⺢2 y definimos ( , y) % 1y1, esto no es un producto escalar en ⺢2 puesto que no se cumple la propiedad d); en efecto, si % (0, 2) Ç 0 se tiene ( , ) % 0. EJEMPLO D. En el espacio vectorial ([a, b]) de las funciones continuas reales definidas en el intervalo [a, b], se puede definir un producto escalar que a las funciones (t) y g(t) les asocia el número real ( , g) %

I

b

(t)g(t) t, a

obteniéndose un espacio euclídeo. El mismo producto escalar sirve para convertir el espacio vectorial ([a, b]), de los polinomios en el intervalo [a, b], en un espacio euclídeo. *

*

*

356

Capítulo 8. Espacios euclídeos

Sea un espacio euclídeo de dimensión finita n (es decir, el espacio vectorial asociado a es de dimensión finita n) y sea % { 1, 2, ..., n} una base de . En esta base, si à e y à , podemos escribir: n

%; i%1

n

y% ; y

i i,

.

%1

Utilizando las propiedades b) y c) del producto escalar se tiene que

A

n

B

n

( , y) % ;

i i,

i%1

; y

%1

n

n

%; ;

iy

i%1 %1

( i, ).

(1.2)

La matriz

z

A

( 1, ( 2, % ó ( n,

1)

( 1, ( 2, ó ( n,

1)

1)

ñ ñ 2) 2)

2)

( 1, ( 2, ó ( n,

ñ

n) n)

n)

B

recibe el nombre de matri el ro to e alar on re e to a la ba e . Con esta notación la expresión (1.2) puede escribirse de la forma ( , y) % ( 1, ...,

AB

y1 ó . yn

n)

La matriz de un producto escalar es siempre simétrica debido a la propiedad a) y los elementos de su diagonal principal son todos positivos debido a la propiedad d). Podemos preguntarnos si estas dos condiciones son suficientes para que una matriz defina un producto escalar; la respuesta es negativa, pues el lector puede encontrar un contraejemplo en el ejercicio 1 propuesto al final de esta sección. En el capítulo 12, dedicado a las formas bilineales y cuadráticas, se dará una condición necesaria y suficiente para que una matriz defina un producto escalar en un espacio vectorial. * La longit

(o norma) de un vector

*

*

en un espacio euclídeo

9 9 % ∂( , ) ,

se define como

à .

Obsérvese que ∂( , ) tiene sentido debido a la propiedad d) del producto escalar. En el ejemplo A se tiene: 9 9 % ∂ 21 ! ñ !

2 n

,

% ( 1, ...,

n)

à ⺢n.

En el ejemplo B se tiene que 9 9 % ∂( , ) % ∂( 1 ! 2)2 !

2 2

,

% ( 1,

2)

à ⺢2.

357

Sección 8.1. Espacios euclídeos. Longitudes, áreas y ortogonalidad

Para el ejemplo D de las funciones continuas reales definidas en el intervalo [a, b] se tiene 9 9% La longitud de un vector longitud de , ya que

à

JI

b

à ([a, b]).

[ (t)]2 t, a

multiplicado por un número real j coincide con 8j8 veces la

9j 9 % ∂(j , j ) % ∂j2( , ) % 8j8∂( , ) % 8j8 9 9. Todo vector de longitud 1 se dice nitario; todo vector no nulo de un espacio euclídeo puede normali ar e, es decir, hacerle unitario, multiplicándolo por 1/9 9. La bola ni a es el conjunto de todos los à tales que 9 9 m 1, mientras que la e era ni a es el conjunto de todos los à tales que 9 9 % 1. *

*

*

En todo espacio euclídeo se cumple la siguiente desigualdad: Proposición 8.1.2 (Desigualdad de c

arz)

En un espacio euclídeo , 8( , y)8 m 9 99y9 para todo , y à . Demostración. Por la propiedad d) del producto escalar se tiene (j . y, j . y) n 0 para todo número real j; de las propiedades a), b) y c) del producto escalar se deduce que j29 92 . 2j( , y) ! 9y92 n 0. La parte izquierda de esta ecuación es un polinomio cuadrático en j que no puede tener raíces reales distintas, y, por tanto, su discriminante ha de ser m0; por tanto: ( , y)2 . 9 92 9y92 m 0. Tomando raíces cuadradas se deduce 8( , y)8 m 9 99y9, que es el resultado que deseábamos 䊏 probar. En ⺢n con el producto escalar «usual» dado en el ejemplo A, la desigualdad de Schwarz se escribe de la forma

G

n

;

%1

G J

y m

n

;

%1

2

J

n

; y 2,

(1.3)

JI

(1.4)

%1

y en el espacio ([a, b]) es

GI

b

G JI

b

(t)g(t) t m a

a

[ (t)]2 t

b

[g(t)]2 t. a

358

Capítulo 8. Espacios euclídeos

La desigualdad (1.3) se atribuye al matemático francés Cauchy, mientras que (1.4) es atribuida al matemático ruso Buniakovski. * * * De la desigualdad de Cauchy-Schwarz se deduce .1 m

( , y) m 1, 88 88 88 y88

( , y) puede ser el coseno de un único ángulo a, 0 m a m n. Se dice que 88 88 88y88 este ángulo a % ⱔ ( , y) es el que forman los vectores no nulos , y à . Por tanto

por lo que el cociente

cos ⱔ ( , y) %

( , y) . 88 88 88y88

(1.5)

Finalmente introducimos el concepto de ortogonali a entre dos vectores de un espacio euclídeo: dos vectores , y à se dicen ortogonale si ( , y) % 0. En el espacio vectorial de los vectores en el plano con el producto escalar usual esta definición coincide con la idea intuitiva de perpendicularidad: es decir, los vectores forman un ángulo de 90o, ya que según (1.5) el coseno del ángulo que forman es nulo. EJEMPLO E.

Los vectores e1 % (1, 0, ..., 0), e2 % (0, 1, 0, ..., 0), ..., en % (0, 0, ..., 1)

son ortogonales dos a dos en el espacio euclídeo ⺢n con el producto escalar usual. EJEMPLO F.

En el espacio euclídeo ([.n, n]) los vectores del sistema trigonométrico 1, cos t, sen t, cos 2t, sen 2t, ..., cos nt, sen nt, ...

son ortogonales dos a dos; por ejemplo,

I

n

1 (cos nt sen mt) t % 2 .n

I

n

1 sen (n ! m)t t . 2 .n

I

n

.n

sen (n . m)t t % 0.

El resto se comprueba de manera similar. Una proposición simple, asociada con el concepto de ortogonalidad, es la siguiente: Lema 8.1.3 Si los vectores no nulos 1, 2, ..., n son ortogonales entre sí en un espacio euclídeo, también son linealmente independientes. Demostración. Supongamos que a1 1 ! a2 calar con 1 se tiene a1 ( 1 ,

1) ! a2( 1,

2 ! ñ ! an n % 0;

2 ) ! ñ ! an ( 1 ,

n) % ( 1,

hallando el producto es-

0) % 0

Sección 8.1. Espacios euclídeos. Longitudes, áreas y ortogonalidad

359

o equivalentemente a19 19 2 % 0, ya que los vectores son ortogonales entre sí; como 9 19 Ç 0 䊏 se tiene a1 % 0. De forma similar se deduce a2 % ñ % an % 0. *

*

*

Podemos ahora trasladar teoremas de la geometría elemental a este nuevo marco de la «geometría» en los espacios euclídeos. Comencemos con el teorema e it gora . Por analogía con los vectores en el plano podemos considerar ! y como la hipotenusa de un triángulo rectángulo determinado por los vectores ortogonales e y. Por la ortogonalidad de e y se tiene: 9 ! y92 % ( ! y, ! y) % 9 92 ! 2( , y) ! 9y92 % 9 92 ! 9y92 Esta igualdad representa el teorema de Pitágoras en los espacios euclídeos.

i

ra 8.3

Otra propiedad geométrica que puede demostrarse en los espacios euclídeos es la e ig al a triang lar, es decir, en todo triángulo la longitud de uno de sus lados es menor o igual que la suma de las longitudes de los otros dos. Para demostrar esto se utiliza la desigualdad de Schwarz (Proposición 8.1.2) para obtener 9 ! y92 % ( ! y, ! y) % 9 92 ! 2( , y) ! 9y92 m m 9 92 ! 29 99y9 ! 9y92 % (9 9 ! 9y9)2; por tanto: 9 ! y9 m 9 9 ! 9y9, que es el resultado deseado.

i

ra 8.4

EJERCICIOS 8.1 1. ¿Cuáles de las siguientes funciones ( , ): ⺢2 # ⺢2 哫 ⺢ definen un producto escalar?: a)

( , y) % 1y1 ! 2 2 y2 ! 2y1 2 . 3 1y2.

b)

( , y) % 1y1 .

c)

( , y) % 1y1 ! 2 1y2 ! 3y1 2 ! 7 2 y2.

2 y 2.

360

Capítulo 8. Espacios euclídeos

d)

( , y) % 1y1 ! 2 2 y2 ! 3 1y2 ! 3 2 y1.

e)

( , y) % 2 1y1 ! 3 2 y2 ! 2 1y2 ! 2 2 y1.

Justificar la respuesta. Encontrar la matriz, en la base canónica, de aquellas funciones que sean producto escalar. 2. Encontrar la expresión analítica del módulo de un vector y del coseno del ángulo de dos vectores en ⺢2 para aquellas de las funciones en el ejercicio 1 que sean producto escalar. 3. Encontrar el ángulo entre las aristas opuestas de un tetraedro regular. 4. Encontrar los cosenos de los ángulos entre la recta dos en ⺢n, con el producto escalar usual.

1% 2%ñ% n

y los ejes coordena-

5. En el espacio vectorial ᏹ 3#3(⺢) de las matrices reales de orden 3, demostrar que S , T % traza ( t) es un producto escalar. 6. Sea ( , ( , )) un espacio euclídeo. Demostrar: a)

2(9 92 ! 9v92) % 9 ! v92 ! 9 . v92, para todo , v à

b)

4( , v) % 9 ! v9 . 9 . v9 , para todo , v à

c)

2( , v) % 9 ! v92 . 9 92 . 9v92, para todo , v à .

2

7. Sea

2

un espacio vectorial. Una norma en i) 9 9 n 0, O

à

y 9 9%0

á

(ley del paralelogramo).

(polarización).

es una función 9 9:

r ⺢ que satisface:

% 0.

ii)

9j 9 % 8j89 9, O

iii)

9 ! v9 m 9 9 ! 9v9 (desigualdad triangular).

à , j à ⺢.

a)

Si es un espacio vectorial euclídeo con producto escalar ( , ) el módulo de un vector es una norma que satisface la ley del paralelogramo. Probar que si es un espacio vectorial con norma 9 9 que satisface la ley del paralelogramo, entonces existe un producto escalar ( , ) en tal que 9 9 % ( , )1/2. En consecuencia, la condición necesaria y suficiente para que una norma sea el módulo de un producto escalar es que satisfaga la ley del paralelogramo. [ geren ia: comenzar demostrando que ( 1 ! 2, v) % ( 1, v) ! ( 2, v).] (ver ejercicio 6).

b)

Sea 9 9 % 8 18 ! 8 28 definida en ⺢2. Demostrar que 9 9 es una norma en ⺢2, pero no es el módulo de ningún producto escalar en ⺢2.

8. Sea ( , ( , )) un espacio euclídeo y { 1, ..., Demostrar: a)

8(v, i)82 2 2 m 9v9 , para todo v à 9 9 i%1 i

b)

Si los { i} son una base ortogonal de

n}

un conjunto de vectores ortogonales de .

n

;

n

(v, ) % ; i%1

(v,

i)( i, 9 i92

)

(desigualdad de Bessel).

, para todo v,

à

(identidad de Parseval).

361

Sección 8.2. Bases ortonormales en un espacio euclídeo

9. Demostrar que la desigualdad de Schwarz es una igualdad si y solo si los vectores son proporcionales. 10. Demostrar la siguiente generalización del teorema de Pitágoras: 9 1! si los vectores

1,

2,

...,

2 ! ñ ! n9

2

n

à

% 9 192 ! 9 292 ! ñ ! 9 n92

son ortogonales dos a dos.

11. Si e y son dos vectores cualesquiera en un espacio euclídeo 9 . y9 n 89 9 . 9y98.

, demostrar que

8.2. BasesB 8.2. ortonormales ASES ORTONORMALES en un espacio euclídeo EN UN ESPACIO EUCLÍDEO

En un espacio euclídeo una base se dice ortogonal si sus elementos son ortogonales dos a dos; si, además, los elementos de una base ortogonal son de longitud 1, la base se llama orto normal. Ya hemos demostrado en el lema 8.1.3, que todo conjunto de vectores en un espacio euclídeo, ortogonales dos a dos, son linealmente independientes. Demostraremos a continuación que en todo espacio euclídeo de dimensión numerable existen bases ortogonales; en el proceso de la demostración daremos un procedimiento, denominado m to o e ortogonali a i n, que permite obtener una base ortogonal a partir de cualquier base del espacio vectorial. En la literatura matemática también se le llama m to o e Gram mi t. Teorema 8.2.1 ( étodo de ortogonalizaci n) Sea 1, 2, ..., , ... una sucesión finita o infinita numerable de vectores linealmente independientes en un espacio euclídeo y sea L % L( 1, ..., ) el espacio vectorial generado por los primeros vectores. Entonces, existe un conjunto de vectores y1, y2, ..., y ... tal que: a)

El espacio vectorial Lñ % L(y1, ..., y ) coincide con L para todo entero positivo .

b) El vector y

!1

es ortogonal a L para todo entero positivo .

Nota. Un vector y en un espacio euclídeo se dice ortogonal a n be a io ve torial L si es ortogonal a todos los vectores de L; si L está generado por los vectores 1, 2, ..., , basta probar que y es ortogonal a cada uno de los vectores , % 1, 2, ..., ; en efecto, si % ; a %1

se tiene que ( , y) %

A

Demostración. Tomando y1 % ortogonales:

; a

%1

1

B

, y % ; a ( , y) % 0.

e y2 %

0 % (y1, y2) % (y1,

%1

2 ! ay1,

elegimos a de manera que y1 e y2 sean

2 ! ay1) % (y1,

2) ! a(y1,

y1),

362

Capítulo 8. Espacios euclídeos

de donde se deduce que a %.

(y1, 2) . 9y192

El denominador de esta fracción es no nulo, puesto que y1 Ç 0; de la construcción realizada se deducen inmediatamente las propiedades a) y b) para % 2. Procedemos ahora por inducción; supongamos que hemos elegido y1, y2, ..., y , de manera que L % Lñ y son ortogonales dos a dos. Tomemos y

!1 %

!1 ! j1y1 ! j2y2 ! ñ ! j

y escojamos j1, j2, ..., j de modo que y 0 % (y

!1,

y )%(

!1

!1,

y

sea ortogonal a y1, y2, ..., y . Para ello tenemos

y ) ! j (y , y ),

% 1, 2, ..., ,

de donde deducimos que j %.

(

!1,

9y 9

y) 2

.

Como antes, el denominador de esta fracción es no nulo y Lñ !1 % L

!1.



Observación. Observa que la matriz del cambio de base en la demostración anterior es triangular superior con unos en la diagonal. Teorema 8.2.2 En todo espacio euclídeo

de dimensión finita existen bases ortonormales.

Demostración. Sea { 1, 2, ..., n} una base cualquiera de ; tomamos {y1, y2, ..., yn} como en el método de ortogonalización del Teorema 8.2.1; esta nueva colección genera todo el espacio vectorial debido a a) y son ortogonales dos a dos debido a b). Para encontrar una base orto䊏 normal tomar e % y /9y 9, % 1, ..., n. EJEMPLO A. Los vectores 1 % (0, 1, .1), 2 % (1, .2, 0) y 3 % (2, 1, 1) forman una base de ⺢3. Queremos hallar una base ortonormal siguiendo el procedimiento de Gram-Schmidt, considerando en ⺢3 el producto escalar usual. Tomamos y1 %

1 % (0,

1, .1).

Elegimos y2 % 2 ! ay1 y calculamos a para que y1 e y2 sean ortogonales. Como en la demostración del Teorema 8.2.1 esto requiere tomar a %.

.2 (y1, 2) % 1. 2 %. 88y1 88 2

Tenemos y2 % (1, .2, 0) ! (0, 1, .1) % (1, .1, .1).

Sección 8.2. Bases ortonormales en un espacio euclídeo

Para hallar el tercer vector y3 elegimos y3 % y1 y a y2 . Esto requiere tomar j1 %.

3 ! j1 y 1 ! j2 y 2

( 3, y 1) % 0, 88y1 88 2

j3 %.

363

de manera que y3 sea ortogonal a

( 3, y 2 ) % 0. 88y2 88 2

Por tanto, y3 %

3 % (2,

1, 1).

La base ortonormal es 1

e1 %

∂2

(0, 1, .1)

,

e2 %

1 ∂3

(1, .1, .1) ,

e3 %

1 ∂6

(2, 1, 1).

EJEMPLO B. Encontremos una base ortogonal en el espacio (3) ⺢ ([.1, 1]) de los polinomios de grado menor o igual que 3 en el intervalo [.1, 1] con el producto escalar del ejemplo D de la sección 8.1. Tomemos como base inicial 1 % 1, 2 % t, 3 % t2, 4 % t3. Elegimos y1 % 1 % 1, y2 % t ! a · 1 y calculamos a para que (y1, y2) % 0:

I

0 % (y1, y2) % (1, t ! a) % (1, t) ! (1, a) %

1

.1

t t!a

I

1

.1

t % 0 ! 2a;

por tanto, y2 % t. Tomamos y3 % t 2 ! j1 · 1 ! j2t: 0 % (y1, y3) %

I

1

.1

0 % (y2, y3) %

I

t 2 t ! j1

I

t

.1

t ! j2

.1

1 3

1

t ! j1

I

I

1

.1

1

t t ! j2

.1

2 t t % ! 2j1 3

I

1

.1

t 2 t % j2

2 3

ú

1 j1 %. ; 3

ú

j2 % 0;

por tanto: 1 y3 % t 2 . . 3

A B

Tomamos y4 % t 3 ! j1 · 1 ! j2 t ! j3 t 2 .

0 % (y1, y4) %

I

0%(y2, y4)%

I

1

t

.1

3

t ! j1

1

.1

t 4 t!j1

I

I

1

.1

t ! j2

1

.1

t t!j2

I

I

1 : 3

1

.1

t t ! j3

1

.1

I A B 1

.1

t2 .

I A B 1

t 2 t!j3

.1

1 3

t t 2.

1 3

t % 2j1

ú

j1 % 0;

2 2 t% ! j2 5 3

ú

3 j2%. ; 5

364

Capítulo 8. Espacios euclídeos

finalmente, 0 % (y3, y4) % (y3, t 3) ! j1(y3, 1) ! j2(y3, t) ! j3(y3, y3) %

I A B 1

%

.1

t2 .

1 3 t t ! 0 ! 0 ! j3 3

I A B 1

t2 .

.1

1 3

2

t % 0 ! j39y392 ú

j3 % 0;

por tanto, 3 y4 % t 3 . t; 5 Resumiendo,

E

F

1 3 y1 % 1, y2 % t, y3 % t 2 . , y4 % t 3 . t 3 5

es una base ortogonal de este espacio con el producto escalar considerado. Observar que la matriz del cambio de base de { 1, 2, 3, 4} a {y1, y2, y3, y4} es

A

1 0 0 0

B

.1/3 0 1 0

0 1 0 0

0 .3/5 , 0 1

que es triangular superior con unos en la diagonal. *

*

*

Sea {e1, e2, ..., en} una base ortonormal en un espacio euclídeo . Puesto que (ei, e ) % di , con i, % 1, 2, ..., n, donde hemos usado la notación de Kro¨necker introducida en el Capítulo 5, la matriz del producto escalar en esta base es

A B 1 0 ó 0

n

Por tanto, si % ; i%1

0 1 ó 0

ñ ñ ñ

0 0 % . ó 1

n i ei

à

e y% ; y e à

se tiene que

%1

( , y) % 1y1 !

2 y 2 ! ñ ! n yn ,

(2.1)

que nos da una forma sencilla de expresar en coordenadas el producto escalar de un espacio euclídeo, cuando en él se ha elegido una base ortonormal. Recíprocamente, si un producto escalar tiene una expresión como en (2.1) en una cierta base, esta base es ortonormal; basta observar que de (2.1) se deduce que (ei, e ) % 0 si i Ç y (ei, ei) % 1 · 1 % 1, i, % 1, 2, ..., n.

Sección 8.2. Bases ortonormales en un espacio euclídeo

365

EJERCICIOS 8.2 1. Sean 1 % (.2, .1, 1), 2 % (0, .1, 0) y 3 % (1, .1, 0) tres vectores linealmente independientes de ⺢3. Definimos un producto escalar en ⺢3 afirmando que { 1, 2, 3} es una base ortonormal. Encontrar la expresión analítica de este producto escalar en la base canónica de ⺢3. 2. Dados 1 % (1, 0, 0), 2 % (4, .2, 0) y 3 % (1, 1, 5) en ⺢3, construir los vectores y1, y2 e y3 del teorema de ortogonalización. (⺢3 tiene el producto escalar usual.) 3. Sean 1 % (1, 2, 0, 0), 2 % (1, 0, 0, 2) y 3 % (1, .1, .1, 2) tres vectores de ⺢4. Sea % L( 1, 2, 3) el subespacio engendrado por 1, 2, 3. a)

Encontrar una base ortonormal {v1, v2, v3} de ción (⺢4 tiene el producto escalar usual).

b)

Extender la base encontrada en a) a una base ortonormal de ⺢4.

usando el método de ortonormaliza-

4. Utilizar el método del teorema de ortogonalización para construir una base ortogonal en el subespacio tridimensional de ⺢4 generado por los vectores 1%(1, 2, 1, 3), 2 % (4, 1, 1, 1) y 3 % (3, 1, 1, 0), considerando en ⺢4 el producto escalar usual. 5. Sea ( , y) % 1y1 ! ( 1 ! 2)(y1 ! y2) ! ( 1 ! 2 ! 3)(y1 ! y2 ! y3) un producto escalar en ⺢3. Encontrar una base ortogonal de Ñ ⺢ para: a)

% { à ⺢3 :

1 % 2 % 3}

b)

%{ à ⺢ :

1 ! 2 2 ! 3 3 % 0}.

3

6. En ⺢5 con el producto escalar usual, ortonormalizar los vectores 2 % (0, 1, 0, 1, 0) y 3 % (0, 0, 1, 0, 1).

1 % (1,

0, 1, 0, 0),

7. Sean % (1, 2, 3, 4), v % (0, 3, .2, 1) y % (1, 1, 0, 0) vectores de ⺢4. Encontrar todos los vectores de la forma ! a ! bv, a, b à ⺢ que son ortogonales a y v simultáneamente. (En ⺢4 se considera el producto escalar usual). 8. Sean a % (1, 2, 0, .1, 0), b % (0, 1, .1, 1, 0) y % (0, 0, 1, 2, .1) à ⺢5. Descomponer en dos vectores, uno de ellos combinación lineal de a y b y el otro ortogonal al anterior. (En ⺢5 se considera el producto escalar usual). 9. Sea un espacio euclídeo. Demostrar que 9 9 % 9v9.

!v y

. v son ortogonales si y solo si

10. Encontrar una base ortonormal para cada uno de los subespacios siguientes: a)

{( , y, ) à ⺢3 : ! y . % 0} (⺢3 tiene el producto escalar usual).

b)

E

( )à

dado por

(3) ⺢ [.1,

I

1] :

( )

1

( ) ( )

F

% ( ) (en

(3) ⺢ [.1,

1] se considera el producto escalar

).

.1

c)

{ à ᏹ 3#3(⺢) : traza ( ) % 0} (en ᏹ 3#3(⺢) se considera el producto escalar dado en el problema 5 de la sección 8.1).

366

Capítulo 8. Espacios euclídeos

11. Demostrar que si ( , ) % se es ortonormal.

2 2 2 1! 2!ñ! n

en una base de un espacio euclídeo, esta ba-

1 3 12. Los polinomios y1 % 1, y2 % t, y3 % t2 . , y4 % t 3 . t encontrados en el ejemplo A de 3 5 la sección 8.3, reciben el nombre de polinomios de Legendre, porque fue este matemático francés quien los introdujo en 1785. Demostrar que los polinomios yn(t) coinciden, salvo constantes, con los polinomios dados por la fórmula n n(t) %

[(t 2 . 1)n], n % 0, 1, 2, 3.

tn

Esta fórmula fue encontrada en 1814 por el matemático francés Olinde Rodrigues. 13. En el espacio vectorial trar que ( , g) %

I

ä

((.ä, ä)) de las funciones continuas en la recta real, demos( )g( )e.



gonalización a las funciones 1, , ota.

2

es un producto escalar y aplicar el método de orto2

.

Es necesario saber que

I

ä .ä

e.

2

% ∂n.

8.3. Complemento 8.3. COMPLEMENTO ortogonal. Proyecciones ORTOGONAL. PROYECCIONES

Definición 8.3.1 Dos subespacios 1 y si todos los vectores de

2

de un espacio euclídeo se dicen ortogonales, y se escribe 2. 1 son ortogonales a todos los vectores de



2,

En ⺢3 con el producto escalar usual, un plano y una recta perpendicular a él, que pasen por el origen, son subespacios ortogonales (figura 8.5); sin embargo, dos planos que son perpendiculares en el sentido de la geometría de ⺢3 no son ortogonales, ya que los vectores 1, 2 de la figura 8.6 no son ortogonales.

i

ra 8.5

i

ra 8.6

Sección 8.3. Complemento ortogonal. Proyecciones

367

Se tienen las siguientes ro ie a e de los subespacios ortogonales. i y olo i to o lo ve tore 1) 1 y 2 on ortogonale nale a a a no e lo ve tore e na ba e e 2. yà

e na ba e e

En efecto, si { 1, ..., } es una base de 1 y {v1, ..., v } es una base de , y % y1v1 ! ñ ! y v ; por tanto, 2 podemos escribir % 1 1 ! ñ ! ( , y) % ; ;

i y l ( i,

on ortogo

1

2

à

y si

1,

vl) % 0

i%1 l%1

ya que ( i, vl) % 0 para todo i % 1, ..., , l % 1, ..., . El recíproco es obvio. 2)

i



2

e tiene



e

2 % {0}.

Para demostrar esta afirmación suponer que à 2 se tiene que ( , ) % 0, y por tanto % 0.



Dado un subespacio vectorial ü



2;

de un espacio euclídeo

% {y à

: y ü para todo

entonces

à

1

y

à

2;

como

el conjunto à

}

es un subespacio vectorial de , que recibe el nombre de om lemento ortogonal e . Para demostrar que ü es un subespacio vectorial de basta observar que si à , y1, y2 à ü y a, b à ⺢, (ay1 ! by2, ) % a(y1, ) ! b(y2, ) % 0 y, por tanto, ay1 ! by2 à

ü

.

EJEMPLO A. En ⺢3, con el producto escalar usual, queremos encontrar el complemento ortogonal de % {( 1, 2, 3) à ⺢3 : 1 % 2}. Una base de es 1 % (1, 1, 0), 2 % (0, 0, 1); un elemento y pertenece a ü si y solo si y es perpendicular a 1 y a 2. Si tomamos y % y1e1 ! y2e2 ! y3e3 se tiene que 0 % (y,

1) % (y1e1 ! y2 e2 ! y3e3,

e1 ! e2) % y1 ! y2

0 % (y,

2) % (y1e1 ! y2 e2 ! y3 e3,

e3) % y3.

Este sistema es un sistema homogéneo con tres incógnitas, cuya matriz de los coeficientes tiene rango 2; por tanto, determina un subespacio de ⺢3 de dimensión 1; este subespacio tiene por ecuaciones y3 % 0, y1 %.y2 y, por tanto, está generado por el vector v % (.1, 1, 0). Así pues, ü

% L{(.1, 1, 0)}.

EJEMPLO B. En ⺢2, con el producto escalar dado en el ejemplo B de la sección 8.1 queremos hallar el complemento ortogonal de la recta r: 1 % 2. Puesto que r está generada por % (1, 1), tenemos que y % (y1, y2) à rü si y solo si 0 % (y, ) % (y1, y2)

A BA B 1 1

1 2

AB

1 1 % (y1 ! y2, y1 ! 2y2) % 2y1 ! 3y2 . 1 1

Por tanto, rü es una recta de ecuación 2y1 %.3y2, es decir, generada por v % (3, .2).

368

Capítulo 8. Espacios euclídeos

i

ra 8.7

En este ejemplo se observa que el complemento ortogonal de un subespacio vectorial depende en gran medida del producto escalar utilizado. Observar que en este ejemplo los subespacios r y rü no son perpendiculares en el sentido de la geometría clásica estudiada en el Capítulo 7. * * * El procedimiento seguido en los dos ejemplos anteriores para encontrar el complemento ortogonal de un subespacio vectorial se generaliza a continuación. Sea un espacio euclídeo con base % { 1, 2, ..., n} y sea un subespacio vectorial de generado por los r vectores linealmente independientes n

n

v1 % ; a1 %1

Los elementos

à

ü

...,

vr % ; ar

.

%1

quedan caracterizados por las relaciones: (v2, ) % 0,

(vr , ) % 0,

...,

es perpendicular a todos los elementos de

ya que esto es suficiente para demostrar que n

i i,

,

%1

(v1, ) % 0,

Si % ;

n

v2 % ; a2

,

.

las igualdades anteriores se transforman en

i%1

0% 0% ó 0%

A A A

n

; a1

%1 n

; a2

%1

n

; ar

%1

n

, ;

i i

i%1 n

, ; i%1

i i

n

, ; i%1

i i

B B

B

n

%; i%1 n

%; i%1

ó n

%; i%1

C C C

D D

n

; a1 ( ,

%1

i)

i

i)

i

n

; a2 ( ,

%1

n

; ar ( ,

%1

que es un sistema homogéneo de r ecuaciones con n incógnitas este sistema forman el subespacio ortogonal a .

i)

1,

D 2,

i

F

...,

n.

Las soluciones de

Sección 8.3. Complemento ortogonal. Proyecciones

Si la base

369

es ortonormal el sistema anterior se transforma en a11 1 ! a12 a21 1 ! a22

2 ! ñ ! a1n n % 0

ar1 1 ! ar2

2 ! ñ ! ar n n % 0

2 ! ñ ! a2n n % 0

F

.

(3.1)

Proposición 8.3.2 Sea un subespacio vectorial de un espacio euclídeo de dimensión finita. Entonces es suma directa de y su complemento ortogonal ü. Demostración. Si à ç ü se tiene que à y à ü; por tanto, ( , ) % 0, de donde deducimos que % 0. Así se comprueba que ç ü % {0}. y Falta probar que ! ü % . Para ello sea % {e1, ..., er} una base ortogonal de completémosla hasta obtener una base ortogonal {e1, ..., er , er!1, ..., en} de ; si à podemos escribir n

r

%; i%1

Claramente

à

. Además, y à

i ei % ü

n

i ei !

; i%1

; i%r!1

i ei %

ya que para todo % 1, ..., r

A

n

(e , y) % e , ; i%r!1

B

i ei

% 0, 䊏

con lo cual se tiene el resultado deseado. Observación. dim ( ) ! dim (

! y.

De esta proposición y de la Proposición 4.4.2 se deduce que ) % dim ( ), siempre que tenga dimensión finita. En consecuencia

ü

dim (

ü

) % dim ( ) . dim ( ). *

*

*

Sea un subespacio vectorial de un espacio euclídeo . Puesto que % S ü, de la caracterización de suma directa (ver Proposición 4.4.4) se deduce que todo à posee una descomposición ni a de la forma % y ! con y à , à ü. El vector y recibe el nombre de roye i n ortogonal de sobre y se escribe y % ( ) z ( ), mientras que es la proyec( ) z ( ). ción ortogonal de sobre ü y se escribe %

i

ra 8.8

370

Capítulo 8. Espacios euclídeos

El ng lo e orma n ve tor à on n be a io ve torial se define como el ángulo que forma con su proyección ortogonal sobre , ( ); por tanto, cos ⱔ ( ,

) % cos ⱔ ( , ( )) %

( , ( )) (y ! , y) 9y92 9 ( )9 % % % . 9 99 ( )9 9 9 9y9 9 9 9 99y9

En las aplicaciones es conveniente conocer cómo se resuelve el problema de encontrar la que tiene { 1, ..., r} como base (no proyección ( ) de un vector sobre un subespacio necesariamente ortogonal). La solución de este problema se encuentra de la siguiente manera: como ( ) à hemos de tener ( ) % j1

1 ! ñ ! jr r ;

además, ( ) à ü y, por tanto, ( ( ), ) % 0 para todo % 1, 2, ..., r. Como % ( ) ! ( ) se tiene que ( ) % . ( ) y, por tanto, ( . ( ), ) % 0 para todo % 1, ..., r, es decir, 1) . j1( 1,

( , ó ( ,

ó r)

. j1 ( 1 ,

1 ) . ñ . jr ( r ,

1) % 0

ó

F

ó , r) . ñ . jr ( r , r) % 0

(3.2)

que es un sistema de r ecuaciones con r incógnitas j1, ..., jr ; puesto que la proyección ( ) de un vector à es única, este sistema debe tener una única solución; por tanto, su determinante

G

( 1, ó r% ( 1,

1)

ñ

r)

ñ

( r, ó ( r,

1)

r)

G

debe de ser no nulo y las soluciones vienen dadas por

de acuerdo con la regla de Cramer (Teorema 2.4.3). EJEMPLO C. Tratemos de encontrar generado por los vectores 0(t) % 1, mios de grado menor o igual que tres sección 8.1. Sea % L(1, t); como cos ⱔ (t 2, tenemos que

el ángulo que forma el vector (t) % t 2 con el plano (3) 1(t) % t en el espacio ⺢ ([.1, 1]) de los polinocon el producto escalar dado en el ejemplo D de la ) % cos ⱔ (t 2,

(t 2) % j1 · 1 ! j2 t,

(t 2)) comenzamos calculando

(t 2);

Sección 8.3. Complemento ortogonal. Proyecciones

de manera que t 2 . (t 2) es perpendicular a

I I

0 % (1, t 2 . (t 2)) %

; por tanto,

1

.1

I I

t2 t .

1

0 % (t, t 2 . (t 2)) %

1

j1 t .

.1 1

.1

371

t3 t .

.1

j1 t t .

I I

1

2 j2 t t % . 2j1 3 .1 1

2 j2 t 2 t %. j2 3 .1

de donde se deduce que (t 2) % 1/3. Una vez calculada la proyección se tiene que cos ⱔ (t 2,

) % cos ⱔ (t 2, 1/3) % *

*

91/39 ∂2/3 ∂5 % . 2 % 3 9t 9 ∂2/∂5

*

EJEMPLO D. Consideremos el plano ñ de ⺢3 dado por la ecuación 1 . 3 ! 1 % 0. Observa que ñ es paralelo al plano de ecuación 1 . 3 % 0 y pasa por el punto (0, 1, 1). Sea % ! , y tal que a % (0, 1, 1). Dado % (2, 1, 2) queremos hallar , de manera que sea perpendicular a (ver figura 8.9) e à ñ.

i

Pongamos %

e y%

ra 8.9

. Si restamos a de la igualdad % y ! se tiene . a % (y . a) !

donde y . a à y à ü. Por tanto, coincide con la proyección ( . a) de . a sobre ü . Hallamos primero ( . a); como está generado por e1 % (1, 0, 1) y e2 % (0, 1, 0) se tiene que ( . a) % j1e1 ! j2 e2; además: 0 % (e1, ( . a) . ( . a)) % (2 ! 0 ! 1) . j12

ú

0 % (e2, ( . a) . ( . a)) % 0 . j2 · 1 ú j2 % 0.

j1 % 3/2

372

Capítulo 8. Espacios euclídeos

3 Por tanto, ( . a) % e1, con lo cual 2 % ( . a) % . a . ( . a) % (2, 0, 1) . Ahora es sencillo calcular y puesto que y % . % (2, 1, 2) .

A

*

A

B A

B

3 1 3 1 , 0, % , 0, . . 2 2 2 2

B A

B

1 3 1 5 , 0, . % , 1, . 2 2 2 2

*

*

Observar que el ejemplo D podía haberse realizado siguiendo los procedimientos de geometría clásica en el espacio estudiados en el Capítulo 7. La definición axiomática de espacio euclídeo nos da entonces otro procedimiento para resolver el problema de las proyecciones. Lema 8.3.3 Sea un subespacio vectorial de un espacio euclídeo y à , se tiene que 9 9 n 9 ( )9

y sea

à . Si % y ! con

Demostración. Basta aplicar el teorema de Pitágoras de la siguiente manera: 9 92 % 9 . y92 % 9 ( ) ! ( ) . y92 % 9 ( ) . y ! ( )92 % % 9 ( ) . y92 ! 9 ( )92 n 9 ( )92 donde la última igualdad se debe a que ( ) . y à

y

( )à



ü

.

El Lema 8.3.3 demuestra que si % ( ) ! ( ) con ( ) à , y ( ) à ü, ( ) es la mejor aproximación a de . Para calcular ( ) puede procederse de la manera que se explica r

a continuación. Tomando una base ortogonal {v1, ..., vr} de Como ( ) es perpendicular a v ,

podemos escribir ( )% ; ji vi . i%1

( , v ) % ( ( ) ! ( ), v ) % ( ( ), v ) % j 9v 92 y, por tanto, los coeficientes de ( ) se calculan con la fórmula j% que se llaman om onente

( , v) , 9v 92

% 1, 2, ..., r,

en la ire i n de v , % 1, ..., r.

e

Observación. Observar que en el método de ortogonalización de Gram-Schmidt dado en el Teorema 8.2.1 el vector y !1 se construye restando a !1 su proyección ortogonal sobre el subespacio L % L(y1, ..., y ) % L( 1, ..., ). EJEMPLO E. Tratemos de encontrar la función de la forma a1 ! a2 sen ! a3 cos ! ! a4 sen 2 ! a5 cos 2 que mejor aproxime a la función ( )%

E

.1 si .n m a 0 1 si 0m mn

à [.n, n]

Sección 8.3. Complemento ortogonal. Proyecciones

373

según el producto escalar dado en el ejemplo D de la sección 8.1. La mejor aproximación es aquella en que los a son las componentes de en la dirección de 1, sen , cos , sen 2 y cos 2 . En este caso las componentes a reciben el nombre de oe i iente e o rier de . Como ( , 1) %

I

n

%

( ) .n

I

0

.n

.1

!

I

n

1

%.n ! n % 0

0

el primer coeficiente a1 es nulo. Como 9sen 92 % el segundo coeficiente es: a2 % %

1 1 ( , sen ) % n n 4 1 [2 ! 2] % . n n

I

I

sen2

%

I

( ) sen

%

1 n

n

.n

n

.n

1 . cos 2 2 .n n

CI

%n

0 .n

.sen

!

I

n

sen 0

D

%

De manera similar el lector puede calcular el resto de los coeficientes, que serán todos nulos. Por tanto, la mejor aproximación a en el espacio generado por {1, sen , cos , sen 2 , 4 cos 2 } es sen . n 4 En la figura 8.10 se dibujan la función y su aproximación sen . n

i

ra 8.10

Añadiendo funciones trigonométricas pueden lograrse mejores «aproximaciones» de esta función. Con una cantidad infinita de funciones trigonométricas se consigue la aproximación ( )V

1 4 ä ; sen ((2n ! 1) ). n n%0 2n ! 1

374

Capítulo 8. Espacios euclídeos

Pueden dibujarse algunas de las primeras sumas parciales de esta serie para comprobar que cada vez se aproximan más a la función . En la figura siguiente se dibuja 4 4 4 sen ! sen 3 ! sen 5 n 3n 5n que consta de los tres primeros sumandos de la serie anterior.

i

ra 8.11

n Poniendo % se obtiene la aproximación 2 n 1 1 1 1 1 V1. ! . ! . !ñ 4 3 5 7 9 11 en la que los denominadores son todos los números impares. EJEMPLO F. El Lema 8.3.3 se utilizará en este ejemplo. Dada una función (t) definida en el intervalo [a, b], y t1, t2, ..., tn à [a, b], se trata de encontrar un polinomio (t) de grado a n y tal que la e via i n a r ti a me ia de la función , definida por n

p( ; )2 % ; [ (t ) . (t )]2, %1

sea mínima. Si en el espacio vectorial de todas las funciones definidas en [a, b] consideramos n

( , g) % ;

(t )g(t ),

%1

e tiene n e a io e lí eo e imen i n n. En este espacio euclídeo el problema planteado se reduce a encontrar la proyección ( ) de sobre el subespacio de todos los polinomios de grado no superior a , ya que entonces 9 ( )92 % p( , ( ))2 es mínimo, de acuerdo con el Lema 8.3.3. Este problema ya sabemos resolverlo: se tendría ( ) % j0 ! j1 t ! ñ ! j t donde los j son soluciones de un sistema semejante a (3.2). Realizamos un ejemplo sencillo para ilustrar las afirmaciones anteriores. Supongamos que queremos encontrar un polinomio de grado 2 de manera que la desviación cuadrática media de la función (t) % cos nt en los puntos t1 % 0, t2 % 1, t3 % 2 sea mínima para este polinomio en el intervalo [0, 2].

Sección 8.3. Complemento ortogonal. Proyecciones

El polinomio que da el mínimo, ( ), será de la forma ( ) % j0 ! j1t ! j2 t 2 de manera que ( , 1) . j0(1, 1) . j1(t, 1) . j2(t 2, 1) % 0

F

( , t) . j0(1, t) . j1(t, t) . j2(t 2, t) % 0 . ( , t 2) . j0(1, t 2) . j1(t, t 2) . j2(t 2, t 2) % 0 Utilizando el producto escalar anteriormente definido obtenemos

F

1 . j03 . j13 . j2 5 % 0 1 . j03 . j15 . j2 9 % 0 . 3 . j05 . j19 . j2 17 % 0 Puesto que

tenemos:

G

3 3 5

3 5 9

GG

5 3 9 % 0 17 2

3 2 6

G

5 2 4 %3 6 12

G

G G G G G G G G G G G G

G G G

4 3 !2 12 2

5 % 4, 4

1 1 j0 % 1 4 3

3 5 9

5 1 1 9 % 0 4 17 2

3 2 6

5 1 4 % · 2[12 . 10] % 1 4 12

3 1 j1 % 3 4 5

1 1 3

5 3 1 9 % 0 4 17 5

1 0 3

5 .1 · 4 · 4 %.4 4 % 4 17

3 1 3 4 5

3 5 9

1 3 1 1 % 0 4 3 5

j2 %

3 2 9

1 1 0 % · 2 · 4 % 2. 4 3

Por tanto, ( ) % 1 . 4t ! 2t2, que ha sido dibujado con trazo fino en la figura 8.12.

i

ra 8.12

375

376

Capítulo 8. Espacios euclídeos

EJERCICIOS 8.3 1. Encontrar el complemento ortogonal del subespacio

de

cuando:

a)

%⺢ ,

% L( , v) con % (1, 0, 1), v % (2, .1, 1).

b)

%⺢ ,

% { à ⺢4 :

3

4

1 ! 2 ! 3 ! 4 % 0,

2 1.

2 % 0}.

En ambos espacios se considera el producto escalar usual. 2. Sea

como en 1.b) y

(3, 2) % { à ⺢4 :

1 ! 2 ! 3 ! 4 % 3,

2 1.

2 % 2}.

a)

Encontrar la expresión analítica, en la base canónica de ⺢ , de la proyección ortogonal sobre .

b)

Similarmente sobre

4

(3, 2).

3. Sea un espacio euclídeo, Demostrar: a)

ü

b)

üü

c)

Ñ

d) e)

( (

%{ à

y

subconjuntos de

y

y

subespacios vectoriales de .

: ( , v) % 0, para todo v à } es un subespacio vectorial de :

ü ü

z(

) % L( ), es decir, el subespacio engendrado por .

ú

ü

ü

ü

! ) % ü

ç ) %

ü

Ñ

ü

ç

ü

!

.

.

ü

.

4. En ⺢4 descomponer % (5, 2, .2, 2) en una suma de dos vectores, % g ! , con g perteneciente al subespacio vectorial generado por b1 % (2, 1, 1, .1) y b2 % (1, 1, 3, 0) y ortogonal a este subespacio, considerando el producto escalar usual de ⺢4. 5. Encontrar el complemento ortogonal de cada uno de los subespacios del ejercicio 10 de la sección 8.2. Además: a)

En ᏹ 3 # 3(⺢) con el producto escalar S , T % traza ( t), hallar el complemento ortogonal del subespacio de las matrices diagonales de ᏹ 3 # 3(⺢).

b)

Dada % ( i ) à ᏹ 3 # 3(⺢), determinar la proyección ortogonal ( ) sobre el subespacio de las matrices diagonales y calcular 9 . ( )9.

6. En ⺢4 con el producto escalar usual determinar las ecuaciones de la proyección ortogonal sobre el subespacio generado por (1, 1, .1, 0) y (0, 0, 2, 1). 7. Sea un espacio euclídeo y un subespacio vectorial de . Demostrar que ( ( ), y) % (y)) para todo , y à , donde es la proyección ortogonal sobre . %( , 8. Sea un espacio euclídeo; dual de (ver sección 5.5).

% L( , ⺢) % { : r ⺢ :

lineal} se denomina el espacio

l teorema e re re enta i n e ie afirma que para cada à existe un único à tal que (v) % ( , v), para todo v à . La aplicación que a cada à le asocia à es biyectiva y satisface !g % ! g y j % j (luego es lineal). Sea

% ⺢3 y

à

definido por (e1) % 2, (e2) % 1, (e3) %.1. Encontrar

.

Sección 8.4. Adjunta de una aplicación. Aplicaciones autoadjuntas

Ñ

9. Sea un espacio euclídeo, bre . Demostrar que:

un subespacio,

r

:

para todo à , 9 . ( )9 m 9 . 9, para todo que mejor se aproxima a ).

à

la proyección ortogonal so-

(esto es, ( ) es el vector de %

10. En lo que sigue se supone: a) no se conoce la descomposición cada à existe al menos un à tal que 9 . 9 m 9 . 9, a)

Probar que para cada

existe un único à

O

à

ü

y b) para

.

(*)

à

satisfaciendo (*). Probar

Probar que 2 % y à L( ) (aplicaciones lineales de proyección. Además, Img % .

en ) y, por tanto, es una

ota: observar que 11. Si

S

satisfaciendo (*).

b) Sea : r la aplicación tal que ( ) es el único que ( . ( ), ) % 0, para todo à . c)

377

%

es la proyección ortogonal sobre

.

es un subespacio vectorial de un espacio euclídeo , demostrar que (

ü ü

) % .

8.4. Adjunta 8.4. ADJUNTA de una aplicación. DE Aplicaciones UNA APLICACIÓN. autoadjuntas APLICACIONES AUTOADJUNTAS

Definición 8.4.1 Sea un espacio euclídeo y una aplicación lineal de en , es decir, ción ñ à L( ) se dice que es ad unta de si para todo , y à se tiene

à L( ); una aplica-

( ( ), y) % ( , ñ(y)).

La definición anterior plantea dos preguntas inmediatas: 1. 2.

¿Existe siempre una aplicación adjunta de una dada? Si existe una aplicación adjunta de , ¿es única?

Comenzaremos contestando a la segunda pregunta de manera afirmativa; para probar que la adjunta de es única supongamos que existen aplicaciones lineales y tales que ( ( ), y) % ( , (y)), ( ( ), y) % ( , (y)); entonces tenemos ( , (y)) % ( , (y)), o equivalentemente ( , (y) . (y)) % 0 para todo , y à ; tomando % ( . )(y) se tiene (( . )(y), ( . )(y)) % 0; y por las propiedades del producto escalar se tiene ( . )(y) % 0 prueba que y coinciden.

ú

(y) % (y), lo cual

378

Capítulo 8. Espacios euclídeos

En el razonamiento anterior se ha obtenido el siguiente resultado, que merece la pena destacar para su uso futuro: Lema 8.4.2 Si ,

à L( ) y son tales que ( , (y)) % ( , (y)) para todo , y à , se tiene

% .

La pregunta primera tiene también una respuesta afirmativa si dim ( ) % n a ä. Para demostrarlo, sea {e1, ..., en} una base ortonormal de y % (ai )i, %1, 2,...,n la matriz de en esta base; sea t la traspuesta de la matriz y sea ñ la aplicación lineal de matriz t en esta misma base; demostraremos que ñ es la aplicación adjunta de . Tenemos que ( (ei), e ) % (a1i e1 ! ñ ! ani en, e ) % a

i

y (ei, ñ(e )) % (ei, a 1e1 ! ñ ! a ne) % a i, con lo cual tenemos ( (ei), e ) % (ei, ñ(e )) para todo i, % 1, 2, ..., n. Como todo vector de es combinación lineal de los vectores de la base, de la igualdad que acabamos de probar se deduce que ñ es la adjunta de ; en efecto, si n

%;

n

y% ; y e

i ei ,

%1

i%1

tenemos que n

n

n

( ( ), y) % ; ;

i%1 %1

n

i y ( (ei), e ) % ; ;

i%1 %1

iy

(ei, ñ(e )) % ( , ñ(y)),

lo cual prueba el resultado deseado. Hemos demostrado el siguiente resultado: Proposición 8.4.3 Para toda aplicación lineal à L( ), donde es un espacio euclídeo de dimensión finita, existe una única aplicación adjunta ñ de , cuya matriz en una base ortonormal es la traspuesta de la matriz de . *

*

*

A continuación damos algunas propiedades de la aplicación adjunta de una dada. ñ % , donde denota la aplicación identidad (basta observar que ( ( ), y) % ( , y) % % ( , (y)) para todo , y à ). b) ( ñ)ñ % , ya que a)

( ( ), y) % ( , ñ(y)) % ( ñ(y), ) % (y, ( ñ)ñ( )) % (( ñ))ñ( ), y) para todo , y à .

Sección 8.4. Adjunta de una aplicación. Aplicaciones autoadjuntas

c)

379

( ! )ñ % ñ ! ñ, ya que ( , ( ! )ñ(y)) % (( ! )( ), y) % ( ( ), y) ! ( ( ), y) % ( , ñ(y)) ! ( , ñ(y)) % % ( , ( ñ ! ñ)(y))

para todo , y à . d) ( o )ñ % ñ o ñ, ya que ( ,( e)

o

)ñ(y)) % (

o

( ), y) % ( ( ), ñ(y)) % ( , ñ o ñ(y))

para todo , y à . Si posee inversa, se tiene ( .1)ñ % ( ñ).1. Como o .1 % se deduce de d) y a) que ( .1)ñ o ñ % ( prueba que la inversa de la adjunta es la adjunta de la inversa.

o

.1

)ñ % ñ % , lo cual

Nota. Las propiedades anteriores tienen su traducción para matrices traspuestas; por ejemplo, d) se escribe como ( )t % t t. *

*

*

Definición 8.4.4 Sea un espacio euclídeo y à L( ); la aplicación se dice autoad unta si su adjunta coincide con , esto es, ñ % . De forma equivalente, para todo , y à .

ñ

( ( ), y) % ( , (y))

Si es la matriz de una aplicación à L( ) en una base ortonormal, sabemos que t es la matriz de ñ en esta misma base; si es autoadjunta se ha de tener % t. Por tanto, la matriz de una aplicación autoadjunta en una base ortonormal es simétrica. Ya se ha observado que la aplicación adjunta de la identidad à L( ) es ella misma; tenemos en el primer ejemplo de una aplicación autoadjunta. Las aplicaciones autoadjuntas tienen las siguientes propiedades: La suma de aplicaciones autoadjuntas es autoadjunta, ya que ( ! )ñ % ñ ! ñ % % ! . 2. La aplicación inversa de una aplicación autoadjunta invertible es autoadjunta, ya que ( .1)ñ % ( ñ).1 % .1. 3. La composición de dos aplicaciones autoadjuntas es autoadjunta si y solo si las aplicaciones conmutan, ya que ( )ñ % ñ ñ % y, por tanto, ( )ñ % si y solo si % . 1.

En el ejercicio 11 de la sección 6.2 se pide demostrar que los autovalores de toda matriz real im tri a de orden 2 son reales; además, del mismo ejercicio se deduce que toda matriz real simétrica de orden 2 es diagonalizable. Nos preguntamos si toda matriz real simétrica (o equivalentemente toda aplicación autoadjunta) es diagonalizable en los números reales con independencia de su orden. En esta sección daremos una respuesta afirmativa a tal pregunta y demostraremos, además, que los vectores de la nueva base pueden tomarse ortonormales. En lo que sigue, y mientras no se indique lo contrario, denota una aplicación lineal de un espacio euclídeo en sí mismo.

380

Capítulo 8. Espacios euclídeos

Teorema 8.4.5 Si es un subespacio vectorial de invariante con respecto a à L( ), su complemento ortogonal ü es invariante respecto de la aplicación adjunta ñ de . Demostración. Sea y à ü; queremos demostrar que ñ(y) à ü. Para todo à se tiene que ( , ñ(y)) % ( ( ), y) % 0, ya que y à ü y ( ) à por ser invariante con respecto a ; implica que ñ(y) à ü, que era lo que queríamos la igualdad ( , ñ(y)) % 0 para todo à 䊏 demostrar. Si es una aplicación autoadjunta, se tiene ñ % , y del Teorema 8.4.5 se deduce inmediatamente el siguiente corolario:

Corolario .4.6 Si es autoadjunta y es un subespacio vectorial de es invariante con respecto a .

invariante con respecto a ,

ü

Teorema 8.4.7 Toda aplicación autoadjunta autovalores reales.

en un espacio euclídeo de dimensión finita tiene todos sus

Demostración. Sea una matriz de la aplicación . Supongamos que esta matriz tuviera un autovalor complejo, que denotaremos por a ! ib con b Ç 0. En la sección 6.6 se demostró que existen vectores , v no nulos simultáneamente, tal que ( ) % a . bv,

(v) % b ! av.

De aquí deducimos (

, v) % a( , v) . b(v, v)

( , v) % b( , ) ! a( , v). Puesto que es autoadjunta se tiene que ( , v) % ( , v) y, por tanto, 0 % b(9 92 ! 9v92). De aquí deducimos que b % 0, que contradice el hecho de que b es no nulo. Esta contradicción 䊏 prueba el resultado deseado. Teorema 8.4.8 (Diagonalizaci n de matrices simétricas) La matriz de una aplicación autoadjunta en un espacio euclídeo de dimensión finita puede ser reducida en una base ortonormal determinada a una matriz diagonal. Observación. Del Teorema 8.4.8 se deduce que toda matriz simétrica es diagonalizable. Demostración. Sea una aplicación autoadjunta y j1 un autovalor de ; por el Teorema 8.4.7, j1 es real. Sea e1 un autovector unitario de correspondiente a j1 . Sea 1 % L(e1) el subespacio generado por e1; como es autoadjunta, del Corolario 8.4.6. se deduce que ü 1 es invariante respecto de .

Sección 8.4. Adjunta de una aplicación. Aplicaciones autoadjuntas

381

La aplicación restringida a ü 1 sigue siendo autoadjunta con el mismo producto escalar y, por tanto, podemos elegir e2 à ü 1 tal que e2 sea un autovector unitario de autovalor real j2 de . Tomamos 2 % L(e1, e2) como el subespacio generado por e1 y e2; ü 2 es invariante respecto de ; el proceso puede repetirse para obtener j3, autovalor real, y e3, autovector unitario, ortogonal a e1 y e2. Después de repetir este proceso tantas veces como la dimensión del espacio euclídeo se tiene una base de autovectores ortonormales, y en esta base la matriz de tiene la forma

A

j1

e

EJEMPLO A.

0

j2 ..

0

ir la ig iente matri

. jn

im tri a

%

A

B



.

B

1

∂8

∂8

3

a

orma iagonal me iante na ba e ortonormal. Sus autovalores son las soluciones de 0 % 8 . j 8 % (1 . j)(3 . j) . 8 % j2 . 4j . 5; por tanto, j1 % 5, j2 %.1. Puesto que

A

BA B A B

.4 ∂8 ∂8

.2

y

%

0 0

ú

.4 ! ∂8y % 0

ú

Ker ( . 5 ) % L{

1 % (2,

∂8)},

tomamos e1 à L( 1) unitario: e1 %

1

9 19

%

1 ∂12

(2, ∂8) %

A

1

,

B

∂2

∂3 ∂3

.

Puesto que

A

∂8

∂8

4

BA B A B

2

y

%

0 0

ú

2 ! ∂8y % 0

ú

Ker ( ! ) % L{

2 % (.4,

∂8)} ,

tomamos e2 à L( 2) unitario: e2 %

2

9 29

%

1 ∂24

A

(.4, ∂8) % .

Observar que e1 y e2 son ortonormales. La matriz de %

A

5 0

2

,

∂2

∂6 ∂6

B

.

en la base {e1, e2} es

B

0 .1

Por tanto, en la base {e1, e2} la aplicación produce una «dilatación» en el «eje» e1 que se obtiene multiplicando por 5, y una «simetría» con respecto a la recta L(e1) (ver figuras 8.13 y 8.14).

382

Capítulo 8. Espacios euclídeos

i

La imagen de la figura

es

ra 8.13

ñ ñ ñ (ver figura 8.14).

i

ra 8.14

Podemos ahora dar la interpretación geométrica de las aplicaciones autoadjuntas; en la base {e1, ..., en} del Teorema 8.4.8, si % 1e1 ! ñ ! n en, % j1 1e1 ! ñ ! jn n en, con lo cual en esta base se reduce a n «dilataciones» a lo largo de los nuevos ejes; las dilataciones pueden o no cambiar el sentido según que el autovalor sea positivo o negativo.

EJERCICIOS 8.4 1. Encontrar la aplicación adjunta de las siguientes aplicaciones: a)

: ⺢3 r ⺢3, ( , y, ) % ( ! y ! , ! 2y ! 2 , ! 2y ! 3 ).

b)

: ⺢3 r ⺢3, ( , y, ) % (.y ! , . ! 2 , ! 2y).

c)

:

d)

: ᏹ 3#3(⺢) r ᏹ3#3(⺢), ( ) %

(2) ⺢ [.1,

1] r

(2) ⺢ [.1,

1], ( ( )) % t

( ).

( ( )).

! .

ota. Los productos escalares de ⺢ , 10 de la sección 8.2. 3

(2) ⺢ [.1,

1] y ᏹ 3#3(⺢) son como en el ejercicio

Sección 8.5. Aplicaciones ortogonales

383

2. Sean 1 % (1, 1, 0), 2 % (1, 0, 1) y 3 % (1, 2, 0) los vectores de una base de ⺢3. Considerando el producto escalar usual en ⺢3, estudiar si la aplicación à L(⺢3) es autoadjunta cuando su matriz asociada en la base { 1, 2, 3} es a)

A

1 % 2 0

B

.4 2 2 3 3 0

b)

A

.4 4 3

B

.5 2 5

.6 7 . 4

3. Diagonalizar en una base ortonormal cada una de las siguientes aplicaciones, demostrando en primer lugar que son autoadjuntas: a)

: ⺢2 r ⺢2, ( , y) % (2 ! y, 2y ! ).

b)

: ⺢3 r ⺢3, ( , y, ) % (y ! , ! , ! y).

c)

: ᏹ 2#2(⺢) r ᏹ 2#2(⺢), ( ) % t.

4. Sea una aplicación lineal de un espacio euclídeo autoadjunta. 5. Sea

una aplicación lineal de un espacio euclídeo Ker ( ñ) % [Img ( )]ü

e

en sí mismo. Demostrar que ! ñ es

en sí mismo. Demostrar que

Img ( ñ) % [Ker ( )]ü.

6. Demostrar que toda matriz simétrica à ᏹ n#n(⺢) determina una aplicación lineal autoadjunta en cualquier espacio euclídeo de dimensión n.

8.5. Aplicaciones 8.5. APLICACIONES ortogonales ORTOGONALES

Sabemos que en todo espacio euclídeo existe el concepto de longitud de un vector; es natural, por tanto, preguntarse cuáles son aquellas aplicaciones que conservan la longitud de los vectores de . A las aplicaciones que conservan la longitud de los vectores de las llamaremos ortogonale ; su estudio, así como su significado geométrico, serán el objetivo principal de las dos próximas secciones. En lugar de dar la definición utilizando la longitud de los vectores, la daremos utilizando la noción de producto escalar. Como mostraremos más adelante, ambas definiciones son equivalentes. En lo que sigue se utiliza para designar un espacio euclídeo y una aplicación lineal de en ; además, cuando sea necesario utilizar la matriz de la aplicación se entiende que es de dimensión finita.

Definición 8.5.1 Una aplicación lineal de un espacio euclídeo se llama ortogonal si ( ( ), (y)) % ( , y) para todo , y à (es decir, conserva el producto escalar).

384

Capítulo 8. Espacios euclídeos

Puesto que si

es ortogonal, 9 92 % ( , ) % ( ( ), ( )) % 9 ( )92

y cos ⱔ ( , y) %

( , y) ( ( ), (y)) % % cos ⱔ ( ( ), (y)), 9 99y9 9 ( )99 (y)9

deducimos que toda aplicación ortogonal conserva las longitudes de los vectores y los ángulos entre ellos. Se tiene, además, la siguiente proposición: Proposición 8.5.2 Toda aplicación lineal en un espacio euclídeo res es una aplicación ortogonal. Demostración. Para todo , y à

que conserve la longitud de los vecto-

se tiene

9 ( ! y)92 % ( ( ) ! (y), ( ) ! (y)) % 9 ( )92 ! 2( ( ), (y)) ! 9 (y)92 y 9 ! y92 % ( ! y, ! y) % 9 92 ! 2( , y) ! 9y92. Teniendo en cuenta que conserva la longitud de los vectores y, por tanto, 9 ( ! y)9 % % 9 ! y9, 9 ( )9 % 9 9 y 9 (y)9 % 9y9 se deduce que ( ( ), (y)) % ( , y), lo cual prueba que



es ortogonal.

Ha llegado el momento de dar algunos ejemplos de aplicaciones ortogonales, aparte del ejemplo trivial de la aplicación identidad. EJEMPLO A. Cualquier giro en ⺢2 (con centro el origen de coordenadas) es una aplicación ortogonal. Este resultado, que es geométricamente intuitivo, puede demostrarse algebraicamente. Para ello suponer que el giro es un giro de ángulo r en el sentido positivo (contrario a

i

ra 8.15

Sección 8.5. Aplicaciones ortogonales

385

las agujas de un reloj) y que, por tanto, su matriz viene dada (respecto de una base ortonormal {e1, e2}) por Gr % Para todo % ( 1, 9Gr( )92 %

2)

A

B

.sen r . cos r

cos r sen r

à ⺢2 se tiene

GA

cos r .sen r sen r cos r

% ( 1 cos r .

BA BGG G A 2

1

%

2

BGG

1 cos r . 2 sen r 1 sen r ! 2 cos r

2

%

2 2 2 2 2 sen r) ! ( 1 sen r ! 2 cos r) % 1 ! 2 % 9

92 .

Esto prueba que Gr conserva la longitud de los vectores y por la Proposición 8.5.2 debe de ser ortogonal. EJEMPLO B. En ⺢2 cualquier imetría (ortogonal) con respecto a un subespacio vectorial unidimensional es una aplicación ortogonal. Encontremos primero las ecuaciones de la simetría con respecto a % L( ). Dado à ⺢2, sea y % ( ) . , donde ( ) es la proyección de sobre . Se cumple: ! 2y %

( ),

como puede apreciarse en la figura 8.16. Estas igualdades producen ( )%2 Para encontrar ( ) escribimos %j . sea perpendicular a :

( ) . % (2

. )( ).

( )%j e imponemos la condición de que y%

0 % ( , j . ) % j9 92 . ( , ). Por tanto, ( )%

i

( , ) . 9 92

ra 8.16

( ). %

386

Capítulo 8. Espacios euclídeos

con respecto a la base canónica {e1, e2} de ⺢2 es

De aquí deducimos que la matriz de

A B 2 1

1 2

9 92

9 92 2 2

1 2 2

9 9

donde % 1e1 ! 2 e2. Puesto que ( ) % (2

A

. )( ) la matriz de

2 21 .1 9 92

2 1 2 9 92 2 2 2.1

2 1 2 9 92

2 9 9

1 9 92

A

2 1.

2

B

%

con respecto a la base canónica es

A

1 9 92

2 1.

2

1 2

2 2

2

1 2 2 2 2. 1

B

es una aplicación ortogonal puesto que si % ( 1,

Podemos comprobar ahora que ( )%

9 92

2 2

1 2

2

1 2

2 2.

BA B A 1

2 1

%

2

( 21 . 22) 1 ! 2 1 2 2 1 2 1 ! ( 22 . 21)

2 2

B

2)

à ⺢2,

1 9 92

implica que 9 ( )92 %

1 [( 9 94

2 1.

2 2 2 2 2 2 2 2 2 2 2) 1 ! 4 1 2 1 ! 4 1 2 2 ! ( 2 .

2 2 1) 2] %

%

1 [( 9 94

2 1!

2 2 2 2 2) 1 ! ( 1 !

92 .

Nota. Si hubiéramos elegido { , esta base sería

ü

2 2 2 2 2 2) 2] % 1 ! 2 % 9

} como la base en ⺢2, la matriz de

A

1 0

con respecto a

B

0 . .1

La matriz de con respecto a la base canónica en ⺢2 puede encontrarse a partir de aquí realizando un cambio de base. Si el lector intenta encontrar más aplicaciones ortogonales en ⺢2 tendrá serias dificultades. Quizá puede pensar en la simetría con respecto al origen de coordenadas, pero puede convencerse fácilmente que esta simetría es un giro de 180o y, por tanto, ha sido incluida en el ejemplo . De hecho demostraremos en la próxima sección e la ni a a li a ione ortogonale e ⺢2 on lo giro y la imetría on re e to a na re ta (o imetría a iale ). (Así se explica el lector las dificultades anteriores.) * * * En ⺢3 las posibilidades de aplicaciones ortogonales son mayores; a continuación daremos algunos ejemplos.

Sección 8.5. Aplicaciones ortogonales

387

EJEMPLO C. En ⺢3 el giro G con respecto a una «recta» L (subespacio vectorial de dimensión 1), llamada e e e giro, de amplitud r es una aplicación ortogonal.

i

ra 8.17

Supongamos que L % L( 1) y que % Lü % L( 2, 3), de manera que 1, 2 y 3 son ortonormales y con la misma orientación que {e1, e2, e3}, es decir, 2 # 3 % 1 , con el sentido de giro que indica la figura 8.17. Entonces { 1, 2, 3} es una base ortonormal de ⺢3 y en esta base la matriz de G es:

A

B

1 G% 0 0

0 0 cos r .sen r . sen r cos r

EJEMPLO D. La simetría L con respecto a una recta L, en ⺢3, es una aplicación ortogonal. En la base ortonormal { 1, 2, 3} elegida como en la figura 8.18 se tiene:

A

1 % 0 L 0

i

0 .1 0

ra 8.18

B

0 0 . .1

388

Capítulo 8. Espacios euclídeos

Observar que esta simetría es en realidad un giro en ⺢3 de 180o con respecto a la recta L, y, por tanto, es un caso particular del ejemplo C. EJEMPLO E. La imagen tridimensional que produce un espejo es una aplicación ortogonal; se trata simplemente de una simetría con respecto al plano del espejo. Si es el plano, designa esta simetría, y elegimos una base ortonormal { 1, 2, 3} como en la figura 8.19, se tiene que en esta base tiene por matriz:

A

1 % 0 0

B

0 1 0

0 0 . .1

i

ra 8.19

*

*

*

¿Serán todas estas las posibles aplicaciones ortogonales de ⺢3? Recomendamos al lector que trate de encontrar alguna más y le advertimos que la respuesta a la pregunta anterior la encontrará más adelante en la próxima sección. No solo llegaremos a la determinación de las posibles aplicaciones ortogonales de ⺢3 sino de cualquier espacio euclídeo de dimensión finita. Este trabajo requiere el estudio de los autovalores de aplicaciones ortogonales. Antes de comenzar este estudio daremos algunas propiedades útiles de las aplicaciones ortogonales. Es claro que toda aplicación ortogonal transforma toda base ortonormal en una base ortonormal; el recíproco también es cierto y está contenido en la proposición siguiente: Proposición 8.5.3 Toda aplicación lineal normal es ortogonal.

que transforma al menos una base ortonormal en una base orto-

Demostración. Sea {e1, ..., en} una base ortonormal tal que {eñ1, ..., eñn}, donde eñ % (e ), % 1, 2, ..., n, es también ortonormal. Para todo n

%; i%1

n i ei ,

y% ; y e %1

Sección 8.5. Aplicaciones ortogonales

389

del espacio euclídeo se tiene n

n

( ( ), (y)) % ;

n

i y ( (ei), (e )) % ;

i, %1

i y (eñi , eñ) % ;

i, %1

i yi ,

i%1

mientras que n

n

( , y) % ;

i, %1

y, por tanto, Si

iy

(ei , e ) % ;

i yi

i%1



conserva el producto escalar.

es una aplicación ortogonal y ñ denota su adjunta (ver sección 8.4) se tiene que ( , y) % ( ( ), (y)) % ( , ñ o (y))

y e la ig al a anterior e e e e ñ o % . e í ro a para todo , y. el Lema o mente, i ñ % , e na a li a i n ortogonal. e a í e e e e to a a li a i n orto gonal tiene na inver a, a aber: .1 % ñ y, or tanto, e no ing lar. La inversa de una aplicación ortogonal es también ortogonal puesto que .1 o

(

.1

)ñ %

.1 o

( ñ).1 % ( ñ o ).1 % ,

y la composición o producto de dos aplicaciones ortogonales que (

o

)ñ(

o

y

)% ño( ño )o % ño

o

es también ortogonal puesto % .

Sin embargo, la suma de dos aplicaciones ortogonales no es, en general, una aplicación ortogonal (dejamos al lector que busque un ejemplo). Sea la matriz de en una base ortonormal; puesto que ñ o % deducimos que t % o equivalentemente t % .1. Toda matriz que satisface una cualquiera de estas dos ecuaciones se llama ortogonal. El determinante de una matriz ortogonal es igual a 1 ó .1, ya que 8 82 % 8 88 8 % 8 t88 8 % 8

t

8 % 8 8 % 1.

El conjunto de las matrices ortogonales de orden n con elementos reales se designa por (n; ⺢) y, por tanto, (n; ⺢) % { à ᏹ n#n(⺢) :

t

% }

En el conjunto (n; ⺢) la multiplicación de matrices es una operación interna, ya que el producto de dos matrices ortogonales es otra matriz ortogonal: basta observar que este resultado ha sido demostrado para aplicaciones ortogonales con la composición de aplicaciones. Esta operación es asociativa, puesto que lo es la multiplicación de matrices (ver sección 1.3); la matriz identidad es ortogonal, ya que t % · % y la inversa de una matriz ortogonal es también una matriz ortogonal, ya que anteriormente se ha demostrado para aplicaciones ortogonales. Por poseer estas propiedades, el conjunto (n; ⺢) se dice que es un gr o con respecto a la multiplicación de matrices, llamado el gr o ortogonal de ⺢n. Ejemplos de grupos han aparecido implícitamente en los capítulos anteriores. Se invita al lector a localizarlos. * * *

390

Capítulo 8. Espacios euclídeos

Procedemos ahora al estudio de los autovalores de aplicaciones ortogonales. Teorema 8.5.4 Los autovalores reales de una aplicación ortogonal son iguales a 1 ó .1.

Demostración. Si j es un autovalor real de una aplicación ortogonal tiene que ( , ) % ( ( ), ( )) % (j , j ) % j2( , ).

con autovector se



Por tanto, j2 % 1 y j % u 1.

Observación. La matriz de una aplicación ortogonal puede tener autovalores complejos; por ejemplo, el giro del ejemplo A tiene como autovalores j % cos r u i sen r. Si dispusiéramos de un «producto escalar» en un espacio vectorial complejo podríamos demostrar que los autovalores complejos de toda matriz ortogonal tienen módulo 1. Esto se hará en el capítulo siguiente. Teorema 8.5.5 Si un subespacio vectorial de un espacio euclídeo es invariante respecto a una aplicación ortogonal , ü es también invariante respecto de . Demostración. Si y à

ü

y

à

( , (y)) % ( Además, tiene

.1

( ) % , por ser

se tiene o

.1

( ), (y)) % (

invariante por ( , (y)) % (

Así pues, (y) à

.1

y ser

.1

( ), y).

invertible. Por tanto,

.1

( )à

y se

( ), y) % 0. 䊏

ü

.

8.6. Clasificación 8.6. CLASIFICACIÓN de aplicaciones ortogonales DE APLICACIONES ORTOGONALES

En esta sección clasificaremos las aplicaciones ortogonales en un espacio euclídeo de dimensión 2 ó 3. La clasificación consistirá en encontrar todos los posibles tipos de aplicaciones ortogonales en , de manera que toda aplicación ortogonal sea de uno de estos tipos. Comenzaremos clasificando las aplicaciones ortogonales en un espacio euclídeo de dimensión 2 y deduciendo de aquí algunos resultados de la geometría plana. A continuación daremos un teorema general sobre la orma e or an real e a li a ione ortogonale en un espacio euclídeo de dimensión n, del cual deduciremos la clasificación de las aplicaciones ortogonales en un espacio euclídeo de dimensión 3. Sea una aplicación ortogonal en un espacio euclídeo de dimensión 2 (en particular ⺢2), que tiene como matriz a a12 % 11 a21 a22

A

B

Sección 8.6. Clasificación de aplicaciones ortogonales

en una base ortonormal

t

% {e1, e2} de . Puesto que t

%

A

a11 a12

a21 a22

BA

a11 a21

391

% se tiene que

B A B

a12 1 % a22 0

0 . 1

Deducimos de aquí las igualdades a211 ! a221 % 1, a212 ! a222 % 1, a11a12 ! a21a22 % 0. Podemos elegir r y t de manera que las dos primeras igualdades sean ciertas, es decir, a11 % cos r,

a21 % sen r,

a12 % cos t,

a22 % sen t.

Sustituyendo en la tercera se obtiene cos r cos t ! sen r sen t % cos (t . r) % 0. Por tanto, se puede tener t . r %

3n n n o también t . r % . Si t . r % , entonces 2 2 2 %

A

cos r .sen r sen r cos r

B

y, por tanto, es la rota i n e ng lo r alre e or el origen e oor ena a . (En particular, si r % 0 se tiene la aplicación identidad y si r % n se tiene la simetría respecto del origen de coordenadas.) 3n En el segundo caso, esto es, t . r % , se tiene, 2 %

A

B

cos r sen r . sen r .cos r

La matriz es simétrica y, por tanto, corresponde a una aplicación autoadjunta; en la sección 8.4 se demostró que tiene como matriz %

A

j1 0

0 j2

B

,

j1, j2 à ⺢

en una (nueva) base ortonormal (ver Teorema 8.4.8); por el Teorema 8.5.4, j1 % 1 ó .1 y j2 % 1 ó .1. Además, j1j2 % 8 8 % 8 8 %

G

G

cos r sen r %.1 sen r .cos r

y, por tanto, j1 y j2 tienen signo opuesto. En consecuencia, en una (posiblemente nueva) base ortonormal {eñ1, eñ2} tiene como matriz 1%

A

1 0

B

0 , .1

que representa una imetría on re e to al e e eñ1.

392

Capítulo 8. Espacios euclídeos

En resumen, tenemos el siguiente resultado: Teorema 8.6.1 Toda aplicación ortogonal de ⺢2 es bien una rota i n de ángulo r alrededor del origen de coordenadas (el determinante de cualquiera de sus matrices es 1) o bien una imetría a ial (con determinante .1). * Sean % {e1, e2} y ñ % { 1, definida por

2}

*

*

dos bases ortonormales de ⺢2 y

(e1) %

1

,

(e2) %

la transformación lineal

2.

La matriz de en la base es la matriz del cambio de base de a ñ. Puesto que transforma una base ortonormal en otra ortonormal es una aplicación ortogonal (Proposición 8.5.3). Por tanto 8 8 %u1. Si 8 8 % 1 diremos que y ñ tienen la mi ma orienta i n. Si 8 8 %.1 diremos que y ñ tienen i tinta orienta i n:

Si y ñ tienen la misma orientación, el Teorema 8.6.1 prueba que es una rotación. Si ñ tienen distinta orientación, el Teorema 8.6.1 prueba que es una simetría.

y

Nota. En general, dadas dos bases % {e1, ..., en} y ñ % { 1, ..., n} de un espacio vectorial de dimensión n, diremos que y ñ tienen la mi ma orienta i n si la matriz del cambio de base de a ñ tiene determinante positivo. Si 8 8 a 0 diremos que y ñ tienen i tinta orienta i n. *

*

*

Del Teorema 8.6.1 se deducen resultados de la geometría elemental plana que nos serán útiles en el Capítulo 10, dedicado al estudio de los movimientos en el plano y en el espacio. Enunciamos alguno de ellos dejando la demostración para el lector: 1) La composición de dos simetrías axiales es una rotación de ángulo el doble del ángulo comprendido entre los ejes de simetría (observar que la composición de dos simetrías tiene determinante 1).

Sección 8.6. Clasificación de aplicaciones ortogonales

i

393

ra 8.20

2) La composición de una rotación con respecto al origen y una simetría axial es de nuevo una simetría axial (observar que su determinante es .1).

i

ra 8.21

3) La composición de dos giros con respecto al origen es otro giro con el mismo centro y ángulo de giro la suma de los ángulos. *

*

*

Pasamos ahora a clasificar las aplicaciones ortogonales en espacios euclídeos de cualquier dimensión finita. Teorema 8.6.2 La matriz de una aplicación ortogonal se reduce en una base ortonormal determinada a la forma

394

Capítulo 8. Espacios euclídeos

Demostración. Procedemos por inducción en la dimensión n del espacio euclídeo. Si n % 1 es claro, puesto que solo podemos tener j % u1. Para n % 2 el Teorema 8.6.2 coincide con el Teorema 8.6.1, que ya hemos demostrado. Sea ahora un espacio euclídeo de dimensión n y una aplicación ortogonal. Pueden ocurrir dos casos: 1. La a li a i n tiene n valor ro io real j % u1 (esto ocurre necesariamente si n es impar). Si e1 es un autovector unitario correspondiente a este autovalor tomamos % L(e1); como ü es invariante por (ver Teorema 8.5.5) la hipótesis de inducción nos dice que la matriz de 8 ü es de la forma del Teorema 8.6.2. Añadiéndole el vector e1 se obtiene una base de en la cual tiene la matriz deseada. 2. La a li a i n no tiene valore ro io reale . debe de poseer al menos un autovalor complejo (y su conjugado) y en consecuencia tiene también un subespacio de dimensión 2 invariante. Por el Teorema 8.6.1, 8 %

A

B

cos r .sen r sen r cos r

o

8 %

A

1 0

0 .1

B

en una base ortonormal {e1, e2} adecuada. El segundo caso no puede darse, puesto que ello implicaría la existencia de autovalores reales. Por tanto, 8 %

A

cos r sen r

B

.sen r . cos r

Como ü es invariante (Teorema 8.5.5) podemos aplicarle la hipótesis de inducción para obtener una base de ü en la cual 8 ü es como en el Teorema 8.6.2. Aña䊏 diéndole {e1, e2} adecuadamente se obtiene el resultado deseado. *

*

*

Podemos ahora estudiar las posibles aplicaciones ortogonales en ⺢3. Del Teorema 8.6.2 se desprende que sus matrices en una base ortonormal {e1, e2, e3} adecuada han de tener una de las siguientes formas:

a)

A B A A 1 0 0 0 1 0 0 0 1

b)

e)

1 0 0

.1 0 0 0 1 0 0 0 1

B A B B A 1 0 0 0 .1 0 0 0 .1

c)

0 0 cos r .sen r sen r cos r

.1 0 0

f)

d)

A B

B

.1 0 0 0 .1 0 0 0 .1

0 0 cos r .sen r . sen r cos r

ta matri e tienen la ig iente inter reta i n: a) es la identidad; b) es una simetría con respecto al plano determinado por {e2, e3}; e) es un giro de ángulo r alrededor del eje e1 (en particular c) es un giro de ángulo 180o alrededor de e1); f) es un giro de ángulo r alrededor de e1 seguido de una simetría con respecto al plano determinado por {e2, e3} (es decir, composición de e) y b)); d) es un caso particular de f) con r % 180o y corresponde a una simetría con respecto al origen de coordenadas. *

*

*

Sección 8.6. Clasificación de aplicaciones ortogonales

Sean % {e1, e2, e3} y ñ % { 1, definida por

2,

3}

395

dos bases ortonormales de ⺢3. La aplicación lineal

(e ) % , % 1, 2, 3,

es ortogonal (Proposición 8.5.3). La matriz de en la base es la matriz del cambio de base de a ñ, por lo que 8 8 %u1, ya que es una matriz ortogonal. Si y ñ tienen la misma orientación, 8 8 % 1 y como es ortogonal es equivalente a una matriz de la forma

A

1 0 0 0 cos a .sen a 0 sen a cos a

B

0 m a a 2n

,

que engloba los casos a), e) y c) descritos arriba. Por tanto, en este caso existe una rotación de ⺢3 que transforma en ñ. Si y ñ tienen distinta orientación, 8 8 %.1 y por tanto la aplicación en una base ortonormal adecuada es de la forma b), d) ó f). Todas ellas se engloban en las matrices

A

.1 0 0 0 cos a .sen a 0 sen a cos a

B

,

0 m a a 2n.

Como estamos en ⺢3 podemos usar el producto vectorial. Si es la base canónica de ⺢3 y ñ tienen la misma orientación que , como 8 8 % ( 1 # 2, 3) —producto mixto— (ver el párrafo que precede a la Proposición 7.5.4), y ( 1 # 2, 3) % 1 si y solo si 1 # 2 % 3, se deduce que ñ tiene la misma orientación que si y solo si 1 # 2 % 3 . Recordar (final de la sección 7.5) que en este caso se dice que ñ es una base o itivamente orienta a. De manera similar se prueba que ñ tiene distinta orientación que la base canónica de ⺢3 si y solo si 1 # 2 %. 3 y en este caso la base ñ está negativamente orienta a.

EJEMPLO A. Tratemos de encontrar en la base canónica de ⺢2 la matriz de la simetría (ortogonal) con respecto a la recta 2 . y % 0. La recta está generada por el vector % (1, 2); podríamos aplicar el resultado del ejemplo B, sección 8.5, pero preferimos hacerlo de nuevo. En la base ortonormal

E

v1 %

ü

9 9

, v2 %

F

9 9

396

Capítulo 8. Espacios euclídeos

donde

ü

% (.2, 1), la matriz de esta simetría es ñ%

A

i

B

1 0

0 . .1

ra 8.22

Puesto que v1 %

1 ∂5

(1, 2)

v2 %

,

1 ∂5

(.2, 1)

la matriz de la simetría en la base canónica (la antigua) es %

%

EJEMPLO B.

A A

BA BA BA BA

1/∂5 .2/∂5

1

0

2/∂5

0

.1

1/∂5 .2/∂5

1

0

2/∂5

0

.1

1/∂5

1/∂5

B B A B

1/∂5 .2/∂5 2/∂5

1/∂5

1/∂5

2/∂5

.2/∂5 1/∂5

.1

%

%

1 .3 5 4

4 3

.

La matriz

A

0 % 1 0

1 0 0

0 0 .1

B

es ortogonal porque t

A

0 % 1 0

1 0 0

BA

0 0 .1

0 1 0

1 0 0

BA B

0 1 0 % 0 .1 0

0 1 0

0 0 % . 1

Su interpretación geométrica se deduce del estudio de sus autovalores. Como es simétrica sus autovalores han de ser reales y, por tanto, iguales a u1 (Teorema 8.5.4). Un cálculo adecuado muestra que j1 % 1, j2 %.1 (doble) son sus autovalores.

397

Sección 8.6. Clasificación de aplicaciones ortogonales

Para j1 % 1,

A

.1 1 1 .1 0 0

BA B A B

0 0 .2

0 y % 0 0

F

%y %0

ú

ú

Ker ( . ) % L

E

1

∂2

F

(1, 1, 0) .

Para j2 %.1:

A BA B A B 1 1 0

1 1 0

0 0 0

0 y % 0 0

ú

Luego

%.y

E

ú

Ker ( ! ) % L (0, 0, 1),

A

1 ∂2

F

(1, .1, 0) .

B

1 0 0 % 0 .1 0 . 0 0 .1 1%

Se trata de un giro de 180o alrededor de L( 1) con simetría respecto a la recta L( 1). *

*

1 ∂2

(1, 1, 0) o, equivalentemente, una

*

Terminamos esta sección con una observación. Dada una matriz ortogonal à (n; ⺢), del Teorema 8.6.2 de esta misma sección se deduce que existe una matriz tal que %

.1

donde es como en el Teorema 8.6.2, es decir, una forma de Jordan real de , y es la matriz del cambio de base de la base canónica de ⺢n a una base ortonormal % { 1, 2, ..., n} de ⺢n. Por tanto, la aplicación lineal en ⺢n que tiene como matriz transforma una base ortonormal en otra base ortonormal; esto es suficiente para asegurar que es una matriz ortogonal. Debido al Teorema 8.4.8 el mismo razonamiento anterior muestra que si es una matriz simétrica con valores reales, existe una matriz diagonal , y una matriz ortogonal tal que % Pero como

es ortogonal se tiene, además, que

.1

.

.1

%

t

. Se tiene así el siguiente resultado:

Teorema 8.6.3 (Teorema espectral) 1) Dada à (n; ⺢) existen à (n; ⺢) y como en el Teorema 8.6.2 tal que t % . 2) Dada à ᏹ n#n(⺢) y tal que % t, existen à (n; ⺢) y à ᏹ n#n(⺢) diagonal, tal t . que %

398

Capítulo 8. Espacios euclídeos

EJERCICIOS 8.6 1. Sean 1 % (1, 1, 0), 2 % (1, 0, 1) y 3 % (1, 2, 0) los vectores de una base de ⺢3. Estudiar si à L(⺢3) es ortogonal cuando su matriz en la base { 1, 2, 3} está dada por: a) 2. Sea

A

4 .1 .2

B

3 6 .1 .1 .2 .3

A

0 0 1

b)

.5 1 3

1 0 1

B

c)

A

1 1 0

0 2 1

B

.1 3 . 1

à L(⺢3) una aplicación lineal cuya matriz en la base ortonormal dada de ⺢3 es

A

0 % 0 .1

1 0 0

B

0 .1 . 0

Demostrar que es ortogonal. Encontrar una base ortonormal de ⺢3 en la que mo matriz la forma de Jordan real.

tenga co-

3. En un espacio vectorial euclídeo de dimensión 3 se considera la base ortonormal % {e1, e2, e3} y : r lineal, definida por 3 (e1) % 2e1 . 2e2 ! e3, Hallar a, b y c de manera que la base .

3 (e2) % ae1 ! e2 . 2e3,

3 (e3) % be1 ! ce2 ! 2e3.

sea una aplicación ortogonal y encontrar la matriz de

4. Sea à L( ) una involución, es decir, 2 % . Demostrar que la identidad si y solo si es autoadjunta.

en

es una simetría ortogonal o

5. Sea un espacio vectorial real y una aplicación ortogonal. Probar que si j es una raíz del polinomio característico de , entonces 8j8 % 1. (Demostrar este resultado sin utilizar la complexificación de , es decir, utilizando únicamente métodos reales: si j % a ! ib, existen , v à tal que % a . bv y v % b ! av.) 6. Sea un espacio euclídeo y : decir,

r

( ( ), (y)) % ( , y)

para todo , y à . Demostrar que y 88 (a ) . a ( )92.) 7. Sea un espacio euclídeo y : guientes son equivalentes: a)

una aplicación que conserva el producto escalar, es

es lineal. [ geren ia: calcular 9 ( !y). ( ). (y)92 r

una aplicación. Demostrar que las condiciones si-

es una aplicación ortogonal.

b)

( ( ), (v)) % ( , v) para todo , v à .

c)

9 ( ) . (v)9 % 9 . v9 para todo , v à

y (0) % 0.

Nota Las condiciones b) y c) no suponen que sea lineal. Hacer la demostración siguiendo el plan c) ú b) ú a) ú c). La mayor dificultad está en probar que es lineal en el paso b) ú a); para ello utilizar el ejercicio 6.)

Sección 8.7. Estructura de las aplicaciones lineales no singulares

8. Sea a)

%

A

B

a b con a2 ! b2 % 1 la matriz de b .a b2 . a2 a2 ! b 2

b)

Encontrar la recta de simetría para

c)

Encontrar %

A

a b

en una base ortonormal dada de ⺢2.

es la simetría (ortogonal) con respecto a la recta a ! by % 0, donde

Demostrar que

a%

9. Sea

399

%

para la recta y % 0.

b%

,

.2ab . a2 ! b2

A

B

3/5 .4/5 . .4/5 .3/5

B

b con a2 ! b2 % a la matriz de 1.a

en una base ortonormal dada de ⺢2.

a)

Demostrar que es la proyección ortogonal sobre la recta a ! by % 0, donde a % b2/(a2 ! b2), b %.ab/(a2 ! b2).

b)

Si es la proyección sobre la recta a ! by % 0 y es la simetría (ortogonal) respecto de la perpendicular a a ! by % 0, demostrar que % . 2 . 1/10 3/10 . Encontrar la recta de proyección para % 3/10 9/10

c) d)

Encontrar

A

para la recta y % 0.

B

10. Encontrar las ecuaciones de la simetría con respecto al plano 2 ! y ! % 0. 11. Sean ( , ( , )) y ( , S , T) dos espacios euclídeos; una aplicación lineal : que es una i ometría si satisface: S ( ), (v)T % ( , v)

r

se dice

para todo , v à .

Decidir razonadamente cuáles de las siguientes aplicaciones son isometrías: a)

: ⺢2 r ⺢3, donde ( , y) % ( , 0, y).

b)

:

c)

: ⺢3 r ᏹ 3#3(⺢), donde ( , y, ) % 0 0

(2) ⺢ [

]r

(3) ⺢ [

], donde ( ( )) %

( ).

A B 0 y 0

0 0 .

ota. Los productos escalares de los espacios anteriores son los utilizados en el ejercicio 10 de la sección 8.2. 8.7. Estructura 8.7. ESTRUCTURA de las aplicaciones DE lineales LAS noAPLICACIONES singulares LINEALES

NO SINGULARES En esta sección demostraremos que toda aplicación lineal no singular, es decir, biyectiva, de un espacio euclídeo , de dimensión finita, en sí mismo es la composición de una aplicación autoadjunta y una ortonormal de . Por tanto, el estudio de las aplicaciones lineales no singulares en un espacio euclídeo queda reducido al estudio realizado en las secciones anteriores.

400

Capítulo 8. Espacios euclídeos

Teorema 8.7.1 Toda aplicación lineal no singular forma

en un espacio euclídeo %

donde

es una aplicación autoadjunta y

de dimensión finita es de la

o

es ortogonal.

Para demostrar este teorema necesitamos el siguiente lema: Lema 8.7.2 Sea una aplicación lineal en un espacio euclídeo de dimensión finita; la aplicación % ñ o es autoadjunta y los autovalores de son no negativos. Demostración. La cadena de igualdades ñ % ( ñ o )ñ % ñ o ( ñ)ñ % ñ o % muestra que es autoadjunta. Sea j un autovalor de 8.4.7, j à ⺢. Además,

con autovector . Debido al Teorema

0 m ( ( ), ( )) % ( , ñ o ( )) % ( , ( )) % ( , j ) % j9 92. De aquí deducimos que j n 0, ya que 9 9 b 0. Esto termina la demostración.



Demostración del Teorema .7.1. Por el Teorema 8.4.8 existe una base ortonormal U de en la cual la matriz de la aplicación autoadjunta % ñ o es de la forma ( )% con los ji n 0 (Lema 8.7.2). Sea

A

j1

.. 0 . 0 jn

B

la aplicación autoadjunta que tiene como matriz ( )%

A

∂j1

0

..

.

0 ∂jn

B

en la base U (observar que es autoadjunta puesto que su matriz es simétrica en la base ortonormal U). Puesto que [ ( )]2 % ( ) tenemos que 2 % o % ; además, 8 ( )82 % 8 ( )8 % 8 ( ñ)8 · 8 ( )8 % 8 ( )82 Ç 0 Por tanto, 8 ( )8 Ç 0 y posee una inversa. Para concluir la demostración del teorema tomamos % con lo cual tenemos la igualdad

%

o

.

o

.1

Sección 8.7. Estructura de las aplicaciones lineales no singulares

Solamente falta probar que ño

%( %(

o

.1

.1 o )

)ñ o ( 2o

401

es ortogonal: .1

o .1

.1

.1

)%(

)ñ o ( ñ o ) o

%(

.1

)ñ o

o

.1

% 䊏

% .

Este teorema, junto con el Teorema 8.6.2 (teorema de clasificación de las aplicaciones ortogonales) y el Teorema 8.4.8 (diagonalización de aplicaciones autoadjuntas) nos permite interpretar geométricamente las aplicaciones lineales no singulares en un espacio euclídeo de dimensión finita: toda aplicación de este tipo se reduce a varias rotaciones alrededor de ciertos ejes, a varias simetrías alrededor de hiperplanos y a varias dilataciones (positivas) a lo largo de ejes ortogonales dos a dos. El lector no se sentirá extrañado si decimos que el Teorema 8.7.1 tiene una interpretación para matrices reales cuadradas no singulares, es decir, de determinante no nulo. Tenemos el siguiente resultado: Teorema 8.7.3 Sea à ᏹ n#n(⺢) con 8 8 Ç 0; existen dos matrices % · .

à

(n; ⺢) y

simétrica, tal que

Demostración. Considerar como una aplicación lineal en el espacio euclídeo ⺢n con el producto escalar usual. Por el Teorema 8.7.1, %

o

con ortogonal y autoadjunta. Si denotamos por , y las matrices de las aplicaciones , y , respectivamente, en una base ortonormal dada de ⺢n, se tiene el resultado deseado. 䊏 Se invita al lector a demostrar el Teorema 8.7.3 directamente, siguiendo los pasos de la demostración del Teorema 8.7.1; de esta forma obtendrá un método para calcular las matrices y del Teorema 8.7.3. Algunos ejercicios relativos a este teorema se encuentran al final de esta sección.

EJERCICIOS 8.7 1. Dada à ᏹ n#n(⺢) con 8 8 Ç 0, demostrar sin utilizar el Teorema 8.7.3 que existen dos matrices, à (n; ⺢) y simétrica, tal que % · . 2. Para las siguientes matrices, encontrar la descomposición a)

%

A

1 .1

3. Dada una matriz 2 % . a)

1 1

B

b)

%

A

.1 0 1

à ᏹ n#n(⺢), decimos que

0 1 0

%

· del ejercicio 1.

B

.1 0 . 0 à ᏹ n#n(⺢) es una raí

a ra a e

si

Demostrar que si es autoadjunta y todos sus autovalores son no negativos, siempre existe una raíz cuadrada de .

402

Capítulo 8. Espacios euclídeos

b)

Encontrar una raíz cuadrada de

A B

1 % 0 1

0 1 0

1 0 . 1

8.8. Descomposición 8.8. DESCOMPOSICIÓN en valores singularesEN de una VALORES matriz SINGULARES

DE UNA MATRIZ De acuerdo con el Teorema 8.6.3 (Teorema espectral) toda matriz simétrica reales se puede descomponer como t %

con elementos

con diagonal y ortogonal. Para obtener esta descomposición basta tomar como columnas de una base ortonormal de autovectores de y disponer en la diagonal de los autovalores de (en el Teorema 8.4.7 se demuestra que estos autovalores son reales). Hemos visto, además, que toda matriz cuadrada con elementos reales no singular, puede descomponerse como % · con

ortogonal y simétrica (ver Teorema 8.7.3). Enlazando estos dos resultados, cualquier matriz cuadrada con elementos reales gular, se puede descomponer como t % % ñ t

y no sin-

con diagonal y ñ y ortogonales. La interpretación geométrica de este hecho, mencionada en la sección 8.7, es que cualquier aplicación lineal no singular en un espacio euclídeo de dimensión finita se puede reducir a una sucesión de rotaciones, simetrías y dilataciones. En esta sección mostraremos que toda matriz con elementos reales (no necesariamente cuadrada) puede descomponerse como %U G t (8.1) con U y ortogonales y con G diagonal. A los elementos pii de G se les llamará valore ing lare de . La extensión (8.1) del Teorema espectral se conoce como e om o i i n en valore ing lare ( ) y resulta de gran utilidad en múltiples aplicaciones como la compresión de imágenes, la recuperación de información y diversas técnicas estadísticas, como, por ejemplo, las empleadas en el análisis de la expresión de genes. La clave para obtener una descomposición en valores singulares de una matriz cualquiera à m#n (⺢) es el hecho de que la matriz t à n#n (⺢) es simétrica y, por tanto, aplicando el Teorema 8.6.3 se puede descomponer como t

t

%

con diagonal y ortogonal, de forma que los elementos de la diagonal de son los autovalores de t , ji, i % 1, ..., n, y las columnas de , {v1, ..., vn}, constituyen una base ortonormal de autovectores de t . Se cumple, además, que los ji son no negativos ya que: 0 m 88 vi 882 % ( vi , vi) % (vi,

t

vi) % (vi, jivi) %

% ji(vi, vi) % ji 88vi 88 % ji 2

,

i % 1, 2, ..., n.

(8.2)

Sección 8.8. Descomposición en valores singulares de una matriz

403

Reordenando los vectores {v1, ..., vn} si es necesario, podemos suponer que j1 n j2 n ñ n jr b jr!1 % 0 % ñ % jn % 0

,

1 m r m n.

Para i % 1, ..., r se considera pi % ∂ji Los pi así definidos se llaman valore

i%

,

1 (vi ). pi

(8.3)

ing lare de . De (8.2) se deduce

88 (vi )88 % pi

,

i % 1, ..., r.

Por tanto, los i, i % 1, ..., r, son unitarios. Además, son ortogonales dos a dos ya que si Ç i ( , i) %

1 1 ( v , vi ) % (v , p pi p pi

t

vi ) %

ji (v , vi ) % 0 p pi

ya que los vi son ortogonales dos a dos. Si fuera necesario se extienden estos r vectores ortonormales a una base { 1, ..., r, r!1, ..., m} ortonormal de ⺢m mediante el proceso de GramSchmidt (ver sección 8.2). Sea U à m#m (⺢) la matriz cuyas columnas son dichos vectores { 1, ..., m}; se define G % Ut que es una matriz de tamaño m # n (igual que el tamaño de ). Sea G i el elemento de la fila i y la columna de la matriz G. Vamos a probar que G ii % pi y que G i % 0 si i Ç . Para b r como (v ) % 0 · v % 0, se tiene G i % ( i , v ) % ( i , 0) % 0. Si m r, por la definición de Gi % ( i, v ) % ( i, p

) % p ( i,

)%

E

0 si i Ç pi si i %

ya que los vectores i, i % 1, ..., r, son ortonormales. Por tanto

% UG

t

,

que se llama e om o i i n en valore ing lare de . El razonamiento anterior prueba el siguiente resultado. Teorema 8.8.1 Dada à m#n (⺢), existen matrices ortogonales U à m#m (⺢), à n#n (⺢), y existe una G à m#n (⺢) cuyos elementos diagonales son los valores singulares de , y el resto nulos, tales que % UG

t

.

(8.4)

404

Capítulo 8. Espacios euclídeos

EJEMPLO A.

Vamos a hallar la descomposición en valores singulares de la matriz %

Se tiene que

A BA

1 % 0 .1

t

0 .1 1

A

1 0

1 0

B

.1 . 1

0 .1

B

.1 % 1

0 .1

A

1 0 .1

0 1 .1

que es una matriz simétrica de orden 3. El polinomio característico de

G

t

es

G

0 .1 1.j .1 % (1 . j)[(1 . j)(2 . j) . 1] . (1 . j) % .1 2.j % (1 . j)[j2 . 3j] % j(1 . j)(j . 3)

1.j 0 .1

t

y, por tanto, los autovalores de son

son j1 % 3, j2 % 1, j3 % 0; luego, los valores singulares de p1 % ∂3 ,

.2 0 0 .2 .1 .1

BA B A B

.1 .1 .1

0 y % 0 0

p2 % 1. t

Buscamos ahora autovectores ortonormales de Para j1 % 3, Ker ( t . 3 ) es

A

B

.1 .1 , 2

.

E

á

F

ú

E

F

ú

E

F

á

E F

.2 . % 0 .2y . % 0

F

%. /2 . y %. /2

Tomando v 1 % (1, 1, .2), un autovector unitario es v1 % Para j2 % 1, Ker (

A

0 0 .1

t

1 ∂6

(1, 1, .2).

. ) es

BA B A B

0 .1 0 .1 .1 1

0 y % 0 0

á

E

%0 . .y%0

F

%0 . %.y

Tomando v 2 % (1, .1, 0), un autovector unitario es v2 %

1 ∂2

(1, .1, 0).

Observar que, como debe ser, v1 y v2 son ortogonales. Para j3 % 0, Ker ( t ) es

A

1 0 .1

BA B A B

0 .1 1 .1 .1 2

0 y % 0 0

á

E

. %0 y. %0

% y%

.

Sección 8.8. Descomposición en valores singulares de una matriz

405

Tomando v 3 % (1, 1, 1), un autovector unitario es v3 %

1 ∂3

(1, 1, 1).

Observar que v1, v2 y v3 son ortogonales entre sí. Tenemos

%

A

1/∂6

1/∂2

1/∂6

.1/∂2

.2/∂6

0

B

1/∂3

1/∂3 . 1/∂3

Utilizamos la definición (8.3) para construir los vectores

(v1) %

A

1 0

B

.1 1

0 .1

1

A B

y

1/∂6 1/∂6

%

.2/∂6

2.

Como

A B

3

1 .1 ∂6

y p1 % ∂3 se tiene 1%

3 ∂6 ∂3

(1, .1) %

Como (v2) %

A

1 0

B

0 .1 .1 1

y p2 % 1 se tiene

1

A BA 1/∂2

.1/∂2 % 0

2%

1 ∂2

1

1/∂2

B

1/∂2

%

AB

1 ∂2 1 1

(1, 1).

Luego la matriz U, que tiene por columnas los vectores U%

(1, .1).

∂2

A

1

y

2,

es

B

1 .1 ∂2

1 . 1

A

0 0

La matriz G de tamaño 3 # 2 es G%

∂3 0

0 1

B

ya que ∂3, 1 son los valores singulares de . Una descomposición de ma 8.8.1 es

como en el Teore-

406

Capítulo 8. Espacios euclídeos

BA

A

1

1 % ∂2 .1

Nota 1. ⺢ y ⺢2 es 3

1 1

∂3 0

B

0 1

0 0

*

*

A

1/∂6 1/∂2

1/∂3

1/∂6

.1/∂2 1/∂3

*

B

.2/∂6 0 1/∂3

.

(8.5)

Considerar G : ⺢3 r ⺢2 la aplicación lineal cuya matriz en las bases canónicas de G%

A

∂3 0

0 1

B

0 0

que coincide con la matriz de los valores singulares de la matriz del ejemplo A de esta sección. Hallemos la imagen de la esfera unidad de ⺢3 de ecuación 2 ! y2 ! 2 % 1. Como

A

∂3 0

0 1

BA B A B A B

0 0

y %

∂3 y

%

ñ yñ

(∂3 )2 ( ñ)2 ! y2 % ! (yñ)2, que es la ecuación de una elipse 3 3 ( ñ)2 (∂3 )2 ! (yñ)2 % !y2 % 2 !y2 %1. 20 de semiejes ∂3 y 1. Para % 0, .1 m 0 m 1, 3 3 es una elipse de semiejes ∂3 ∂1 . 20 y ∂1 . 20 , por lo que la imagen de la esfera unidad de ( ñ)2 3 ⺢ es el interior de la elipse ! (yñ)2 % 1 (ver figura 8.23). 3 Si % 0 se tiene 1 %

2

! y2 %

i

ra 8.23

Observar que los semiejes de la elipse son los valores singulares de . Por tanto, salvo las simetrías y rotaciones dadas en (8.5), la interpretación geométrica de G sobre la esfera unidad de ⺢3 es la ilustrada en la figura 8.23. De manera similar, usando la descomposición (8.4) del Teorema 8.8.1, puede decirse que, salvo rotaciones y simetrías en los espacios inicial y final, la aplicación que tiene como matriz actúa sobre la esfera unidad de ⺢m produciendo elipsoides con o sin su interior cuyos semiejes son los valores singulares de .

Sección 8.8. Descomposición en valores singulares de una matriz

EJEMPLO B.

407

Queremos hallar la descomposición en valores singulares de la matriz

A B BA B

3 % 1 0 Se tiene que

A

3 % 0

t

1 1

0 1 . 3

3 1 0

0 3

0 10 1 % 1 3

A

B

1 , 10

que es una matriz simétrica de orden 2. Su polinomio característico es

G

10 . j 1

G

1 % (10 . j)2 . 1 % j2 . 20j ! 99 % (j . 11)(j . 9) 10 . j

y, por tanto, sus autovalores son j1 % 11, j2 % 9. Luego los valores singulares de p1 % ∂11

p2 % ∂9 % 3.

,

t

Busquemos ahora autovectores ortonormales de Para j1 % 11, Ker ( t . 11 ) es

A

.1 1

BA B A B

1 .1

y

por lo que podemos tomar v1 % Para j2 % 9, Ker (

t

0 0

%

1

∂2 . 9 ) es

á

por lo que podemos tomar v2 %

á

% y,

(1, 1).

1 1

y

%

0 0

á

%.y,

1

(1, .1). ∂2 Con la fórmula (8.3) construimos los vectores

1

A B A B A

3 v1 % 1 1% ∂11 ∂11 0 1

.

. !y%0

A BA B A B 1 1

son

1

3 1 1 1 v2 % 2% 3 3 0

y

2:

AB AB

0 3 1 1 1 % 1 2 ∂22 ∂2 1 3 3

AB

0 3 1 1 1 1 0 % ∂2 .1 3∂2 .3 3

B

.

El tercer vector 3 hay que calcularlo de manera que sea ortonormal a 1 y a 2 , según el procedimiento de Gram-Schmidt (sección 8.2). El lector puede comprobar que una posible elección es 1 .3 1 , , . 3% ∂11 ∂11 ∂11

A

B

408

Capítulo 8. Espacios euclídeos

Por tanto, una descomposición en valores singulares de

A

3/∂22

1/∂2

% 2/∂22

1/∂11

0

3/∂22

.1/∂2

.3/∂11 1/∂11

es

BA B ∂11

0

0

3

0

0

A

1

1

∂2 1

.1

1

B

.

Nota 2. Sea à m#n (⺢) con una descomposición en valores singulares % U G t como en (8.4). Puesto que el rango de una aplicación no depende de la base elegida para representarla (ver la observación que precede al Corolario 5.4.3) el rango de la matriz coincide con el rango de la matriz G. El rango de esta matriz G es el número r de valores singulares no nulos (contando su multiplicidad). Este hecho se utiliza en la práctica para calcular el rango de una matriz mediante ordenador, en lugar de contar el número de escalones de una forma escalonada de ya que, con frecuencia, los errores de redondeo pueden producir una forma escalonada con rango máximo a partir de una matriz con rango menor. El cálculo de una descomposición en valores singulares de una matriz no es sencillo para matrices de tamaño mediano o grande. Los programas Maple5, Matlab5 y Mathematica5 incorporan funciones para calcular esta descomposición. *

*

*

Veamos a continuación cómo la descomposición en valores singulares puede ser útil en el estudio de sistemas de ecuaciones lineales. Consideremos el sistema de ecuaciones lineales % b con

à

m#n (⺢)

à ⺢n ,

,

b à ⺢m,

(8.6)

y supongamos que no tiene solución. Es frecuente que esto ocurra cuando m b n, es decir, cuando hay más ecuaciones que incógnitas. Si bien el sistema de ecuaciones lineales (8.6) no tiene solución (es decir b â Im ), en algunas aplicaciones es conveniente encontrar 0 à ⺢n tal que este vector minimice el tamaño del . b. Esto equivale a hallar 0 à ⺢n tal que error 88

0 . b88 % min{88

. b88 :

à ⺢ n}

considerando en ⺢n la norma euclídea. De acuerdo con el Lema 8.3.3 para % Im , esto se consigue si es perpendicular a para todo à ⺢n. Entonces, para todo à ⺢n 0%( de donde se deduce que

t

(

,

0 . b) % (

0 . b) % 0.

Por tanto, t

Si

t

t

, 0

(

% tb. t

0

satisface que

0.b

0 . b)),

es una solución de

es invertible se tiene 0%(

(8.7)

).1 tb.

(8.8)

Sección 8.8. Descomposición en valores singulares de una matriz

409

Se dice, entonces, que 0 resuelve el problema de mínimo a ra o descrito en (8.7) (observar que minimizar 88 . b88 equivale a minimizar 88 . b88 2, que es una suma de cuadrados para la norma euclídea). Además, ! % ( t ).1 t recibe el nombre de e oinver a de . En general, se denomina matriz pseudoinversa de la que resuelve el problema de mínimos cuadrados planteado en (8.7), siendo 0 % ! b. EJEMPLO C. lineales

a

Queremos hallar la solución por mínimos cuadrados del sistema de ecuaciones

F

%2 .y%0 . . !y%1 Sean % Como t

y

t

%

A

1 0

A

1 0 .1

BA

.1 1

0 .1

es invertible con (

0 .1 1

t

B

1 0 .1

).1 %

AB

2 b% 0 . 1

,

B

0 2 .1 % .1 1

A

.1 2

B

A B

1 2 3 1

1 , 2

la solución por mínimos cuadrados es 0%

!

b%(

t

)

.1 t

A BA

1 2 b% 3 1

1 2

1 0

0 .1

BA B A B

.1 1

2 1 . 0 % 1 1

Cuando la matriz t no es invertible una solución del problema (8.7) puede obtenerse usando la descomposición en valores singulares de . Usemos el Teorema 8.8.1 para escribir % UG

t

con U, ortogonales, y G del mismo tamaño que con los valores singulares pi de diagonal. Observar que no todos los pi son no nulos ya que t no es invertible.

en la

Lema 8.8.2 Sea G! la matriz de tamaño m # n cuyos elementos diagonales son 1/pi, los inversos de los valores singulares no nulos de . Sea ! % G!U t, con U y como en el Teorema 8.8.1. Entonces ! % ! b es una solución del problema planteado en (8.7).

410

Capítulo 8. Espacios euclídeos

son ortogonales 88U 88 % 88 88 y 88 y88 % 88y88 para todo

Demostración. Como U, y à ⺢n. Entonces 88

t

. b88 % 88UG

. b88 % 88UG

t

. UU t b88 % 88G

t

à ⺢m,

. U t b88

ya que UU t % por ser U ortogonal. Denotando por y % t % .1 se tiene que 88y88 % 88 t 88 % 88 88. Por tanto, minimizar 88 . b88 es equivalente a minimizar 88Gy . U t b88. Escribamos

y U t b % ( 1, ...,

m).

Entonces r

m

88Gy . U t b88 2 % ; (pi yi . i )2 ! ;

2

,

%r!1

i%1

1 , i % 1, ..., r, pudiendo tomar pi i cualquier valor para y , % r ! 1, ..., m. Por tanto, un y que minimiza la expresión 88Gy . U t b88 es G!U t b; luego un que minimiza (8.7) es por lo que la expresión 88Gy . U t b88 se minimiza cuando yi %

!

% y % G!U t b %

!

b



como queríamos demostrar.

Nota . Observar que cuando t no es invertible, la solución del problema de mínimos cuadrados planteado en (8.7) no es única. EJEMPLO D.

Tratemos de hallar una solución por mínimos cuadrados de

A

BA B A B A B BA B A B

1 .1 0

Con

1 1 0

0 0 0

1 y % 1 . 1

1 % .1 0 se tiene t

A

1 % 1 0

.1 0 1 0 0 0

1 .1 0

1 1 0

0 0 0

1 1 0

0 2 0 % 0 0 0

0 2 0

0 0 0

,

que no es invertible. Sus autovalores son j1 % j2 % 2, j3 % 0. Es fácil comprobar que v1 % (1, 0, 0)

,

v2 % (0, 1, 0)

Sección 8.8. Descomposición en valores singulares de una matriz

es base de Ker(

t

es base de Ker(

t

411

.2 ) y v3 % (0, 0, 1) ). Además 0 0 0

1 1 1 0 % .1 ∂2 0 0

1 (v2) % .1 2% ∂2 ∂2 0

1 1 0

0 0 0

0 1 1 1 % 1 ∂2 0 0

3 % (0,

A B

1 % 0 0 Por tanto

!

0 0 1

1

0, 1). Se tiene 1/∂2

G !%

,

A

0

B A

0

0

1/∂2

0

0

0 0

,

1/∂2

U % .1/∂2 0

1/∂2 1/∂2 0

B

0

0 . 1

% G!U t es

A BA

1 ! % 0 0 y

0 1 0

BA B A B BA B A B

1 1 0

1

1

y podemos tomar

A A

1 (v1) % .1 1% ∂2 ∂2 0 1

0 1 0

0 0 1

1/∂2

0

0

1/∂2

0

0

!

%

BA

0 0 0

1/∂2

1/∂2

.1/∂2 1/∂2 0

0

A

B

1/2 .1/2 0 0 % 1/2 1/2 0 0 0 0 1

BA B A B

1/2 .1/2 0 b % 1/2 1/2 0 0 0 0

!

BA

0

1 0 1 % 1 1 0

es una solución del problema de mínimos cuadrados. Como !

es el vector de la forma à Ker( ) satisface

,

A

1 % .1 0

1 1 0

BA B A B

0 0 0

0 1 1 % 1 0 0

à ⺢3, más cercano a b, cualquier vector de la forma

(

!

! )%

!

!

! con

AB

1 % 1 0

y por tanto es solución del problema de mínimos cuadrados planteado en (8.7). En este caso % t(0, 0, 1), por lo que % (0, 1, 0) ! t(0, 0, 1) % (0, 1, t), t à ⺢, son las soluciones de (8.7). *

*

*

412

Capítulo 8. Espacios euclídeos

Nota . La descomposición en valores singulares % UG escribir como una suma de matrices de rango 1, de la forma

t

del Teorema 8.8.1 permite

% p1 1v t1 ! p2 2v t2 ! ñ ! pr rv tr donde i , vi , i % 1, ..., r, son las r primeras columnas de U y respectivamente y los pi, i % 1, ..., r, p1 n p2 n ñ n pr, son los valores singulares de . Entonces, una posible aproximación de por matrices del mismo tamaño y rango con 0 m m r es la matriz % p1 1v t1 ! ñ ! p

vt.

Nota . La descomposición de una matriz en valores singulares tiene aplicación en los campos de compresión de imágenes digitales, recuperación de información e indexación semántica latente. Las imágenes pueden representarse con matrices de números enteros que se mueven en de la una escala que refleja, por ejemplo, una escala de grises. Las diversas aproximaciones matriz descritas en la Nota 4, con a r % rango de , nos permiten obtener imágenes digitales comprimidas de , que visualmente son una aproximación de la imagen original. Para más información consultar el artículo «La descomposición en valores singulares» (SVD) y algunas de sus aplicaciones, J. J. Martínez Fernández de las Heras, La Ga eta e la , Vol. 8.3 (2005), págs. 795-810.

EJERCICIOS 8.8 1. Hallar la descomposición en valores singulares de las siguientes matrices

a)

A

1 0

0 0,5

B

1 0

b)

A

.4 0

B

0 0

c)

A B 2 0

2. Con la notación 1 % Negro, 0 % Blanco, la imagen

puede representarse matricialmente por

A B

1 0 % 0 0

0 1 1 0

0 1 1 0

0 0 . 0 1

3 2

d)

A

1 1 .1

B

0 .1 . 1

Sección 8.8. Descomposición en valores singulares de una matriz

413

Demostrar que

A B

2 0 G% 0 0 y calcular las matrices U y

2 % UG2

t

A B

y

0 0 1 0

0 0 0 0

de su descomposición en valores singulares. Considerar

2 0 G2 % 0 0 Calcular

0 1 0 0

0 1 0 0

0 0 0 0

1 % UG1

0 0 0 0

t

,

A B

2 0 G1 % 0 0

0 0 0 0

0 0 0 0

0 0 . 0 0

dibujando en cada caso la imagen que representan.

3. Sea à m#n (⺢) una matriz de rango r y denotemos por : ⺢n r ⺢m la aplicación lineal con matriz en bases fijadas en ⺢n y ⺢m. Sea % UG t la descomposición de en valores singulares según el Teorema 8.8.1. Sean { 1, ..., m} las columnas de U, {v1, ..., vn} las columnas de y p1 n p2 n ñ n pr los valores singulares de . a)

Demostrar que { 1, ...,

b)

Demostrar que {

c)

Demostrar que {vr!1, ..., vn} es una base ortonormal de Ker ( ).

d)

Demostrar que {v1, ..., vr} es una base ortonormal de Im ( t).

r!1 ,

r}

...,

es una base ortonormal de Im ( ). m}

es una base ortonormal de Ker ( t).

4. Se sabe que la descomposición en valores singulares de una matriz

A

3/∂22

% 2/∂22 3/∂22

1/∂2 0 .1/∂2

1/∂11

.3/∂22 1/∂11

BA

0

0

3

0

0

BA /

∂11

1/∂2 1 ∂2

es 1/∂2

.1/∂2

B

.

Usar el ejercicio 3 para probar que la aplicación lineal : ⺢2 r ⺢3 cuya matriz es en las bases canónicas es inyectiva y hallar bases ortonormales de Ker( t), Im ( ) e Im ( t). 5. a)

Hallar una solución por mínimos cuadrados de

A BA B A B 1 .2 1

b)

2 1 2

1 % 1 . y 4

Hallar una solución por mínimos cuadrados del sistema incompatible

A BA B A B 2 0 3

1 0 1

6 % 5 . y 4

414

Capítulo 8. Espacios euclídeos

6. Dada la matriz

A

2 % 2 1 à ⺢ tal que 88 3

hallar todos los vectores

7. a)

Dada la matriz

AB

%

A

2 1

0 0

1 1 0

2 2 .1

B

AB

0 . b88 sea lo menor posible con b % 1 . 0

B

2 , hallar la «mejor» solución 1

0

del sistema

% b con

8 , en el sentido de mínimos cuadrados, usando una descomposición en valores 4 singulares de .

b%

b)

Generalizar el resultado del apartado anterior al caso a, , à ⺢.

%

A

a 1

0 0

B

AB

a a y b% 1

con

Biografía uclides vivió alrededor del año 300 antes de Cristo, pero no se conocen ni la fecha ni el lugar exactos de su nacimiento. De su vida solo se conoce que enseñó y fundó una escuela en Alejandría en la época de Ptolomeo I que reinó desde el año 323 hasta el año 285 antes de Cristo, aproximadamente. Euclides es el matemático más prominente de la antigu¨edad, conocido por su libro Lo ele mento . Este libro ejerció una influencia enorme en el pensamiento matemático hasta el siglo XIX, en el que nuevas formas de geometría no euclídea fueron introducidas. Parte de Lo ele mento es una recopilación de trabajos de otros matemáticos puestos por primera vez juntos mediante un razonamiento lógico.

Capítulo 9

Espacios hermíticos.

9.1. Producto hermítico. 9.2. Aplicaciones entre espacios hermíticos.

416

Capítulo 9. Espacios hermíticos

9.1. Producto 9.1. PRODUCTO hermítico HERMÍTICO

En el capítulo anterior hemos introducido la noción de ro to e alar en un espacio vectorial real, obteniendo así los espacios euclídeos, en los cuales se pueden definir las nociones de longitud de un vector y de ortogonalidad de dos vectores. En este capítulo dotaremos a los espacios vectoriales om le o de una estructura adecuada para poder definir las nociones de longitud de un vector y de ortogonalidad de dos vectores en un espacio vectorial complejo. El nuevo concepto que introduciremos en un espacio vectorial complejo recibirá el nombre de ro to er míti o y los nuevos espacios así obtenidos se llamarán e a io ermíti o . Advertimos al lector que muchos de los resultados en espacios hermíticos son similares a los resultados en espacios euclídeos y que las demostraciones de aquellos son similares a las de estos. Debido a esto, muchas de las demostraciones serán omitidas en este capítulo.

Definición 9.1.1 (Producto erm tico) Sea a) b) c) d)

un espacio vectorial complejo. Una aplicación ( , ): to ermíti o si satisface las siguientes propiedades:

#

r ⺓ se dice que es un ro

( , ) % ( , ) para todo , à . ( , ! v) % ( , ) ! ( , v) para todo , , v à . (j , ) % j( , ) para todo , à y j à ⺓. % 0. ( , ) b 0 para todo Ç 0 y ( , ) % 0 á

Nota. Recordemos que si j % a ! ib con a, b à ⺢, es un número complejo, j1 % a . ib recibe el nombre de on ga o de j. Además, a se denomina la arte real e j y se designa por Re (j), y b se denomina la arte imaginaria e j, y se designa por Im (j). Se cumple que, jj1 % (a ! ib)(a . ib) % a2 ! b2 % 8j82, donde 8j8 se utiliza para representar el módulo de j. De las propiedades b) y a) del producto hermítico se deduce bñ)

( ! , v) % ( , v) ! ( , v) para todo , , v à

.

De las propiedades c) y a) del producto hermítico se deduce: ( , j ) % (j , ) % j( , ) % j1 ( , ),

cñ)

para todo , à y j à ⺓. Observar que esta propiedad es diferente de la correspondiente para el producto escalar. Sean 1, 2, ..., n, 1, 2, ..., n à y a1, a2, ..., an, b1, b2, ..., bn à ⺓; combinando las propiedades b) y c) junto con bñ) y cñ) se deduce:

A

n

B

m

; a , ; b

%1

%1

*

n

m

% ; ; a b1 ( , %1 %1

*

*

).

(1.1)

Sección 9.1. Producto hermítico

417

Definición 9.1.2 ( spacio erm tico) dotado de un producto hermítico recibe el nombre de e a io

Un espacio vectorial complejo ermíti o.

Un ejemplo de espacio hermítico es ⺓n con el producto hermítico dado por ( , )%

1

66 1 !

2

66 2 ! ñ !

66

n

n

donde % ( 1, 2, ..., n) y % ( 1, 2, ..., n), que se llamará ro to ermíti o al. Otro ejemplo de espacio hermítico es el conjunto ⺓([a, b]) de las funciones continuas con valores complejos definidas en el intervalo [a, b] Ñ ⺢, con el producto hermítico dado por ( , g) %

I

b

( )g( )

a

para toda , g à ⺓([a, b]). En particular, los conjuntos ⺓([a, b]) de todos los polinomios con coeficientes complejos definidos en el intervalo [a, b] y (n) ⺓ ([a, b]) de todos los polinomios del conjunto anterior de grado no superior a n son espacios hermíticos con el mismo producto hermítico que el definido en ⺓([a, b]). La comprobación de las afirmaciones anteriores se deja como ejercicio. Supongamos que el espacio hermítico es de dimensión finita n, es decir, el espacio vectorial complejo tiene dimensión n, y sea % { 1, 2, ..., n} una base de . Si , à podemos escribir n

%; i%1

n i i,

%;

%1

con i , i à ⺓ para todo i % 1, ..., n. Utilizando (1.1) se tiene el siguiente resultado:

A

n

( , )% ;

n i i,

i%1

;

%1

B

n

n

%; ;

i

i%1 %1

( i , ).

(1.2)

La matriz

A

( 1, ( 2, % ó ( n,

1) 1)

1)

( 1, ( 2, ó ( n,

ñ ñ 2) 2)

2)

( 1, ( 2, ó ( n,

ñ

n) n)

n)

B

recibe el nombre de matri el ro to ermíti o on re e to a la ba e notación la igualdad (1.2) puede escribirse de la forma

AB 1

( , ) % ( 1, ...,

n)

ó

n

.

e

. Con esta

418

Capítulo 9. Espacios hermíticos

Debido a la propiedad a) del producto hermítico ( i , ) % ( , i) para todo i Ç , luego la matriz no es, en general, simétrica, como ocurría en el producto escalar. Dada una matriz % (ai )i%1,...,n con ai à ⺓, se denomina on ga a e a la matriz %1,...,m

1 % (ai )i%1, ...,n , que se obtiene hallando el conjugado de cada uno de los elementos de . %1, ...,m

Una matriz cuadrada

% (ai )i,

%1, ...,n

se dice im tri a on ga a o ermíti a si 1 t% ,

donde 1 t representa la matriz traspuesta de 1 . Si es simétrica conjugada, aii % aii para todo i % 1, ..., n; puesto que un número complejo es igual a su conjugado si y solo si este número es real, deducimos que los elementos de la diagonal principal de una matriz simétrica-conjugada son números reales. Además, ai % a i, i Ç , y, por tanto, los elementos simétricos con respecto a la diagonal principal son conjugados entre sí. Así pues,

A

a12 ñ a22 ñ ó a2n ñ

a11 a % 12 ó a1n EJEMPLO A.

La matriz

%

A

a1n a2n ó ann

B

B

,

aii à ⺢

1 i es simétrica conjugada. .i 1

Nota. El lector habrá quedado convencido de que la matriz del producto hermítico con respecto a una base es siempre una matriz simétrica conjugada. * En un espacio hermítico

la longit

*

*

o norma de un vector à

se define mediante

9 9 % ∂( , ) que es un número real no negativo. Observar que la definición tiene sentido ya que ( , ) n 0 debido a la propiedad d) del producto hermítico. Para todo j à ⺓ y à se tiene la igualdad: 9j 9 % ∂(j , j ) % ∂jj1 ( , ) % ∂8j82( , ) % 8j89 9. Un vector de norma 1 se dice nitario. Todo vector no nulo à puede ser normali a o, es decir, multiplicado por un número complejo j de manera que j sea unitario: basta tomar j%

1 . 99

En un espacio hermítico se cumple también la e ig al a 8( , )8 m 9 9 9 9,

, à

e .

ar :

Sección 9.1. Producto hermítico

419

La demostración es similar a la del caso euclídeo, excepto que debe tenerse cuidado en las operaciones con números complejos (para el caso euclídeo ver la Proposición 8.1.2). La demostración procede de la siguiente manera: si j à ⺓, 0 m ( ! j , ! j ) % 9 92 ! j1 ( , ) ! j( , ) ! 8j829 92; los números j( , ) y j1 ( , ) son conjugados, ya que j1 ( , ) % j1 ( , ) % j( , ) y, por tanto, su suma coincide con el doble de la parte real de j( , ); tenemos, pues, 0 m 9 92 ! 2 Re (j( , )) ! 9 928j82. Puesto que la parte real de todo número complejo nunca supera a su módulo tenemos la desigualdad 0 m 9 928j82 ! 28j88( , )8 ! 9 92. Esta ecuación cuadrática en 8j8 à ⺢ no puede tener raíces reales distintas (el razonamiento es el mismo que en el caso euclídeo) y, por tanto, su discriminante ha de ser negativo o nulo: 8( , )82 . 9 929 92 m 0 de donde deducimos el resultado deseado. A partir de la desigualdad de Schwarz pueden demostrarse las e ig al a e triang lare siguientes: 9 ! 9 m 9 9 ! 9 9 y también 89 9 . 9 98 m 9 . 9. A pesar de que no puede definirse el concepto de ángulo en un espacio hermítico (¿por qué?), podemos dar la noción de ortogonali a : à es ortogonal a à si ( , ) % 0. Podemos definir, por tanto, el om lemento ortogonal de : ü

%{ à

: ( , ) % 0 para todo

ü

, de un subespacio vectorial à

}.

En un espacio hermítico el teorema de Pitágoras es también cierto: si es ortogonal a , 9 ! 92 % 9 92 ! 9 92. En los espacios hermíticos puede realizarse el ro e o e ortogonali a i n de un conjunto de vectores linealmente independientes (ver Teorema 8.2.1); el proceso es exactamente igual que en los espacios euclídeos, por lo cual se omite aquí. En particular, todo espacio hermítico de dimensión finita posee una ba e ortonormal, es decir, una base formada por vectores unitarios mutuamente ortogonales. EJEMPLO B. Queremos aplicar el proceso de ortogonalización a los vectores 1 % (i, 0, 0), 3 2 % (0, i, 1) y 3 % (1, 0, 1) del espacio hermítico ⺓ con el producto hermítico usual. Tomamos e1 % 1 y e2 % 2 ! je1, con j à ⺓; calculamos j imponiendo la condición (e2, e1) % 0: 0 % (e2, e1) % ( 2, e1) ! j(e1, e1) % 0 ! j · 1.

420

Capítulo 9. Espacios hermíticos

Por tanto, e2 %

2.

Finalmente, tomamos e3 %

3 ! ae1 ! be2

a, b à ⺓

,

y calculamos a y b con las condiciones (e1, e3) % 0 y (e2, e3) % 0. 0 % (e1, e3) % (e1,

3) ! a6 (e1,

e1) % i ! a6 · 1

0 % (e2, e3) % (e2,

3) ! b1 (e2,

e2) % 1 ! b1 (1 ! 1).

Por tanto, a6 %.i o, equivalentemente, a % i, y b1 %.1/2 o, equivalentemente, b %.1/2. El tercer vector es e3 %

3 ! ie1 .

1 1 e2 % (1, 0, 1) ! (.1, 0, 0) . (0, i, 1) % (0, .i/2, 1/2). 2 2

9.2. Aplicaciones 9.2. APLICACIONES entre espacios hermi ENTRE ´ticos ESPACIOS HERMÍTICOS

En esta sección estudiaremos algunos tipos particulares de aplicaciones de un espacio hermítico en sí mismo, así como la diagonalización (compleja) de algunos de estos tipos. Dado un espacio hermítico y una aplicación à L( ), se denomina a nta e , y la llamaremos , a toda aplicación lineal que satisface ( ( ), ) % ( ,

( )) ,

,

à

.

Si el espacio hermítico es de dimensión finita, lo cual siempre se supondrá cierto de aquí en de se demuestran como en el adelante, la existencia y unicidad de la aplicación adjunta caso de espacios euclídeos (ver sección 8.4). Es conveniente demostrar la existencia para enen una base ortonormal de . contrar la relación que existe entre las matrices de y Sea % (ai ) la matriz de à L( ) en una base ortonormal % {e1, e2, ..., en}; por tanto, n

(e ) % ; a e . %1

Si

à L( ) se tiene que

% ( i ) es la matriz de

n

(ei) % ;

%1

ie

.

Por tanto,

A A

n

B B

ai % ; a e , ei % ( (e ), ei) % (e , %1

n

% e, ;

%1

ie

%

(ei)) %

i.

Hemos llegado a la conclusión de que la matriz de en la base ortonormal es la on ga a tra e ta de , es decir, 1 t. Esta matriz se suele denominar también a nta de y se denota con el símbolo .

Sección 9.2. Aplicaciones entre espacios hermi´ticos

421

Las propiedades de la aplicación adjunta son las mismas que las dadas en la sección 8.4 para la aplicación adjunta en espacios euclídeos. * en

*

*

Sea à L( ); la aplicación se dice a toa nta si % . Por tanto, si , la matriz de en una base ortonormal ha de satisfacer

es autoadjunta

% 1 t, es decir, debe ser una matriz im tri a on ga a; a estas matrices se les da también el nombre de ermíti a . *

*

Las aplicaciones de un espacio hermítico co reciben el nombre de nitaria . Por tanto,

*

en sí mismo que conservan el producto hermítià L( ) es nitaria si y solo si

( ( ), ( )) % ( , ) , Si

,

à

.

es unitaria se ha de tener (,

( )) % ( , )

o

para todo , à , y por tanto, o % . Si y representan las matrices de y rior se escribe de la forma

en una base ortonormal de

, la igualdad ante-

· % o, equivalentemente, .1

%

% 1 t.

Las matrices que satisfacen una cualquiera de las dos desigualdades anteriores reciben el nombre de matri e nitaria . El conjunto de todas las matrices unitarias de orden n se denota por U(n) y, por tanto, U(n) % { à ᏹ n#n(⺓): 1 t · % }. Puesto que la composición de aplicaciones unitarias es otra aplicación unitaria y la inversa de una aplicación unitaria siempre existe y es una aplicación unitaria, el conjunto U(n) es un gr o con respecto a la multiplicación de matrices que se llama gr o nitario. Se invita al lector a comprobar con detalle este resultado. Lo a tovalore e na a li a i n nitaria eben er n mero om le o e m lo 1 y lo a tovalore e na a li a i n a toa nta eben er reale . En efecto, si à L( ) es una aplicación unitaria y j es un autovalor de con autovector à , se tiene ( , ) % ( ( ), ( )) % (j , j ) % jj1 ( , ) % 8j829 92 de donde resulta 8j8 % 1.

422

Capítulo 9. Espacios hermíticos

Si tiene

à L( ) es una aplicación autoadjunta y j un autovalor de

con autovector

à

j9 92 % j( , ) % (j , ) % ( ( ), ) % ( , ( )) % ( , j ) % j1 9 92,

, se (2.1)

de donde resulta que j % j1 y, por tanto, j à ⺢. *

*

*

A continuación nos dedicaremos a demostrar que tanto las aplicaciones autoadjuntas como las aplicaciones unitarias en espacios hermíticos pueden diagonalizarse. (Comparar este resultado con los resultados análogos para aplicaciones autoadjuntas y aplicaciones ortogonales en espacios euclídeos obtenidos en las secciones 8.4 y 8.6). Nuestra forma de proceder es demostrar que una clase de aplicaciones, que definiremos a continuación, y que engloba a las anteriores, es diagonalizable. Una aplicación lineal à L( ) se dice normal si conmuta con su adjunta, es decir, o

%

.

o

EJEMPLO A. 1. Si es autoadjunta, es normal, ya que o % o % o 2. Si es unitaria, es normal, ya que o % .1 o % y 3. La aplicación cuya matriz es

A B j1

%

j2 .

0

. o

%

o

.1

% .

0

..

,j à⺓

jn

en una base ortonormal, es también normal ya que

·

%

A

8j182

8j282 .

0

0 ..

8jn8

2

B

%

·

.

Para reducir una aplicación normal a su forma más sencilla es necesario tener conocimiento de sus posibles autovalores y de sus subespacios invariantes. Proposición 9.2.1 Sea à L( ) una aplicación normal. Todo autovector à un autovector de , con autovalor j1 .

de , con autovalor j à ⺓, es

Demostración. El subespacio 1(j) de todos los autovectores de autovalor j es invariante por , ya que si à 1(j), o

y, por tanto,

( )à

1(j).

( )%

Además, si ,

( )%

o

à

(j ) % j ( )

1(j),

( ( ), ) % ( , ( )) % ( , j ) % j1 ( , ).

que tienen el mismo

Sección 9.2. Aplicaciones entre espacios hermi´ticos

Tomando en particular

%

( ) . j1 à

1(j)

se tiene que

( ( ) . j1 , de donde se deduce

423

( ) . j1 ) % 0, 䊏

( ) % j1 .

Proposición 9.2.2 Sea à L( ) una aplicación normal y sea 1(j) el subespacio vectorial de todos los autovectores de con el mismo autovalor j à ⺓. Entonces, (j) % 1(j)ü es invariante por . à

Demostración. Si además,

(j) y

à

1(j)

( )) % ( , j1 ) % j( , ) % 0

( ( ), ) % ( , de donde se deduce que ( ) à

( ) % j1 (Proposición 9.2.1) y,

se tiene que



(j).

El siguiente teorema nos da la diagonalización de toda aplicación normal en un espacio hermítico. Teorema 9.2.3 (Teorema espectral) La matriz de una aplicación normal en un espacio hermítico puede ser reducida en una base ortonormal determinada a una matriz diagonal. Demostración. Realizamos la demostración por inducción en la dimensión n del espacio hermítico . Si n % 1 el teorema es cierto. Supongamos que n b 1 y sea 1(j1) el subespacio de autovectores de con autovalor j1; si 1(j1) % , cualquier base ortonormal de produce una matriz diagonal con j1 en su diagonal principal. Si 1(j1) Ü , (j1) % 1(j1)ü es de dimensión mayor o igual que 1 y menor que n. Por la hipótesis de inducción,

A B j1

8

1(j1)

%

0

..

0

.

A B j2

8

,

(j1) %

j1

0

..

0

.

.

j

Puesto que % 1(j1) S (j1), puede reducirse a una matriz diagonal (yuxtaposición de las 䊏 dos anteriores) en una base ortonormal.

Corolario .2.4 Las matrices simétricas conjugadas y las matrices unitarias son diagonalizables. En el caso particular de que sea nitaria, sus autovalores han de ser de módulo 1, es decir, j % eir y, por tanto, puede reducirse a

A

eir1 0

..

0 . e

B

irn

.

424

Capítulo 9. Espacios hermíticos

Si

es autoadjunta, sus autovalores son reales (ver (2.1)), y, por tanto, puede reducirse a

A B j1

..

0

.

jn

0

* Sea

, j à ⺢.

*

*

à U(n); por el Teorema 9.2.3 existe una base ortonormal

A

eir1

%

..

B

0 . e

0

.1

de ⺓n de manera que

,

irn

donde es la matriz del cambio de base de la base canónica a . Por tanto, transforma una base ortonormal en otra base ortonormal y esto es suficiente para asegurar que à U(n). Por tanto, % Cuando

A

eir1

0 .

B

1 t.

eirn

0

es simétrica conjugada o hermítica, un razonamiento similar produce

A B j1

%

..

0

.

1 t, ji à ⺢,

jn

0

con

..

à U(n).

Para futuras referencias enunciamos este resultado a continuación; observar que este resultado es el análogo para espacios hermíticos de la Proposición 8.6.3. Proposición 9.2.5 1) Dada

à U(n), existe

à U(n) tal que

A B er1

%

..

0

.

ern

0

2) Dada

à ᏹ n#n(⺓) y tal que % 1 t, existe %

à U(n) tal que

A B j1

..

0

.

jn

0

*

1 t.

*

*

1 t, j à ⺢.

Sección 9.2. Aplicaciones entre espacios hermi´ticos

425

En espacios hermíticos existe un resultado análogo al enunciado en el Teorema 8.7.1 para espacios euclídeos. Se tiene entonces que to a a li a i n lineal no ing lar en n e a io ermíti o e e e ribir e e la orma %Uo on e e a toa nta y U e nitaria. La demostración de este resultado es análoga a la dada para el Teorema 8.7.1. En el caso de espacios hermíticos este resultado tiene una interpretación elegante; si estuviera definida en el espacio hermítico ⺓, la matriz de sería un número complejo a ! bi no nulo, la matriz de sería un número real r y la matriz de U sería un número complejo de módulo 1 de la forma eir, por tanto a ! bi % eirr, que es la forma polar de un número complejo. Entonces, la fórmula %Uo puede interpretarse como la «forma polar» de una aplicación no singular y de hecho recibe el nombre de e om o i i n olar e . Evidentemente, también existe una descomposición polar de toda matriz à ᏹ n#n(⺓) no singular, lo cual puede deducirse de la descomposición polar para aplicaciones. Puesto que no lo hicimos en el capítulo anterior, daremos aquí una demostración directa de este hecho. Proposición 9.2.6 Sea à ᏹ n#n(⺓) con 8 8 Ç 0; existen dos matrices U à U(n) y tales que % U · . Demostración. La aplicación

%

es simétrico conjugada, ya que

% 1 t % ( 1 t )t % (

%

A B j2 .

0

De la definición de

1 )t % 1 t % .

0

1t

..

j à ⺢.

,

jn

se deduce que j b 0, % 1, 2, ..., n. Pongamos

A

∂j1

% y también

t

à U(n) tal que

Por la Proposición 9.2.5 tenemos que existe j1

simétrica conjugada,

0 %

..

0 . ∂jn 1 t.

B

426

Capítulo 9. Espacios hermíticos

y observemos que es invertible por ser producto de matrices invertibles. Sea U % tonces % U y además es una matriz simétrica conjugada ya que 1 t)t % ( 1 t)t

% 1t%(

.1

. En-

1 t% .

1 t%

Únicamente falta por demostrar que U es unitaria: .1 t

U U % U1 tU % (

)(

t .1

)

1t (

( 1t

)

%( 1 .1

%

.1

) % ( t).1 1 t ·

.1 .1

1 t) % (

1 t%

.1

%

1 t).1 (

.1 2 .1 .1

en donde se ha utilizado repetidamente el hecho de que

1 t%

.1

1 t) %

1 t% , 䊏

% 1 t.

Finalmente, queremos resaltar que todo espacio euclídeo puede convertirse en un espacio hermítico. Ya sabemos (ejercicio 4 de la sección 6.9) que todo espacio vectorial real puede convertirse en un espacio vectorial om le o ⺓; podemos tomar % ⺓ y definir ( ! iv, ! i )⺓ % [( , ) ! (v, )] ! i[.(v, ) ! ( , )], donde ( , ) denota el producto escalar en , y ! iv, ! i à . El lector puede comprobar que ( , )⺓ es un producto hermítico en (ejercicio 6 al final de esta sección). Las aplicaciones autoadjuntas en son también autoadjuntas en y las aplicaciones ortogonales en son unitarias en ; consecuentemente, los autovalores de aplicaciones ortogonales son números complejos de módulo 1 (comparar este resultado con el Teorema 8.5.4).

EJERCICIOS (Capítulo 9) 1. En el espacio hermítico ⺓3 con el producto hermítico usual encontrar el complemento ortogonal del subespacio vectorial generado por el vector % (i, 0, 1). 2. Sea ⺓2 con el producto hermítico usual. Estudiar si son unitarias las siguientes matrices:

a)

A

3 ! 2i 2!i

5.i 1!i

B

A

b)

1 ! i∂2 2

i 2

i 2

1 . i∂2 2

B

c)

A

1!i .1 . i

B

2!i . .1

3. Encontrar las matrices de Jordan de las dos últimas matrices del ejercicio 2, así como matrices de cambio, siendo estas últimas unitarias si la matriz de partida es unitaria.

A

0 % i 0 en ⺓3 en la que tenga

4. Demostrar que

B

i 0 0 0 es una matriz normal y encontrar una base ortonormal 0 .1 una forma diagonal.

Sección 9.2. Aplicaciones entre espacios hermi´ticos

A

427

B

1!i 1 à ᏹ 2#2(⺓). Encontrar una descomposición polar de , es decir, 1 1.i una matriz unitaria U y una matriz simétrica conjugada, tal que % U .

5. Sea

%

6. Sea

un espacio euclídeo; en

%

⺓%{

! iv: , v à } definir

( ! iv, ! i )⺓ % [( , ) ! (v, )] ! i[.(v, ) ! ( , )] donde ( , ) describe el producto escalar en un producto hermítico en .

y ! iv, ! i

à . Demostrar que ( , )⺓ es

Biografía arles ermite nació el 24 de diciembre de 1822 en Dieuze (Francia) y murió el 14 de enero de 1901 en París. A pesar de que a los 20 años ya había demostrado su capacidad matemática, sus dificultades con los exámenes le llevaron a dedicar cinco de los años más productivos de su vida a preparar los exámenes para la obtención de la licenciatura, que consiguió en 1848. Enseñó en la Escuela Politécnica de París y después en el Colegio de Francia, en la misma ciudad. No fue hasta 1869 que fue nombrado profesor en la Escuela Normal de París, para pasar un año más tarde a ser profesor de Álgebra en la Sorbona. En 1873 Hermite publicó la primera demostración de que el número e es trascendente, es decir, no es raíz de ninguna ecuación algebraica con coeficientes racionales. Contribuyó decisivamente al desarrollo de la teoría de las formas cuadráticas, así como a la solución de la ecuación general de quinto grado utilizando las funciones elípticas.

a

Capítulo 10

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3. 10.1. Espacio afín. Variedades lineales. 10.2. Transformaciones afines. Ejemplos. 10.3. Espacio afín euclídeo. Movimientos. 10.4. Estudio geométrico de los movimientos en el plano. 10.5. Estudio analítico de los movimientos en ⺢2. 10.6. Descripción geométrica de los movimientos en el espacio. 10.7. Clasificación de los movimientos en ⺢3. 10.8. Ecuaciones de los movimientos en ⺢3. 10.9. Movimientos en ⺢3 y puntos fijos.

430

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Comenzaremos este capítulo definiendo el concepto de e a io a ín, que estará formado por un conjunto de puntos y un espacio vectorial asociado. Cuando este espacio vectorial sea un espacio euclídeo tendremos un e a io a ín e lí eo. Podemos pensar que el espacio afín es ⺢n y que está formado por puntos, los cuales serán designados por letras mayúsculas como , , , ... Dados dos puntos y de ⺢n definimos la distancia de a mediante ( ,

)%9

9%

J

n

; ( i . y i) 2

i%1

donde ( 1, 2, ..., n) e (y2, y2, ..., yn) son las coordenadas de y , respectivamente, con respecto a un sistema de referencia fijado en ⺢n. En este capítulo vamos a estudiar detenidamente los tipos de aplicaciones en ⺢2 y ⺢3 que conservan la distancia. El lector habrá podido adivinar que debe existir cierta relación entre las aplicaciones en ⺢2 y ⺢3 que conservan las distancias y aquellas aplicaciones que conservan el producto escalar usual en los mismos espacios considerados como espacios euclídeos. Tales aplicaciones han sido estudiadas en el Capítulo 8, y son las aplicaciones ortogonales. Debido a esto es conveniente que el lector esté familiarizado con los resultados demostrados en el Capítulo 8.

10.1. Espacio 10.1. Eafín. SPACIO Variedades AFÍN. linealesVARIEDADES LINEALES

es una matriz de m filas y n columnas de

En el ejemplo C de la sección 4.4 se observó que si rango r, las soluciones del sistema homogéneo

à ⺢n,

% 0,

(1.1)

son un subespacio vectorial de ⺢n de dimensión % n . r. Este subespacio vectorial, que denotamos por ᏸ, es un subespacio vectorial generado por vectores linealmente independientes que sean solución de (1.1); es decir: 1, 2, ..., ᏸ % L( 1,

2,

...,

).

Si consideramos el sistema no homogéneo % b,

à ⺢n,

b à ⺢m,

(1.2)

sabemos que sus soluciones pueden escribirse de la forma %v!

1 1!ñ!

,

à⺢

Sección 10.1. Espacio afín. Variedades lineales

431

(Teorema 1.2.8). Por tanto, podemos describir el conjunto de soluciones de (1.2) como v ! ᏸ (véase figura 10.1).

i

ra 10.1

Este conjunto se obtiene trasladando ᏸ % L( 1, 2, ..., ) mediante el vector v. Si % 1 se obtiene una recta, si % 2 se obtiene un plano y, en general, si b 2 los objetos que se obtienen se denominan lano . Todos ellos reciben el nombre de varie a e lineale . Este tipo de construcción puede hacerse no solamente en ⺢n, sino en otros espacios vectoriales. Sea ᏼ un conjunto de elementos, que se denominarán nto , y un espacio vectorial. El par (ᏼ, ) recibe el nombre de e a io a ín, ⺑, si todo par ordenado ( , ) de puntos puede ponerse en correspondencia con un único vector u de , lo cual escribiremos de la forma % u, que satisface las siguientes propiedades: 1) Para todo punto y para todo vector u de , existe un solo punto tal que % u. Escribiremos entonces % ! u. ! % . 2) Para cada tres puntos , y se tiene que

i

ra 10.2

Usaremos la notación à ⺑ para indicar à ᏼ donde ᏼ es el conjunto de puntos del espacio afín ⺑. El espacio afín ⺑ se dice que tiene imen i n n si el espacio vectorial asociado a ⺑ es de dimensión n. Todo subconjunto de ⺑ de la forma !ᏸ%{

à ᏸ},

à ᏼ:

donde es un punto y ᏸ es un subespacio vectorial de , recibe el nombre de varie a lineal e ⺑. La imen i n de ! ᏸ es la dimensión de ᏸ como subespacio vectorial de . Así las variedades lineales de dimensión 0 son los puntos de ᏼ, las de dimensiones 1, 2, n . 1 se llaman re ta , lano e i er lano respectivamente, donde n % dim ( ). EJEMPLO A. Consideremos en ᏼ % ⺢3 la estructura afín habitual: si % ( 1, 2, 3) entonces definimos %(

1.

1,

2.

2,

3.

3)

à

% ⺢3.

% ( 1,

2,

3)

y

432

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Sea ᏸ % L( ) Ñ %⺢3 el subespacio de ⺢3 de dimensión 1 generado por el vector %(1, 1, 1). Entonces, la variedad lineal de dimensión 1 que pasa por % (1, 2, 3) y tiene dirección ᏸ es (1, 2, 3) ! ᏸ % {( , y, ) à ⺢2 % ᏼ : ( . 1, y . 2, . 3) à ᏸ} % {( , y, ) à ⺢3 % ᏼ :

. 1 % y . 2 % . 3}.

Proposición 10.1.1 Sea ᏸ un subespacio vectorial de un espacio vectorial . Sean , espacio afín ⺑ % (ᏼ, ). Entonces, si à ! ᏸ se tiene ! ᏸ % Demostración. Veamos que !ᏸÑ !ᏸ. En efecto, si % u à ᏸ por hipótesis. Luego Además % y en consecuencia à Veamos ahora que à

à !ᏸ, entonces

% v à ᏸ.

%.u ! v à ᏸ

! ᏸ. ! ᏸ Ñ ! ᏸ. Si %

lo que prueba que

!

dos puntos de un ! ᏸ.

à

!

! ᏸ se tiene

% à ᏸ. Entonces,

%u! à ᏸ 䊏

! ᏸ. *

*

*

En un espacio afín ⺑ % (ᏼ, ) un i tema e re eren ia está formado por un punto à ᏼ, que se considera el origen, y una base {e1, e2, ..., en} del espacio vectorial subyacente . Utilizaremos la notación ᏾ % { ; e1, e2, ..., en} para designar este sistema de referencia. Dado un punto , existe un vector de , ; si % 1e 1 ! diremos que ( 1, 2, ..., ia ᏾. Escribiremos

n.)

que está en correspondencia con el par de puntos 2 e 2 ! ñ ! n en

son las oor ena a % 1e 1 !

el

nto

on re e to al i tema e re eren

2 e2 ! ñ ! n en.

Podemos plantearnos el problema de determinar unas ecuaciones implícitas de una variedad lineal dada por % ! ᏸ en un sistema de referencia ᏾ % { ; e1, ..., en} en un espacio afín ⺑. EJEMPLO B. En el espacio afín ⺢3 consideramos la recta afín % (1, 2, 3) ! ᏸ con ᏸ % L(e1 ! e2 ! e3) donde {e1, e2, e3} es una base de % ⺢3. Cada punto ( , y, ) de ⺢3 está en si y solamente si el vector (1, 2, 3)( , y, ) pertenece a ᏸ. Por tanto este vector debe ser proporcional a e1 ! e2 ! e3 y en consecuencia la matriz

A B .1 1 y.2 1 .3 1

Sección 10.1. Espacio afín. Variedades lineales

433

debe tener rango 1. Esto implica la equivalencia ( , y, ) à

G

á

Luego

G

.1 1 %0 y.2 1

G

. y ! 1 % 0,

% {( , y, ) à ⺢3 : que nos da una descripción de

,

G

.1 .3

1 % 0. 1

. ! 2 % 0},

con ecuaciones implícitas, como ya se obtuvo en el ejemplo A.

* * * Podemos generalizar el razonamiento del ejemplo B para hallar unas ecuaciones implícitas de una variedad lineal dada % !ᏸ cuando ᏸ%L(v1, ..., v ) es de dimensión y %( 1, ..., n) es un punto del espacio afín, en un sistema de referencia dado ᏾ % { ; e1, ..., en}. Cada %( 1, ..., n) en debe satisfacer la condición ( 1 . 1, ..., n . n) à ᏸ%L(v1, ..., v } y por tanto ñ v1 1 . 1 v11 ó ó ó % rango ñ vn n . n v1n

A G

B

donde vi % {vi1, ..., vin} son las coordenadas de vi en la base {e1, ..., en} de . Supongamos que un menor no nulo de orden de la matriz

A

v11 ñ ó v1n ñ

es el determinante de la submatriz cuadrada %

A

Entonces unas ecuaciones implícitas de

v11 ñ ó v1 ñ

v1 ó vn

B B

v1 ó . v

son

(ver Teorema 2.5.1). EJEMPLO C. los puntos

Tratemos de hallar unas ecuaciones implícitas del plano n de ⺢4 que contiene a 1 % (1,

1, 1, 0)

Tenemos que n % 1 ! L( 1 2, ( 1, 2, 3, 4) à n, la matriz

2 % (0,

, 1 3)

con

1, 2, 3)

1 2 % (.1,

,

0, 1, 3) y

A G B 1.1

.1 0 2.1 . 1 1 3 3 4.0

.1 .1 0 .1

3 % (0,

0, 1, .1).

1 3 % (.1,

.1, 0, .1). Si

434

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

debe tener rango 2. Como

%

plícitas para n son

A

.1 0

B

.1 tiene determinante no nulo, unas ecuaciones im.1

Esto es n % {( 1,

2,

3,

4)

à ⺢4 :

1 . 2 ! 3 % 1,

*

*

3 1.4 2!

4 %.1}.

*

Supongamos que tenemos dos sistemas de referencia ᏾ % { ; e1, ..., en}

,

᏾ñ % { ;

1,

...,

n}

en un espacio afín ⺑ % (ᏼ, ). Sean ( 1, ..., n) las coordenadas de un punto à ᏼ con respecto al sistema de referencia ᏾ y sean ( ñ1, ..., ñn) las coordenadas del mismo punto à ᏼ con respecto al sistema de referencia ᏾ñ. Para encontrar las coordenadas ( ñ1, ..., ñn) de en ᏾ñ partir de las coordenadas ( 1, ..., n) de en ᏾ procedemos en dos etapas: Cambiamos el sistema de referencia ᏾ a ᏿ % { ; e1, e2, ..., en}, de manera que solamente hemos variado el origen. b) Pasamos de ᏿ a ᏾ñ dejando fijo el origen y realizando el cambio de base en el espacio vectorial .

a)

En la primera etapa el cambio de sistema de referencia se realiza de la siguiente manera: si (y1, ..., yn) designan las coordenadas de respecto a ᏿ y ( 1, ..., n) las de respecto a ᏾ se tiene que % ! á ( 1, ..., n) % ( 1, ..., n) ! (y1, ..., yn). Por tanto, (y1, ..., yn) % ( 1 . 1, ..., n . n). En la segunda etapa se trata de realizar únicamente un cambio de base en el espacio vectorial subyacente: si ( ñ1, ..., nñ ) son las coordenadas del punto con respecto a ᏾ñ y es la matriz del cambio de la base {e1, e2, ..., en} a la base { 1, 2, ..., n} se tiene que

AB AB AB AB A B AB AB y1 y2 % ó yn

ñ1 ñ2 . ó ñn

Combinando los resultados de estas dos etapas se tiene: ñ1 ñ2 % ó ñn

.1

que nos da las coordenadas de

y1 y2 % ó yn

1.

.1

2. ó n.

1 2

n



ñ % 2 ! ó nñ

1

.1

2

ó

n

con respecto al sistema de referencia ᏾ñ.

Sección 10.1. Espacio afín. Variedades lineales

435

EJEMPLO D. Sea un punto de coordenadas (3, 4) en un sistema de referencia ᏾%{ ; e1, e2} del espacio afin ⺢2 y sea ᏾ñ % { ; 1, 2} un nuevo sistema de referencia, donde tiene como coordenadas (1, 3) con respecto a ᏾ y 1 % e1 ! 2e2, 2 % 2e1 . e2. Las coordenadas del punto con respecto a ᏾ñ son

AB A ñ 1 ñ 2

%

1 2

.1

B A B A

2 .1

BA B A B

1 1 3.1 % 5 2 4.3

i

2 .1

2 4/5 % . 1 3/5

ra 10.3

EJEMPLO E. Sea ᏾ % { ; e1, e2, e3} un sistema de referencia en ⺢3 con respecto al cual el plano n tiene por ecuación 1 ! 2 ! 3 % 2. Sea ᏾ñ % { ; 1, 2, 3} un nuevo sistema de referencia tal que % (1, 1, 0), 1 %.e1 ! e3, 2 %.e2 ! e3 y 3 % e1 ! e2 ! e3. Para encontrar una ecuación implícita del plano n con respecto a ᏾ñ observamos que ( 1,

2,

3) % (1,

1, 0) ! t(.1, 0, 1) ! (0, .1, 1)

son ecuaciones paramétricas del plano n; por tanto, las coordenadas ( 1, n se transforman en ( ñ1, ñ2, ñ3) de manera que

AB A

BA B A B AB

ñ1 .1 0 1 ñ2 % 0 .1 1 ñ3 1 1 1

A

.1

2t . ! t ! 1 % .t ! 2 ! t ! 3 .t . ! t !

1.1

1 2.1 % 3 3.0

.2 1 1

t

%

1 .2 1

1 1 1

2,

3)

de un punto

de

BA B .t . t!

.

0

Por tanto, 3ñ % 0 es una ecuación implícita del plano n con respecto al sistema de referencia ᏾ñ.

EJERCICIOS 10.1 1. Hallar las ecuaciones implícitas de las siguientes variedades lineales a)

El plano n de ⺢3 que contiene a los puntos 1 % (1,

1, 0) ,

2 % (0,

1, 1)

,

3 % (1,

2, .1).

436

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Capítulo 10.

b) La variedad lineal ! ᏸ de ⺢4 con %(1, .2, 3, 0) y ᏸ%L( 1, 2, 3) con 1%(1, 1, 0, 0), 2 % (0, 0, 1, 1), 3 % (1, 2, .1, 0) en un sistema de referencia fijado. 2. En el plano, y respecto de una referencia dada ᏾, se dan los puntos % (1, 1) y % (.2, 0), los vectores 1 % (1, 2) y 2 % (.1, 1) y la recta r z 1 . 2 % 1. Hallar: con respecto al sistema de referencia ᏾ñ % { ;

a)

Las coordenadas de

b)

La ecuación de la recta r con respecto a ᏾ñ.

1,

2}.

3. Sea ᏾ñ el sistema de referencia en el plano que se obtiene girando un ángulo a en sentido positivo los vectores de un sistema de referencia dado ᏾. Si z ( 1 . 1)2 ! 22 % 4 es la ecuación de una circunferencia respecto a ᏾, encontrar la ecuación de respecto a ᏾ñ. ¿Cuáles son las coordenadas del centro de la circunferencia respecto de ᏾ñ? 4. Dado el plano de ecuación 1 . 2 ! 3 % 3 con respecto a un sistema de referencia ᏾ en ⺢3, encontrar un sistema de referencia ᏾ñ de ⺢3 en el que el plano anterior tenga por ecuación ñ2 % 0. z ( 1 . 1)2 ! ( 2 . 1)2 % 9 en el plano, encontrar sus ecuacio1 1 nes en el sistema de referencia ᏾ñ % { ; 1, 2}, donde % (3, 3), 1 % , , ∂2 ∂2 2 2 ,. . ¿Qué tipo de curva es en el sistema de referencia ᏾ñ? 2% ∂2 ∂2

5. Dada la circunferencia

A

A

B

B

6. Sea % { j}jàD un conjunto de puntos de un espacio afín ⺑ % (ᏼ, ) con espacio vectorial asociado . La varie a lineal engen ra a por se define como ( )%

j0 ! L({ j0 j}jàD).

a)

Demostrar que ( ) es la mínima variedad lineal que contiene a .

b)

Calcular unas ecuaciones implícitas para la mínima variedad lineal de ⺢4 que contiene a los puntos 1 % (1,

0, 0, 1)

,

2 % (0,

1, 0, 1)

,

3 % (0,

0, 1, 1)

dados en una referencia ᏾ % {0; e1, e2, e3, e4}. Calcular su dimensión. 7. Dadas dos variedades lineales 1 y 2 en un espacio afín, llamaremos varie a lineal ma de 1 y 2, y la denotaremos por 1 ! 2, a la mínima variedad lineal del espacio afín dado que contiene a 1 é 2. a)

Considerar ⺢3 con la estructura afín usual. Si 1 % (1, 0, 0) ! L(e1 ! e2 ! e3) y 2 % (0, 0, 0) ! L(2e1 ! e2 ! 2e3), calcular la dimensión de 1 ! 2. ¿Qué relación tiene esta dimensión con dim 1 y dim 2?

b)

Si 3 % {( , y, ) à ⺢3 : 2 . y . % 0}, calcular la dimensión de ción tiene esta dimensión con dim 1 y dim 3?

8. Considerar dos variedades lineales a)

1 ! ᏸ1

y

2 ! ᏸ2

1!

3.

¿Qué rela-

en un espacio afín ⺑ % (ᏼ, ).

Demostrar que estas variedades lineales se cortan si y solo si vectorial ᏸ1 ! ᏸ2.

1 2

está en el espacio

Sección 10.2. Transformaciones afines. Ejemplos

b)

Demostrar que si

à( (

c)

1 ! ᏸ1) ! ( 2 ! ᏸ2)

437

entonces

1 ! ᏸ1) ç ( 2 ! ᏸ2) % R ! (ᏸ1 ç ᏸ2).

Dada la familia de hiperplanos nj de ⺢4 de ecuaciones (j ! 1) ! (j . 1)y ! (j ! 1) % j

,

para j à ⺢,

demostrar que hay un plano n de ⺢4 tal que Y nj % n. Calcular la dimensión de nj ! , donde

jà⺢

es el plano de ⺢4 de ecuaciones % y % .

10.2. Transformaciones 10.2. TRANSFORMACIONES afines. Ejemplos AFINES. EJEMPLOS

Recordemos que un espacio afín ⺑ está formado por un conjunto ᏼ de puntos y un espacio à vectorial de manera que a cada par de puntos , à ᏼ le corresponde un único vector % ! . y tal que para cualesquiera tres puntos , , à ᏼ se verifica

Definición 10.2.1 Sean (ᏼ, ) y (ᏼñ, ñ) dos espacios afines sobre el mismo cuerpo ⺛. Una transformaci n af n o afinidad entre estos espacios es una aplicación : ᏼ r ᏼñ junto con una aplicación lineal 3 : r ñ tal que 3(

)% ( ) ( )

para ,

à ᏼ.

La aplicación lineal 3 se llama aplicaci n lineal asociada a la transformaci n af n . Comenzamos exponiendo un resultado que nos ayudará en varias de las demostraciones que siguen. Proposición 10.2.2 Sea tes:

una transformación afín de un espacio afín (ᏼ, ) en otro (ᏼñ, ñ). Son equivalen-

a)

es una transformación afín.

b)

( ! ) % ( ) ! 3 ( ) para

àᏼy

à .

Demostración. Para demostrar b) a partir de a) sean à ᏼ y à ; tomar % ! à ᏼ, % . Por la definición de transformación afín ( ) ( ) % 3 ( ) % 3 ( ). Luego es decir ( ) % ( ) ! 3( ) como queríamos demostrar. Recíprocamente, si ( ) ( ) % 3 ( ) % 3 ( ).

,

à ᏼ tomar

%

à

. Por b), 䊏

438

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Una consecuencia fácil de la proposición anterior es el siguiente resultado. Corolario 1 .2.3 Sean (ᏼ, ) y (ᏼñ, ñ) dos espacios afines y i : ᏼ r ᏼñ, i % 1, 2, dos transformaciones afines. Si 3 1 % 3 2 y para un punto à ᏼ se tiene 1( ) % 2( ), entonces 1 % 2. à ᏼ podemos escribir las igualdades

Demostración. Para cada 1(

)%

1(

!

)%

1(

) ! 3 1(

)%

2(

) ! 3 2(

)%

2(

!

)%

2(

) 䊏

en donde se ha hecho uso de la Proposición 10.2.2. EJEMPLO A. Dado un vector v à ⺢n, la tra la i n de vector v, que designamos por transformación afín. En este caso: v(

)% ñ

i

Es fácil comprobar que

v

,

si

v,

es una

ñ % v.

ra 10.4

es una transformación afín, ya que v(

) v( ) % ñ ñ %

y, por tanto, basta tomar la aplicación lineal asociada a

v

como la identidad en ⺢n.

EJEMPLO B. En el espacio afín ⺢2 definimos la omote ia de centro y razón j como la aplicación z ; j tal que si à ⺢2, la imagen ñ de mediante satisface ñ%j

i

ra 10.5

439

Sección 10.2. Transformaciones afines. Ejemplos

La aplicación lineal 3 asociada a

es 3 (v) % jv, v à ⺢2. En efecto, si ,

( ) ( )% ñ ñ% ñ ! % j(.

!

ñ %.

% 3(

)%j

i

ñ!

ñ %.j

à ⺢2 ,

!j

).

ra 10.6

Cuando j % 1 se tiene la transformación identidad. Observar que el mismo ejemplo es válido en el espacio afín ⺢n. EJEMPLO C. Tratemos de encontrar la expresión analítica de la homotecia de centro y razón j del ejemplo B. Supongamos que ᏾ % { ; e1, e2} es un sistema de referencia afín en ⺢2 con respecto al cual % (a1, a2). Tenemos que si ñ % ( ) ñ%

( )%

( )! 3(

)%

( )! 3(

!

)%

!j

!j

.

Por tanto,

A B A B A B A B A B A BA B ñ1 a1 .a1 % !j !j ñ2 a2 .a2

donde

ñ % 1ñ e1 ! ñ2e2 y

1

b1 j ! 0 b2

%

2

0 j

1 2

% 1e 1 ! 2e 2. *

*

*

El ejemplo C puede generalizarse para cualquier transformación afín. Tratamos de encontrar la e re i n analíti a e na tran orma i n a ín en un sistema de referencia. Dado ᏾ % { ; e1, ..., en} un sistema de referencia en un espacio afín ⺑ % (ᏼ, ) y una transformación afín en ⺑ tenemos que ñ%

( )%

( )! ( ) ( )%

( ) ! 3(

)

para todo à ᏼ, donde ñ % ( ). Si ( ñ1, ..., ñn) son las coordenadas de ñ con respecto a ᏾, ( 1, ..., n) son las coordenadas de con respecto a ᏾, (a1, ..., an) son las coordenadas de ( ) con respecto al mismo sistema de referencia y 3 es la matriz de 3 con respecto a la base {e1, ..., en}, la igualdad anterior se escribe en coordenadas de la forma

AB AB AB ñ1 a1 ó % ó ! 3 ñn an

1

ó . n

(2.1)

440

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

El lector puede convencerse de que la expresión (2.1) sirve para definir una aplicación afín que tiene a (2.1) como expresión analítica en el sistema de referencia fijado. Si ( ) % se tiene que (a1, ..., an) % (0, ..., 0) y la expresión (2.1) se reduce a

AB AB ñ1 ó % 3 ñn *

1

ó . n

*

*

Proposición 10.2.4 La composición de dos transformaciones afines V más, 1 o 2 % 3 1 o 3 2. Demostración. Si , 1

lo que prueba que

1

o

o

2

1

y

2

es otra transformación afín. Ade-

2(

)) % 3 1 o 3 2(

son puntos se tiene 2(

)

1

o

2(

) % 3 1( 2( )

)

V es otra transformación afín con 1 o 2 % 3 1 o 3 2.



Proposición 10.2.5 Sea una transformación afín de un plano afín ⺑ % (ᏼ, V) en sí mismo. Si puntos fijos no alineados, entonces es la identidad en .

tiene tres

Demostración. Si , y son tres puntos no alineados, los vectores y son linealmente independientes en . Dado cualquier punto à ᏼ, como es de dimensión 2, el vector debe ser combinación lineal de y . Escribir %a

!b

i

Si 3 es la aplicación lineal asociada a 3(

con a, b à ⺛.

,

ra 10.7

se tiene

) % a 3(

) ! b 3(

).

Sección 10.3. Espacio afín euclídeo. Movimientos

Usamos la definición de transformación afín junto con el hecho de que , de para escribir ( ) % ( ) ( ) % 3(

) % a 3(

%a ( ) ( )!b ( ) ( )%a De aquí se deduce que ( ) % , por lo que

) !b 3( !b

%

y

441

son puntos fijos

) . 䊏

es la transformación identidad.

EJERCICIOS 10.2 1. Demostrar que una simetría en el plano con respecto a una recta es una transformación afín. Encontrar la expresión analítica de la simetría con respecto a la recta % 1 en el sistema de referencia canónico. 2. Encontrar la expresión analítica (en el sistema de referencia canónico) de los siguientes movimientos en ⺢3: a)

Giro G de 90o con respecto al eje % 1, y % 1.

b)

Traslación

c)

oG

y Go

de vector v % (0, 1, 1). que se obtienen como composición de los anteriores.

3. Determinar los puntos fijos, si existen, de la transformación afín en ⺢3 dada por

A B AB A

ñ 4 .1 1 1 yñ % 2 ! .2 3 3 ñ 2 .2

.2 2 .1

BA B

.2 .1 2

y

en el sistema de referencia canónico. 10.3. Espacio 10.3. Eafín SPACIO euclídeo. Movimientos AFÍN EUCLÍDEO. MOVIMIENTOS

Sea ⺑ % (ᏼ, ) un espacio afín. Se dice que ⺑ es un e a io a ín e lí eo si vectorial euclídeo. En este caso definimos la aplicación i tan ia ( , para cualquier par de puntos , propiedades

)%9

es un espacio

9

à ᏼ. La aplicación

: ᏼ # ᏼ r ⺢ cumple las siguientes

1) ( , ) n 0 y ( , )%0 á % 2) ( , ) % ( , ) 3) ( e ig al a triang lar e la i tan ia) ( ,

)m ( , )! ( ,

)

donde , , à ᏼ. Las propiedades 1) y 2) son inmediatas de la definición de norma en un espacio euclídeo, mientras que 3) se deduce de la correspondiente desigualdad triangular para espacios euclídeos probada al final de la sección 8.1.

442

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Además se cumple la siguiente propiedad: 4) Para todo , , à ᏼ 8 ( , ). ( ,

)8 m ( ,

).

Esto se demuestra con las siguientes desigualdades que se deducen de la desigualdad triangular 3): ( , )m ( , ( ,

)! ( , )

)m ( , )! ( ,

ú

) ú

( , ). ( , . ( ,

)m ( ,

)

)m ( , ). ( ,

).

Teorema 10.3.1 (Teorema de Pitágoras) Sea ⺑ % (ᏼ, ) un espacio afín euclídeo y sean , , puntos de ⺑. Si entonces ( , )2 % ( , )2 ! ( , )2.

es ortogonal a

Demostración. Basta observar que se tiene la siguiente cadena de igualdades: ( , )2 % 9 %9

92 % ( 92 ! 2(

)%(

,

!

)!9

,

i

ra 10.8

*

*

,

!

92 % ( ,

)

) 2 ! ( , ) 2.



*

Sea ⺑ % (ᏼ, ) un espacio afín euclídeo de imen i n n, es decir tiene dimensión n como espacio vectorial real. Un sistema de referencia afín ᏾ % {O; e1, ..., en} se dice ortonormal si la base {e1, ..., en} de es ortonormal. Ayudados de la estructura euclídea de podemos definir la noción de ortogonalidad de variedades afines de ⺑. Dos variedades lineales 1 ! ᏸ1 y 2 ! ᏸ2 se dicen ortogonale si ᏸ1 Ñ ᏸü 2 . En consecuencia, dim (ᏸ1) m dim (ᏸü 2 ) % n.dim (ᏸ2) y por tanto dim (

1 ! ᏸ1) ! dim ( 2 ! ᏸ2) m n.

Si dim ( 1 ! ᏸ1) ! dim ( 2 ! ᏸ2) b n, diremos que 1 ! ᏸ1 es ortogonal a 2 ! ᏸ2 si ü es ortogonal a 2 ! ᏸü 2 en el sentido anteriormente expuesto, es decir ᏸ1 Ñ ᏸ2.

ü 1 ! ᏸ1

EJEMPLO A. Si en %⺢3 consideramos el producto escalar habitual decimos que ⺑%(⺢3, ) es el espacio afín euclídeo ⺢3 habitual. En él consideramos las siguientes variedades lineales: L1 % (0, 0, 0) ! L(e1 ! e2 ! e3), L2 % (1, 2, 3) ! L(.e1 ! e3),

Sección 10.3. Espacio afín euclídeo. Movimientos

443

L3 % (0, 0, 0) ! L(e1 . e2 , e1 . e3), L4 % {( , y, ) à ⺢3 : y . % 1}. Las variedades lineales L1 y L2 no tienen puntos en común, pero son ortogonales ya que L(e1 ! e2 ! e3) Ñ L(.e1 ! e3)ü. También L1 y L3 son ortogonales ya que e1 ! e2 ! e3 es ortogonal a e1 . e2 y a e1 . e3 y se tiene L(e1 ! e2 ! e3) % L(e1 . e2, e1 . e3)ü. Las variedades lineales L3 y L4 tienen ambas dimensión 2 por lo que dim (L3) ! dim (L4) % 4 b 3 % dim (⺢3). Como L4 % (0, 1, 0) ! L(e1!e2!e3, e1) y L(e1 . e2, e1 . e3)ü % L(e1 ! e2 ! e3) se tiene L(e1 . e2, e1 . e3)ü Ñ L(e1 ! e2 ! e3, e1) por lo que los planos L3 y L4 son ortogonales.

i

ra 10.9

*

*

*

Definición 10.3.2 Dado un espacio afín euclídeo ⺑%(ᏼ, ) una transformación afín si conserva las distancias entre puntos, es decir, ( ( ), ( )) % ( , para todo ,

en ⺑ se llama mo imiento

)

à ᏼ.

Nota. Los movimientos en el espacio afin ⺢n reciben también el nombre de i ometría ; la palabra «isometría» proviene del griego y significa «igual medida».

444

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Estudiaremos a continuación algunos ejemplos de movimientos en ⺢2 y ⺢3 de especial relevancia geométrica. Tanto en ⺢2 como en ⺢3 consideraremos la estructura afín euclídea habitual. EJEMPLO B. En un plano, un giro o rota i n e ng lo a alrededor de un punto (no necesariamente el origen de coordenadas) es un movimiento, que se denotará por G , a. Eligiendo un sistema de referencia { ; e1, e2} como en la figura adjunta, se tiene G

, a(

)%

A

cos a sen a

i

B

.sen a cos a

ra 10.10

EJEMPLO C. Una imetría on re e to a na re ta r, que denotaremos por r , es un movimiento. Recordamos que el simétrico de un punto con respecto a r es un punto ñ tal que el ñ en su punto medio. Con la simetría respecto segmento ñ es perpendicular a r y r corta a de una recta también se asocia a veces el nombre de re le i n.

i

ra 10.11

EJEMPLO D. Una tra la i n mediante un cierto vector v, que denotaremos por bién un movimiento.

i

v,

es tam-

ra 10.12

En este movimiento se produce un desplazamiento paralelo de todos los puntos según el vector v.

Sección 10.3. Espacio afín euclídeo. Movimientos

445

EJEMPLO E. En el espacio, una imetría on re e to a n lano n, digamos n , es un moviñ perpendicular a n, miento. El plano n divide al segmento ñ en dos partes iguales siendo donde ñ es la imagen de .

i

ra 10.13

Proposición 10.3.3 Si 1 y 2 son movimientos en un espacio afín euclídeo ⺑ % (ᏼ, ), entonces la composición 2 o 1 es un movimiento en ⺑. Demostración. Si , (

2

o

à ᏼ entonces, por ser 1(

),

2

o

1(

1

y

)) % ( 1( ),

2 1(

movimientos se tiene que )) % ( ,

).



EJEMPLO F. El movimiento que se produce en el espacio al subir por una escalera de caracol se denomina un movimiento eli oi al. El efecto de un movimiento helicoidal está producido por un giro de un cierto ángulo r con respecto a una recta r seguido de una traslación de vector v en la dirección del eje de giro (ver figura 10.14). Este movimiento es la composición v o Gr, r. Observar que los puntos de un plano n perpendicular a r se transforman en puntos de un plano nñ paralelo a n. En la figura 10.14 el punto ññ es el transformado de por el movimiento helicoidal.

i

ra 10.14

446

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Proposición 10.3.4 Sea ⺑ % (ᏼ, ) un espacio afín euclídeo y : ᏼ r ᏼ un movimiento con aplicación lineal asociada 3 : r . Entonces 3 es una aplicación ortogonal. Demostración. Sean , dos puntos cualesquiera de ᏼ con ñ % ( ) y imágenes de y , respectivamente, mediante . Entonces 9 3( lo que prueba que 3 : Proposición 8.5.2).

)9 % 9 ( ) ( )9 % ( ñ, r

ñ) % ( ,

)%9

ñ % ( ) las

9,

conserva la longitud de los vectores y, por tanto, es ortogonal (ver 䊏

Nota 1. Si es un movimiento en un espacio afín euclídeo ⺑ % (ᏼ, ) y denotamos por la matriz de 3 en una base ortonormal fijada de se tiene que 8 8 %u1 (ver sección 8.5). Si 8 8 % 1 el movimiento se llama ire to y si 8 8 %.1 el movimiento se llama inver o. Nota 2. Es claro que los resultados del Capítulo 8 sobre aplicaciones ortogonales nos pueden ayudar ahora a clasificar los movimientos en ⺢n. Es evidente que en ⺢2 y ⺢3 puede hacerse un estudio más geométrico de los movimientos. *

*

*

10.4. EstudioE 10.4. geométrico STUDIO de GEOMÉTRICO los movimientos en el plano DE LOS MOVIMIENTOS

EN EL PLANO Hemos dado en la sección 10.3 algunos ejemplos de movimientos en ⺢2, pero ¿serán estos todos los movimientos posibles en el plano? Para responder a esta pregunta es necesario estudiar la composición de dos movimientos fijados de antemano ya que por la Proposición 10.3.3, la composición de movimientos es otro movimiento. En el estudio de los movimientos es interesante considerar un tipo de puntos especiales que se denominan nto i o : un punto es un punto fijo de un movimiento si ( ) % . Todos los puntos son fijos para el movimiento identidad, mientras que las traslaciones no tienen ningún punto fijo. Un giro en el plano de centro tiene únicamente este punto como fijo y una simetría con respecto a una recta r deja a todos los puntos de r fijos. Lema 10.4.1 Sea un movimiento de ⺢2 con al menos dos puntos fijos pasa por y es una recta de puntos fijos de .

y . Entonces, la recta r que

Demostración. Sea un movimiento con dos puntos fijos distintos y . Demostraremos que todos los puntos de la recta r que pasa por y son puntos fijos de . Sea à r y sea ñ % ( ). Como es un movimiento ( , ) % ( , ñ) y ( , ) % ( , ñ). Por tanto, y ñ deben estar en las circunferencias de centro y radio ( , ) y de centro y radio ( , ); como estas circunferencias se cortan únicamente en se ha de tener ñ % (ver figura 10.15). Esto prueba que todos los puntos de r son fijos para la aplicación .

Sección 10.4. Estudio geométrico de los movimientos en el plano

i

447



ra 10.15

Proposición 10.4.2 Si un movimiento en el plano tiene más de un punto fijo debe ser la identidad o una simetría con respecto de una recta que pasa por los puntos fijos. Demostración. Sea un movimiento con dos puntos fijos y . Sea r la recta que los une. Por el Lema 10.4.1 la restricción de a r es la identidad en r. Si existiera à ⺢2 r que fuera punto fijo de , por la Proposición 10.2.5, sería la identidad en ⺢2. En otro caso ( ) Ç para cada à ⺢2 r. Sea rñ la recta mediatriz del segmento ( ) (ver figura 10.16). Como es un movimiento ( , ) % ( , ( ))

y

( , ) % ( , ( )).

Por tanto y están en rñ, de donde se deduce que r % rñ. Luego r (ver figura 10.16), lo que demuestra la proposición.

i

es la simetría con respecto a 䊏

ra 10.16

Teorema 10.4.3 Todo movimiento en un plano es o bien la composición de un giro y una traslación o bien la composición de una simetría con respecto a una recta, un giro y una traslación; el eje de simetría pasa por el centro del giro. Demostración. Sea un movimiento cualquiera en el plano, un punto del plano y ñ % ( ). Pongamos v % ñ. Entonces % ñ . v % .v o ( ), es decir es un punto fijo para el movimiento .v o . Para determinar qué movimiento es tomemos otro punto de ⺢2 tal que Ç . Sea 1 el punto de ⺢2 tal que 1 % ( ) . v (ver figura 10.17).

448

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

i

ra 10.17

Entonces 0a ( , Por tanto, existe un giro G formación geométrica

,a

)% (

.v

( ),

o

.v

o

( )) % ( ,

y ángulo a tal que G

de centro

r%G

,a

o

.v

, a(

1) %

1).

. Ahora bien, la trans-

o

es un movimiento con dos puntos fijos al menos, y . En consecuencia, por la Proposición 10.4.2 se tiene que r % Id⺢2 ó r % r , con r simetría con respecto a la recta r que une con . Así pues, %

v

oG

, .a

or

(4.1) 䊏

lo que demuestra el teorema.

Observación. El orden de la composición en (4.1) es muy importante. Señalemos que la fórmula (4.1) se reduce a % r si y son dos puntos fijos de ya que en este caso v % 0 y a % 0o . Una vez establecido el Teorema 10.4.3, la clasificación de todos los movimientos en el plano requiere del estudio de las posibles composiciones de los movimientos que allí intervienen. Esto es lo que haremos a continuación. Proposición 10.4.4 La composición de un giro y una traslación es otro giro del mismo ángulo. Demostración. Sean G

,a

y

el giro y la traslación dados (ver figura 10.18). Sea % ñ%G ññ %

( )% ! , , a(

),

( ñ) % ñ ! .

Sea el punto de intersección de las mediatrices de los segmentos por construcción, G , a( ) % (figura 10.18). Por otro lado oG

, a(

)%

( )% ,

y

ññ. Observar que,

Sección 10.4. Estudio geométrico de los movimientos en el plano

i

449

ra 10.18

luego los movimientos G , a y o G , a coinciden en el punto . Además, por el Lema 10.2.4, V V oG o G3 oG ,a % 3 , a y como 3 % Id⺢2 se tiene , a % G3 , a. Por el Corolario 10.2.3 se tiene o G , a % G , a. El razonamiento anterior es posible siempre que el punto exista. Esto sucede si a Ç 180o. . Si a % 180o sea el punto medio del segmento

i

Se tiene que G

, a(

)%

ra 10.19

y que oG

)%

, a(

( ñ) % ñ ! % .

Luego los movimientos G , a y o G , a coinciden en el punto VV G , a % G , a . Por el Corolario 10.2.3 se tiene o G , a % G , a.

cuando a % 180o. Además, 䊏

Observación. El centro del nuevo giro que se obtiene en la Proposición 10.4.4 es el puny ññ, donde % ( ) y to de intersección de las mediatrices de los segmentos o o o o G ,a ( ), siempre que a Ç 180 . Si a % 180 , el centro es el punto medio de . ññ % Proposición 10.4.5 La composición de una simetría y un giro de centro perteneciente al eje de simetría es otra simetría. Demostración. Sean r y G , a con à r, la simetría con respecto a la recta r y el giro dados. Sea otro punto de r distinto de y ñ % G , a( ) (ver figura 10.20). Sea el punto medio del segmento ñ y l la recta que une y . Se tiene que l es la mediatriz del segmento ñ. ñ y a su vez bisectriz del ángulo Entonces G G

,a ,a

o

o

r( r(

) % % l( ) ) % ñ % l ( ).

450

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

i

Además, si

r(

ra 10.20

) % ñ se tiene G

,a

o

r(

)%G

, a(

ñ) % % l ( ).

oG o , En consecuencia, el movimiento .1 r tiene tres puntos fijos no alineados: l ,a o Por la Proposición 10.2.5 debe ser la identidad y por tanto G , a r % l.

y . 䊏

Observación. La recta de la nueva simetría axial en la proposición anterior es la bisectriz del ángulo ñ, con ñ % G , a( ) y à r, Ç . De todos los casos posibles que pueden ocurrir en el Teorema 10.4.3 nos queda por estudiar la composición de una simetría y una traslación. Comenzaremos suponiendo que el vector de traslación es aralelo a la recta de simetría r. En la figura 10.21 se observa que este movimiento cambia la orientación y, sin embargo, no es una simetría axial. Estamos ante un nuevo movimiento al cual damos el nombre de imetría e li ante.

i

ra 10.21

Sección 10.4. Estudio geométrico de los movimientos en el plano

451

Definición 10.4.6 La composición de una simetría de recta r y una traslación de vector simetr a deslizante y se representa por r, .

paralelo a r se denomina

El lector puede visualizar una simetría deslizante como las huellas que una persona deja en la nieve al caminar en línea recta.

i

ra 10.22

Estudiaremos ahora el resultado de, en general, componer una simetría de eje de simetría r con una traslación de vector cualquiera v. Sea r una tal simetría y v la traslación. Sea v % v ! vn la descomposición de v es un vector v paralelo a r y un vector vn perpendicular (o normal) a r. Entonces: v

Sea

à r,

%

vn(

o

r%

o

vn

) y l la bisectriz del segmento vn vn

o

o

r( r(

)% )%

i

Sea

v

vn( vn(

)%

o

r.

. Entonces (ver figura 10.23) % l( )

ñ) % % l ( ).

ra 10.23

un punto de l distinto del punto medio del segmento vn

o

r(

)%

vn(

, y ñ % r( ). Se tiene

ñ) % % l ( ).

452

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Tenemos tres puntos fijos, , y , no alineados, del movimiento ción 10.2.5 debe ser la identidad y por tanto vn o r % l. Así, en general, tenemos el siguiente resultado, según % 0 ó

.1 o l

vn

o

r.

Por la Proposi-

Ç 0.

Proposición 10.4.7 La composición de una simetría y una traslación es o bien una simetría o bien una simetría deslizante. Observamos en la figura 10.24 que las simetrías cambian la orientación de las figuras, mientras que los giros no la cambian. Es claro que tampoco la cambian las traslaciones.

i

ra 10.24

Del Teorema 10.4.3 y de las Proposiciones 10.4.4, 10.4.5 y 10.4.7 se deduce el siguiente resultado: Teorema 10.4.8 (Descripci n de los mo imientos en un plano) Todo movimiento en un plano es o bien la i enti a , o una tra la i n o una rota i n (movimientos ire to , es decir, que no cambian la orientación) o bien una imetría o una imetría e li ante (movimientos inver o , es decir, que cambian la orientación). El lector puede ahora preguntarse cuál es el resultado de componer dos movimientos cualesquiera que no coinciden con los realizados en las proposiciones anteriores. Por ejemplo: ¿cuál es el resultado de componer dos giros? Es conveniente «jugar» un poco con este tipo de composiciones. Algunos de estos «juegos» se proponen como ejercicios al final de esta sección.

EJERCICIOS 10.4 1. Demostrar que la composición de dos simetrías en un plano, cuyos ejes se cortan en un punto es una rotación. ¿Cuáles son el centro y el ángulo de esta rotación? 2. Estudiar la composición de dos simetrías de ejes paralelos.

Sección 10.5. Estudio analítico de los movimientos en ⺢2

453

3. Demostrar que la composición de una simetría y un giro en un plano es una simetría o una simetría deslizante. ¿Cuál es el eje y cuál es el vector de la simetría deslizante? 4. a)

b)

Demostrar que la composición de dos giros de 90o en el mismo sentido alrededor de dos puntos distintos y es un giro de 180o alrededor del centro de uno de los cuacomo lado. drados que tiene Estudiar la composición de dos giros cualesquiera en el mismo sentido.

5. Demostrar que la composición de tres simetrías de ejes concurrentes es otra simetría. ¿Cuál es el eje de esta nueva simetría? 6. Estudiar la composición de tres simetrías de ejes paralelos. 7. Un giro de 180o alrededor de un punto se dice también una imetría e entro . Demostrar que la composición de dos simetrías de centros 1 y 2, respectivamente, es una traslación de vector 2 1 2.

2 10.5. EstudioE 10.5. analítico STUDIO de losANALÍTICO movimientos en ⺢DE LOS MOVIMIENTOS EN ⺢ 2

El primer objetivo de esta sección es aprender a escribir las ecuaciones de todos los movimientos en el plano, cuya descripción se ha dado en el Teorema 10.4.8. A continuación nos planteamos el problema recíproco, es decir, dadas las ecuaciones de un movimiento en el plano determinar qué tipo de movimiento es. Esto nos permitirá obtener de nuevo, ahora de manera analítica, el resultado expuesto en el Teorema 10.4.8. ra la i n e ve tor v % (v1, v2): cualquier punto EJEMPLO A. otro punto v( ) % ñ % ( 1ñ , ñ2) tal que

AB A ñ 1 ñ 2

%

1 ! v1 2 ! v2

% ( 1,

B A B A BA B %

i

v1 1 ! v2 0

ra 10.25

0 1

1 2

.

2)

se transforma en

454

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Capítulo 10.

%

Giro o rota i n e entro

EJEMPLO B.

i

y ng lo r.

ra 10.26

Si elegimos el sistema de referencia { ; 1, 2} como muestra la figura 10.26, la imagen de un punto de coordenadas (y1, y2) en este sistema de referencia es un punto ñ % (yñ1, yñ2) tal que

AB A

BA B

yñ1 cos r .sen r % sen r cos r yñ2

Si

% ( 1,

2)

y1 . y2

y ñ % ( 1ñ , 2ñ ) en el sistema de referencia canónico { ; e1, e2} se tiene que

AB A y1 % y2

1.

1

2.

2

B

AB A yñ1 % yñ2

y

ñ1 . ñ2 .

1 2

B

,

que sustituido en la expresión anterior nos permite obtener:

AB AB A ñ1 % ñ2

1 2

!

cos r .sen r sen r cos r

BCA B A BD A B A 1

1

.

2

2

AB AB A ñ 2

%

a1 cos n/4 ! a2 sen n/4

A continuación calculamos miento:

.sen n/4 cos n/4

AB

a1 imponiendo que a2

A A

∂2/2 1 a % 1 ! a2 2 ∂2/2

AB A B ú

2

%

A

∂2/2 a1 ! a2 ∂2/2

BA B A B 1

.

2

BA B

.∂2/2 ∂2/2

1

.

2

% (1, 2) sea un punto fijo de este movi.∂2/2 ∂2/2

BA B

BA

1 2

ú

B

∂2/2 . ∂2 1 ! ∂2/2 a1 1 % . % . a2 2 2 . 3∂2/2 ∂2/2 ! ∂2

A B AB

1

% (1, 2) y ng lo r % n/4.

allar la e a ione el giro e entro EJEMPLO C. Por tratarse de un giro de ángulo n/4 tendremos: ñ 1

BA B

a1 cos r .sen r ! a2 sen r cos r

%

Sección 10.5. Estudio analítico de los movimientos en ⺢2

455

Por tanto,

A

BA

1 ! ∂2/2 ∂2/2 ñ1 % ! ñ2 2 . 3∂2/2 ∂2/2

AB

. ∂2/2 ∂2/2

BA B 1

.

2

imetría on re e to a na re ta r. Supongamos que r tiene por ecuación EJEMPLO D. y % m ! b; si elegimos el sistema de referencia { ; 1, 2}, donde % (0, b) à r, 1 es un vector director unitario de r y 2 es un vector unitario perpendicular a r, de manera que { 1, 2} y {e1, e2} tengan la misma orientación1, la imagen de un punto de coordenadas (y1, y2) en este sistema de referencia es ñ % r( ) de coordenadas (yñ1, yñ2) en este mismo sistema tal que

AB AB A

y1 yñ 1 % 1 % 0 y2 yñ2

r

i

0 .1

BA B

y1 . y2

(5.1)

ra 10.27

Para pasar al sistema de referencia { ; e1, e2} realizamos un giro de ángulo (.r), donde tg r % m, y una traslación de vector (0, .b), de manera que si ( 1, 2) son las coordenadas de en este sistema de referencia se tiene

AB A 1

BA B A B

.sen r cos r

cos r sen r

%

2

y1 0 ! ; y2 b

de la misma manera, si ( 1ñ , ñ2) son las coordenadas de ñ en el sistema de referencia canónico se tiene

AB A

ñ1 cos r .sen r % ñ2 sen r cos r

BA B A B

yñ1 0 ! . yñ2 b

Sustituyendo en (5.1) encontramos que

AB A

BA

ñ1 cos r .sen r % ñ2 sen r cos r

1 0

BA

0 .1

cos r .sen r sen r cos r

.1

B CA B A BD A B 1 2

.

0 b

!

0 b

1 Dos bases de un mismo espacio vectorial tienen la misma orientación si la matriz del cambio de base tiene determinante positivo, como se definió en la sección 8.6.

456

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

% %

AB A AB A

BA BA BA B

.sen r cos r

a1 cos r ! a2 sen r a1 cos 2r ! a2 sen 2r

1 0

0 .1

sen 2r .cos 2r

1

BA B

cos r sen r .sen r cos r

1 2

.

2

allar la e re i n analíti a e la imetría on re e to a la re ta r e e a EJEMPLO E. i n ! 2y % 4. De la figura 10.28 se deduce que cos r %

.2 ∂5

i

,

sen r %

1 ∂5

.

ra 10.28

Por tanto cos 2r % cos2 r . sen2 r %

3 , 5

4 sen 2r % 2 sen r cos r % . . 5

Usando el resultado del ejemplo D las ecuaciones de esta simetría son de la forma

AB AB A BA B AB AB AB A B A BA B A B A B A B A B ñ1 a1 3/5 .4/5 % ! .4/5 .3/5 ñ2 a2

Para calcular

a1 ponemos que a2

%

0 a 3/5 .4/5 % 1 ! a2 2 .4/5 .3/5

1

.

2

0 es un punto fijo de este movimiento para escribir 2 0 a .8/5 % 1 ! a2 2 .6/5

ú

a1 8/5 % . a2 16/5

Las ecuaciones de esta simetría son

AB A B A

BA B

ñ1 8/5 3/5 .4/5 % ! ñ2 16/5 .4/5 .3/5

1

.

2

EJEMPLO F. Vamos a mostrar cómo pueden obtenerse las ecuaciones de una simetría con respecto a una recta r de forma geométrica. La imagen de un punto es un punto ñ que satisface ñ % . jn

Sección 10.5. Estudio analítico de los movimientos en ⺢2

457

donde n es un vector unitario normal a r (ver figura 10.29) y j % 9 ñ9 % 2 ( , r). Para calcular j tomamos un punto cualquiera de la recta r y observamos que 9 cos a % 9

( , r) % 9

9

( 9

, n) %( 99n9

, n).

La ecuación de la simetría es ñ % . 2(

i

% ( 1,

En el ejemplo E, si 1 n% (1, 2); tenemos ∂5

A B A B AA ñ1 % ñ2 %

1

.2

2

2.2

.

2

% (0, 2) y observamos que

B A BB A B ,

AB A 1

ra 10.29

ñ % ( 1ñ , ñ2), tomamos

2),

1.0

, n)n.

1

1 ∂5 2

1

1 ∂5 2

B A B A

BA B

2 8/5 3/5 .4/5 1!2 2.4 % ! 5 2 1!4 2.8 16/5 .4/5 .3/5

1

.

2

que es el mismo resultado que se obtuvo en el ejemplo E. imetría e li ante e e e r y ve tor v: si r: y % m ! b, utilizando el resultado EJEMPLO G. obtenido en el ejemplo D y el hecho de que r, v % v o r se obtiene que si v % (v1, v2) entonces r, v

AB 1 2

%

v

o

AB AB AB A AB A 1

r

%

2

%

v1 a cos 2r ! 1 ! v2 a2 sen 2r

BA B

sen 2r .cos 2r

BA B

b1 cos 2r sen 2r ! b2 sen 2r .cos 2r

Recordar que v es paralelo a la recta r y que m % tg r.

1 2

.

1 2

458

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

EJEMPLO H. n ontrar la e re i n analíti a e la imetría e li ante e e e y % . 2 on ve tor e e li amiento v % (3, 3). Como r % n/4 del ejemplo G se deduce que las ecuaciones buscadas son de la forma

A B A B A BA B ñ 1 ñ 2

%

b1 0 ! 1 b2

i

Calcularemos

1 0

1

.

2

ra 10.30

AB

b1 si conocemos la imagen de un punto ; si tomamos b2 r, v

% (0, .2),

A B A B AB AB

0 0 3 3 % ! % , .2 .2 3 1

de manera que

A B A B A BA B 3 b 0 % 1 ! b2 1 1

1 0

0 .2

A B AB A B AB

b1 3 .2 5 % . % . b2 1 0 1

ú

Por tanto, la expresión analítica de esta simetría deslizante es

A B A B A BA B ñ 1 ñ 2

%

5 0 ! 1 1 *

*

1 0

1

.

2

*

Con los ejemplos anteriores hemos aprendido a encontrar las ecuaciones de los movimientos en el plano. A continuación nos planteamos el problema recíproco, es decir, dadas las ecuaciones de un movimiento en el plano determinar qué tipo de movimiento es. Sea ᏾ % { ; e1, e2} un sistema de referencia ortonormal en el plano afín euclídeo ⺢2. Según la fórmula (2.1) la ecuación matricial de un movimiento de ⺢2 en la referencia ᏾ se escribe

AB AB AB ñ1 a % 1 ! ñ2 a2

1 2

.

(5.1)

Sección 10.5. Estudio analítico de los movimientos en ⺢2

459

Como es un movimiento, por la Proposición 10.3.4, es una matriz ortogonal, es decir t t % 2 % t . Por el Teorema 8.6.1 podemos escribir % con à 2#2(⺢) ortogonal y de la forma 1%

A

B

.sen r cos r

cos r sen r

2%

o

La prueba del Teorema 8.6.1 muestra que en el caso

1

A

1 0

B

0 . .1

podemos elegir

(5.2) % .

Sea %

A

11

12

21

22

B

y definamos los vectores

Como es ortogonal, ᏾ñ % { ; % y 1 1 ! y 2 2, ñ % yñ1 1 ! yñ2

1%

11e1 !

21e2

2%

12e1 !

22e2.

1, 2} es un sistema de referencia ortonormal. Si en la base { 1, 2} tenemos 2

AB AB AB AB 1

y1 y2

%

2

ñ1 % ñ2

,

en ᏾ñ son

De (5.1) se deduce que las ecuaciones del movimiento

AB AB AB yñ1 % yñ2

en donde

t

ñ1 % ñ2

t

a1 ! a2

yñ1 . yñ2

AB AB AB y1 b1 % ! y2 b2

t

y1 y2

(5.3)

es una de las matrices de la lista (5.2) y

AB AB b1 % b2

t

a1 . a2

Para estudiar qué tipo de movimiento es estudiaremos la variedad lineal L de puntos fijos de . Cada % ( 1, 2)t à L es solución del sistema lineal

AB AB AB 1

%

2

a1 ! a2

1 2

o también ( . )

AB AB 1 2

%

a1 . a2

(5.4)

Según el teorema de Rouché-Frobenius (Teorema 1.2.4) el sistema (5.4) puede tener o no solución según los valores del rango de la matriz . y del rango de la matriz ampliada con los términos independientes. Con a % (a1, a2)t escribimos ( . 8a) para indicar la matriz ampliada.

460

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Puesto que

%

t

se tiene r( . ) % r( . ), con %

1%

A B 1 0

0 1

á

.

como en (5.2). Si r % 0 en (5.2)

1%

A B 0 0

0 0

y entonces r( . ) % r( . 1) % 0. Si %

2%

A

1 0

B

0 .1

á

.

2%

A B 0 0

0 2

se tiene r( . ) % r( . 2) % 1. Finalmente si r Ç 0 en (5.2) 8 . 18 %

G

G

1 . cos r sen r % (1 . cos r)2 ! sen2 r % 2(1 . cos r) Ç 0 .sen r 1 . cos r

y por tanto r( . ) % r( . 1) % 2. Todas las posibilidades para r( . ) y r( . 8a) se describen en el cuadro siguiente:

i

dentidad

ra 10.31

traslaci n

Si r( . ) % 0 se tiene que % es la matriz identidad. Si a % (0, 0)t, r( . 8a) % 0 y el movimiento es la i enti a . Si a Ç 0, el movimiento es una tra la i n de vector a. Observar que todos los movimientos de este caso son ire to ya que 8 8 % 1 b 0. imetr a

simetr a deslizante

Si r( . ) % 1 % r( . 8a) el sistema (5.4) tiene una recta de soluciones y, por tanto, el movimiento tiene una recta de puntos fijos. Si es uno de estos puntos fijos, en el sistema de referencia { ; 1, 2} las ecuaciones del movimiento son, de acuerdo con (5.3),

AB A

yñ1 1 % yñ2 0

BA B

0 .1

y1 y2

Sección 10.5. Estudio analítico de los movimientos en ⺢2

A

461

B

1 0 es la única matriz de (5.2) que satisface r( . 2) % 1. Tenemos, por 0 .1 tanto, una imetría on re e to a la re ta e nto fijos. Observar que en este caso se ha de tener b1 % 0 en la ecuación (5.3) ya que el sistema de ecuaciones

ya que

2%

AB AB AB y1 b % 1 ! y2 b2

2

y1 y2

debe se compatible. Si r( . ) % 1 pero r( . 8a) % 2 el sistema (5.4) no tiene soluciones y, por tanto, el movimiento no posee puntos fijos. En este caso r( . 2 8b) % 2 ya que si r( . 2 8b) fuera 1, la ecuación ( . 2) y % b sería compatible y también lo sería t( . ) % ta ya que pondríamos % y como solución, y como t es invertible, ( . ) % a sería compatible, lo que implicaría r( . 8a) % 1. En este caso, en el sistema de referencia ᏾ñ % { ; 1, 2} podemos escribir el movimiento como

A B A B CA B A yñ1 b % 1 ! yñ2 0

donde necesariamente b1 Ç 0 porque r( . Como r

A

.

2

0 1 ! b2 0

BA BD

0 .1

y1 y2

(5.5)

2 8b) % 2.

GB A GB 0 0 %r b2 0

0 0 % 1 % r( . 2) 2 b2

la expresión entre corchetes en (5.5) son las ecuaciones de una simetría con respecto a un eje que tiene como vector director 1 (ver el caso r( . ) % 1 % r( . 8a)). Por tanto, (5.5) es la composición de una simetría con una traslación de vector b % b1 1, que es paralelo a 1 : se trata de una imetría e li ante. La descomposición de una simetría deslizante como una simetría y una traslación no es única; solo existe unicidad si el vector de traslación es paralelo al eje de simetría y en este caso la descomposición de la simetría deslizante se dice an ni a. En este caso II se tiene 8 8 % 8 8 %.1 a 0 por lo que este movimiento es inver o. iro Si r( . ) % 2 % r( . 8a) el movimiento posee un único punto fijo que es la solución del sistema (5.4). En el sistema de referencia ᏾ññ % { ; 1, 2} % { ; e1, e2} ya que es la identidad, las ecuaciones del movimiento son de la forma

AB A

yñ1 cos r .sen r % yñ2 sen r cos r

BA B y1 y2

con r Ç 0 y, por tanto, el movimiento es un giro e ng lo r on entro movimiento es ire to ya que 8 8 % 8 8 % cos2 r ! sen2 r % 1 b 0.

. Observar que este

462

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

A continuación resumimos los resultados anteriores en el siguiente cuadro:

i

ra 10.32

*

*

*

Para finalizar esta sección daremos algunos ejemplos de determinación de movimientos en el plano. A la vez aprenderemos a encontrar los elementos geométricos de cada uno de ellos, es decir, el vector de traslación si se trata de una traslación, el centro de giro y su ángulo si se trata de un giro, la recta de simetría si se trata de una simetría, o la descomposición canónica si se trata de una simetría deslizante. Para referencias futuras diremos que una bvarie a lineal L en un espacio afín es invariante mediante una aplicación afín si (L) Ñ L. En el plano, y dejando a un lado el plano, las subvariedades lineales invariantes pueden ser puntos o rectas. Observar que en el plano hay movimientos que no tienen puntos fijos, pero que poseen subvariedades lineales invariantes: ¿cuáles? EJEMPLO I.

t

iar el movimiento

Puesto que 8 . 8 %

G

ya e re i n e

A / G

BA B

A

BA B

1/2 ∂3/2 ñ1 3 % ! ñ2 5 .∂3/2 1/2

A B AB 1/2

.∂3 2

∂3/2

1/2

1

.

2

1 3 % ! % 1 Ç 0, r( . ) % 2 y se trata de un gi4 4

1 ∂3 ro. El ángulo de giro r satisface cos r % , sen r %. y tenemos entonces r %.60o. El 2 2 punto fijo % ( 1, 2)t es el centro de giro y satisface la ecuación 1/2 ∂3/2 3 ! 5 .∂3/2 1/2

A B AB 1

%

2

Despejando se obtiene

AB 1 2

%

A

1/2

∂3/2

.∂3/2 1/2 *

B

AB

*

*

.1

3 % 5

1

.

2

A B 3 5∂3 ! 2 2

3∂3 5 . ! 2 2

.

Sección 10.5. Estudio analítico de los movimientos en ⺢2

t

EJEMPLO J.

iar el movimiento

ya e re i n e

A B AB A ñ 1 ñ 2

463

BA B

2 .1 ! 0 0

%

0 1

1

.

2

A B

A

B

2 0 2 0 2 , r( . )%1 y puesto que ( . 8 )% , r( . 8 )%1; 0 0 0 0 0 se trata, entonces, de una simetría. El eje de simetría es el conjunto de los puntos fijos y, por tanto, tiene por ecuación Puesto que . %

A B AB A 1

%

2

t

EJEMPLO K.

BA B

2 .1 ! 0 0

iar el movimiento

0 1

A

G

A B AB 1 . ∂3/2 .1/2

á

1 % 1.

2

ya e re i n e

∂3/2 ñ1 1 % ! 0 ñ2 1/2

Puesto que 8 . 8 %

1

.1/2

G

BA B

1/2 .∂3/2

1

.

2

3 1 % 1 . . % 0, r( . ) % 1 y puesto que 4 4 1 ! ∂3/2

( . 8 )%

A

1 . ∂3/2 .1/2

.1/2

1

1 ! ∂3/2

0

B

,

r( . 8 ) % 2. Se trata de una simetría deslizante. Para calcular el eje de simetría procedemos como sigue: si es un punto del eje de simetría, su imagen ñ pertenece también al eje de simetría y ññ, la imagen de ñ, pertenece también al eje de simetría de manera que ñ % ñ ññ % ! ( ñ) . . ( ) % (

i

Por tanto,

ñ es un autovector de 0 % ( . )(

ñ).

ra 10.33

de autovalor 1 y se tiene que

ñ) % ( . )( ! ( ) . ) % ( . )( ) ! ( . )2( )

que es la ecuación que satisface el eje de simetría. En nuestro ejemplo:

A

∂3/2 . 1 1/2 0 % 0 1/2 .∂3/2 . 1

AB

BA B A

∂3/2 . 1 1 ! 0 1/2

1/2

BA B

.∂3/2 . 1

2

1 2

á

464

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

á

1.

∂3 % (2 . ∂3) 1 . 2. 2

Las ecuaciones paramétricas del eje de simetría son r: (1/2, 0) ! t(1, 2 . ∂3). El vector de la traslación es v % mos % (1/2, 0), ñ%

A

∂3/2 1 ! 0 1/2

AB

Por tanto,

ñ, donde

es cualquier punto del eje de simetría; si toma-

ñ%

A

*

* % (2, 0) en ñ % (.1, 1) y

e lleve

, ñ ñ) %

i

B

1 ∂3 1 ! , . 2 4 4

*

EJEMPLO L. n ontrar, i e i te, n giro en ñ % (0, .1). Puesto que

B

1 ! ∂3/4 1/2 % . 0 1/4

.∂3/2

v%

cos ⱔ (

BA B A

1/2

((2, 1), (1, .2)) %0 5

ra 10.34

del dibujo deducimos que ⱔ(

, ñ ñ) %

3n . 2

La ecuación del giro toma la forma

AB AB A ñ 1 ñ 2

%

a1 0 ! a2 .1

1 0

BA B 1 2

.

% (4, 1)

Sección 10.5. Estudio analítico de los movimientos en ⺢2

465

Si existe un giro satisfaciendo las condiciones dadas se ha de tener

A B AB A

.1 a 0 % 1 ! a2 1 .1

1 0

BA B

2 , 0

y

A B AB A

BA B AB

0 a 0 % 1 ! .1 .1 a2

Si estas dos ecuaciones producen el mismo valor de caso y se tiene

AB A B

a1 .1 % . Por tanto, a2 3 ñ 2

Nota.

%

4 . 1

a1 existe el giro buscado; así es en este a2

AB A B A ñ 1

1 0

.1 0 ! 3 .1

1 0

BA B 1

.

2

Este problema también puede resolverse imponiendo ñ% !

A

cos r .sen r sen r cos r

B

ñ% !

A

cos r .sen r sen r cos r

y

B

y r para que las cuatro ecuaciones anteriores sean compatibles.

y calculando

EJERCICIOS 10.5 1. Encontrar la expresión analítica de los siguientes movimientos: a)

Giro de centro (1, 0) y ángulo 3n/4.

b)

Simetría deslizante de eje paralelo a la recta 2 ! y % 3 y que transforma (2, 1) en (1, 0).

c)

Giro de ángulo n/3 que lleve (2, 1) en (1, 0).

d)

La composición de los movimientos de a) y b).

2. Estudiar los siguientes movimientos del plano, hallando su tipo, subvariedades invariantes y elementos geométricos. a)

1

y

A

BA B

1/2 .∂3/2 .2 ! 1 ∂3/2 1/2

AB A B %

y

.

466

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Capítulo 10.

2

c)

3%

y

%

2

o

A

∂2/2 0 ! 1 ∂2/2

AB AB

b)

1

y

4%

1

∂2/2

.∂2/2 o

BA B y

.

2.

3. Determinar todos los movimientos que transforman (1, 0) en (2, 1) y (0, 1) en (1, 0), indicando sus elementos geométricos. 4. Averiguar todos los movimientos del plano que conmutan con la simetría de eje . 2y % 1. 5. Encontrar todos los movimientos del plano que conmutan con: a)

Traslación de vector

b)

Giro de ángulo n y centro

0. 0.

6. Probar que todo movimiento del plano es la composición de tres simetrías si 8 8 a 0 y de dos simetrías si 8 8 b 0. 10.6. Descripción 10.6. DESCRIPCIÓN geométrica de los movimientos GEOMÉTRICA en el espacio DE LOS MOVIMIENTOS

EN EL ESPACIO El objetivo de esta sección es realizar un estudio geométrico de los movimientos en el espacio afín euclídeo ⺢3 a partir de sus puntos fijos. En lo que sigue llamaremos re le i n (en ⺢3) a toda simetría respecto de un plano (ver ejemplo E de la sección 10.3). Si el plano de simetría es n, escribiremos n para denotar esta reflexión. Observar que n o n % Id. Los resultados siguientes los usaremos para describir geométricamente los movimientos en ⺢3 como composición de a lo sumo cuatro reflexiones. Lema 10.6.1 Sea un movimiento de ⺢3 con al menos un punto fijo . Si à ⺢3 es tal que ñ % ( ) Ç , entonces el plano que biseca ortogonalmente al segmento ñ contiene a . Demostración. Sea el punto medio del segmento ñ y n el plano que biseca orà n y n % ! ᏸ con togonalmente al segmento ñ (ver figura 10.35). Entonces ᏸ % {v à ⺢3 : v ü }. Como ( , el triángulo

) % ( ( ),

( )) % ( ,

ñes isósceles. Luego la altura desde el vértice % !

à

! ᏸ % n.

ñ) es el segmento

. Por tanto 䊏

Sección 10.6. Descripción geométrica de los movimientos en el espacio

i

467

ra 10.35

Definición 10.6.2 Una colección de n ! 1 puntos { 1, 2, ..., n!1} en un espacio afín ⺑ % (ᏼ, ) de dimensión n se dice en posici n general si la colección de vectores { 1 2, ..., 1 n!1} es una base de . El siguiente resultado generaliza la Proposición 10.2.5. Proposición 10.6.3 Sea una transformación afín de un espacio afín ⺑ % (ᏼ, ) en sí mismo con ⺑ de dimensión n. Si 1, 2, ..., n!1 son n ! 1 puntos de ᏼ en posición general tales que ( i) % i, para i % 1, ..., n ! 1, entonces es la identidad en ⺑. Demostración. Dado presa en esta base como

à ᏼ, como {

1 2,

...,

1 n!1}

es base de , el vector

1

se ex-

n!1 1

Si 3 es la aplicación lineal asociada a 3(

% ; a

1

%2

.

se tiene n!1

1

) % ; a 3( %2

1

).

Usamos la definición de transformación afín junto con el hecho de que puntos fijos de para escribir 1

( ) % ( 1) ( ) % 3 ( n!1

% ; a %2

1,

2,

...,

n!1

son

n!1

1

) % ; a 3( %2

)

1

n!1

( 1) ( ) % ; a

De aquí se deduce que ( ) % , por lo que

%2

1

%

1

.

es la transformación idendidad.



468

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Teorema 10.6.4 Sea

un movimiento de ⺢3. Entonces, 1) es la composición de a lo sumo cuatro reflexiones. 2) Si tiene un punto fijo , entonces es la composición de a lo sumo tres reflexiones respecto de planos que pasan por .

Demostración. 1). Sean Pongamos

1,

2,

3,

cuatro puntos arbitrarios de ⺢3 en posición general.

4

ñi % ( i)

i % 1, 2, 3, 4.

,

Si ñi % i, i % 1, 2, 3, 4, por la Proposición 10.6.3 se tiene que ⺢3 y por tanto composición de dos reflexiones, a saber, % n o n donde plano n, para un plano n de ⺢3 cualquiera.

n

es la identidad en es la reflexión de

Si ñi % i, i % 1, 2, 3 y ñ4 Ç 4, veremos que % n para n el plano que contiene a , y 1 2 3. En efecto, si A es el plano que biseca ortogonalmente al segmento 4 ñ4, por el o tiene a 1, 2, 3 Lema 10.6.1 se tiene que 1, 2 y 3 están en A; luego A % n. Además, n y 4 como puntos fijos. Por la Proposición 10.6.3, n o % Id, de donde se deduce % .1 n % n. Supongamos que ñ1 % 1, 2ñ % 2 y 3ñ Ç 3. Sea B el plano que biseca ortogonalmente al segmento 3 ñ3. Tendríamos que B o fija 1, 2 y 3, pues por el Lema 10.6.1, 1, o sería un movimiento de uno de los dos casos anteriores. Luego, 2 à B. El movimiento B o sería la identidad o una reflexión, y, por tanto, sería composición de a lo sumo dos B reflexiones. Supongamos que ñ1 % 1 y ñ2 Ç 2. Sea M el plano que biseca ortogonalmente al segmento 2 ñ2. Tendríamos que M o fija 1 y 2, pues 1 à M por el Lema 10.6.1. El movimiento M o sería un movimiento del caso anterior. Por lo tanto, sería la composición de a lo sumo tres reflexiones. Supongamos que ñi Ç i, i % 1, 2, 3, 4. Sea nñ el plano que biseca ortogonalmente a o ñ . El movimiento tiene un punto fijo, 1, y por tanto, por el caso anterior sería com1 1 nñ posición de a lo sumo tres reflexiones. Luego es composición de a lo sumo cuatro reflexiones. 2). Para demostrar 2) basta observar que si tiene a por punto fijo podemos tomar 䊏 en la demostración anterior y entonces nunca estaríamos en el caso 5.

1%

*

*

*

EJEMPLO A. La traslación v de vector v en el espacio es un movimiento. Veamos que puede escribirse como composición de dos reflexiones. Sea à ⺢3 y ñ% v( )% !v. Sea n el plano ñ. perpendicular a v que pasa por y A el plano que biseca ortogonalmente al segmento Considerar el movimiento .v o A o n. Si , , son tres puntos no alineados del plano n, los tres son fijos de este movimiento: por ejemplo, .v

o

A

o

n(

)%

.v

o

A(

)%

.v(

ñ) %

.v(

! v) % ! v . v %

y lo mismo para y . Sea ahora ññ % . v, de manera que , general. Entonces, .v

o

A

o

n(

ññ) %

.v

o

A(

ñ) %

.v(

,

y ññ están en posición

) % . v % ññ.

Sección 10.6. Descripción geométrica de los movimientos en el espacio

i

469

ra 10.36

Por la Proposición 10.6.3, .v o A o n % Id, de donde se deduce que v % A o n es la composición de dos reflexiones con respecto a planos perpendiculares a v a distancia 9v9/2. *

*

*

Los movimientos en ⺢3 ya mencionados son las traslaciones, las reflexiones y los movimientos helicoidales (véanse los ejemplos de la sección 10.3), además de la identidad. Para los siguientes resultados necesitamos introducir un nuevo movimiento. El giro o rota i n de ángulo r respecto a una recta r en ⺢3 es un movimiento que lleva un punto à ⺢3 a un punto ñ à ⺢3 que se obtiene girando r grados el punto en el plano n perpendicular a r que pasa por teniendo como centro de giro la intersección de la recta r y el plano n (figura 10.37). Denotaremos este movimiento por Gr, r.

i

ra 10.37

iro de ángulo r alrededor de r.

Para que un giro quede completamente determinado necesitamos indicar el sentido de giro. Para ello pondremos una orienta i n en la re ta r mediante un vector paralelo a r. El giro con respecto a la recta r, orientada según el vector , se hará en un sentido de tal manera que un tornillo apuntando en el sentido de avance al girarlo (ver figura 10.37).

470

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

EJEMPLO B. Consideremos dos planos n y B que se cortan en una recta r. Vamos a demostrar que n o B es un giro con respecto a r y ángulo 2a, Gr, 2a, siendo a el ángulo que forman B y n (ver figura 10.38).

i

ra 10.38

Todos los puntos de r quedan fijos tanto por puntos distintos de r se tiene n n

un punto de B distinto de

Sea

y n

Sea

à n distinto de

y

,

B(

. Si n

o

o

B(

B(

o

B(

o

n

)%

B

como por Gr, 2a. Luego, si

y

son dos

) % Gr, 2a( ) ) % Gr, 2a( ). n(

. Como B(

o

n(

) % ñ % Gr, 2a( ) y

à B se tiene

) % Gr, 2a( ).

) % ñ % Gr, .2a( ) se tiene ñ) %

n(

) % % Gr, .2a( ñ).

Los movimientos n o B y Gr, 2a coinciden en cuatro puntos en posición general, a saber , y ñ. Por la Proposición 10.6.3, n o B % Gr, 2a. Proposición 10.6.5 Sea

un movimiento de ⺢3. Entonces, 1) Si fija tres puntos de ⺢3 no alineados es una reflexión o la identidad. El plano de reflexión contiene a los tres puntos fijos. 2) Si fija dos puntos distintos de ⺢3 es una rotación con respecto a una recta, una reflexión o la identidad.

Demostración. 1). Si hay al menos tres puntos fijos estamos en el caso 1 o en el caso 2 de la demostración del Teorema 10.6.4. En el primer caso se obtiene la identidad y en el segundo una reflexión. En el caso 2 se ha probado que la reflexión es respecto al plano determinado por los tres puntos fijos.

Sección 10.6. Descripción geométrica de los movimientos en el espacio

471

2). Sean , dos puntos fijos distintos de . Todos los puntos de la recta r que pasa por para algún a à ⺢. Usando y son fijos para . En efecto, como à r, se tiene % ! a la definición de transformación afín y la Proposición 10.2.2 se deduce: ( )% ( )!a 3 (

)% ( )!a ( ) ( )% !a

% .

Si tiene al menos otro punto fijo que no esté en r, fijaría al menos tres puntos no alineados y por la parte 1) sería una reflexión o la identidad. Basta estudiar qué sucede cuando los puntos de r son los únicos puntos fijos de . Sea A el plano perpendicular a r que pasa por . Tomar à A, Ç , y escribir ( ) % ñ (ver figura 10.39).

i

ra 10.39

Por el Lema 10.6.1 el plano n que biseca ortogonalmente a ñ contiene a r. Además, n o tiene tres puntos fijos no alineados: , y . Este movimiento, n o , no puede ser la identidad porque si lo fuera tendríamos % n y hemos supuesto que solo tiene una recta de puntos fijos. Por el apartado 1), n o % B, con B el plano que contiene a , y . Luego %

n

o

B.

El resultado se deduce del ejemplo , puesto que se ha probado que es el ángulo que forman B y n. * * *

n

o

B % Gr, 2a,

donde a 䊏

EJEMPLO C. Tratemos de determinar todos los movimientos en el espacio que dejan fijos los puntos % (0, 0, 0) y % (0, 0, 1) y llevan % (1, 0, 0) en ñ % (0, 1, 0). Llamemos a uno de tales movimientos. Como no es la identidad porque Ç ñ, el apartado 2) de la Proposición 10.6.5 nos dice que es un giro con respecto a una recta o una reflexión.

472

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Como y quedan fijos por , los puntos de la recta que los contiene, a saber r : { % 0, y % 0, % t}, son todos puntos fijos de (ver la demostración de la Proposición 10.6.5). Por el Lema 10.6.1 el plano n que biseca ortogonalmente al segmento ñ contiene a r. La ecuación de este plano n es % y. El movimiento n o deja fijos , y , que son tres puntos no alineados. Por el apartado 1) de la Proposición 10.6.5, n o es la identidad o una reflexión. Si n o % Id, % n es una reflexión respecto al plano n. Si n o es una reflexión, debe ser respecto al plano A que contiene a los puntos , y ; es decir A : {y % 0}. Por tanto n o % A y % n o A. Como A y n forman un ángulo de 45o el ejemplo B nos dice que % Gr, 90o es un giro de 90o respecto a la recta r.

i

ra 10.40 *

*

*

El estudio geométrico realizado hasta aquí nos ha permitido demostrar un teorema de estructura (parte 1) del Teorema 10.6.4) en el que se prueba que cualquier movimiento en ⺢3 es composición, a lo sumo, de cuatro reflexiones. Hemos comenzado el estudio de los movimientos en el espacio a partir de la estructura de sus puntos fijos: i) Si un movimiento en ⺢3 tiene cuatro puntos fijos en posición general, todos los puntos de ⺢3 son fijos para y es la identidad (Proposición 10.6.3). ii) Si el conjunto de puntos fijos de es un plano n, es una reflexión con respecto al plano n (parte 1) de la Proposición 10.6.5). iii) Si el conjunto de puntos fijos de es una recta r, la demostración de la parte 2) de la Proposición 10.6.5 prueba que es la composición de dos reflexiones con respecto a planos que contienen a r. Este movimiento es también un giro con respecto a la recta r con ángulo doble del que forman los planos. Si el ángulo de giro es 180o este movimiento recibe el nombre de imetría a ial porque cada punto se transforma en su simétrico respecto a la recta r (ver figura 10.41). Se escribe r para denotar este movimiento. iv) Si el conjunto de puntos fijos de es un punto , se ha demostrado en el apartado 2) del Teorema 10.6.4 que es la composición de a lo sumo tres reflexiones respecto de planos que pasan por . La posición relativa de estos tres planos determinará el tipo de movimiento.

Sección 10.6. Descripción geométrica de los movimientos en el espacio

i

ra 10.41

473

imetr a a ial de e e r.

Un ejemplo sencillo de un movimiento en ⺢3 que tiene un solo punto fijo es la imetría entral con respecto a , , en el que cada punto se transforma en su simétrico respecto de (ver figura 10.42).

i

ra 10.42

imetr a con respecto al punto P.

Otro ejemplo de un movimiento en ⺢3 que tiene un solo punto fijo es % n o Gr, r, la composición de un giro de ángulo r con respecto a una recta r con una reflexión respecto al plano n, de manera que n y r se cortan en un punto. Cuando la recta r es perpendicular al plano n este movimiento se llama imetría rotatoria (ver figura 10.43). Observar que la simetría central o simetría con respecto a un punto es un caso particular de una simetría rotatoria en la que el ángulo de giro es r % 180o. v) Si no tiene puntos fijos solo hemos probado que es la composición, a lo sumo, de cuatro reflexiones. La traslación (ejemplo D de la sección 10.3) y el movimiento helicoidal (ejemplo F de la sección 10.3) son ejemplos de movimientos en el espacio que no tienen puntos fijos. El movimiento helicoidal es la composición de un giro con respecto a una recta r y una traslación de vector paralelo a r. Otro movimiento en el espacio que no tiene puntos fijos es la composición de una reflexión con respecto a un plano n y una traslación de vector v paralelo a n. Este movimiento v o n, denotado abreviadamente por n, v, se denomina imetría e li ante (ver figura 10.44). Un estudio detallado de la composición de cuatro reflexiones según la posición relativa de los planos llevaría a una clasificación de todos los movimientos en el espacio, de manera simi-

474

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

i

i

ra 10.43

ra 10.44

imetr a deslizante.

lar a la que se enunció en el Teorema 10.4.8 para ⺢2. El estudio completo se sale fuera de los contenidos de este texto; el lector puede consultarlo en G. E. Martin, «Transformation Geometry. An introduction to Symmetry». Springer-Verlag (1982). En la sección siguiente se dará una clasificación de los movimientos en el espacio a partir de la clasificación de las aplicaciones ortogonales dada en el Teorema 8.6.2. * EJEMPLO D.

*

*

Consideremos los planos n1, n2 y n3 dados por n1 : { % 0} ,

n2 : {y % 0}

Tratemos de identificar el movimiento conocidos de ⺢3.

%

n3

n3 : { ! y % 1}.

, o

n2

o

n1

como alguno de los movimientos

Sección 10.6. Descripción geométrica de los movimientos en el espacio

% (0, 0, ) del eje

La imagen de cualquier punto v % (1, 1, 0), .v

( )%

o

475

( ) % ñ % (1, 1, ). Luego si

es

ñ) % ñ . v % .

.v(

Por tanto .v o deja fijos todos los puntos del eje , y en particular deja fijos los puntos % (0, 0, 0) y % (0, 0, 1). Considerar los puntos % (0, 1, 0) y % (1, 0, 0). Se tiene que (ver figura 10.45) .v

( )%

o

.v

o

n3

o

n2

o

)%

n1(

.v

i

o

n3

n2(

o

)%

.v

o

n3(

ñ) %

.v(

ra 10.45

Por el Lema 10.6.1 el plano A: { % y} que biseca ortogonalmente al segmento eje . Además el movimiento A o .v o deja fijos , y . Se tiene que (ver figura 10.45): A

o

Luego 10.6.3,

.v

A

o

A

o

o

( )%

A

o

.v

%

A

o

.v(

.v

o

.v

o

o

n3

o

ññ) %

n2

o

A(

n1(

ññ) % .

)%

A

o

.v

o

n3

o

n2(

ñ) %

A

o

.v

contiene al

o

n3(

ñ) %

)% .

deja fijos los puntos , , y % Id, de donde se deduce %

v

que están en posición general. Por el Lema o

A.

es una simetría deslizante con plano de simetría A y Como v % (1, 1, 0) es paralelo a A, vector de traslación v. Por el ejemplo A sabemos que v puede escribirse como v % B2 o B1 donde B1 % % { ! y % 0} y B2 % { ! y % 1} % n3 son dos planos perpendiculares a v separados por una distancia 9v9/2 % ∂2/2. Por tanto, también podemos escribir % B2 o B1 o A (ver figura 10.46).

476

Capítulo 10.

i

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

ra 10.46

l mo imiento M del e emplo D es a la ez M % Sn o Sn o Sn 3

2

1

M % SB o SB o SA. 2

1

EJERCICIOS 10.6 1. Sea ⺑ % (ᏼ, ) un espacio afín de dimensión m y sean 1, 2, ..., n à ᏼ. Los puntos 1, 2, ..., n se dicen a ínmente in e en iente en ⺑ si el conjunto de vectores { 1 2, ..., 1 n} es linealmente independiente. Demostrar que si 1, 2, ..., n son puntos afinmente independientes en ⺑, para todo % 2, ..., n el conjunto de vectores { 1, ..., , .1, n} es linealmente independiente. !1, ..., 2. Sean , y tres puntos no alineados de ⺢3 que son puntos fijos de un movimiento . Demostrar que todos los puntos del plano A que contiene a los puntos , y son puntos fijos de . 3. Demostrar que la composición de dos reflexiones con respecto a dos planos paralelos es una traslación. 4. Demostrar que un giro con respecto a una recta r es la composición de dos reflexiones con respecto a dos planos que tienen en común la recta r. 5. Demostrar que la composición de dos simetrías centrales es una traslación. 6. Sea r una simetría axial de eje r y lar a r. a)

una traslación de vector a tal que a es perpendicu-

Demostrar que a o r es una simetría axial de eje l que es la recta trasladada de r mediante el vector a/2.

b) Demostrar que 7. a)

a

r

o

a

es una simetría axial de eje lñ simétrico de l con respecto a r.

Demostrar que la composición de dos simetrías axiales respecto de ejes secantes es un giro.

b) Demostrar que la composición de dos simetrías axiales respecto de ejes que se cruzan puede escribirse como la composición de un giro y una traslación.

Sección 10.7. Clasificación de los movimientos en ⺢3

477

8. Determinar todos los movimientos en el espacio que dejan fijos los puntos % (1, 0, 0) y % (.1, 1, 0).

% (1, 1, 1),

9. Determinar todos los movimientos en el espacio que dejan fijos los puntos % (1, 1, 1) y llevan % (1, 0, 1) en ñ % (0, 1, 1).

% (1, 1, 0) y

10. a)

Demostrar que si n y A son dos planos perpendiculares en el espacio, o o n A% A n.

b) Dar un ejemplo de dos planos n y A, en el espacio, para los que la igualdad o o n A% A n no sea cierta. 11. Sean A0 : { % 0}, A1 : { % 1}, n0 : {y % 0}, n1 : {y % 1}, B0 : { % 0}, B1 : { % 1} los planos que contienen a las caras de un cubo de lado 1 en ⺢3. Determinar qué movimientos son las siguientes composiciones de reflexiones: a) 12. a)

A1

o

n1

o

b)

A0

A1

o

n1

o

c)

B1

A0

o

n0

o

A1

o

n1

Demostrar que si n, A y B son tres planos en el espacio que son perpendiculares entre sí, n o A o B es una simetría con respecto a un punto.

b) Sean n : {2 . y ! % 3}, A : { . y . 3 %.2}, B : { . 2 %.1} tres planos en ⺢3. ¿Qué tipo de movimiento es n o A o B? 3 10.7. Clasificación 10.7. CLASIFICACIÓN de los movimientos en DE ⺢ LOS MOVIMIENTOS EN ⺢ 3

El objetivo de esta sección es obtener la clasificación de los movimientos en el espacio ⺢3. Demostraremos que cualquier movimiento en el espacio es de uno de los siguientes tipos: la identidad, una traslación, una reflexión o simetría con respecto a un plano, una simetría deslizante, un giro con respecto a una recta, un movimiento helicoidal, o una simetría rotatoria. Nuestra herramienta principal será la clasificación de las aplicaciones ortogonales dada en el Teorema 8.6.2. Sea ᏾ % { ; e1, e2, e3} un sistema de referencia ortonormal en el espacio afín euclídeo ⺢3. Observar que en esta referencia tiene como coordenadas (0, 0, 0). Según (2.1) la ecuación matricial de un movimiento de ⺢3 en la referencia ᏾ se escribe

AB AB AB ñ 1

( )% ñ%

a1 ñ % a2 ! 2 ñ a3 3

1 2

% ! ·

(7.1)

3

donde % 1e1 ! 2e2 ! 3e3 y ñ % ñ1e1 ! ñ2e2 ! 3ñ e3. Como es un movimiento, por la Proposición 10.3.4, es una matriz ortogonal, es decir t t % 3 % t . Por el Teorema 8.6.2 podemos escribir % con à 3#3(⺢) ortogonal y una de las siguientes matrices:

A B

1 % 0 1 0

0 1 0

0 0 , 1

A

1 % 0 2 0

B

0 0 cos r .sen r , sen r cos r

0 a r a 2n, (7.2)

478

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

A

.1 0 3% 0

B

0 1 0

A

Observar que si ponemos r % n en

A

1 % 0 5 0

B

.1 0 4% 0

0 0 , 1 2

y

4

0 0 cos r .sen r , sen r cos r

0 a r a 2n.

se obtienen las matrices

B

0 0 .1 0 0 .1

6%

y

A

.1 0 0

0 .1 0

B

0 0 , .1

(7.3)

que junto con las anteriores nos proporcionan los seis tipos de matrices descritos al finalizar la demostración del Teorema 8.6.2. Observar también que si hubieramos permitido r % 0 en 2 y 4 habríamos obtenido 1 y 3 respectivamente. El hecho de haberlas separado es porque estas matrices dan movimientos de naturaleza diferente. % ( i )i,

Sea

%1, 2, 3

y definimos 1%

11e1 !

21e2 !

31e3

2%

12e1 !

22e2 !

32e3

3%

13e1 !

23e2 !

33e3

(7.4)

los vectores cuyas coordenadas en la base {e1, e2, e3} son las columnas de . Como es ortorgonal, ᏾ñ % { ; 1, 2, 3} es un nuevo sistema de referencia ortonormal. Si % y 1 1 ! y 2 2 ! y 3 3, ñ % yñ1 1 ! yñ2 2 ! yñ3 3 en la base { 1, 2, 3} tenemos

AB AB AB AB y1 y2 y3

1 2

%

3

ñ1 ñ2 % ñ3

,

yñ1 yñ2 . yñ3

en ᏾ñ son

De (7.1) se deduce que las ecuaciones del movimiento

AB AB AB AB AB AB

yñ1 ( ) % ñ % yñ2 % yñ3 donde

t

ñ1 ñ2 % ñ3

t

a1 a2 ! a3

t

y1 b1 y 2 % b2 ! y3 b3

y1 y2 y3

(7.5)

es una de las matrices de la lista (7.2) y

AB AB b1 b2 % b3

a1 a2 . a3

t

Sea i, i % 1, 2, 3, 4, el movimiento cuyas ecuaciones en el sistema de referencia ᏾ñ son de la forma y1 y1 i % 1, 2, 3, 4. (7.6) i y2 % i y2 , y3 y3 Si b % b1

1 ! b2

AB AB

! b3 3, de (7.5) deducimos que i%

b

o

i,

i % 1, 2, 3, 4,

(7.7)

Sección 10.7. Clasificación de los movimientos en ⺢3

479

por lo que hemos de estudiar esta composición en cada uno de los cuatro casos que aparecen en la lista (7.2). dentidad

traslaci n

En este caso

A B

1 1% 0 0 Si b % 0, 1 % i n en ⺢3.

1

iro

0 1 0

0 0 . 1

es la i enti a en ⺢3, y si b Ç 0,

1%

b

o

1%

b

o

3%

b

es una tra la

mo imiento elicoidal

En este caso

A

1 2% 0 0

B

0 0 cos r .sen r . sen r cos r

Si b % 0, de (7.7) y (7.6) se deduce que 2 % 2 es un giro con respecto a la recta l % ! L( 1). Sea a el ángulo de giro en el sistema de referencia ᏾ % { ; e1, e2, e3}. Como el cambio de sistema de referencia de ᏾ a ᏾ñ se hace con una matriz ortogonal , que conserva el producto escalar, se ha de tener cos a % cos r. Por tanto a % r ó a % 2n . r, lo que depende de la orientación de l y de la orientación de los vectores de ᏾ñ con respecto a los de ᏾ (ver sección 8.6). Escribimos 2 % Gl, a para denotar este movimiento. Si b Ç 0 escribamos b% !v de manera que % b1

1

con

y v % b2

à L( 1) 2 ! b3 3

y

v à L( 1)ü % L( 2,

3),

por definición de b. De (7.7) se obtiene

2%

o

v

oG

l, a.

(7.8)

Con la notación anterior, se tiene el siguiente resultado: Lema 10.7.1 La composición v o Gl, a es un giro con respecto a la recta r % ! L( 1), donde es el punto cuyas coordenadas en el sistema de referencia ᏾ñ son (0, 2, 3), solución del sistema de ecuaciones

AB AB AB 0 b2 ! b3

con incógnitas y2, y3.

2

0 0 y2 % y2 y3 y3

(7.9)

480

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Demostración. El sistema (7.9) es igual a

A

0 0 0

0 1 . cos r .sen r

0 sen r 1 . cos r

BA B A B 0 0 y 2 % b2 y3 b3

que tiene solución única ya que

G

G

1 . cos r sen r % (1 . cos r)2 ! sen2 r % 2(1 . cos r) Ç 0 .sen r 1 . cos r

puesto que 0 a r a 2n. Observar que

v

oG

l, a

tiene por ecuaciones (en ᏾ñ)

AB AB AB y1 0 y 2 % b2 ! y3 b3

o v Gl, a

2

y1 y2 , y3

(7.10)

por lo que es un punto fijo de v o Gl, a debido a (7.9). Sea ᏾ññ % { ; 1, 2, 3} el sistema de referencia ortonormal en el que solo se ha cambiado el origen con respecto a ᏾ñ. Si ( 1, 2, 3) son las coordenadas del punto en ᏾ññ, es decir % 1 1 ! 2 2 ! 3 3, por la sección 10.1 tenemos

AB AB AB

y1 0 % y2 . 2 . y3 3

1 2 3

Usando las ecuaciones del movimiento

AB 1

v

oG

l, a

2

%

o v Gl, a

3

oG, l

v

dadas en (7.10) se tiene

CA B A BD A B CA B A BD A B A B y1 0 y2 . 2 y3 3

0 % b2 ! b3

debido a que (0, 2, 3) satisface (7.9). Por tanto, r % ! L( 1), que era lo que queríamos demostrar.

v

0

1

2

2 3

oG l, a

!

2 3

0

.

2 3

1

%

2

2 3

es un giro con respecto a la recta 䊏

Se tiene entonces que 2%

oG

r, a

donde r es la recta descrita en el Lema 10.7.1. Como 1 es un vector director de r y % b1 1, 2 es un giro si % 0 o un movimiento eli oi al si Ç 0. Observación. Si r % n la matriz on re e to a la re ta r, denotada por efle i n

se transforma en . r

2

simetr a deslizante

En este caso 3%

A

.1 0 0

0 1 0

B

0 0 . 1

5

de (7.3) y Gr, 180o es una imetría

481

Sección 10.7. Clasificación de los movimientos en ⺢3

Si b % 0 de (7.7) y (7.6) se deduce que ! L( 2, 3). Si b Ç 0 escribamos b%v! de manera que v % b2

v à L( 2,

con

2 ! b3 3

y % b1

3%

3)

es la reflexión

3

à L( 1) % L( 2,

,

n

con n el plano

ü 3) ,

por definición de b. De (7.7) se obtiene

1

3%

v

o

o

n.

(7.11)

Con la notación anterior, se tiene el siguiente resultado: Lema 10.7.2 es una reflexión con respecto al plano B % ! L( 2, 3), donde b1 es el punto cuyas coordenadas son , 0, 0 en el sistema de referencia ᏾ñ. 2 La composición

o

n

A

Demostración. Las ecuaciones de

o

por lo que

n

es un punto fijo de

o

n

B

o

n

en el sistema de referencia ᏾ñ son

AB AB A

y1 b1 .1 y2 % 0 ! 0 y3 0 0 o

n

0 1 0

0 0 1

BA B

y1 y2 , y3

(7.12)

ya que

A B AB A

b1 /2 b1 .1 0 % 0 ! 0 0 0 0

0 1 0

0 0 1

BA B A B

b1 /2 b1 /2 0 % 0 . 0 0

Sea ᏾ññ % { ; 1, 2, 3} un nuevo sistema de referencia ortonormal en el que solo se ha cambiado el origen con respecto a ᏾ñ. Si ( 1, 2, 3) son las coordenadas del punto en ᏾ññ, es decir % 1 1 ! 2 2 ! 3 3, por la sección 10.1 tenemos

AB AB A B 1 2 3

Usando las ecuaciones del movimiento

n

o

n

dadas en (7.12) se tiene

A B CA B A BD A B A 1

o

y1 b1 /2 % y2 . 0 . y3 0

2 3

%

o

n

BCA B A BD A B A B

y1 b1 /2 b1 .1 0 0 y2 . 0 % 0 ! 0 1 0 0 0 0 1 y3 0

Por tanto, o n es una simetría con respecto al plano B % ríamos demostrar. De (7.11) se deduce que 3%

v

o

B

1 2 3

b1 /2 b1/2 ! 0 . 0 % 0 0

! L( 2,

3},

1

3

2

.

3

que era lo que que䊏

482

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Capítulo 10.

donde B es el plano descrito en el Lema 10.7.2. Como v % b2 una re le i n si v % 0 o una imetría e li ante si v Ç 0.

2 ! b3 3

es paralelo a B,

3

es

imetr a rotatoria En este caso 4%

Podemos escribir

A

A

.1 0 4% 0

B

.1 0 0

0 1 0

0 0 cos r .sen r . sen r cos r

0 0 1

BA

1 0 0

B

0 0 cos r .sen r , sen r cos r

(7.13)

que es el producto de las matrices de una simetría con respecto a un plano y de un giro. Si b % 0 en (7.7), 4 % 4. De (7.6) y (7.13) se deduce que 4 % 4 % n o Gl, a (composición de un giro y una reflexión) con n % ! L( 2, 3) y l la recta ! L( 1). Como l es perpendicular a n, 4 % 4 es, en este caso, una imetría rotatoria. El ángulo a puede ser r ó 2n . r según la orientación de l y del sistema de referencia ᏾ñ (ver caso II). Sea b Ç 0. El sistema de ecuaciones

AB AB A

y1 b1 .1 0 y2 % b2 ! 0 y3 b3

BA B

0 0 cos r .sen r sen r cos r

y1 y2 y3

(7.14)

tiene solución única ya que

G

2 0 0

0 1 . cos r .sen r

G

0 sen r % 2[(1 . cos r)2 ! sen2 r] % 4(1 . cos r) Ç 0 1 . cos r

por ser 0 a r a 2n. La primera de las ecuaciones de (7.14) produce y1 % b1 . y1 á b1 y1 % . Sea 2 b1 , , (7.15) 0% 2 2 3

A

B

la solución de 7.14. Con la notación anterior, se tiene el siguiente resultado: Lema 10.7.3 4%

oG

es una simetría rotatoria con respecto a la recta b1 r % 0 ! L( 1) y al plano B dado por y1 % en el sistema de referencia ᏾ñ. El punto 0 2 tiene como coordenadas la solución de (7.14) en el sistema de referencia ᏾. El movimiento

v

o

n

l, a

483

Sección 10.7. Clasificación de los movimientos en ⺢3

Demostración. Sea ᏾ññ % { 0; 1, 2, 3} un nuevo sistema de referencia ortonormal en el que solo se ha cambiado el origen con respecto a ᏾ñ. Si ( 1, 2, 3) son las coordenadas de un punto en ᏾ññ, es decir 0 % 1 1 ! 2 2 ! 3 3, de la sección 10.1 sabemos que

AB AB A B 1 2 3

Las ecuaciones del movimiento

4%

4

El punto

0

queda fijo por

v

o

n

oG l, a

en el sistema de referencia ᏾ñ son

AB AB AB y1 b1 y2 % b2 ! y3 b3

4

y1 y2 . y3

debido a (7.14). Entonces en el sistema de referencia ᏾ññ

A B CA B A BD A B CA B A BD A B A B 1

4

4

y1 b1 /2 % y2 . . 2 y3 3

2 3

%

4

y1 b1 /2 y2 . 2 y3 3

b1 % b2 ! b3

b1 /2

1

4

2

!

2 3

3

b1 /2

.

2 3

1

%

4

2

.

3

Por tanto, 4 es la composición de un giro con respecto a la recta con vector director 1 que pasa por 0 y una simetría con respecto al plano determinado por los vectores 2 y 3 que pasa por 0. Este plano es perpendicular a 1 y pasa por 0; luego, en el sistema de referencia ᏾ñ su 䊏 ecuación es y1 % b1 /2. Del Lema 10.7.3 se deduce que 4 % B o Gr, a. Como la recta r es perpendicular al plano B porque los vectores 1, 2, 3 son ortonormales, 4 es siempre una imetría rotatoria. Observación. Si r % n la matriz 4 se transforma en En este caso 4 es una imetría entral respecto al punto *

*

6

de (7.3) y el giro Gr, a es de 180o.

0.

*

Podemos resumir el estudio de casos realizado para una clasificación de los movimientos en ⺢3.

en el siguiente resultado que nos da

Teorema 10.7.4 (Clasificaci n de los mo imientos en ⺢3 ) Todo movimiento en ⺢3 es o bien la i enti a , o una tra la i n, o un giro alre e or e n e e, o un movimiento eli oi al (en estos casos 8 8 % 1 b 0 y el movimiento se dice ire to), o bien una re le i n, o una imetría e li ante, o una imetría rotatoria (en estos casos 8 8 %.1 a 0 y el movimiento se dice inver o). *

*

*

El estudio de casos realizado en esta sección para clasificar los movimientos en el espacio puede usarse para determinar el movimiento conocidas sus ecuaciones en un sistema de referen-

484

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

cia ortonormal. La información necesaria está contenida en las matrices y del Teorema 8.6.2 y los Lemas 10.7.1, 10.7.2 y 10.7.3. Damos varios ejemplos a continuación. EJEMPLO A.

eterminar el movimiento

e e a ione

A B AB A

BA B

4 1/3 .2/3 .2/3 % 0 ! .2/3 1/3 .2/3 2 .2/3 .2/3 1/3

1 2 3

al e ⺢3 enota o or ᏾.

a a en el i tema e re eren ia Sea

A

1 2 3

B

1/3 .2/3 .2/3 1/3 .2/3 % .2/3 .2/3 .2/3 1/3 que es una matriz ortogonal. Su polinomio característico es

G

1/3 . j .2/3 .2/3

G

.2/3 1/3 . j .2/3

.2/3 .2/3 %.j3 ! j2 ! j . 1 % (j ! 1)(j . 1)2, 1/3 . j

por lo que sus autovalores son j1 %.1, j2 % j3 % 1 (doble). Esto nos indica que estamos en el caso III, por lo que es una simetría o una simetría deslizante. Un autovector unitario 1 correspondiente al autovalor j1 %.1 tiene como componentes una solución normalizada no nula de

A

Podemos tomar

BA B A B

4/3 .2/3 .2/3 4/3 .2/3 .2/3

1%

.2/3 .2/3 4/3

1 ∂3

1 2 3

0 % 0 . 0

(1, 1, 1).

Para j2 % j3 % 1 las coordenadas de sus autovectores satisfacen

A

.2/3 .2/3 .2/3 .2/3 .2/3 .2/3

Como este sistema equivale a 2%

1 ! 2 ! 3 % 0,

1 ∂2

BA B A B

.2/3 .2/3 .2/3

(1, .1, 0)

1 2 3

elegimos 3%

,

1 ∂6

para tener la referencia ortonormal ᏾ñ % { ;

0 % 0 . 0

1,

2,

3}.

(1, 1, .2)

Sección 10.7. Clasificación de los movimientos en ⺢3

La matriz

485

del cambio de base es 1/∂3

1/∂2

A

% 1/∂3

1/∂6

.1/∂2

1/∂3

1/∂6

B

,

.2/∂6

0

lo que produce

A B AB A b1 b2 % b3

t

1/∂3 4 0 % 1/∂2 2 1/∂6

1/∂3

BA B A B

1/∂3

.1/∂2

0

1/∂6

.2/∂6

6/∂3 4 0 % 4/∂2 . 2 0

en el sistema de referencia ᏾ñ son

De acuerdo con (7.5) las ecuaciones de

A B A B A BA B A B A B A BA B 6/∂3 y1 .1 y2 % 4/∂2 ! 0 y3 0 0

0 1 0

y1 y2 y3

0 0 1

0 6/∂3 .1 % 4/∂2 ! 0 ! 0 0 0 0

Si n es el plano

! L( 2,

%

3),

6 ∂3

1

% Por el Lema 10.7.2, 1

y1 y2 , y3

0 0 1

es una imetría e li ante.

por lo que

%

0 1 0

3

∂3 ∂3 simetría es

n%

o

B

con B %

y v%

v

o

o

! L( 2,

(1, 1, 1) % (1, 1, 1) en ᏾. Como

1

4 ∂2

2

se tiene

n.

3)

donde

%

1 1 6 % 2 2 ∂3

1,

es decir

es perpendicular a B, la ecuación del plano de

1 ! 2 ! 3 % 3.

El vector de traslación es v%

4

1

∂2 ∂2

(1, .1, 0) % (2, .2, 0),

en ᏾.

En resumen, es una simetría deslizante de plano B y vector de traslación v. El plano B y el vector de traslación v se han dibujado en la figura 10.47.

486

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

i

ra 10.47 *

EJEMPLO B.

eterminar el movimiento

*

*

e e a ione

A B AB A 1 2 3

1 .1 % 1 ! 0 0 0

0 0 1

0 1 0

BA B 1 2 3

al e ⺢3 enota o or ᏾.

a o en el i tema e re eren ia Sea

A

.1 0 % 0

B

0 0 1

0 1 0

que es una matriz ortogonal. Su polinomio característico es

G

G

.1 . j 0 0 .j 0 1

0 1 %.(1 ! j)(j2 . 1), .j

por lo que sus autovalores son j1 % 1, j2 % j3 %.1 (doble). Esto nos indica que

A

1 % 0 0

0 .1 0

B

0 0 .1

por lo que estamos en el caso II con r % 180o. Hemos de determinar si movimiento helicoidal. Los autovectores correspondientes a j1 % 1 satisfacen

A

.2 0 0

0 .1 1

0 1 .1

BA B A B 1 2 3

0 % 0 , 0

es un giro o un

Sección 10.7. Clasificación de los movimientos en ⺢3

487

por lo que podemos tomar 1

1%

∂2

(0, 1, 1).

Los autovectores correspondientes a j2 % j3 %.1 satifacen

A BA B A B 0 0 0

0 1 1

0 1 1

0 % 0 , 0

1 2 3

por lo que podemos tomar 2 % (1,

0, 0)

3%

,

1 ∂2

(0, 1, .1).

Por tanto,

A

0

1

% 1/∂2 0 1/∂2 0

B

0 1/∂2

.

.1/∂2

En el sistema de referencia ortonormal ᏾ñ % { ;

1,

2,

3}

las ecuaciones de

A B A B A BA B A B A A B A B A BA B y1 y2 % y3

t

1 1 1 ! 0 0 0

0 .1 0

0 0 .1

1/∂2 0 1 1 % 0 ! ! 0 1/∂2 0 0

1/∂2 y1 1 y2 % 1 ! 0 y3 0 1/∂2 0 .1 0

0 0 .1

BA B

0 .1 0

0 0 .1

A B A Como 1 . y2 % y2 referencia ᏾ es

á

y2 %

y1 y2 y3

y1 y2 , y3

por lo que es un movimiento eli oi al. Por el Lema 10.7.1 el eje de giro es paralelo a L( 1) y debe pasar por el punto nadas (0, 2, 3) en ᏾ñ que son solución de 1 .1 ! 1/∂2 0

son

de coorde-

BA B A B

0 .1

y2 y2 % . y3 y3

1 1 y también . y3 % y3 2 ∂2

á

A

y3 %

1 2∂2

B

1 1 1 1 1 1 (0, 1, .1) % , , . . % (1, 0, 0) ! 2 4 4 2 2∂2 ∂2

, el punto

en la

488

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Por tanto, el eje de giro es r:

A

B

1 1 1 , , . ! t(0, 1, 1). 2 4 4

El vector de traslación es, en la referencia ᏾, %

1 ∂2

1%

A BA B 1

A

1

B

1 1 (0, 1, 1) % 0, , . 2 2 ∂2

∂2

Observar que el vector de traslación es paralelo a la recta r, como corresponde en un movimiento helicoidal. EJEMPLO C.

eterminar el movimiento

e e a ione

A B AB A

2 0 % 2 ! 0 2 1

1 2 3

BA B

.1 0 0

0 .1 0

1 2 3

al e ⺢3 enota o or ᏾.

a a en el i tema e re eren ia Sea

A

0 % 0 1

B

.1 0 , 0

0 .1 0

que es una matriz ortogonal. Su polinomio característico es

G

.j 0 1

G

.1 0 %.(1 ! j)(j2 ! 1), .j

0 .1 . j 0

por lo que sus autovalores son j1 %.1, j2 % i, j3 %.i. Esto nos indica que

A

.1 % 0 0

0 0 .1

B

0 1 0

3n con lo cual es una imetría rotatoria. 2 Calculamos la matriz para obtener el eje de giro y el plano de simetría. Los autovectores correspondientes a j1 %.1 satisfacen

por lo que estamos en el caso IV con r %

A

1 0 1

0 0 0

BA B A B

.1 0 1

1 2 3

0 % 0 , 0

Sección 10.7. Clasificación de los movimientos en ⺢3

489

por lo que podemos tomar 1 % (0,

1, 0),

que elegiremos también como orientación del eje de giro. Los autovectores correspondientes a j2 % i satisfacen

A

.i 0 1

2 % 0,

de donde se deduce

BA B A B

0 .1 .1 . i 0 0 .i

1 % i 3.

1 2 3

0 % 0 , 0

Tomando

2 % (.1,

0, 0)

3 % (0,

,

0, 1),

que son las partes reales e imaginarias de (.1, 0, i), se tiene

A

0 % 1 0

.1 0 0

B

0 0 , 1

En el sistema de referencia ortonormal ᏾ñ % { ; critas en (7.5) y son

A B AB A y1 y2 % y3

t

2 .1 2 ! 0 2 0

0 0 .1

0 1 0

8 8 % 1.

1,

2,

3}

las ecuaciones de

BA B A B A

y1 2 .1 y2 % .2 ! 0 2 0 y3

0 0 .1

están des-

BA B

0 1 0

y1 y2 . y3

Por el Lema 10.7.3, es una simetría rotatoria, % B o Gr, a con B el plano de ecuación y1 % 1 en ᏾ñ, es decir 2 % 1 en ᏾. El eje de giro tiene como vector director 1 y pasa por el punto 0 cuyas coordenadas en ᏾ñ son solución de (7.14), es decir:

AB A B A

y1 2 .1 y2 % .2 ! 0 y3 2 0

Como y1 % 1, y2 % 0, y3 % 2, las coordenadas de 0 % (0,

0 0 .1 0

0 1 0

BA B

y1 y2 . y3

en ᏾ son

1, 0) ! 2(0, 0, 1) % (0, 1, 2).

Para hallar el ángulo de giro a tomamos %(0, 1, 0) à B y observamos que ( )%(2, 1, 2). En la figura 10.48 se observa que con la orientación elegida para r, esto es la del vector 1, se tiene a % 270o.

490

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

i

En resumen, giro

ra 10.48

es una simetría rotatoria con respecto al plano B de ecuación

2 % 1,

eje de

r : (0, 1, 2) ! t(0, 1, 0) y ángulo de giro 270o poniendo en r la orientación de 1 % (0, 1, 0). El plano B y la recta r se han dibujado en la figura 10.48. Observa que si hubieramos elegido . 1 % (0, .1, 0) para orientar r el ángulo de giro sería 90o. 10.8. Ecuaciones 10.8. ECUACIONES de los movimientos DE en ⺢ LOS MOVIMIENTOS EN ⺢3 3

El Teorema 10.7.4 nos da una descripción de cuáles son los posibles movimientos en el espacio. En esta sección mostraremos cómo hallar las ecuaciones de estos movimientos. Puesto que las ecuaciones de una traslación a son sencillas, a saber,

AB AB AB 1

a

2 3

a1 % a2 ! a3

1 2

,

a % 1e1 ! 2e2 ! 3e3 ,

3

basta aprender a construir las ecuaciones de una reflexión con respecto a un plano y un giro con respecto a un eje. El resto de los movimientos se obtiene como composición de los tres anteriores. Sea n la reflexión con respecto al plano n de ecuación n : a ! by !

%

dado en el sistema de referencia ᏾ % { ; e1, e2, e3} de ⺢3. Se puede proceder hallando un vector unitario 1 perpendicular a n y completándolo con dos vectores 2, 3 de manera que { 1, 2, 3} sea base ortonormal de ⺢3. En el sistema de referencia ᏾ñ % { 0; 1, 2, 3}, donde 0 es un punto de n, las ecuaciones de n son (ver figura 10.49)

n

AB A

ñ .1 yñ % 0 ñ 0

0 1 0

BA B

0 0 1

ñ yñ . ñ

(8.1)

Sección 10.8. Ecuaciones de los movimientos en ⺢3

i

491

ra 10.49

Las ecuaciones de n en el sistema de referencia ᏾ se obtienen cambiando de sistema de referencia como se indicó en la sección 10.1. Describiremos a continuación un procedimiento geométrico para hallar las ecuaciones de n. Sea n un vector unitario perpendicular (o normal) a n, es decir n%

1 ∂a ! b2 ! 2

(a, b, )

2

en el sistema de referencia ᏾.

i

ra 10.50

La imagen, ñ, de un punto es de la forma ñ % . jn, donde j % 2 ( , n). Para calcular ( , n) tomamos 0 un punto cualquiera de n y observamos que cos ⱔ (

0

, n) %

( , n) . 9 0 9

Por tanto, ( , n) % 9

0

9 cos ⱔ (

0

, n) % (

0

, n).

Así pues, las ecuaciones de la simetría están dadas por ñ % . 2(

0

, n)n.

(8.2)

492

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Para escribir (8.2) en el sistema de referencia ᏾ tomamos

AB A B 0

% y ,

0%

y0 à n. 0

Un sencillo cálculo permite llegar a la conclusión siguiente:

n

AB

2 y % 2 2 a !b !

2

AB

a 2 b . 2 2 a !b !

2

A

BA B

(a2.b2. 2)/2 ba a 2 2 2 b ab (b .a . )/2 2 2 a b ( .a .b2)/2

que es la expresión en coordenadas cartesianas de la simetría con respecto al plano n. n ontrar la e a ione e la imetría on re e to al lano EJEMPLO A. (0, 1, 1) y e er en i lar al ve tor (2, 1, 1). Si

n

AB AB AB A B A B AA B A BB A B AB AB A ABA BA B % y , n%

2 1 y ∂6 1

y % y .2

1

0 % 1 , puesto que ñ % . 2( 0 1

2 1 y.1 , ∂6 1 .1

0

y ,

e a a or

, n)n tenemos:

2 1 ∂6 1 1

1

2 . 4/3 2 % y . (2 ! y . 1 ! . 1) 1 % y . 2/3 6 1 . 2/3 4/3 .1/3 .2/3 .2/3 2/3 .1/3 % 2/3 ! .2/3 2/3 .2/3 .1/3 2/3 *

B

. 2/3 y . 2/3 ! 4/3 . 1/3 y . 1/3 ! 2/3 . 1/3 y . 1/3 ! 2/3

y .

*

*

Sea Gr, r un giro de ángulo r con respecto a una recta r en ⺢3, orientada según un vector unitario v1. Se toman v2, v3 tal que {v1, v2, v3} sea una base ortonormal de ⺢3 con v2 # v3 % v1 (ver figura 10.51).

i

ra 10.51

Sección 10.8. Ecuaciones de los movimientos en ⺢3

Si 0 es un punto de la recta r, en el sistema de referencia ᏾ñ % { nes de Gr, r son Gr, r

AB A

ñ 1 yñ % 0 ñ 0

0 cos r sen r

0;

493

v1, v2, v3} las ecuacio-

BA B

0 .sen r cos r

ñ yñ ñ

(ver sección 10.7). Las ecuaciones de Gr, r en el sistema de referencia ᏾ % { ; e1, e2, e3} se obtienen cambiando de sistema de referencia como se indicó en la sección 10.1. Nota Si hubieramos elegido una base ortonormal de ⺢3 de la forma {v1, u2, u3} con u2 # u3 %.v1 (orientación distinta de la orientación dada por {v1, v2, v3}) las ecuaciones serían Gr, r

AB A

ññ 1 yññ % 0 ññ 0

0 cos r .sen r

BA B

0 sen r cos r

ññ yññ ññ

(ver ejemplo A de la sección 5.2). allar la e a ione el giro e ng lo o on re e to a la re ta r orienta EJEMPLO B. a eg n v % (1, 1, 0) y e a a or % (0, 0, 0). 1 Tomamos v1 % (1, 1, 0) y v3 % (0, 0, 1); elegimos v2 de manera que {v1, v2, v3} sea base ∂2 ortonormal de ⺢3 con

G G

i v 2 % v3 # v 1 % 0 1

0 1

i

1 1 1 % (.1, 1, 0). ∂2 ∂2 0

ra 10.52

494

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Capítulo 10.

Con respecto al sistema de referencia { ; v1, v2, v3} (ver figura 10.52) las ecuaciones de Gr, 90o son

AB A

yñ1 1 yñ2 % 0 yñ3 0

0 0 1

0 .1 0

BA B

y1 y2 . y3

(8.3)

A continuación cambiamos del sistema de referencia { ; v1, v2, v3} al sistema de referencia { ; e1, e2, e3}: si % 1e1 ! 2 e2 ! 3 e3 se tiene 1e1 ! 2 e2 ! 3 e3 % y1v1 ! y2 v2 ! y3 v3 % y1

A

%

y1

∂2

.

B A

y2

e1 !

∂2

y1 ∂2

1 ∂2 !

(e1 ! e2) ! y2

y2

B

∂2

1 ∂2

(.e1 ! e2) ! y3e3

e2 ! y3 e3 .

Por tanto, 1/∂2

AB A 1 2

% 1/∂2

3

.1/∂2

0

1/∂2

0

0

1

Similarmente,

1/∂2 y1 y2 % .1/∂2 y3 0

BA B A B A

0

y1 y2 y3

ú

AB A

1/∂2 yñ1 yñ2 % .1/∂2 yñ3 0

1/∂2

0

1/∂2

0

0

1

1/∂2

BA B

0

1

1/∂2

0

2

0

1

3

.

BA B

ñ1 ñ2 . ñ3

Sustituyendo estos resultados en (8.3) y realizando el cálculo correspondiente se tiene:

AB A

B A BA

1/∂2 1/∂2 0 ñ1 ñ2 % .1/∂2 1/∂2 0 ñ3 0 0 1

%

A

1/2

1/2

1/2

1/2

.1/∂2 1/∂2

.1

1 0 0

1/∂2

.1/∂2 0

0 0 1

0 .1 0

BA B

1/∂2

.1/∂2 0

1/∂2

BA B

0

1

1/∂2

0

2

0

1

3

1 2

.

3

*

*

*

o allar la e a ione e la om o i i n el giro e ng lo on re e to a EJEMPLO C. la re ta r (0, 0, 1) ! t(0, 1, 1) on la tra la i n e ve tor v % (1, 1, 0). 1 Sea ᏾ñ % { ; v1, v2, v3} con % (0, 0, 1), v1 % (0, 1, 1), v3 % (1, 0, 0) y ∂2 1 v 2 % v 3 # v1 % (0, .1, 1). ∂2

495

Sección 10.8. Ecuaciones de los movimientos en ⺢3

i

ra 10.53

Las ecuaciones del giro de ángulo 180o en torno a r (no hace falta indicar la orientación en r por ser el giro de 180o) en el sistema de referencia ᏾ñ son

AB

AB A

yñ1 y1 1 yñ2 % Gr, 180o y2 % 0 yñ3 y3 0

BA B

0 .1 0

y1 y2 . y3

0 0 .1

A continuación pasamos al sistema de referencia { ; e1, e2, e3}: si % 1e1 ! 2e2 ! 3e3 %y1v1 ! y2v2 ! y3v3 se tiene

AB A 1 2

0

% 1/∂2 1/∂2

3

1

.1/∂2

0

BA B

0 1/∂2

0

y1 y2 . y3

Por tanto, en el sistema de referencia { ; e1, e2, e3} tenemos

AB A

0 ñ1 ñ2 % 1/∂2 ñ3 1/∂2

A

0

% 1/∂2 1/∂2

1

.1/∂2

0

BA BA B AB BA B A B A BA B

0 1/∂2

1 0 0

0

0 .1 0

0 0 .1

1/∂2

0

.1

0

1/∂2

0

0

.1/∂2

0

1

0

.1/∂2

0

1

1/∂2

.1/∂2

0

2

0

3

1/∂2

1/∂2

1/∂2

1/∂2

1

0

3

2

A B AB A

0 0 1

BA B A B A

0 1 0

0 .1 % ! .1 0 2 1 0 3.1 1

1

.1 0 0

%

Para pasar ahora al sistema de referencia { ; e1, e2, e3} trasladamos ñ % ( ñ1, ñ2, ñ3) mediante el vector (0, 0, 1) para obtener ñ1 0 .1 ñ2 % 0 ! 0 ñ3 1 0

.1

0

0 0 1

0 1 0

0 0 1

0 1 0

% ( 1,

BA B 1 2 3

.

1 2

.

3

2,

3)

y

496

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

Al hacer la composición con

v,

donde v % (1, 1, 0) se tiene que si

A B A B AB A ñ 1

1

%

2 3

1 .1 ñ % 0 ! 0 2 1 0 ñ 3

0 0 1

0 1 0

%

v

oG

,

o

r, 180

BA B 1 2 3

que son las ecuaciones buscadas. Observación. Al mismo resultado se habría llegado si observamos que % ! ( ), donde

A

.1 % 0 0

0 0 1

)%

o v Gr, 180o

oG r, 180o(

)

B

0 1 0

ya que (e1) %.e1, (e2) % e3, (e3) % e2 (ver figura 10.53) y calculamos ta que o v Gr, 180o(

v

teniendo en cuen-

AB AB AB 0 0 % 1

v

0 1 0 % 1 . 1 1

3 10.9. Movimientos 10.9. MOVIMIENTOS en ⺢ y puntos fijosEN ⺢ Y PUNTOS FIJOS 3

En la sección 10.7 se ha mostrado cómo identificar un movimiento en ⺢3 a partir de sus ecuaciones y como determinar sus elementos geométricos (recta y ángulo de giro, plano de simetría y vector de traslación). Para ello se hizo uso de la forma de Jordan real de la matriz ortogonal asociada a un movimiento . En esta sección vamos a mostrar cómo se identifica un movimiento en ⺢3 y cómo se determinan sus elementos geométricos a partir del estudio de sus puntos fijos y de sus subvariedades invariantes. Recordar que un movimiento en ⺢3 tiene por ecuaciones

AB AB AB 1

( )%

2 3

a1 % a2 ! a3

1 2

% ! ·

3

en un sistema de referencia ᏾ % { ; e1, e2, e3} en el que % a1e1 ! a2e2 ! a3e3 , y es una matriz ortogonal de orden 3. Un punto es un nto i o de si ( ) % , es decir % ! ·

á

(9.1)

( . )· % .

% 1 e 1 ! 2 e 2 ! 3e 3 ,

(9.2)

Por el teorema de Rouché-Frobenius (Teorema 1.2.4) para estudiar el sistema de ecuaciones (9.2) basta conocer el rango de . , r( . ), y el rango de ( . 8 ), r( . 8 ), donde

Sección 10.9. Movimientos en ⺢3 y puntos fijos

497

( . 8 ) es la matriz . a la que se ha añadido la columna (a1, a2, a3)t. Como se ha añadido solo una columna y la matriz . es de orden 3, las posibilidades que tenemos se describen en el siguiente cuadro:

i

ra 10.54

r . T) % Si r( . ) % 0, se tiene % . Si r( . 8 ) % 0, el movimiento es la identidad; si r( . 8 ) % 1, el movimiento es una traslación de vector a % a1e1 ! a2e2 ! a3e3 Ç 0. t

Para estudiar el resto de los casos escribamos % ortogonal y una de las matrices

A B A B

A A

1 1% 0 0

0 1 0

0 0 , 1

1 2% 0 0

.1 0 3% 0

0 1 0

0 0 , 1

.1 0 4% 0

(ver Teorema 8.6.2) con

B

0 0 cos r .sen r , sen r cos r

à ᏹ3#3(⺢)

0 a r a 2n, (9.3)

B

0 0 cos r .sen r , sen r cos r

0 a r a 2n.

En la sección 10.7 se ha probado que en el sistema de referencia ortonormal ᏾ñ % { ; 1, 2, 3}, donde las coordenadas de , % 1, 2, 3, en la base {e1, e2, e3} son los elementos de la columna de la matriz , el movimiento dado en (9.1) se escribe

AB AB

b1 ( ) % b2 ! b3 Puesto que . % ( . ) para representarla,

y1 y2 % ! · y3

t

,

AB AB

b1 con b2 % b3

t

a1 a2 . a3

(9.4)

y el rango de una aplicación no depende de la base elegida r( . ) % r( . ).

(9.5)

498

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

El resultado siguiente muestra que también se cumple r( . 8 ) % r( . 8 ). Lema 10.9.1 Si à ᏹn#n(⺢) y % % (a1, ..., an)t y %

.1 .1

con ,

à ᏹn#n(⺢) y

invertible, r( 8 ) % r( 8 ) con

· .

Demostración. Sea % r( 8 ), 0 m m n. Si % 0, y son nulos y también y . Así pues, consideremos 1 m m n. Como es un vector columna, r( ) % ó r( ) % . 1. Si r( ) % % r( 8 ), el sistema de ecuaciones · % , con % ( 1, ..., n)t es compatible. Puesto que es invertible, el sistema de ecuaciones · % , % (y1, ..., yn)t, es compatible. .1 .1 · % es también compatible. Por tanto, · % es compatible, de donde Luego, se deduce r( 8 ) % r( ) % r( ) % , puesto que y son matrices equivalentes. El razonamiento en el caso r( ) % . 1 es similar, teniendo en cuenta que ahora el sistema 䊏 de ecuaciones · % es incompatible. Observación 1 . .2. De la clasificación de los movimientos 10.7.4 podemos concluir lo siguiente: i) r( . ) % 0 % r( . 8 ) ii) r( . ) % 1 % r( . 8 ) plano de puntos fijos). iii) r( . ) % 2 % r( . 8 ) ta de puntos fijos). iv) r( . ) % 3 % r( . 8 ) to con un solo punto fijo).

en ⺢3 dada en el Teorema

á á

es la identidad. es una reflexión (que es el único movimiento con un

á

es un giro (que es el único movimiento con una rec-

á

es una simetría rotatoria (que es el único movimien-

Estudiamos a continuación los casos II, III y IV de la tabla de la figura 10.54. r . T) % Como r( . ) % r( . ) y 3 es la única matriz de la lista (9.3) que satisface r( . ) % 1, la ecuación del movimiento en el sistema de referencia ᏾ñ % { ; 1, 2, 3} es

( )%

AB AB A

y1 b1 .1 0 y2 % b2 ! 0 y3 b3

0 1 0

0 0 1

BA B

y1 y2 % ! y3



.

(9.6)

Si r( . 8 ) % 1, por la parte ii) de la observación 10.9.2, es una reflexión con respecto a un plano n. El plano n es el plano de puntos fijos, por lo que es la solución del sistema ( . )· % . Si r( . 8 ) % 2, por el Lema 10.9.1 con % . , r( . 3 8 ) % 2. Como

2 % r( .

A GB

2 8 ) % r 0 3 0

0 0 0

0 b1 0 b2 , 0 b3

Sección 10.9. Movimientos en ⺢3 y puntos fijos

se ha de tener v % b2

2 ! b3 3 Ç 0.

499

Escribir

AB AB AB AB y1 0 b1 y 2 % b2 ! 0 ! y3 b3 0

3

y1 y2 % y3

v

AB

y1 ñ y2 . y3

o

Como

A GB A B

2 r 0 0

0 0 0

0 b1 2 0 0 %1%r 0 0 0 0

0 0 0

0 0 0

el movimiento ñ es una reflexión (parte ii) de la observación 10.9.2). Puesto que % v o ñ y v es un vector paralelo al plano de simetría n % ! L( 1, 2), es una simetría deslizante. Lema 10.9.2 ( )% ! ·

Sea

una simetría deslizante,

%

v

o

B,

en ⺢3.

El plano de simetría B de es el conjunto de puntos ( . ) . ( . )2 % . b) Si 0 à B, el vector de traslación de es v % 0 ( 0). a)

de ⺢3 que satisfacen

Demostración. La parte b) es sencilla. Para demostrar a) observar que los puntos plano de simetría deben satisfacer ñ % ñ ññ con ñ % ( ), ññ % ( ñ). Entonces, ñ % ññ . ñ % ! · ñ . .

% (

del

ñ),

por lo que ñ es un autovector de de autovalor 1. Por tanto ( . )( ñ) % 0 y como puntos de ⺢3 se tiene % ( . )( ! · . ) % ( . ) · . ( . )2 · , 䊏

que es lo que queríamos demostrar. r . T) %

Como r( . ) % r( . ) % 2 y 2 es la única matriz de la lista (9.3) que satisface r( . ) % 2, la ecuación del movimiento en el sistema de referencia ᏾ñ % { ; 1, 2, 3} es ( )% Si r( recta r. ( . )· Si r(

AB AB A

y1 b1 1 y2 % b2 ! 0 0 y3 b3

BA B

0 0 cos r .sen r sen r cos r

y1 y2 % ! y3



.

(9.7)

. 8 ) % 2, por la parte iii) de la observación 10.9.2, es un giro con respecto a una La recta r tiene todos sus puntos fijos, por lo que es la solución del sistema % . . 8 ) % 3, por el Lema 10.9.1 con % . se tiene que, r( . 2 8 ) % 3. Como 3 % r( .

A

0 8 ) % r 0 2 0

0 1 . cos r .sen r

GB

0 b1 sen r b2 1 . cos r b3

500

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

se ha de tener % b1

1

Ç 0. Escribir

AB AB AB AB y1 b1 0 y 2 % 0 ! b2 ! y3 b3 0

2

y1 y2 % y3

AB

y1 ñ y2 . y3

o

Como

A

0 r 0 0

GB A

0 0 0 0 1 . cos r sen r b2 % 2 % r 0 .sen r 1 . cos r b3 0

B

0 0 1 . cos r sen r .sen r 1 . cos r

el movimiento ñ es un giro (parte iii) de la observación 10.9.2). Puesto que % un vector paralelo al eje de giro, r % ! L( 1), es un movimiento helicoidal.

o

ñy

es

Lema 10.9.3 ( )% ! ·

Sea

un movimiento helicoidal,

%

oG r, r,

en ⺢3.

El eje de giro r de es el conjunto de punto de ⺢3 que satisfacen 2 ( . ) .( . ) % . b) El ángulo de giro r satisface 1 ! 2 cos r % traza( ) con traza( ) % suma de los elementos de la diagonal principal de . c) Si 0 à r, el vector de traslación de es v % 0 ( 0). a)

Demostración. a) Si ññ % ( ñ). Entonces,

ñ % ñ ññ con

es un punto del eje de giro,

ñ % ññ . ñ % ! · ñ . . · % (

ñ%

( ),

ñ),

por lo que ñ es un autovector de de autovalor 1. Por tanto ( . )( ñ) % 0 y como puntos de ⺢3 se tiene % ( . )( ! · . ) % ( . ) · . ( . )2 · . b) Puesto que t

A

1 % 2% 0 0

0 0 cos r .sen r sen r cos r

B

y la traza de una matriz no varía al hacer cambios de base (ver ejercicio 7 al final de esta sección), traza ( ) % traza ( 2) % 1 ! 2 cos r. 䊏 c) Esta parte es evidente. r . T) % En este caso r( . 8 ) % 3 % r( . ) y, por la parte iv) de la observación 10.9.2, es una simetría rotatoria, % B o Gr, r. El punto fijo 0 de es la solución del sistema ( . ) · % . Los elementos geométricos de este movimiento se determinan usando el siguiente resultado:

Sección 10.9. Movimientos en ⺢3 y puntos fijos

501

Lema 10.9.4 Sea ( ) % ! · una simetría rotatoria, % B o Gr, r, en ⺢3. a) El eje de giro r de es el conjunto de puntos de ⺢3 que satisfacen 2 ( ! )· !( . ) % . b) El ángulo de giro r satisface .1 ! 2 cos r % traza( ) con traza( ) % suma de los elementos de la diagonal principal de . c) El plano B es perpendicular al eje de giro r y pasa por el punto fijo 0 solución de ( . ) % . Demostración. a) Si ññ % ( ñ). Entonces por lo que se tiene

ñ %. ñ ññ con

es un punto del eje de giro,

ñ % ( ),

ñ %. ñ ññ % ñ . ññ % ! · . . · ñ %. ( ñ) ñ es un autovector de de autovalor .1. Por tanto ( ! )( ñ) % 0 puntos de ⺢3 % ( ! )( ! · . ) % ( ! ) · ! (

b) Puesto que t

A

.1 0 0 % 4 % 0 cos r .sen r 0 sen r cos r

2

. )· .

B

y la traza de una matriz no varía al hacer cambios de base (ver ejercicio 7 al final de esta sección), traza ( ) % traza ( 4) %.1 ! 2 cos r. 䊏 c) Esta parte es evidente por definición de simetría rotatoria. * * * Para usar en los ejercicios que siguen es conveniente resumir algunos de los resultados anteriores, lo que se hace en el cuadro de la figura 10.55.

i

ra 10.55

* * * Recordar que una bvarie a lineal L en un espacio afín es invariante mediante una transformación afín si (L) Ñ L. En el espacio, además de ⺢3, las subvariedades lineales invariantes pueden ser puntos, rectas o planos. Observar que en el espacio hay movimientos que no tienen puntos fijos, pero poseen subvariedades invariantes: ¿cuáles?

502

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

EJEMPLO A.

t

iar el mo imiento e e a ione

ABA A B A GB

( )% Como

.2 0 0 ! 0 .2 .1

1 . % 0 1 y puesto que

1 ( . 8 )% 0 1

0 0 0

1 0 1

0 1 0

r( . ) % 1,

,

1 .2 0 0 1 .2

0 0 0

B

.1 0 · . 0

r( . 8 ) % 1,

,

el movimiento es una imetría. El plano de simetría es el conjunto de puntos fijos que satisfacen

AB A B A y %

.2 0 0 ! 0 .2 .1

0 1 0

.1 0 0

BA B A B A B y %

.2 . 0 ! y . .2 .

Se trata del plano ! %.2, que ha sido dibujado en la figura 10.56.

i

ra 10.56

Todas las rectas perpendiculares al plano de simetría son rectas invariantes; estas rectas tienen por ecuaciones paramétricas ( , y, ) % ( 1, con ( 1,

2,

3)

2,

0, 1) , t à ⺢,

un punto cualquiera del plano ! %.2. *

EJEMPLO B.

3) ! t(1,

t

*

*

iar el mo imiento a o or

AB

A

1/2 0 1/2 ( )% 0 ! 2 .1/∂2

1/2 1/2 1/∂2

1/∂2

B

.1/∂2 · . 0

Sección 10.9. Movimientos en ⺢3 y puntos fijos

503

Como

A A

1/2

r( . ) % r .1/2

1/∂2

1/2

1/∂2 .1/∂2

y

1/2

r( . 8 ) % r .1/2

1

1

es un giro. Los puntos

( . )· %

á

A

%r

1/∂2 0 %

1/2

B GB

1/2 .1/2 .1/∂2

.1/∂2 0

.1/2

1/∂2 .1/∂2

el movimiento

BA GB A

.1/∂2

.1/2

2

0

0

0

0

0

2

% 2,

1/2 .1/2 .1/∂2 0 0

0

0

0

0

2

0 % 2, 2

del eje de giro satisfacen

1/2

.1/2

.1/2

1/2

1/∂2

.1/∂2

BA B A B

.1/∂2 1/∂2 1

0 y % 0 . 2

Este sistema tiene como soluciones % 1, . y % ∂2. El eje de giro es r : ( , y, ) % (∂2, 0, 1) ! t(1, 1, 0), t à ⺢. Para hallar el ángulo de giro r se usa el Lema 10.9.3: 1 ! 2 cos r % traza( ) % 1. Por tanto, cos r % 0. Si elegimos % (1, 1, 0) como orientación de r, como el punto % (0, 0, 0) se transforma en % (0, 0, 2) mediante se tiene r % 90o (ver figura 10.57). Si hubieramos elegido . como orientación de r, el ángulo de giro sería 270o.

i

ra 10.57

504

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

EJEMPLO C.

eterminar lo elemento geom tri o

A B AB A

1 .1 % 0 ! 0 1 0

1 2 3

el mo imiento a o or 0 0 1

0 1 0

BA B 1 2

.

3

Como

A

2 r( . ) % r 0 0

B A

0 1 .1

0 2 .1 % r 0 1 0

0 1 0

B

0 .1 % 2 0

y

A

2 r( . 8 ) % r 0 0

GB A

0 1 .1

01 2 .1 0 % r 0 11 0

0 1 0

GB

01 .1 0 % 3 01

el movimiento es un movimiento eli oi al. Hemos de determinar el eje de giro, el ángulo de giro y el vector de traslación (paralelo al eje de giro). Por el Lema 10.9.3 los puntos % ( 1, 2, 3)t del eje de giro satisfacen

AB A

0 2 0 % 0 0 0

BA B A

0 0 1 .1 .1 1

1 2 0 . 0 1 0

BA B A B A

0 1 .1

2

0 .1 1

1 2 3

2 4 % .1 . 0 1 0

0 2 .2

0 .2 2

Por tanto, las ecuaciones del eje de giro son 1%

Un punto

0

de este eje de giro es

AB A

1 , 2

0%

1 .1 ñ0 % ( 0) % 0 ! 0 1 0

2 2 . 2 3 %.1.

A

B

1 1 , 0, y puesto que 2 2

0 0 1

0 1 0

BA B A B A B A B

1/2 1 .1/2 1/2 0 % 0 ! 1/2 % 1/2 , 1/2 1 0 1

el vector de traslación de este movimiento helicoidal es

0

AB

0 ñ0 % 1/2 . 1/2

BA B 1 2 3

.

505

Sección 10.9. Movimientos en ⺢3 y puntos fijos

Observar que las ecuaciones del eje de giro pueden escribirse de la forma 1%

1 , 2

2 % t,

3%

1 !t 2

y que el vector de traslación 0 ñ0 es paralelo al eje de giro. Para el ángulo de giro r, el apartado b) del Lema 10.9.3 produce 1!2 cos r%traza( )%.1. Por tanto cos r %.1, por lo que el ángulo de giro es 180o. t

EJEMPLO D.

iar el mo imiento

e e a ione

A B AB A

BA B

ñ 1 .1/2 1 1 2 yñ % 1 . 1 .1/2 1 3 ñ 0 1 1 .1/2

y .

Puesto que

A

B

2/3 2/3 2/3 . % 2/3 2/3 2/3 2/3 2/3 2/3

A

GB

2/3 2/3 2/3 1 ( . 8 ) % 2/3 2/3 2/3 1 , 2/3 2/3 2/3 0

e

se tiene que r( . ) % 1 y r( . 8 ) % 2. El movimiento es una simetría deslizante. Hemos de determinar el plano de simetría y el vector de traslación. Por el Lema 10.9.2, los puntos % ( , y, )t del plano de simetría B satisfacen

AB A

BA B A

0 2/3 2/3 2/3 0 % 2/3 2/3 2/3 0 2/3 2/3 2/3

BAB AB A B

1 2/3 2/3 2/3 1 . 2/3 2/3 2/3 0 2/3 2/3 2/3

2

y %

1 4 4 1 . 3 3 1

!y! !y! !y!

.

Por tanto, ! y ! % 1 es la ecuación del plano de simetría B. Para encontrar el vector de traslación tomamos 0 % (1, 1, .1) à B, con lo cual tenemos

AB A

BA B A B A B A B

1 .1/2 1 1 2 1 .1/2 1 ñ0 % 1 . 3 0 1 1 .1/2

1 1 .1/2 4/3 2 1 % 1 . .1/2 % 4/3 . 3 .1 0 5/2 .5/3

El vector de traslación a es a%

0

A BABA B AB

4/3 1 1/3 1 1 ñ0 % 4/3 . 1 % 1/3 % 1 . 3 .5/3 .1 .2/3 .2

El plano B es una subvariedad invariante de este movimiento. Las subvariedades lineales invariantes de dimensión 1 de este movimiento son todas las rectas contenidas en el plano B 1 que tienen a a % (1, 1, .2) como vector director. 3 *

*

*

506

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

EJEMPLO E.

t

iar el mo imiento

AB AB A

2 0 y % 2 ! 0 2 1

0 .1 0

BA B

.1 0 0

y .

Puesto que

r( . ) % r

A

1 0 .1

0 2 0

B A B

1 1 0 %r 0 1 0

0 2 0

1 0 % 3. 2

Se trata de una simetría rotatoria con plano de simetría B perpendicular al eje de giro r. El punto de intersección del plano de simetría y del eje de giro es el punto fijo 0 de esta transformación. Las coordenadas de 0 satisfacen

AB AB A

2 0 y % 2 ! 0 2 1

0 .1 0

BA B

.1 0 0

y .

Por tanto,

F

%2. y%2.y , %2! de donde deducimos que 0 % (0, 1, 2). Según el Lema 10.9.4, los puntos % ( , y, )t del eje de giro satisfacen

AB A

BA B CA

0 1 0 .1 0 % 0 0 0 0 1 0 1

2 2 ! 2

B A BDA B A B A B

0 0 .1 2 1 0 0 0 .1 0 . 0 1 0 1 0 0 0 0 1

0 .2 y % 0 ! 0 4 .2

ú

E F

%0 . %2

El eje de giro es r: (0, 0, 2) ! t(0, 1, 0), t à ⺢. Como el plano de simetría ha de ser perpendicular al eje de giro y pasar por el punto fijo 0 % (0, 1, 2), su ecuación es y % 1. La parte b) del Lema 10.9.4 nos da .1 ! 2 cos r % traza( ) %.1. Por tanto cos r % 0. Si orientamos r según el vector % (0, 1, 0), tomando 0 % (0, 1, 0) se tiene ( 0) % (2, 1, 2) y se observa en la figura 10.58 que el ángulo de giro es 270o. Si hubieramos elegido . para orientar r el ángulo de giro sería 90o.

Sección 10.9. Movimientos en ⺢3 y puntos fijos

i

507

ra 10.58

EJERCICIOS (Secciones 10.8 y 10.9) 1. Hallar la expresión analítica de los siguientes movimientos en el espacio: a)

Simetría respecto al plano 3 . y ! 2 % 1.

b)

Movimiento helicoidal respecto al eje {j(1, .1, 0); j à ⺢} con un giro de 180o y vector de traslación v % (2, .2, 0).

c)

Giro cuyo eje pasa por (1, 1, 0) y (0, 0, 1) y que envía (0, 1, 0) en (1, 1, 1).

d)

Composición de los movimientos a) y b).

2. Estudiar los siguientes movimientos en el espacio, hallando su tipo, subvariedades invariantes y elementos geométricos:

a)

b)

c) d)

1

2

3

1/2 ∂2/2 1/2 1 0 .∂2/2 y % .1 ! ∂2/2 0 1/2 .∂2/2 1/2

AB A B A BA B A B A B A BA B A B A B A BA B 1 0 0 y % 1 ! 0 .1

2 0 y % 1 ! 0 0 1

La composición

3

o

1 0 0

.1 0 0

0 1 0

2

0 .1 0

y

2

y .

y .

o

3.

y .

508

Capítulo 10.

Movimientos en un espacio afín euclídeo. Movimientos en ⺢2 y ⺢3

3. Hallar los movimientos del espacio que conmutan con la simetría respecto del plano % 0. 4. Dado el movimiento helicoidal

AB AB A

2 0 0 y % 1 ! 0 .1

1 0 0

0 .1 0

BA B

y ,

hallar su descomposición canónica como composición de un giro con una traslación de vector paralelo al eje de giro. 5. a)

b) 6. a)

Dados los planos paralelos n1 y n2 de ecuaciones n1 : ! y % 1 y n2 : ! y % 4, enes una traslacontrar las ecuaciones del movimiento % n2 o n1. Demostrar que ción y encontrar su vector de traslación. Demostrar que para cualesquiera dos planos paralelos n1 y n2 en ⺢3, una traslación; encontrar el vector de traslación.

%

n2

o

n1

es

Dados los planos n1 y n2 de ecuaciones n1: % 1 y n2: ! y . % 2, encontrar las ecuaciones de % n1 o n2. Demostrar que es un giro con respecto a un eje y encontrar el eje y el ángulo de giro.

b)

¿Qué relación existe entre el eje del giro

c)

¿Qué relación existe entre el ángulo de giro de

y los planos n1 y n2? y el ángulo que forman n1 y n2?

7. Sean , à ᏹ 3#3(⺛) con 8 8 Ç 0. Demostrar que si % .1 , traza ( ) % traza ( ). [ geren ia: si (j) %.j3 ! a2 j2 . a1j ! a0 es el polinomio característico de , demostrar que a2 % traza ( ); utilizar a continuación que (j) es invariante mediante un cambio de base].

Capítulo 11

Secciones cónicas.

11.1. Definiciones. 11.2. La circunferencia y algunas de sus propiedades. 11.3. La elipse y la hipérbola. 11.4. Nueva definición de las secciones cónicas: la elipse, la hipérbola y la parábola. 11.5. Ecuaciones de las cónicas. 11.6. Determinación de las cónicas. 11.7. Determinación del tipo de una cónica. 11.8. Invariantes de las cónicas y reducción a su forma canónica. 11.9. Determinación del centro y de los ejes principales de una cónica con centro. 11.10. Determinación del vértice y del eje de una parábola. 11.11. Haces de cónicas.

510

Capítulo 11.

Secciones cónicas

11.1. Definiciones 11.1. DEFINICIONES

Un oble ono re to en ⺢3 es la figura que engendra una recta g al girar alrededor de una recta que la corta. La recta se denomina e e el ono y las distintas posiciones de g, generatri e el ono; el punto de intersección del eje con una cualquiera de las generatrices del cono se denomina v rti e (ver figura 11.1). Toda figura (plana) que se obtiene como intersección de un doble cono recto con un plano se denomina una e i n ni a. Según las distintas posiciones del plano las secciones cónicas, o simplemente ni a , reciben nombres diferentes, que se dan a continuación (ver figura 11.2). a)

El plano y el eje del cono forman entre sí un ángulo superior al ángulo que forman el eje del cono y una cualquiera de las generatrices. a1) Si el plano es perpendicular al eje del cono, y no pasa por el vértice, la cónica se denomina una ir n eren ia. En el caso especial de que el plano pase por el vértice se obtiene n nto.

i

ra 11.1

i

ra 11.2

Sección 11.2. La circunferencia y algunas de sus propiedades

511

a2)

Si el plano no es perpendicular al eje del cono, la cónica resultante se denomina eli e, salvo en el caso especial en que el plano pase por el vértice, en cuyo caso se obtiene un nto. b) Si el plano es paralelo a una cualquiera de las generatrices la cónica se denomina ar bola, excepto si el plano pasa por el vértice, en cuyo caso se obtiene una re ta, tangente al cono. c) Si el ángulo que forman el plano y el eje de giro es inferior al ángulo que forman el eje y una cualquiera de las generatrices, la cónica se denomina i rbola, salvo en el caso especial en que el plano pase por el vértice, en cuyo caso se obtienen o re ta e e ortan. Los casos especiales que aparecen en los casos anteriores se denominan e ione ni a egenera a . De ellos no nos ocuparemos aquí por haber sido estudiados anteriormente. La primera persona que estudió las secciones cónicas fue Menaechmus de Grecia, como consecuencia de su interés en el problema de construir con regla y compás un cubo de volumen doble al de un cierto cubo dado; esto sucedió en el siglo IV antes de Cristo. En el mismo siglo el geómetra Euclides escribió cuatro libros sobre las secciones cónicas, de los cuales ninguno se conserva actualmente. El primer tratado escrito que se conserva sobre las secciones cónicas es debido a Apolonio de Perga; en sus ocho libros, de los cuales se conservan solo los siete primeros, Apolonio fue el primero en estudiar las propiedades geométricas de las secciones cónicas. Varias de estas propiedades geométricas serán estudiadas en las secciones siguientes. 11.2. La circunferencia 11.2. LA CIRCUNFERENCIA y algunas de sus propiedades Y ALGUNAS DE SUS PROPIEDADES

En el caso de la circunferencia la distancia del vértice del cono a un punto cualquiera de la es fijo, donde es el punto de intersección del plano y el circunferencia es constante; como eje del cono (figura 11.3), se tiene que 9

9 % ∂9

i

es constante para todo

92 . 9

92

ra 11.3

de la circunferencia. Tenemos entonces

512

Capítulo 11.

Secciones cónicas

Proposición 11.2.1 Una ir n eren ia es el conjunto de puntos de un plano cuya distancia a un punto fijo , llamado entro, es constante. Esta constante se denomina ra io e la ir n eren ia.

Proposición 11.2.2 Sean y dos puntos de un plano. Un punto del plano pertenece a la circunferencia en y son perpendila que y son diametralmente opuestos si y solo si los vectores culares. Demostración. Sea r el radio de la circunferencia y r2 % 9 %(

92 % ( ,

)!(

%.r2 ! ( /.r2 ! ( %.r2 ! (

,

,

,

!

)!(

, ).( .

,

%.r2 ! 2r2 ! ( Esto es equivalente a (

)%(

,

)!( ,

,

su centro. Se tiene (figura 11.4): !

,

,

)!(

,

,

)%

)!(

)!(

,

,

)%

) % r2 ! (

)% )%

)%

,

).

) % 0, lo cual demuestra el resultado.

i

ra 11.4

Proposición 11.2.3 Consideremos una circunferencia de centro y un punto exterior a ella. Si y ñ son los puntos de tangencia de las tangentes a la circunferencia que pasan por se tiene que es perpendicular a ,y ñ es perpendicular a ñ. 9 88 % 9 ñ9. Además,



Sección 11.3. La elipse y la hipérbola

Demostración. Sea r el radio de la circunferencia y . Para j % 9 9 se tiene que r2 % 9

92 % 9

% j2 ! 2j(

!

92 % 9

, )!9

92.

513

un vector unitario en la dirección de ! j 92 %

Si consideramos la ecuación en j, j2 ! 2j( , ) ! 9 92 . r2 % 0, esta ha de tener una solución únicamente, ya que es tangente a la circunferencia, y esta solución es j % 9 9. La ecuación de segundo grado tiene solución única si y solo si (

, )2 % 9

92 . r2

9

9 % j %.(

(1.1)

y esta solución es Si v es un vector unitario en la dirección de

(1.2)

ñ el mismo razonamiento anterior produce

, v)2 % 9

(

, )

92 . r2

(1.3)

, v)

(1.4)

y 9

ñ9 %.(

De (1.1), (1.2), (1.3) y (1.4) se deduce que 9 9 % 9 ñ9. Además, de (1.1) y (1.2) obtenemos 9 92 % 9 92 . 9 92 y, por tanto, el triángulo satisface el teorema de Pitágoras. Esto prueba que tiene un ángulo recto en . Un razonamiento análogo prueba que ñ 䊏 tiene un ángulo recto en ñ. Esto demuestra la proposición. 11.3. La elipse 11.3. LAy laELIPSE hipérbola Y LA HIPÉRBOLA

Proposición 11.3.1 Una eli e es el lugar geométrico de los puntos de un plano cuya suma de las distancias a dos puntos fijos distintos, llamados o o , 1 y 2, es constante (9 19 ! 9 29 % constante). Demostración. Sea n el plano que determina la elipse. Considerar las dos esferas tangentes al cono y al plano como muestra la figura 11.5. Estas esferas tocan al plano n en los puntos un punto de la elipse y , los puntos de tangencia de la generatriz del cono 1 y 2. Sea que pasa por con cada una de las esferas. Aplicando la Proposición 11.2.3 en los planos que contienen a los puntos , 2 , y , 1 , se obtiene: 9

29 % 9

9

y 9 Como 9

9!9

19 % 9

9.

9 % 9 L9, que es fija, se tiene que 9

19 ! 9

29 % 9

L9 % constante.



514

Capítulo 11.

Secciones cónicas

i

ra 11.5

Si dibujamos la elipse en un sistema de coordenadas cartesianas, como en la figura 11.6, el eje que contiene a los focos se denomina e e rin i al y el eje perpendicular al eje principal que pasa por el punto medio del segmento 1 2 se denomina e e e n ario. Los puntos de intersección de la elipse con los ejes se denominan v rti e . El punto medio e