Clase 40: Diagonalización de Matrices Simétricas
📚 Introducción
Una matriz simétrica es una matriz A tal que Aᵀ = A. Esta matriz es necesariamente cuadrada. Sus entradas en la diagonal principal son arbitrarias, pero sus otras entradas se presentan por pares, en lados opuestos de la diagonal principal.
Las matrices simétricas tienen propiedades espectrales extraordinarias que las convierten en las matrices más importantes del álgebra lineal. El teorema espectral garantiza que toda matriz simétrica es diagonalizable ortogonalmente, lo que tiene profundas implicaciones tanto teóricas como prácticas.
Objetivos de la Clase
- Comprender qué es una matriz simétrica y sus propiedades básicas
- Dominar el teorema de ortogonalidad de vectores propios
- Estudiar el teorema espectral para matrices simétricas
- Aprender a diagonalizar matrices simétricas ortogonalmente
- Comprender la descomposición espectral
- Aplicar estos conceptos a problemas concretos
1. Matrices Simétricas y sus Propiedades Básicas
1.1 Definición
Definición - Matriz Simétrica
Una matriz A es simétrica si Aᵀ = A. Esto significa que A es cuadrada y sus entradas satisfacen:
Las entradas están colocadas simétricamente respecto a la diagonal principal.
Ejemplo 1: Identificar matrices simétricas
De las siguientes matrices, solo las primeras tres son simétricas:
Simétricas:
No simétricas:
1.2 Ejemplo de Diagonalización
Ejemplo 2: Si es posible, diagonalice la matriz
Solución:
La ecuación característica de A es:
Los cálculos estándar producen una base para cada espacio propio:
Estos tres vectores conforman una base para ℝ³. De hecho, es fácil comprobar que {v₁, v₂, v₃} es una base ortogonal de ℝ³. La experiencia del capítulo 6 sugiere que una base ortonormal sería útil en los cálculos, así que a continuación se presentan los vectores propios normalizados a uno:
Sean:
Entonces A = PDP⁻¹, como es usual. Pero esta vez, como P es cuadrada y tiene columnas ortonormales, resulta que P es una matriz ortogonal, y P⁻¹ es simplemente Pᵀ. (Véase la sección 6.2).
2. Teorema de Ortogonalidad de Vectores Propios
El teorema 1 explica por qué los vectores propios del ejemplo 2 son ortogonales, ya que corresponden a distintos valores propios.
Teorema 1 - Ortogonalidad de Vectores Propios
Si A es simétrica, entonces dos vectores propios cualesquiera de diferentes espacios propios son ortogonales.
Demostración
Sean v₁ y v₂ los vectores propios asociados a los valores propios diferentes λ₁ y λ₂. Para demostrar que v₁ · v₂ = 0, calcule:
Por lo tanto, (λ₁ - λ₂)v₁ · v₂ = 0. Pero (λ₁ - λ₂) ≠ 0, así que v₁ · v₂ = 0.
3. Diagonalización Ortogonal
3.1 Definición
El tipo especial de diagonalización del ejemplo 2 es crucial para la teoría de matrices simétricas. Se dice que una matriz A de n × n es diagonalizable ortogonalmente si existen una matriz ortogonal P (con P⁻¹ = Pᵀ) y una matriz diagonal D tales que:
Esta diagonalización requiere n vectores propios ortonormales linealmente independientes.
Observación
Si A es diagonalizable ortogonalmente como en la ecuación (1), entonces:
Por lo tanto, ¡A es simétrica! El teorema 2 que se presenta a continuación muestra que, a la inversa, cada matriz simétrica es diagonalizable ortogonalmente.
4. Teorema Espectral
4.1 Enunciado del Teorema Principal
Teorema 2 - Teorema Espectral (Caracterización)
Una matriz A de n × n es diagonalizable ortogonalmente si y solo si A es una matriz simétrica.
Implicación Importante
Este teorema es sorprendente, ya que el trabajo realizado en el capítulo 5 sugeriría que es prácticamente imposible decir cuándo una matriz es diagonalizable. Pero este no es el caso para las matrices simétricas.
4.2 Teorema Espectral Completo
Teorema 3 - Teorema Espectral para Matrices Simétricas
Una matriz simétrica A de n × n tiene las siguientes propiedades:
a) A tiene n valores propios reales, contando las multiplicidades.
b) La dimensión del espacio propio para cada valor propio λ es igual a la multiplicidad de λ como una raíz de la ecuación característica.
c) Los espacios propios son mutuamente ortogonales, en el sentido de que los vectores propios correspondientes a diferentes valores propios son ortogonales.
d) A es diagonalizable ortogonalmente.
Justificación del Teorema
El inciso a) se deduce del ejercicio 24 de la sección 5.5. El inciso b) se deduce fácilmente del inciso d). (Véase el ejercicio 31). El inciso c) es el teorema 1. A partir del inciso a), puede hacerse una demostración para d) utilizando el ejercicio 32 y la factorización de Schur analizada en el ejercicio complementario 16 del capítulo 6. Se omiten los detalles.
5. Descomposición Espectral
5.1 Construcción de la Descomposición
Suponga que A = PDP⁻¹, donde las columnas de P son los vectores propios ortonormales u₁,…, uₙ de A, y los valores propios correspondientes λ₁,…, λₙ están en la matriz diagonal D. Entonces, como P⁻¹ = Pᵀ,
Utilizando la expansión columna-fila de un producto (teorema 10 de la sección 2.4), se puede escribir:
Definición - Descomposición Espectral
Esta representación de A se le llama descomposición espectral de A porque la divide en partes determinadas por su espectro (valores propios). Cada término en (2) es una matriz de n × n de rango 1. Por ejemplo, cada columna de λ₁u₁u₁ᵀ es un múltiplo de u₁.
Interpretación Geométrica
Además, cada matriz uⱼuⱼᵀ es una matriz de proyección en el sentido de que para cada x en ℝⁿ, el vector (uⱼuⱼᵀ)x es la proyección ortogonal de x sobre el subespacio generado por uⱼ. (Véase el ejercicio 35).
5.2 Ejemplo de Descomposición Espectral
Ejemplo 4: Construya una descomposición espectral de la matriz A que tiene la diagonalización ortogonal
Solución:
Denote las columnas de P como u₁ y u₂. Entonces,
Para comprobar esta descomposición de A, calcule:
y
6. Ejemplo con Valor Propio Repetido
6.1 Diagonalización con Multiplicidad
Ejemplo 3: Diagonalice ortogonalmente la matriz
cuya ecuación característica es:
Solución:
Los cálculos usuales producen bases para los espacios propios:
Aunque v₁ y v₂ son linealmente independientes, no son ortogonales. Recuerde de la sección 6.2 que la proyección de v₂ sobre v₁ es:
y que la componente de v₂ ortogonal a v₁ es:
Entonces {v₁, z₂} es un conjunto ortogonal en el espacio propio para λ = 7. (Observe que z₂ es una combinación lineal de los vectores propios v₁ y v₂, así que z₂ está en el espacio propio. Esta construcción de z₂ es justamente el proceso de Gram-Schmidt de la sección 6.4). Como el espacio propio tiene dos dimensiones (con la base v₁, v₂), el conjunto ortogonal {v₁, z₂} es una base ortogonal para el espacio propio, de acuerdo con el teorema de la base. (Véase la sección 2.9 o la 4.5).
Al normalizar v₁ y z₂ se obtiene la siguiente base ortonormal del espacio propio para λ = 7:
Una base ortonormal del espacio propio para λ = -2 es:
De acuerdo con el teorema 1, u₃ es ortogonal a los vectores propios u₁ y u₂. Por lo tanto, {u₁, u₂, u₃} es un conjunto ortonormal. Sean:
Entonces P diagonaliza ortogonalmente a A, y A = PDP⁻¹.
🎯 Conceptos Clave para Repasar
Resumen de Conceptos
- Matriz Simétrica: A = Aᵀ, entradas simétricas respecto a la diagonal
- Ortogonalidad de Vectores Propios: Vectores propios de diferentes espacios propios son ortogonales (Teorema 1)
- Diagonalización Ortogonal: A = PDP⁻¹ = PDPᵀ con P ortogonal
- Teorema Espectral (Caracterización): A es diagonalizable ortogonalmente ⟺ A es simétrica (Teorema 2)
- Teorema Espectral (Propiedades): n valores propios reales, dimensión = multiplicidad, espacios ortogonales (Teorema 3)
- Descomposición Espectral: A = Σλᵢuᵢuᵢᵀ descompone A en matrices de proyección
- Proceso de Gram-Schmidt: Necesario para ortogonalizar bases de espacios propios con multiplicidad > 1
- Matriz de Proyección: uⱼuⱼᵀ proyecta sobre el espacio generado por uⱼ
🚨 Errores Comunes
Error 1: No verificar que P es ortogonal
- Problema: Usar P⁻¹ en lugar de Pᵀ sin verificar ortogonalidad
- Corrección: Verificar que PᵀP = I antes de usar Pᵀ = P⁻¹
Error 2: No ortogonalizar vectores propios con multiplicidad > 1
- Incorrecto: Usar directamente vectores propios linealmente independientes pero no ortogonales
- Correcto: Aplicar Gram-Schmidt a la base del espacio propio
Error 3: Confundir diagonalización regular con ortogonal
- Diferencia: Diagonalización ortogonal requiere A = PDPᵀ (no solo A = PDP⁻¹)
- Importancia: Solo matrices simétricas son diagonalizables ortogonalmente
Error 4: Olvidar normalizar vectores propios
- Problema: P debe tener columnas ortonormales (no solo ortogonales)
- Solución: Dividir cada vector por su norma
Error 5: No usar el Teorema 1 para verificar ortogonalidad
- Observación: Vectores propios de diferentes valores propios son automáticamente ortogonales
- Uso: Solo necesita ortogonalizar dentro de cada espacio propio
📝 Ejercicios Propuestos
Ejercicios Nivel Básico (1-10)
Identificación y verificación básica
- Identifique si matrices dadas son simétricas
- Verifique que vectores propios dados son ortogonales
- Normalice vectores propios ortogonales
- Construya la matriz diagonal D de valores propios
- Verifique que PᵀP = I para matrices ortogonales dadas
Ejercicios Nivel Intermedio (11-20)
Diagonalización ortogonal
- Encuentre valores propios de matrices simétricas 2×2 y 3×3
- Calcule vectores propios y verifique ortogonalidad
- Diagonalice ortogonalmente matrices simétricas sencillas
- Construya descomposiciones espectrales
- Aplique Gram-Schmidt cuando haya valores propios repetidos
Ejercicios Nivel Avanzado (21-30)
Aplicaciones y demostraciones
- Demuestre propiedades del teorema espectral
- Interprete geométricamente la descomposición espectral
- Use descomposición espectral para calcular Aⁿ
- Analice matrices de proyección uᵢuᵢᵀ
- Relacione con formas cuadráticas (anticipar clase 41)
📚 Referencias
Lectura Principal
- Sección 7.1: Diagonalización de matrices simétricas, págs. 395-398
Enlaces Relacionados
- 37) Proceso de Gram-Schmidt - Ortogonalización de vectores
- 36) Proyecciones Ortogonales - Matrices de proyección
- 20) Valores y Vectores Propios - Fundamentos de valores propios
- 21) Ecuación Característica - Cálculo de valores propios
- 41) Formas Cuadráticas - Aplicación principal
- Teorema-Espectral
- Descomposicion-Espectral
- Diagonalizacion-Ortogonal
Conexión con Temas Futuros
Anticipando Formas Cuadráticas
El teorema espectral es la herramienta fundamental para analizar formas cuadráticas Q(x) = xᵀAx. En la siguiente clase veremos cómo usar la diagonalización ortogonal para:
- Eliminar productos cruzados en formas cuadráticas
- Clasificar formas cuadráticas (positiva definida, negativa definida, indefinida)
- Encontrar ejes principales de secciones cónicas y cuádricas
- Resolver problemas de optimización con restricciones cuadráticas
Sugerencia de Estudio
El teorema espectral es uno de los resultados más importantes de todo el álgebra lineal. Su belleza radica en la equivalencia perfecta: A es diagonalizable ortogonalmente ⟺ A es simétrica. Esto contrasta dramáticamente con la diagonalización general, donde es difícil determinar cuándo una matriz es diagonalizable. Practica mucho la diagonalización ortogonal, especialmente el proceso de Gram-Schmidt cuando hay valores propios repetidos. La descomposición espectral A = Σλᵢuᵢuᵢᵀ proporciona una interpretación geométrica profunda: cada matriz simétrica se descompone como suma de proyecciones ortogonales escaladas. Este resultado tiene aplicaciones en análisis de componentes principales (PCA), mecánica cuántica, teoría de vibraciones, procesamiento de señales, y muchas otras áreas.
✅ Checklist de Estudio
Lista de Verificación
- Comprendo qué es una matriz simétrica y puedo identificarlas
- Sé que vectores propios de diferentes λ son automáticamente ortogonales (Teorema 1)
- Puedo enunciar el teorema espectral (caracterización y propiedades)
- Sé diagonalizar ortogonalmente matrices simétricas 2×2 y 3×3
- Puedo aplicar Gram-Schmidt a espacios propios con multiplicidad > 1
- Entiendo la diferencia entre A = PDP⁻¹ y A = PDPᵀ
- Sé construir la descomposición espectral A = Σλᵢuᵢuᵢᵀ
- Comprendo que uᵢuᵢᵀ es una matriz de proyección
- Puedo verificar que una matriz P es ortogonal (PᵀP = I)
- Entiendo por qué el teorema espectral es tan importante
🏷️ Tags
algebra-lineal matrices-simetricas teorema-espectral diagonalizacion-ortogonal descomposicion-espectral valores-propios vectores-propios ortogonalidad clase-40 clase capitulo-7