Clase 40: Diagonalización de Matrices Simétricas

📚 Introducción

Una matriz simétrica es una matriz A tal que Aᵀ = A. Esta matriz es necesariamente cuadrada. Sus entradas en la diagonal principal son arbitrarias, pero sus otras entradas se presentan por pares, en lados opuestos de la diagonal principal.

Las matrices simétricas tienen propiedades espectrales extraordinarias que las convierten en las matrices más importantes del álgebra lineal. El teorema espectral garantiza que toda matriz simétrica es diagonalizable ortogonalmente, lo que tiene profundas implicaciones tanto teóricas como prácticas.

Objetivos de la Clase

  • Comprender qué es una matriz simétrica y sus propiedades básicas
  • Dominar el teorema de ortogonalidad de vectores propios
  • Estudiar el teorema espectral para matrices simétricas
  • Aprender a diagonalizar matrices simétricas ortogonalmente
  • Comprender la descomposición espectral
  • Aplicar estos conceptos a problemas concretos

1. Matrices Simétricas y sus Propiedades Básicas

1.1 Definición

Definición - Matriz Simétrica

Una matriz A es simétrica si Aᵀ = A. Esto significa que A es cuadrada y sus entradas satisfacen:

Las entradas están colocadas simétricamente respecto a la diagonal principal.

Ejemplo 1: Identificar matrices simétricas

De las siguientes matrices, solo las primeras tres son simétricas:

Simétricas:

No simétricas:

1.2 Ejemplo de Diagonalización

Ejemplo 2: Si es posible, diagonalice la matriz

Solución:

La ecuación característica de A es:

Los cálculos estándar producen una base para cada espacio propio:

Estos tres vectores conforman una base para ℝ³. De hecho, es fácil comprobar que {v₁, v₂, v₃} es una base ortogonal de ℝ³. La experiencia del capítulo 6 sugiere que una base ortonormal sería útil en los cálculos, así que a continuación se presentan los vectores propios normalizados a uno:

Sean:

Entonces A = PDP⁻¹, como es usual. Pero esta vez, como P es cuadrada y tiene columnas ortonormales, resulta que P es una matriz ortogonal, y P⁻¹ es simplemente Pᵀ. (Véase la sección 6.2).


2. Teorema de Ortogonalidad de Vectores Propios

El teorema 1 explica por qué los vectores propios del ejemplo 2 son ortogonales, ya que corresponden a distintos valores propios.

Teorema 1 - Ortogonalidad de Vectores Propios

Si A es simétrica, entonces dos vectores propios cualesquiera de diferentes espacios propios son ortogonales.

Demostración

Sean v₁ y v₂ los vectores propios asociados a los valores propios diferentes λ₁ y λ₂. Para demostrar que v₁ · v₂ = 0, calcule:

Por lo tanto, (λ₁ - λ₂)v₁ · v₂ = 0. Pero (λ₁ - λ₂) ≠ 0, así que v₁ · v₂ = 0.


3. Diagonalización Ortogonal

3.1 Definición

El tipo especial de diagonalización del ejemplo 2 es crucial para la teoría de matrices simétricas. Se dice que una matriz A de n × n es diagonalizable ortogonalmente si existen una matriz ortogonal P (con P⁻¹ = Pᵀ) y una matriz diagonal D tales que:

Esta diagonalización requiere n vectores propios ortonormales linealmente independientes.

Observación

Si A es diagonalizable ortogonalmente como en la ecuación (1), entonces:

Por lo tanto, ¡A es simétrica! El teorema 2 que se presenta a continuación muestra que, a la inversa, cada matriz simétrica es diagonalizable ortogonalmente.


4. Teorema Espectral

4.1 Enunciado del Teorema Principal

Teorema 2 - Teorema Espectral (Caracterización)

Una matriz A de n × n es diagonalizable ortogonalmente si y solo si A es una matriz simétrica.

Implicación Importante

Este teorema es sorprendente, ya que el trabajo realizado en el capítulo 5 sugeriría que es prácticamente imposible decir cuándo una matriz es diagonalizable. Pero este no es el caso para las matrices simétricas.

4.2 Teorema Espectral Completo

Teorema 3 - Teorema Espectral para Matrices Simétricas

Una matriz simétrica A de n × n tiene las siguientes propiedades:

a) A tiene n valores propios reales, contando las multiplicidades.

b) La dimensión del espacio propio para cada valor propio λ es igual a la multiplicidad de λ como una raíz de la ecuación característica.

c) Los espacios propios son mutuamente ortogonales, en el sentido de que los vectores propios correspondientes a diferentes valores propios son ortogonales.

d) A es diagonalizable ortogonalmente.

Justificación del Teorema

El inciso a) se deduce del ejercicio 24 de la sección 5.5. El inciso b) se deduce fácilmente del inciso d). (Véase el ejercicio 31). El inciso c) es el teorema 1. A partir del inciso a), puede hacerse una demostración para d) utilizando el ejercicio 32 y la factorización de Schur analizada en el ejercicio complementario 16 del capítulo 6. Se omiten los detalles.


5. Descomposición Espectral

5.1 Construcción de la Descomposición

Suponga que A = PDP⁻¹, donde las columnas de P son los vectores propios ortonormales u₁,…, uₙ de A, y los valores propios correspondientes λ₁,…, λₙ están en la matriz diagonal D. Entonces, como P⁻¹ = Pᵀ,

Utilizando la expansión columna-fila de un producto (teorema 10 de la sección 2.4), se puede escribir:

Definición - Descomposición Espectral

Esta representación de A se le llama descomposición espectral de A porque la divide en partes determinadas por su espectro (valores propios). Cada término en (2) es una matriz de n × n de rango 1. Por ejemplo, cada columna de λ₁uu₁ᵀ es un múltiplo de u₁.

Interpretación Geométrica

Además, cada matriz uuⱼᵀ es una matriz de proyección en el sentido de que para cada x en ℝⁿ, el vector (uuⱼᵀ)x es la proyección ortogonal de x sobre el subespacio generado por uⱼ. (Véase el ejercicio 35).

5.2 Ejemplo de Descomposición Espectral

Ejemplo 4: Construya una descomposición espectral de la matriz A que tiene la diagonalización ortogonal

Solución:

Denote las columnas de P como u₁ y u₂. Entonces,

Para comprobar esta descomposición de A, calcule:

y


6. Ejemplo con Valor Propio Repetido

6.1 Diagonalización con Multiplicidad

Ejemplo 3: Diagonalice ortogonalmente la matriz

cuya ecuación característica es:

Solución:

Los cálculos usuales producen bases para los espacios propios:

Aunque v₁ y v₂ son linealmente independientes, no son ortogonales. Recuerde de la sección 6.2 que la proyección de v₂ sobre v₁ es:

y que la componente de v₂ ortogonal a v₁ es:

Entonces {v₁, z₂} es un conjunto ortogonal en el espacio propio para λ = 7. (Observe que z₂ es una combinación lineal de los vectores propios v₁ y v₂, así que z₂ está en el espacio propio. Esta construcción de z₂ es justamente el proceso de Gram-Schmidt de la sección 6.4). Como el espacio propio tiene dos dimensiones (con la base v₁, v₂), el conjunto ortogonal {v₁, z₂} es una base ortogonal para el espacio propio, de acuerdo con el teorema de la base. (Véase la sección 2.9 o la 4.5).

Al normalizar v₁ y z₂ se obtiene la siguiente base ortonormal del espacio propio para λ = 7:

Una base ortonormal del espacio propio para λ = -2 es:

De acuerdo con el teorema 1, u₃ es ortogonal a los vectores propios u₁ y u₂. Por lo tanto, {u₁, u₂, u₃} es un conjunto ortonormal. Sean:

Entonces P diagonaliza ortogonalmente a A, y A = PDP⁻¹.


🎯 Conceptos Clave para Repasar

Resumen de Conceptos

  1. Matriz Simétrica: A = Aᵀ, entradas simétricas respecto a la diagonal
  2. Ortogonalidad de Vectores Propios: Vectores propios de diferentes espacios propios son ortogonales (Teorema 1)
  3. Diagonalización Ortogonal: A = PDP⁻¹ = PDPᵀ con P ortogonal
  4. Teorema Espectral (Caracterización): A es diagonalizable ortogonalmente ⟺ A es simétrica (Teorema 2)
  5. Teorema Espectral (Propiedades): n valores propios reales, dimensión = multiplicidad, espacios ortogonales (Teorema 3)
  6. Descomposición Espectral: A = Σλᵢuuᵢᵀ descompone A en matrices de proyección
  7. Proceso de Gram-Schmidt: Necesario para ortogonalizar bases de espacios propios con multiplicidad > 1
  8. Matriz de Proyección: uuⱼᵀ proyecta sobre el espacio generado por u

🚨 Errores Comunes

Error 1: No verificar que P es ortogonal

  • Problema: Usar P⁻¹ en lugar de Pᵀ sin verificar ortogonalidad
  • Corrección: Verificar que PᵀP = I antes de usar Pᵀ = P⁻¹

Error 2: No ortogonalizar vectores propios con multiplicidad > 1

  • Incorrecto: Usar directamente vectores propios linealmente independientes pero no ortogonales
  • Correcto: Aplicar Gram-Schmidt a la base del espacio propio

Error 3: Confundir diagonalización regular con ortogonal

  • Diferencia: Diagonalización ortogonal requiere A = PDPᵀ (no solo A = PDP⁻¹)
  • Importancia: Solo matrices simétricas son diagonalizables ortogonalmente

Error 4: Olvidar normalizar vectores propios

  • Problema: P debe tener columnas ortonormales (no solo ortogonales)
  • Solución: Dividir cada vector por su norma

Error 5: No usar el Teorema 1 para verificar ortogonalidad

  • Observación: Vectores propios de diferentes valores propios son automáticamente ortogonales
  • Uso: Solo necesita ortogonalizar dentro de cada espacio propio

📝 Ejercicios Propuestos

Ejercicios Nivel Básico (1-10)

Identificación y verificación básica

  1. Identifique si matrices dadas son simétricas
  2. Verifique que vectores propios dados son ortogonales
  3. Normalice vectores propios ortogonales
  4. Construya la matriz diagonal D de valores propios
  5. Verifique que PᵀP = I para matrices ortogonales dadas

Ejercicios Nivel Intermedio (11-20)

Diagonalización ortogonal

  1. Encuentre valores propios de matrices simétricas 2×2 y 3×3
  2. Calcule vectores propios y verifique ortogonalidad
  3. Diagonalice ortogonalmente matrices simétricas sencillas
  4. Construya descomposiciones espectrales
  5. Aplique Gram-Schmidt cuando haya valores propios repetidos

Ejercicios Nivel Avanzado (21-30)

Aplicaciones y demostraciones

  1. Demuestre propiedades del teorema espectral
  2. Interprete geométricamente la descomposición espectral
  3. Use descomposición espectral para calcular Aⁿ
  4. Analice matrices de proyección uuᵢᵀ
  5. Relacione con formas cuadráticas (anticipar clase 41)

📚 Referencias

Lectura Principal

  • Sección 7.1: Diagonalización de matrices simétricas, págs. 395-398

Enlaces Relacionados

Conexión con Temas Futuros

Anticipando Formas Cuadráticas

El teorema espectral es la herramienta fundamental para analizar formas cuadráticas Q(x) = xᵀAx. En la siguiente clase veremos cómo usar la diagonalización ortogonal para:

  • Eliminar productos cruzados en formas cuadráticas
  • Clasificar formas cuadráticas (positiva definida, negativa definida, indefinida)
  • Encontrar ejes principales de secciones cónicas y cuádricas
  • Resolver problemas de optimización con restricciones cuadráticas

Sugerencia de Estudio

El teorema espectral es uno de los resultados más importantes de todo el álgebra lineal. Su belleza radica en la equivalencia perfecta: A es diagonalizable ortogonalmente ⟺ A es simétrica. Esto contrasta dramáticamente con la diagonalización general, donde es difícil determinar cuándo una matriz es diagonalizable. Practica mucho la diagonalización ortogonal, especialmente el proceso de Gram-Schmidt cuando hay valores propios repetidos. La descomposición espectral A = Σλᵢuuᵢᵀ proporciona una interpretación geométrica profunda: cada matriz simétrica se descompone como suma de proyecciones ortogonales escaladas. Este resultado tiene aplicaciones en análisis de componentes principales (PCA), mecánica cuántica, teoría de vibraciones, procesamiento de señales, y muchas otras áreas.


✅ Checklist de Estudio

Lista de Verificación

  • Comprendo qué es una matriz simétrica y puedo identificarlas
  • Sé que vectores propios de diferentes λ son automáticamente ortogonales (Teorema 1)
  • Puedo enunciar el teorema espectral (caracterización y propiedades)
  • Sé diagonalizar ortogonalmente matrices simétricas 2×2 y 3×3
  • Puedo aplicar Gram-Schmidt a espacios propios con multiplicidad > 1
  • Entiendo la diferencia entre A = PDP⁻¹ y A = PDPᵀ
  • Sé construir la descomposición espectral A = Σλᵢuuᵢᵀ
  • Comprendo que uuᵢᵀ es una matriz de proyección
  • Puedo verificar que una matriz P es ortogonal (PᵀP = I)
  • Entiendo por qué el teorema espectral es tan importante

🏷️ Tags

algebra-lineal matrices-simetricas teorema-espectral diagonalizacion-ortogonal descomposicion-espectral valores-propios vectores-propios ortogonalidad clase-40 clase capitulo-7