Resumen Completo - Álgebra Lineal (Clases 1-43)
📚 Preparación para Examen Final
Propósito del Documento
Este resumen exhaustivo cubre todas las 43 clases del curso de Álgebra Lineal (MAT1203), con énfasis especial en las clases 22-43 que constituyen el material avanzado del curso. Está diseñado como guía de estudio completa para el examen final.
📋 Estructura del Resumen
Parte I: Fundamentos (Clases 1-21) - Resumen conciso Parte II: Temas Avanzados (Clases 22-43) - Tratamiento exhaustivo
PARTE I: FUNDAMENTOS (Clases 1-21)
Capítulo 1: Vectores en ℝⁿ (Clases 1-4)
Clase 1: Geometría y Álgebra de Vectores
Conceptos Fundamentales
- Vector: Segmento de recta dirigido con magnitud, dirección y sentido
- Componentes: Coordenadas que definen un vector:
- Posición estándar: Vector con origen en O
Operaciones básicas:
- Suma:
- Multiplicación escalar:
- Resta:
Vectores unitarios estándar en ℝ²: ,
Propiedades algebraicas: Conmutatividad, asociatividad, distributividad, elemento neutro, inverso aditivo
Combinación lineal:
Clase 2: Producto Punto
Producto Punto
Propiedades:
Longitud (norma):
Distancia:
Clase 3: Ángulos y Ecuaciones de Rectas
Ángulo entre vectores:
Vectores ortogonales:
Ecuación vectorial de recta: donde p es punto y d es dirección
Ecuación paramétrica: , ,
Clase 4: Planos en ℝ³
Ecuación vectorial:
Ecuación escalar: donde es el vector normal
Producto cruz: es perpendicular a ambos vectores
Capítulo 2: Sistemas de Ecuaciones Lineales (Clases 5-14)
Clases 5-8: Sistemas Lineales y Matrices
Sistema Lineal
Matriz aumentada:
Operaciones elementales de fila:
- Intercambio de filas
- Multiplicación de fila por escalar no nulo
- Suma de múltiplo de una fila a otra
Forma escalonada:
- Filas cero al final
- Pivotes a la derecha de pivotes superiores
- Entradas bajo pivotes son cero
Forma escalonada reducida:
- Forma escalonada + pivotes son 1 + entradas sobre pivotes son cero
Teorema de Existencia y Unicidad
Un sistema lineal es:
- Consistente: Tiene al menos una solución
- Inconsistente: No tiene solución
Un sistema consistente tiene:
- Solución única: Si no hay variables libres
- Infinitas soluciones: Si hay variables libres
Clases 11-12: Conjuntos Solución e Independencia Lineal
Conjunto solución de sistema homogéneo :
- Siempre contiene (solución trivial)
- Es un subespacio vectorial
Definición - Independencia Lineal
Vectores son linealmente independientes si:
Son linealmente dependientes si existen escalares no todos cero tal que la combinación lineal es cero.
Criterio matricial: Columnas de son linealmente independientes ⟺ solo tiene solución trivial
Clases 13-14: Transformaciones Lineales
Definición - Transformación Lineal
es lineal si:
Matriz estándar: donde
Transformaciones importantes:
- Rotación, reflexión, proyección, dilatación, contracción
Capítulo 3: Álgebra de Matrices (Clases 15-17)
Clase 15: Operaciones de Matrices
Suma:
Multiplicación por escalar:
Producto matricial:
Propiedades del Producto Matricial
- (asociativa)
- (distributiva izquierda)
- (distributiva derecha)
- (identidad)
- NO es conmutativa: en general
Transpuesta:
Clase 16: Matriz Inversa
Definición - Matriz Invertible
es invertible si existe tal que:
Propiedades:
Cálculo de inversa (2×2):
Método de Gauss-Jordan:
Clase 17: Matrices Elementales
Matriz elemental: Resultado de aplicar una operación elemental a la identidad
Factorización LU: donde es triangular inferior y es triangular superior
Capítulo 4: Determinantes (Clases 18-21)
Clase 18: Definición del Determinante
Determinante 2×2:
Determinante n×n (expansión por cofactores):
donde y es el menor
Clase 19: Propiedades del Determinante
Propiedades Fundamentales
- para matriz
- Si tiene fila/columna de ceros,
- Si dos filas son iguales,
- Intercambiar filas cambia el signo
- Matriz triangular:
Criterio de invertibilidad: es invertible ⟺
Clases 20-21: Regla de Cramer y Aplicaciones
Regla de Cramer: Si , entonces:
donde es con columna reemplazada por
Fórmula de la inversa:
Aplicaciones geométricas:
- Área de paralelogramo:
- Volumen de paralelepípedo:
PARTE II: TEMAS AVANZADOS (Clases 22-43)
Capítulo 5: Espacios Vectoriales (Clases 22-28)
Clase 22: Espacios y Subespacios Vectoriales
Definición - Espacio Vectorial
Un espacio vectorial es un conjunto con operaciones de suma y multiplicación por escalar que satisfacen 10 axiomas:
Axiomas de la Suma:
- (conmutatividad)
- (asociatividad)
- Existe tal que
- Para cada existe tal que
Axiomas de la Multiplicación por Escalar: 5. 6. 7. 8.
Axiomas de Cierre: 9. Si , entonces 10. Si y escalar, entonces
Ejemplos de espacios vectoriales:
- con operaciones usuales
- : Matrices de
- : Polinomios de grado ≤ n
- : Funciones continuas en
- Secuencias doblemente infinitas
Definición - Subespacio Vectorial
es subespacio de si:
- (cerrado bajo suma)
- (cerrado bajo multiplicación escalar)
Teorema 1 - Conjunto Generado es Subespacio
Si , entonces es un subespacio de .
Ejemplos de subespacios:
- Rectas por el origen en
- Planos por el origen en
- y (subespacios triviales)
Estrategia para Verificar Subespacios
Solo necesitas verificar 3 condiciones (mucho más fácil que verificar 10 axiomas):
- Contiene
- Cerrado bajo suma
- Cerrado bajo multiplicación escalar
Clase 23: Bases e Independencia Lineal
Definición - Base
Una base de un subespacio es un conjunto linealmente independiente que genera .
Teorema - Representación Única
Si es base de , entonces cada se puede escribir de manera única como:
Los escalares son las coordenadas de x relativas a .
Base estándar de :
Base estándar de :
Método para Encontrar Base
- Escribir vectores como columnas de matriz
- Reducir por filas a forma escalonada
- Columnas pivote de forman base
Clase 24: Espacios Nulos y Espacios Columna
Definiciones Fundamentales
Para matriz de :
Espacio nulo:
- Subespacio de
- Conjunto solución de sistema homogéneo
Espacio columna:
- Subespacio de
- Generado por columnas de :
Espacio fila:
- Subespacio de
- Generado por filas de
Teorema - Columnas Pivote
Las columnas pivote de forman una base de .
Método para encontrar base de Nul :
- Resolver
- Expresar solución en forma paramétrica
- Vectores de los parámetros forman base
Método para encontrar base de Col :
- Reducir a forma escalonada
- Identificar columnas pivote
- Columnas correspondientes de original forman base
Clase 25: Sistemas de Coordenadas
Vector de Coordenadas
Si es base de y , entonces:
Teorema - Isomorfismo de Coordenadas
La función es:
- Uno a uno (inyectiva)
- Sobreyectiva
- Preserva operaciones lineales
Aplicación: Problemas en se pueden traducir a usando coordenadas
Clase 26: Dimensión de un Espacio Vectorial
Definición - Dimensión
La dimensión de un espacio vectorial (distinto de ) es el número de vectores en cualquier base de :
Teorema - Bases Tienen Mismo Tamaño
Todas las bases de un espacio vectorial tienen el mismo número de vectores.
Dimensiones importantes:
Teorema - Conjunto Generador y Base
Sea espacio vectorial con :
- Si genera , entonces es base
- Si es linealmente independiente, entonces es base
Clase 27: Teorema del Rango
Teorema del Rango
Para matriz de :
donde
Interpretación:
- = número de variables básicas
- = número de variables libres
- Suma = número total de variables
Teorema - Rango y Fila
Aplicaciones:
- Determinar si sistema tiene solución única
- Calcular dimensión de espacios asociados
- Verificar invertibilidad
Clase 28: Cambio de Base
Matriz de Cambio de Base
Sean y bases de .
La matriz que transforma coordenadas de a satisface:
Construcción de matriz de cambio de base:
Método práctico (en ):
Propiedades
- es invertible
Capítulo 6: Valores y Vectores Propios (Clases 29-33)
Clase 29: Valores y Vectores Propios
Definiciones Fundamentales
Para matriz de :
Vector propio: Vector no nulo tal que para algún escalar
Valor propio: Escalar para el cual existe vector propio correspondiente
Ecuación Característica
es valor propio de si y solo si: tiene solución no trivial.
Procedimiento para encontrar valores y vectores propios:
- Resolver para encontrar valores propios
- Para cada , resolver para encontrar vectores propios
Definición - Espacio Propio
El espacio propio de correspondiente a es:
Teorema 1 - Matrices Triangulares
Los valores propios de una matriz triangular son las entradas de su diagonal principal.
Teorema 2 - Independencia de Vectores Propios
Si son vectores propios correspondientes a valores propios distintos , entonces es linealmente independiente.
Propiedad Especial
0 es valor propio de ⟺ no es invertible
Ejemplo completo:
Paso 1: Encontrar valores propios
Valores propios: ,
Paso 2: Para : Vector propio:
Clase 30: Ecuación Característica
Polinomio Característico
El polinomio característico de matriz de es:
Es un polinomio de grado en .
Teorema - Valores Propios
es valor propio de si y solo si es raíz del polinomio característico.
Propiedades del polinomio característico:
- Coeficiente de :
- Coeficiente de :
- Término constante:
Teorema - Traza y Determinante
Si son los valores propios de (contando multiplicidades):
Multiplicidades:
- Algebraica: Multiplicidad de como raíz de
- Geométrica:
- Relación:
Clase 31: Diagonalización
Definición - Matriz Diagonalizable
es diagonalizable si existe matriz invertible y matriz diagonal tales que:
Equivalentemente:
Teorema de Diagonalización
Una matriz de es diagonalizable si y solo si tiene vectores propios linealmente independientes.
En tal caso:
- (columnas son vectores propios)
- (diagonal con valores propios)
Procedimiento de diagonalización:
- Encontrar todos los valores propios de
- Para cada valor propio, encontrar base del espacio propio
- Si el total de vectores es , construir y
Condición Suficiente
Si tiene valores propios distintos, entonces es diagonalizable.
Aplicación - Potencias de matrices:
Ejemplo completo:
Valores propios: ,
Vectores propios:
- Para : base de
- Para : base de
Diagonalización:
Clase 32: Matriz de Transformación Lineal y Similitud
Definición - Matrices Similares
Matrices y son similares si existe matriz invertible tal que:
Propiedades de Matrices Similares
Si y son similares:
- Tienen los mismos valores propios
- Mismo polinomio característico
Matriz de transformación lineal:
Si es transformación lineal y son bases:
Cambio de base para transformaciones:
donde
Clase 33: Valores Propios Complejos
Valores propios complejos:
Si tiene entradas reales, los valores propios complejos aparecen en pares conjugados:
Vectores propios complejos:
También aparecen en pares conjugados: si es vector propio para , entonces es vector propio para
Matrices de rotación:
Matriz de rotación por ángulo :
Valores propios: y
Representación Real
Para con vector propio :
Entonces (forma real de diagonalización compleja)
Capítulo 7: Ortogonalidad y Mínimos Cuadrados (Clases 34-39)
Clase 34: Producto Interior, Longitud y Ortogonalidad
Producto Interior
En , el producto interior de y es:
Propiedades:
- , y
Norma (Longitud)
Propiedades de la norma:
Vector Unitario
es unitario si
Normalización:
Distancia:
Ortogonalidad
y son ortogonales () si:
Teorema de Pitágoras
Complemento Ortogonal
El complemento ortogonal de subespacio es:
Propiedades:
- es subespacio
Clase 35: Conjuntos Ortogonales
Definición - Conjunto Ortogonal
Conjunto es ortogonal si:
Es ortonormal si además para todo .
Teorema - Independencia de Conjuntos Ortogonales
Si es conjunto ortogonal de vectores no nulos, entonces es linealmente independiente.
Expresión de vector en base ortogonal:
Si es base ortogonal de :
Si la base es ortonormal:
Matriz Ortogonal
Matriz de es ortogonal si sus columnas forman conjunto ortonormal:
Equivalentemente:
Propiedades de matrices ortogonales:
- (preserva longitudes)
- (preserva productos interiores)
- (preserva ortogonalidad)
Clase 36: Proyecciones Ortogonales
Proyección Ortogonal sobre Vector
La proyección ortogonal de sobre es:
Componente ortogonal:
donde
Teorema de Descomposición Ortogonal
Sea subespacio de . Todo se puede escribir de manera única como:
donde y .
se llama proyección ortogonal de y sobre , denotada .
Cálculo de proyección sobre subespacio:
Si es base ortogonal de :
Si la base es ortonormal:
Teorema de Mejor Aproximación
Sea subespacio de y . Entonces es el punto en más cercano a :
Distancia de punto a subespacio:
Clase 37: Proceso de Gram-Schmidt
Proceso de Gram-Schmidt
Dado conjunto linealmente independiente , construye conjunto ortogonal que genera el mismo subespacio:
Para obtener base ortonormal: Normalizar cada vector
Teorema - Factorización QR
Si es matriz de con columnas linealmente independientes, entonces se puede factorizar como:
donde:
- : matriz de con columnas ortonormales
- : matriz triangular superior invertible de con entradas diagonales positivas
Construcción de QR:
- Aplicar Gram-Schmidt a columnas de → base ortonormal
- Como , escribir como combinación lineal → obtener
Ejemplo completo:
Dado , ,
Paso 1:
Paso 2:
Paso 3:
Base ortonormal:
Clase 38: Problemas de Mínimos Cuadrados
Problema de Mínimos Cuadrados
Dado sistema inconsistente , encontrar que minimiza:
Interpretación geométrica:
- está en
- Buscamos punto en más cercano a
- Respuesta:
Teorema - Ecuaciones Normales
es solución de mínimos cuadrados si y solo si satisface:
Estas son las ecuaciones normales.
Teorema - Solución Única
Si columnas de son linealmente independientes:
- es invertible
- Solución única de mínimos cuadrados:
Error de aproximación:
Método usando factorización QR:
Si , las ecuaciones normales se simplifican a:
Ventajas:
- triangular superior → fácil resolver
- Numéricamente más estable
Clase 39: Aplicaciones a Modelos Lineales
Regresión Lineal
Ajustar línea a datos
Matriz de diseño:
Solución de mínimos cuadrados:
Regresión polinomial:
Para ajustar :
Regresión lineal múltiple:
Para :
Coeficiente de determinación :
donde . Valores cercanos a 1 indican buen ajuste.
Capítulo 8: Matrices Simétricas y Formas Cuadráticas (Clases 40-43)
Clase 40: Diagonalización de Matrices Simétricas
Matriz Simétrica
es simétrica si
Teorema 1 - Ortogonalidad de Vectores Propios
Si es simétrica, entonces vectores propios correspondientes a valores propios distintos son ortogonales.
Demostración: Sean y vectores propios correspondientes.
Como , entonces
Teorema 2 - Espectral Básico
Una matriz de es diagonalizable ortogonalmente si y solo si es simétrica.
Diagonalización Ortogonal
es diagonalizable ortogonalmente si:
donde:
- es matriz ortogonal (columnas ortonormales)
- es matriz diagonal
Teorema Espectral Completo
Si es matriz simétrica de :
- tiene valores propios reales (contando multiplicidades)
- Para cada valor propio : multiplicidad algebraica de
- Los espacios propios son mutuamente ortogonales
- es diagonalizable ortogonalmente
Procedimiento de diagonalización ortogonal:
- Encontrar valores propios de
- Para cada valor propio, encontrar base ortogonal del espacio propio (usar Gram-Schmidt si es necesario)
- Normalizar todos los vectores propios
- Construir con vectores propios ortonormales como columnas
- tiene valores propios en diagonal (en orden correspondiente a columnas de )
Ejemplo completo:
Valores propios: , ,
Espacios propios:
- Para : (ya ortogonales)
- Para :
Después de normalizar:
Descomposición Espectral
Si con ortogonal:
donde son columnas de y son valores propios.
Interpretación:
- Cada es matriz de proyección ortogonal sobre
- es suma ponderada de proyecciones ortogonales
Clase 41: Formas Cuadráticas
Definición - Forma Cuadrática
Una forma cuadrática en variables es función:
donde es matriz simétrica de .
Forma expandida:
Construcción de matriz de forma cuadrática:
- Coeficientes de en diagonal:
- Coeficiente de dividido entre 2 en posiciones y :
Ejemplo:
Matriz asociada:
Teorema 4 - Ejes Principales
Sea matriz simétrica. Existe cambio de variable ortogonal tal que:
donde son valores propios de y diagonaliza ortogonalmente a .
Ejes principales:
- Direcciones de los vectores propios de
- En estas direcciones, la forma cuadrática no tiene términos cruzados
Procedimiento para eliminar términos cruzados:
- Formar matriz de la forma cuadrática
- Diagonalizar ortogonalmente:
- Cambio de variable:
- Forma cuadrática en nuevas variables:
Clasificación de Formas Cuadráticas
Sea con simétrica:
- Positiva definida: para todo ⟺ todos
- Negativa definida: para todo ⟺ todos
- Indefinida: toma valores positivos y negativos ⟺ de signos mixtos
- Positiva semidefinida: para todo ⟺ todos
- Negativa semidefinida: para todo ⟺ todos
Aplicaciones geométricas:
La ecuación define:
- Elipse/elipsoide: Si es positiva definida
- Hipérbola/hiperboloide: Si es indefinida
- Parábola/paraboloide: Si tiene al menos un
Ejes principales = direcciones de vectores propios Longitudes de semiejes =
Optimización con restricción:
Para maximizar/minimizar sujeto a :
- Máximo: (mayor valor propio)
- Mínimo: (menor valor propio)
- Se alcanzan en direcciones de vectores propios correspondientes
Clase 42: Factorización de Cholesky
Definición - Factorización de Cholesky
Para matriz simétrica y positiva definida, existe factorización única:
donde es matriz triangular superior con entradas diagonales positivas.
Equivalentemente: donde es triangular inferior.
Teorema - Existencia
simétrica admite factorización de Cholesky si y solo si es positiva definida.
Criterios para matriz positiva definida:
- simétrica
- Todos los valores propios
- para todo
- Todos los menores principales tienen determinante positivo
Algoritmo de Cholesky
Para calcular tal que :
Elemento diagonal:
Elementos fuera de la diagonal (para ):
Se procesa columna por columna, de izquierda a derecha.
Complejidad: operaciones (aproximadamente la mitad que factorización LU)
Ejemplo 2×2:
Paso 1:
Paso 2:
Paso 3:
Resultado:
Verificación: ✓
Ejemplo 3×3:
Cálculos:
Resultado:
Indicador de falla:
Si en algún paso obtenemos , entonces no es positiva definida.
Ejemplo:
- ❌ (falla)
Confirmación: → no positiva definida
Propiedades de Cholesky:
- Unicidad: Con diagonales positivas, la factorización es única
- Estabilidad numérica: No requiere pivoteo
- Eficiencia: operaciones vs para LU
- Preservación de estructura: Implícitamente mantiene simetría
Aplicaciones:
1. Resolución de sistemas :
- Paso 1: Resolver (sustitución adelante)
- Paso 2: Resolver (sustitución atrás)
2. Ecuaciones normales:
- En mínimos cuadrados:
- siempre simétrica y positiva definida (si rango completo)
- Usar Cholesky en es más estable que calcular
3. Simulación estadística:
- Generar (normal multivariada)
- Factorizar (Cholesky)
- Generar
- Calcular
Comparación con otras factorizaciones:
| Factorización | Restricciones | Complejidad | Ventajas |
|---|---|---|---|
| Cholesky | Simétrica, pos. def. | Más rápida, estable | |
| LU | General | Más general | |
| QR | General | Más estable para mín. cuad. | |
| Espectral | Simétrica | Da valores propios |
Clase 43: Descomposición en Valores Singulares (DVS/SVD)
Motivación Geométrica
Una transformación lineal mapea la esfera unitaria en a un elipsoide en .
Los valores singulares son las longitudes de los semiejes principales del elipsoide.
Definición - Valores Singulares
Los valores singulares de matriz de son:
donde son los valores propios de , ordenados de mayor a menor.
Interpretación:
- (máximo estiramiento)
- (mínimo estiramiento)
Teorema 10 - Descomposición en Valores Singulares
Para cualquier matriz de con rango , existe descomposición:
donde:
- : matriz ortogonal de (vectores singulares izquierdos)
- : matriz “diagonal” de con valores singulares
- : matriz ortogonal de (vectores singulares derechos)
Forma de :
donde con
Construcción paso a paso de la DVS:
Paso 1: Calcular (matriz simétrica de )
Paso 2: Encontrar valores propios de :
Paso 3: Valores singulares:
Paso 4: Encontrar vectores propios ortonormales de :
Construir:
Paso 5: Para (valores singulares no nulos), calcular:
Paso 6: Extender a base ortonormal de
Construir:
Ejemplo completo (matriz 2×3):
Paso 1:
Paso 2-3: Valores propios y singulares:
Rango:
Paso 4: Vectores propios de :
Paso 5: Calcular vectores singulares izquierdos:
Resultado final:
Verificación: ✓
Teorema 9 - Bases para Subespacios Fundamentales
La DVS proporciona bases ortonormales para los cuatro subespacios fundamentales:
- : Primeras columnas de →
- : Últimas columnas de →
- : Primeras columnas de →
- : Últimas columnas de →
Además: número de valores singulares no nulos
Aplicaciones de la DVS:
1. Aproximación de Rango Bajo
Aproximación Óptima
La mejor aproximación de rango a es:
donde son primeras columnas de , etc.
Minimiza sobre todas las matrices de rango .
Compresión de imágenes:
- Matriz original: elementos
- Aproximación rango : elementos
- Si : gran ahorro de almacenamiento
2. Análisis de Componentes Principales (PCA)
Para matriz de datos (centrada):
- Calcular DVS:
- Componentes principales: columnas de
- Scores: columnas de
- Varianza explicada por componente :
Reducción de dimensionalidad: proyectar datos sobre primeras componentes
3. Pseudoinversa de Moore-Penrose
Definición - Pseudoinversa
Para , la pseudoinversa es:
donde se obtiene de mediante:
- Transponer
- Reemplazar cada por
Propiedades:
- Si invertible:
- Si no cuadrada o rango deficiente: da solución de mínimos cuadrados
- minimiza
- Funciona incluso si no tiene rango completo
Ejemplo de pseudoinversa:
Para el ejemplo anterior con , , :
Interpretación geométrica de la DVS:
La transformación es composición de:
- : Rotación/reflexión en
- : Escalamiento por factores (direcciones principales)
- : Rotación/reflexión en
Toda transformación lineal = rotación + escalamiento + rotación
SECCIÓN DE FÓRMULAS ESENCIALES
Álgebra Matricial
Inversa 2×2:
Propiedades de inversas:
Propiedades de transpuestas:
Determinantes
Propiedades fundamentales:
- para matriz
- Matriz triangular:
Criterio de invertibilidad:
- invertible ⟺
Valores Propios
Ecuación característica:
Propiedades:
- Matrices triangulares: valores propios en diagonal
Diagonalización:
Ortogonalidad
Proyección sobre vector:
Distancia a subespacio:
Proceso de Gram-Schmidt:
Mínimos Cuadrados
Ecuaciones normales:
Solución única (si rango completo):
Regresión lineal:
Matrices Simétricas
Diagonalización ortogonal:
Forma cuadrática:
Clasificación:
- Positiva definida: todos
- Negativa definida: todos
- Indefinida: de signos mixtos
Factorizaciones
LU: (triangular inferior × superior)
QR: (ortogonal × triangular superior)
Espectral: ( simétrica)
Cholesky: ( positiva definida)
DVS: (cualquier )
TEOREMAS CRÍTICOS PARA EL EXAMEN
Teorema de la Matriz Invertible
Las 12 Equivalencias
Para matriz de , las siguientes afirmaciones son equivalentes:
- es invertible
- es equivalente por filas a
- tiene posiciones pivote
- tiene solo solución trivial
- Columnas de son linealmente independientes
- es inyectiva
- tiene solución única para todo
- Columnas de generan
- es sobreyectiva
- 0 no es valor propio de
- es invertible
Teorema del Rango
Corolarios:
- Número de variables básicas + variables libres = total de variables
Teorema Espectral
Teorema Espectral Completo
Para matriz simétrica de :
- Tiene valores propios reales
- multiplicidad algebraica de
- Espacios propios mutuamente ortogonales
- es diagonalizable ortogonalmente
Teorema de Mejor Aproximación
minimiza para todo
ESTRATEGIAS DE RESOLUCIÓN
Diagonalización
Procedimiento:
- Calcular polinomio característico:
- Encontrar raíces (valores propios)
- Para cada : resolver
- Verificar vectores propios linealmente independientes
- Construir y
Mínimos Cuadrados
Procedimiento:
- Formar matriz y vector
- Resolver sistema
- Calcular error:
Verificación:
Gram-Schmidt
Procedimiento:
- Para :
- Normalizar si se requiere base ortonormal:
Formas Cuadráticas
Procedimiento:
- Construir matriz simétrica (dividir coeficientes de entre 2)
- Encontrar valores propios y vectores propios
- Diagonalizar ortogonalmente:
- Cambio de variable:
- Forma diagonal:
- Clasificar según signos de
Factorización de Cholesky
Procedimiento:
- Verificar que es simétrica y positiva definida
- Aplicar algoritmo columna por columna:
- Diagonal:
- Fuera diagonal:
- Si algún : matriz no es positiva definida
ERRORES COMUNES A EVITAR
Error 1: Orden en Producto de Matrices
- Incorrecto:
- Correcto:
Error 2: Conmutatividad
- Incorrecto: Asumir
- Correcto: En general
Error 3: Diagonalización
- Incorrecto: Asumir que toda matriz es diagonalizable
- Correcto: Verificar que existan vectores propios LI
Error 4: Mínimos Cuadrados
- Incorrecto: Usar sin verificar invertibilidad
- Correcto: Verificar que columnas de sean LI
Error 5: Formas Cuadráticas
- Incorrecto: Poner coeficiente completo de en matriz
- Correcto: Dividir coeficiente entre 2 y colocar en y
Error 6: DVS vs Valores Propios
- Incorrecto: Confundir valores singulares con valores propios
- Correcto: Valores singulares son donde son valores propios de
Error 7: Cholesky
- Incorrecto: Olvidar tomar raíz positiva
- Correcto: Diagonales de deben ser positivas
Error 8: Normalización
- Incorrecto: Olvidar normalizar en diagonalización ortogonal
- Correcto: Columnas de deben ser vectores unitarios
CHECKLIST FINAL DE ESTUDIO
Fundamentos (Clases 1-21)
- Operaciones vectoriales y producto punto
- Reducción por filas y forma escalonada
- Teorema de existencia y unicidad
- Multiplicación de matrices y propiedades
- Cálculo de matriz inversa
- Cálculo de determinantes
- Propiedades del determinante
- Espacios vectoriales y subespacios
- Independencia lineal
- Teorema de la Matriz Invertible (12 equivalencias)
- Teorema del Rango
Valores Propios (Clases 29-33)
- Definición de valor y vector propio
- Cálculo de valores propios (ecuación característica)
- Cálculo de vectores propios
- Espacios propios y bases
- Diagonalización de matrices
- Matrices similares y sus propiedades
- Valores propios complejos
- Aplicaciones a sistemas dinámicos
Ortogonalidad (Clases 34-39)
- Producto interior y norma
- Vectores ortogonales y ortonormales
- Proyección ortogonal sobre vector
- Proyección sobre subespacio
- Proceso de Gram-Schmidt
- Factorización QR
- Matrices ortogonales
- Ecuaciones normales de mínimos cuadrados
- Regresión lineal
Matrices Simétricas (Clases 40-43)
- Propiedades de matrices simétricas
- Teorema espectral (3 versiones)
- Diagonalización ortogonal
- Descomposición espectral
- Formas cuadráticas
- Clasificación de formas cuadráticas
- Teorema de ejes principales
- Factorización de Cholesky (algoritmo)
- DVS/SVD (construcción completa)
- Aplicaciones de DVS (aproximación, PCA, pseudoinversa)
Técnicas de Resolución
- Resolver sistemas lineales por reducción
- Calcular inversas (2×2 y método Gauss-Jordan)
- Diagonalizar matrices
- Aplicar Gram-Schmidt
- Resolver problemas de mínimos cuadrados
- Clasificar formas cuadráticas
- Calcular factorización de Cholesky
- Calcular DVS
Resumen Completo Terminado
Este documento cubre todas las 43 clases del curso, con énfasis especial en las clases 22-43 como solicitado. Incluye:
✅ Definiciones formales con callouts ✅ Teoremas numerados y enunciados ✅ Ejemplos completamente trabajados ✅ Fórmulas esenciales ✅ Estrategias de resolución ✅ Errores comunes ✅ Checklist de estudio
¡Éxito en tu examen! 🎯
🏷️ Tags
algebra-lineal resumen-completo examen-final mat1203 clases-1-43 valores-propios ortogonalidad matrices-simetricas minimos-cuadrados dvs cholesky diagonalizacion espacios-vectoriales
📚 Referencias
- Lay, D. Álgebra Lineal y sus Aplicaciones. Todas las secciones del curso
- Clases 1-43 del vault de Obsidian
- Material del curso MAT1203 - Universidad
Documento creado: 25 de noviembre de 2025 Última actualización: 25 de noviembre de 2025