Resumen Completo - Álgebra Lineal (Clases 1-43)

📚 Preparación para Examen Final

Propósito del Documento

Este resumen exhaustivo cubre todas las 43 clases del curso de Álgebra Lineal (MAT1203), con énfasis especial en las clases 22-43 que constituyen el material avanzado del curso. Está diseñado como guía de estudio completa para el examen final.


📋 Estructura del Resumen

Parte I: Fundamentos (Clases 1-21) - Resumen conciso Parte II: Temas Avanzados (Clases 22-43) - Tratamiento exhaustivo


PARTE I: FUNDAMENTOS (Clases 1-21)

Capítulo 1: Vectores en ℝⁿ (Clases 1-4)

Clase 1: Geometría y Álgebra de Vectores

Conceptos Fundamentales

  • Vector: Segmento de recta dirigido con magnitud, dirección y sentido
  • Componentes: Coordenadas que definen un vector:
  • Posición estándar: Vector con origen en O

Operaciones básicas:

  • Suma:
  • Multiplicación escalar:
  • Resta:

Vectores unitarios estándar en ℝ²: ,

Propiedades algebraicas: Conmutatividad, asociatividad, distributividad, elemento neutro, inverso aditivo

Combinación lineal:

Clase 2: Producto Punto

Producto Punto

Propiedades:

Longitud (norma):

Distancia:

Clase 3: Ángulos y Ecuaciones de Rectas

Ángulo entre vectores:

Vectores ortogonales:

Ecuación vectorial de recta: donde p es punto y d es dirección

Ecuación paramétrica: , ,

Clase 4: Planos en ℝ³

Ecuación vectorial:

Ecuación escalar: donde es el vector normal

Producto cruz: es perpendicular a ambos vectores


Capítulo 2: Sistemas de Ecuaciones Lineales (Clases 5-14)

Clases 5-8: Sistemas Lineales y Matrices

Sistema Lineal

Matriz aumentada:

Operaciones elementales de fila:

  1. Intercambio de filas
  2. Multiplicación de fila por escalar no nulo
  3. Suma de múltiplo de una fila a otra

Forma escalonada:

  • Filas cero al final
  • Pivotes a la derecha de pivotes superiores
  • Entradas bajo pivotes son cero

Forma escalonada reducida:

  • Forma escalonada + pivotes son 1 + entradas sobre pivotes son cero

Teorema de Existencia y Unicidad

Un sistema lineal es:

  • Consistente: Tiene al menos una solución
  • Inconsistente: No tiene solución

Un sistema consistente tiene:

  • Solución única: Si no hay variables libres
  • Infinitas soluciones: Si hay variables libres

Clases 11-12: Conjuntos Solución e Independencia Lineal

Conjunto solución de sistema homogéneo :

  • Siempre contiene (solución trivial)
  • Es un subespacio vectorial

Definición - Independencia Lineal

Vectores son linealmente independientes si:

Son linealmente dependientes si existen escalares no todos cero tal que la combinación lineal es cero.

Criterio matricial: Columnas de son linealmente independientes ⟺ solo tiene solución trivial

Clases 13-14: Transformaciones Lineales

Definición - Transformación Lineal

es lineal si:

Matriz estándar: donde

Transformaciones importantes:

  • Rotación, reflexión, proyección, dilatación, contracción

Capítulo 3: Álgebra de Matrices (Clases 15-17)

Clase 15: Operaciones de Matrices

Suma:

Multiplicación por escalar:

Producto matricial:

Propiedades del Producto Matricial

  • (asociativa)
  • (distributiva izquierda)
  • (distributiva derecha)
  • (identidad)
  • NO es conmutativa: en general

Transpuesta:

Clase 16: Matriz Inversa

Definición - Matriz Invertible

es invertible si existe tal que:

Propiedades:

Cálculo de inversa (2×2):

Método de Gauss-Jordan:

Clase 17: Matrices Elementales

Matriz elemental: Resultado de aplicar una operación elemental a la identidad

Factorización LU: donde es triangular inferior y es triangular superior


Capítulo 4: Determinantes (Clases 18-21)

Clase 18: Definición del Determinante

Determinante 2×2:

Determinante n×n (expansión por cofactores):

donde y es el menor

Clase 19: Propiedades del Determinante

Propiedades Fundamentales

  1. para matriz
  2. Si tiene fila/columna de ceros,
  3. Si dos filas son iguales,
  4. Intercambiar filas cambia el signo
  5. Matriz triangular:

Criterio de invertibilidad: es invertible ⟺

Clases 20-21: Regla de Cramer y Aplicaciones

Regla de Cramer: Si , entonces:

donde es con columna reemplazada por

Fórmula de la inversa:

Aplicaciones geométricas:

  • Área de paralelogramo:
  • Volumen de paralelepípedo:

PARTE II: TEMAS AVANZADOS (Clases 22-43)

Capítulo 5: Espacios Vectoriales (Clases 22-28)

Clase 22: Espacios y Subespacios Vectoriales

Definición - Espacio Vectorial

Un espacio vectorial es un conjunto con operaciones de suma y multiplicación por escalar que satisfacen 10 axiomas:

Axiomas de la Suma:

  1. (conmutatividad)
  2. (asociatividad)
  3. Existe tal que
  4. Para cada existe tal que

Axiomas de la Multiplicación por Escalar: 5. 6. 7. 8.

Axiomas de Cierre: 9. Si , entonces 10. Si y escalar, entonces

Ejemplos de espacios vectoriales:

  • con operaciones usuales
  • : Matrices de
  • : Polinomios de grado ≤ n
  • : Funciones continuas en
  • Secuencias doblemente infinitas

Definición - Subespacio Vectorial

es subespacio de si:

  1. (cerrado bajo suma)
  2. (cerrado bajo multiplicación escalar)

Teorema 1 - Conjunto Generado es Subespacio

Si , entonces es un subespacio de .

Ejemplos de subespacios:

  • Rectas por el origen en
  • Planos por el origen en
  • y (subespacios triviales)

Estrategia para Verificar Subespacios

Solo necesitas verificar 3 condiciones (mucho más fácil que verificar 10 axiomas):

  1. Contiene
  2. Cerrado bajo suma
  3. Cerrado bajo multiplicación escalar

Clase 23: Bases e Independencia Lineal

Definición - Base

Una base de un subespacio es un conjunto linealmente independiente que genera .

Teorema - Representación Única

Si es base de , entonces cada se puede escribir de manera única como:

Los escalares son las coordenadas de x relativas a .

Base estándar de :

Base estándar de :

Método para Encontrar Base

  1. Escribir vectores como columnas de matriz
  2. Reducir por filas a forma escalonada
  3. Columnas pivote de forman base

Clase 24: Espacios Nulos y Espacios Columna

Definiciones Fundamentales

Para matriz de :

Espacio nulo:

  • Subespacio de
  • Conjunto solución de sistema homogéneo

Espacio columna:

  • Subespacio de
  • Generado por columnas de :

Espacio fila:

  • Subespacio de
  • Generado por filas de

Teorema - Columnas Pivote

Las columnas pivote de forman una base de .

Método para encontrar base de Nul :

  1. Resolver
  2. Expresar solución en forma paramétrica
  3. Vectores de los parámetros forman base

Método para encontrar base de Col :

  1. Reducir a forma escalonada
  2. Identificar columnas pivote
  3. Columnas correspondientes de original forman base

Clase 25: Sistemas de Coordenadas

Vector de Coordenadas

Si es base de y , entonces:

Teorema - Isomorfismo de Coordenadas

La función es:

  • Uno a uno (inyectiva)
  • Sobreyectiva
  • Preserva operaciones lineales

Aplicación: Problemas en se pueden traducir a usando coordenadas

Clase 26: Dimensión de un Espacio Vectorial

Definición - Dimensión

La dimensión de un espacio vectorial (distinto de ) es el número de vectores en cualquier base de :

Teorema - Bases Tienen Mismo Tamaño

Todas las bases de un espacio vectorial tienen el mismo número de vectores.

Dimensiones importantes:

Teorema - Conjunto Generador y Base

Sea espacio vectorial con :

  1. Si genera , entonces es base
  2. Si es linealmente independiente, entonces es base

Clase 27: Teorema del Rango

Teorema del Rango

Para matriz de :

donde

Interpretación:

  • = número de variables básicas
  • = número de variables libres
  • Suma = número total de variables

Teorema - Rango y Fila

Aplicaciones:

  • Determinar si sistema tiene solución única
  • Calcular dimensión de espacios asociados
  • Verificar invertibilidad

Clase 28: Cambio de Base

Matriz de Cambio de Base

Sean y bases de .

La matriz que transforma coordenadas de a satisface:

Construcción de matriz de cambio de base:

Método práctico (en ):

Propiedades

  • es invertible

Capítulo 6: Valores y Vectores Propios (Clases 29-33)

Clase 29: Valores y Vectores Propios

Definiciones Fundamentales

Para matriz de :

Vector propio: Vector no nulo tal que para algún escalar

Valor propio: Escalar para el cual existe vector propio correspondiente

Ecuación Característica

es valor propio de si y solo si: tiene solución no trivial.

Procedimiento para encontrar valores y vectores propios:

  1. Resolver para encontrar valores propios
  2. Para cada , resolver para encontrar vectores propios

Definición - Espacio Propio

El espacio propio de correspondiente a es:

Teorema 1 - Matrices Triangulares

Los valores propios de una matriz triangular son las entradas de su diagonal principal.

Teorema 2 - Independencia de Vectores Propios

Si son vectores propios correspondientes a valores propios distintos , entonces es linealmente independiente.

Propiedad Especial

0 es valor propio de no es invertible

Ejemplo completo:

Paso 1: Encontrar valores propios

Valores propios: ,

Paso 2: Para : Vector propio:

Clase 30: Ecuación Característica

Polinomio Característico

El polinomio característico de matriz de es:

Es un polinomio de grado en .

Teorema - Valores Propios

es valor propio de si y solo si es raíz del polinomio característico.

Propiedades del polinomio característico:

  • Coeficiente de :
  • Coeficiente de :
  • Término constante:

Teorema - Traza y Determinante

Si son los valores propios de (contando multiplicidades):

Multiplicidades:

  • Algebraica: Multiplicidad de como raíz de
  • Geométrica:
  • Relación:

Clase 31: Diagonalización

Definición - Matriz Diagonalizable

es diagonalizable si existe matriz invertible y matriz diagonal tales que:

Equivalentemente:

Teorema de Diagonalización

Una matriz de es diagonalizable si y solo si tiene vectores propios linealmente independientes.

En tal caso:

  • (columnas son vectores propios)
  • (diagonal con valores propios)

Procedimiento de diagonalización:

  1. Encontrar todos los valores propios de
  2. Para cada valor propio, encontrar base del espacio propio
  3. Si el total de vectores es , construir y

Condición Suficiente

Si tiene valores propios distintos, entonces es diagonalizable.

Aplicación - Potencias de matrices:

Ejemplo completo:

Valores propios: ,

Vectores propios:

  • Para : base de
  • Para : base de

Diagonalización:

Clase 32: Matriz de Transformación Lineal y Similitud

Definición - Matrices Similares

Matrices y son similares si existe matriz invertible tal que:

Propiedades de Matrices Similares

Si y son similares:

  • Tienen los mismos valores propios
  • Mismo polinomio característico

Matriz de transformación lineal:

Si es transformación lineal y son bases:

Cambio de base para transformaciones:

donde

Clase 33: Valores Propios Complejos

Valores propios complejos:

Si tiene entradas reales, los valores propios complejos aparecen en pares conjugados:

Vectores propios complejos:

También aparecen en pares conjugados: si es vector propio para , entonces es vector propio para

Matrices de rotación:

Matriz de rotación por ángulo :

Valores propios: y

Representación Real

Para con vector propio :

Entonces (forma real de diagonalización compleja)


Capítulo 7: Ortogonalidad y Mínimos Cuadrados (Clases 34-39)

Clase 34: Producto Interior, Longitud y Ortogonalidad

Producto Interior

En , el producto interior de y es:

Propiedades:

  1. , y

Norma (Longitud)

Propiedades de la norma:

Vector Unitario

es unitario si

Normalización:

Distancia:

Ortogonalidad

y son ortogonales () si:

Teorema de Pitágoras

Complemento Ortogonal

El complemento ortogonal de subespacio es:

Propiedades:

  • es subespacio

Clase 35: Conjuntos Ortogonales

Definición - Conjunto Ortogonal

Conjunto es ortogonal si:

Es ortonormal si además para todo .

Teorema - Independencia de Conjuntos Ortogonales

Si es conjunto ortogonal de vectores no nulos, entonces es linealmente independiente.

Expresión de vector en base ortogonal:

Si es base ortogonal de :

Si la base es ortonormal:

Matriz Ortogonal

Matriz de es ortogonal si sus columnas forman conjunto ortonormal:

Equivalentemente:

Propiedades de matrices ortogonales:

  • (preserva longitudes)
  • (preserva productos interiores)
  • (preserva ortogonalidad)

Clase 36: Proyecciones Ortogonales

Proyección Ortogonal sobre Vector

La proyección ortogonal de sobre es:

Componente ortogonal:

donde

Teorema de Descomposición Ortogonal

Sea subespacio de . Todo se puede escribir de manera única como:

donde y .

se llama proyección ortogonal de y sobre , denotada .

Cálculo de proyección sobre subespacio:

Si es base ortogonal de :

Si la base es ortonormal:

Teorema de Mejor Aproximación

Sea subespacio de y . Entonces es el punto en más cercano a :

Distancia de punto a subespacio:

Clase 37: Proceso de Gram-Schmidt

Proceso de Gram-Schmidt

Dado conjunto linealmente independiente , construye conjunto ortogonal que genera el mismo subespacio:

Para obtener base ortonormal: Normalizar cada vector

Teorema - Factorización QR

Si es matriz de con columnas linealmente independientes, entonces se puede factorizar como:

donde:

  • : matriz de con columnas ortonormales
  • : matriz triangular superior invertible de con entradas diagonales positivas

Construcción de QR:

  1. Aplicar Gram-Schmidt a columnas de → base ortonormal
  2. Como , escribir como combinación lineal → obtener

Ejemplo completo:

Dado , ,

Paso 1:

Paso 2:

Paso 3:

Base ortonormal:

Clase 38: Problemas de Mínimos Cuadrados

Problema de Mínimos Cuadrados

Dado sistema inconsistente , encontrar que minimiza:

Interpretación geométrica:

  • está en
  • Buscamos punto en más cercano a
  • Respuesta:

Teorema - Ecuaciones Normales

es solución de mínimos cuadrados si y solo si satisface:

Estas son las ecuaciones normales.

Teorema - Solución Única

Si columnas de son linealmente independientes:

  • es invertible
  • Solución única de mínimos cuadrados:

Error de aproximación:

Método usando factorización QR:

Si , las ecuaciones normales se simplifican a:

Ventajas:

  • triangular superior → fácil resolver
  • Numéricamente más estable

Clase 39: Aplicaciones a Modelos Lineales

Regresión Lineal

Ajustar línea a datos

Matriz de diseño:

Solución de mínimos cuadrados:

Regresión polinomial:

Para ajustar :

Regresión lineal múltiple:

Para :

Coeficiente de determinación :

donde . Valores cercanos a 1 indican buen ajuste.


Capítulo 8: Matrices Simétricas y Formas Cuadráticas (Clases 40-43)

Clase 40: Diagonalización de Matrices Simétricas

Matriz Simétrica

es simétrica si

Teorema 1 - Ortogonalidad de Vectores Propios

Si es simétrica, entonces vectores propios correspondientes a valores propios distintos son ortogonales.

Demostración: Sean y vectores propios correspondientes.

Como , entonces

Teorema 2 - Espectral Básico

Una matriz de es diagonalizable ortogonalmente si y solo si es simétrica.

Diagonalización Ortogonal

es diagonalizable ortogonalmente si:

donde:

  • es matriz ortogonal (columnas ortonormales)
  • es matriz diagonal

Teorema Espectral Completo

Si es matriz simétrica de :

  1. tiene valores propios reales (contando multiplicidades)
  2. Para cada valor propio : multiplicidad algebraica de
  3. Los espacios propios son mutuamente ortogonales
  4. es diagonalizable ortogonalmente

Procedimiento de diagonalización ortogonal:

  1. Encontrar valores propios de
  2. Para cada valor propio, encontrar base ortogonal del espacio propio (usar Gram-Schmidt si es necesario)
  3. Normalizar todos los vectores propios
  4. Construir con vectores propios ortonormales como columnas
  5. tiene valores propios en diagonal (en orden correspondiente a columnas de )

Ejemplo completo:

Valores propios: , ,

Espacios propios:

  • Para : (ya ortogonales)
  • Para :

Después de normalizar:

Descomposición Espectral

Si con ortogonal:

donde son columnas de y son valores propios.

Interpretación:

  • Cada es matriz de proyección ortogonal sobre
  • es suma ponderada de proyecciones ortogonales

Clase 41: Formas Cuadráticas

Definición - Forma Cuadrática

Una forma cuadrática en variables es función:

donde es matriz simétrica de .

Forma expandida:

Construcción de matriz de forma cuadrática:

  • Coeficientes de en diagonal:
  • Coeficiente de dividido entre 2 en posiciones y :

Ejemplo:

Matriz asociada:

Teorema 4 - Ejes Principales

Sea matriz simétrica. Existe cambio de variable ortogonal tal que:

donde son valores propios de y diagonaliza ortogonalmente a .

Ejes principales:

  • Direcciones de los vectores propios de
  • En estas direcciones, la forma cuadrática no tiene términos cruzados

Procedimiento para eliminar términos cruzados:

  1. Formar matriz de la forma cuadrática
  2. Diagonalizar ortogonalmente:
  3. Cambio de variable:
  4. Forma cuadrática en nuevas variables:

Clasificación de Formas Cuadráticas

Sea con simétrica:

  • Positiva definida: para todo ⟺ todos
  • Negativa definida: para todo ⟺ todos
  • Indefinida: toma valores positivos y negativos ⟺ de signos mixtos
  • Positiva semidefinida: para todo ⟺ todos
  • Negativa semidefinida: para todo ⟺ todos

Aplicaciones geométricas:

La ecuación define:

  • Elipse/elipsoide: Si es positiva definida
  • Hipérbola/hiperboloide: Si es indefinida
  • Parábola/paraboloide: Si tiene al menos un

Ejes principales = direcciones de vectores propios Longitudes de semiejes =

Optimización con restricción:

Para maximizar/minimizar sujeto a :

  • Máximo: (mayor valor propio)
  • Mínimo: (menor valor propio)
  • Se alcanzan en direcciones de vectores propios correspondientes

Clase 42: Factorización de Cholesky

Definición - Factorización de Cholesky

Para matriz simétrica y positiva definida, existe factorización única:

donde es matriz triangular superior con entradas diagonales positivas.

Equivalentemente: donde es triangular inferior.

Teorema - Existencia

simétrica admite factorización de Cholesky si y solo si es positiva definida.

Criterios para matriz positiva definida:

  1. simétrica
  2. Todos los valores propios
  3. para todo
  4. Todos los menores principales tienen determinante positivo

Algoritmo de Cholesky

Para calcular tal que :

Elemento diagonal:

Elementos fuera de la diagonal (para ):

Se procesa columna por columna, de izquierda a derecha.

Complejidad: operaciones (aproximadamente la mitad que factorización LU)

Ejemplo 2×2:

Paso 1:

Paso 2:

Paso 3:

Resultado:

Verificación:

Ejemplo 3×3:

Cálculos:

Resultado:

Indicador de falla:

Si en algún paso obtenemos , entonces no es positiva definida.

Ejemplo:

  • ❌ (falla)

Confirmación: → no positiva definida

Propiedades de Cholesky:

  1. Unicidad: Con diagonales positivas, la factorización es única
  2. Estabilidad numérica: No requiere pivoteo
  3. Eficiencia: operaciones vs para LU
  4. Preservación de estructura: Implícitamente mantiene simetría

Aplicaciones:

1. Resolución de sistemas :

  • Paso 1: Resolver (sustitución adelante)
  • Paso 2: Resolver (sustitución atrás)

2. Ecuaciones normales:

  • En mínimos cuadrados:
  • siempre simétrica y positiva definida (si rango completo)
  • Usar Cholesky en es más estable que calcular

3. Simulación estadística:

  • Generar (normal multivariada)
  • Factorizar (Cholesky)
  • Generar
  • Calcular

Comparación con otras factorizaciones:

FactorizaciónRestriccionesComplejidadVentajas
CholeskySimétrica, pos. def.Más rápida, estable
LUGeneralMás general
QRGeneralMás estable para mín. cuad.
EspectralSimétricaDa valores propios

Clase 43: Descomposición en Valores Singulares (DVS/SVD)

Motivación Geométrica

Una transformación lineal mapea la esfera unitaria en a un elipsoide en .

Los valores singulares son las longitudes de los semiejes principales del elipsoide.

Definición - Valores Singulares

Los valores singulares de matriz de son:

donde son los valores propios de , ordenados de mayor a menor.

Interpretación:

  • (máximo estiramiento)
  • (mínimo estiramiento)

Teorema 10 - Descomposición en Valores Singulares

Para cualquier matriz de con rango , existe descomposición:

donde:

  • : matriz ortogonal de (vectores singulares izquierdos)
  • : matriz “diagonal” de con valores singulares
  • : matriz ortogonal de (vectores singulares derechos)

Forma de :

donde con

Construcción paso a paso de la DVS:

Paso 1: Calcular (matriz simétrica de )

Paso 2: Encontrar valores propios de :

Paso 3: Valores singulares:

Paso 4: Encontrar vectores propios ortonormales de :

Construir:

Paso 5: Para (valores singulares no nulos), calcular:

Paso 6: Extender a base ortonormal de

Construir:

Ejemplo completo (matriz 2×3):

Paso 1:

Paso 2-3: Valores propios y singulares:

Rango:

Paso 4: Vectores propios de :

Paso 5: Calcular vectores singulares izquierdos:

Resultado final:

Verificación:

Teorema 9 - Bases para Subespacios Fundamentales

La DVS proporciona bases ortonormales para los cuatro subespacios fundamentales:

  • : Primeras columnas de
  • : Últimas columnas de
  • : Primeras columnas de
  • : Últimas columnas de

Además: número de valores singulares no nulos

Aplicaciones de la DVS:

1. Aproximación de Rango Bajo

Aproximación Óptima

La mejor aproximación de rango a es:

donde son primeras columnas de , etc.

Minimiza sobre todas las matrices de rango .

Compresión de imágenes:

  • Matriz original: elementos
  • Aproximación rango : elementos
  • Si : gran ahorro de almacenamiento

2. Análisis de Componentes Principales (PCA)

Para matriz de datos (centrada):

  1. Calcular DVS:
  2. Componentes principales: columnas de
  3. Scores: columnas de
  4. Varianza explicada por componente :

Reducción de dimensionalidad: proyectar datos sobre primeras componentes

3. Pseudoinversa de Moore-Penrose

Definición - Pseudoinversa

Para , la pseudoinversa es:

donde se obtiene de mediante:

  • Transponer
  • Reemplazar cada por

Propiedades:

  • Si invertible:
  • Si no cuadrada o rango deficiente: da solución de mínimos cuadrados
  • minimiza
  • Funciona incluso si no tiene rango completo

Ejemplo de pseudoinversa:

Para el ejemplo anterior con , , :

Interpretación geométrica de la DVS:

La transformación es composición de:

  1. : Rotación/reflexión en
  2. : Escalamiento por factores (direcciones principales)
  3. : Rotación/reflexión en

Toda transformación lineal = rotación + escalamiento + rotación


SECCIÓN DE FÓRMULAS ESENCIALES

Álgebra Matricial

Inversa 2×2:

Propiedades de inversas:

Propiedades de transpuestas:

Determinantes

Propiedades fundamentales:

  • para matriz
  • Matriz triangular:

Criterio de invertibilidad:

  • invertible ⟺

Valores Propios

Ecuación característica:

Propiedades:

  • Matrices triangulares: valores propios en diagonal

Diagonalización:

Ortogonalidad

Proyección sobre vector:

Distancia a subespacio:

Proceso de Gram-Schmidt:

Mínimos Cuadrados

Ecuaciones normales:

Solución única (si rango completo):

Regresión lineal:

Matrices Simétricas

Diagonalización ortogonal:

Forma cuadrática:

Clasificación:

  • Positiva definida: todos
  • Negativa definida: todos
  • Indefinida: de signos mixtos

Factorizaciones

LU: (triangular inferior × superior)

QR: (ortogonal × triangular superior)

Espectral: ( simétrica)

Cholesky: ( positiva definida)

DVS: (cualquier )


TEOREMAS CRÍTICOS PARA EL EXAMEN

Teorema de la Matriz Invertible

Las 12 Equivalencias

Para matriz de , las siguientes afirmaciones son equivalentes:

  1. es invertible
  2. es equivalente por filas a
  3. tiene posiciones pivote
  4. tiene solo solución trivial
  5. Columnas de son linealmente independientes
  6. es inyectiva
  7. tiene solución única para todo
  8. Columnas de generan
  9. es sobreyectiva
  10. 0 no es valor propio de
  11. es invertible

Teorema del Rango

Corolarios:

  • Número de variables básicas + variables libres = total de variables

Teorema Espectral

Teorema Espectral Completo

Para matriz simétrica de :

  1. Tiene valores propios reales
  2. multiplicidad algebraica de
  3. Espacios propios mutuamente ortogonales
  4. es diagonalizable ortogonalmente

Teorema de Mejor Aproximación

minimiza para todo


ESTRATEGIAS DE RESOLUCIÓN

Diagonalización

Procedimiento:

  1. Calcular polinomio característico:
  2. Encontrar raíces (valores propios)
  3. Para cada : resolver
  4. Verificar vectores propios linealmente independientes
  5. Construir y

Mínimos Cuadrados

Procedimiento:

  1. Formar matriz y vector
  2. Resolver sistema
  3. Calcular error:

Verificación:

Gram-Schmidt

Procedimiento:

  1. Para :
  2. Normalizar si se requiere base ortonormal:

Formas Cuadráticas

Procedimiento:

  1. Construir matriz simétrica (dividir coeficientes de entre 2)
  2. Encontrar valores propios y vectores propios
  3. Diagonalizar ortogonalmente:
  4. Cambio de variable:
  5. Forma diagonal:
  6. Clasificar según signos de

Factorización de Cholesky

Procedimiento:

  1. Verificar que es simétrica y positiva definida
  2. Aplicar algoritmo columna por columna:
    • Diagonal:
    • Fuera diagonal:
  3. Si algún : matriz no es positiva definida

ERRORES COMUNES A EVITAR

Error 1: Orden en Producto de Matrices

  • Incorrecto:
  • Correcto:

Error 2: Conmutatividad

  • Incorrecto: Asumir
  • Correcto: En general

Error 3: Diagonalización

  • Incorrecto: Asumir que toda matriz es diagonalizable
  • Correcto: Verificar que existan vectores propios LI

Error 4: Mínimos Cuadrados

  • Incorrecto: Usar sin verificar invertibilidad
  • Correcto: Verificar que columnas de sean LI

Error 5: Formas Cuadráticas

  • Incorrecto: Poner coeficiente completo de en matriz
  • Correcto: Dividir coeficiente entre 2 y colocar en y

Error 6: DVS vs Valores Propios

  • Incorrecto: Confundir valores singulares con valores propios
  • Correcto: Valores singulares son donde son valores propios de

Error 7: Cholesky

  • Incorrecto: Olvidar tomar raíz positiva
  • Correcto: Diagonales de deben ser positivas

Error 8: Normalización

  • Incorrecto: Olvidar normalizar en diagonalización ortogonal
  • Correcto: Columnas de deben ser vectores unitarios

CHECKLIST FINAL DE ESTUDIO

Fundamentos (Clases 1-21)

  • Operaciones vectoriales y producto punto
  • Reducción por filas y forma escalonada
  • Teorema de existencia y unicidad
  • Multiplicación de matrices y propiedades
  • Cálculo de matriz inversa
  • Cálculo de determinantes
  • Propiedades del determinante
  • Espacios vectoriales y subespacios
  • Independencia lineal
  • Teorema de la Matriz Invertible (12 equivalencias)
  • Teorema del Rango

Valores Propios (Clases 29-33)

  • Definición de valor y vector propio
  • Cálculo de valores propios (ecuación característica)
  • Cálculo de vectores propios
  • Espacios propios y bases
  • Diagonalización de matrices
  • Matrices similares y sus propiedades
  • Valores propios complejos
  • Aplicaciones a sistemas dinámicos

Ortogonalidad (Clases 34-39)

  • Producto interior y norma
  • Vectores ortogonales y ortonormales
  • Proyección ortogonal sobre vector
  • Proyección sobre subespacio
  • Proceso de Gram-Schmidt
  • Factorización QR
  • Matrices ortogonales
  • Ecuaciones normales de mínimos cuadrados
  • Regresión lineal

Matrices Simétricas (Clases 40-43)

  • Propiedades de matrices simétricas
  • Teorema espectral (3 versiones)
  • Diagonalización ortogonal
  • Descomposición espectral
  • Formas cuadráticas
  • Clasificación de formas cuadráticas
  • Teorema de ejes principales
  • Factorización de Cholesky (algoritmo)
  • DVS/SVD (construcción completa)
  • Aplicaciones de DVS (aproximación, PCA, pseudoinversa)

Técnicas de Resolución

  • Resolver sistemas lineales por reducción
  • Calcular inversas (2×2 y método Gauss-Jordan)
  • Diagonalizar matrices
  • Aplicar Gram-Schmidt
  • Resolver problemas de mínimos cuadrados
  • Clasificar formas cuadráticas
  • Calcular factorización de Cholesky
  • Calcular DVS

Resumen Completo Terminado

Este documento cubre todas las 43 clases del curso, con énfasis especial en las clases 22-43 como solicitado. Incluye:

✅ Definiciones formales con callouts ✅ Teoremas numerados y enunciados ✅ Ejemplos completamente trabajados ✅ Fórmulas esenciales ✅ Estrategias de resolución ✅ Errores comunes ✅ Checklist de estudio

¡Éxito en tu examen! 🎯


🏷️ Tags

algebra-lineal resumen-completo examen-final mat1203 clases-1-43 valores-propios ortogonalidad matrices-simetricas minimos-cuadrados dvs cholesky diagonalizacion espacios-vectoriales


📚 Referencias

  • Lay, D. Álgebra Lineal y sus Aplicaciones. Todas las secciones del curso
  • Clases 1-43 del vault de Obsidian
  • Material del curso MAT1203 - Universidad

Documento creado: 25 de noviembre de 2025 Última actualización: 25 de noviembre de 2025