Calculadora de Descomposición en Valores Singulares (SVD)
Calcule la Descomposición en Valores Singulares (SVD) de cualquier matriz. Descomponga A = UΣVᵀ con soluciones paso a paso, visualización interactiva en 3D, análisis de rango, número de condición y aplicaciones en compresión de datos y reducción de dimensionalidad.
Embed Calculadora de Descomposición en Valores Singulares (SVD) Widget
Tu bloqueador de anuncios impide que mostremos anuncios
MiniWebtool es gratis gracias a los anuncios. Si esta herramienta te ayudó, apóyanos con Premium (sin anuncios + herramientas más rápidas) o añade MiniWebtool.com a la lista de permitidos y recarga la página.
- O pásate a Premium (sin anuncios)
- Permite anuncios para MiniWebtool.com y luego recarga
Calculadora de Descomposición en Valores Singulares (SVD)
Bienvenido a la Calculadora de Descomposición en Valores Singulares (SVD), una potente herramienta de álgebra lineal que descompone cualquier matriz en sus componentes fundamentales. La SVD factoriza una matriz A = UΣVᵀ y proporciona soluciones paso a paso, visualizaciones interactivas, análisis de rango, número de condición, calidad de aproximación de bajo rango y cómputo de pseudoinversa. Ya sea que esté estudiando álgebra lineal, trabajando en aprendizaje automático o analizando datos, esta calculadora ofrece una descomposición matricial de nivel profesional.
¿Qué es la Descomposición en Valores Singulares?
La Descomposición en Valores Singulares (SVD) es la factorización de cualquier matriz A de m×n en tres matrices:
Donde:
- A es la matriz original de m×n
- U es una matriz ortogonal de m×m (vectores singulares izquierdos, autovectores de AAᵀ)
- Σ (Sigma) es una matriz diagonal de m×n con valores singulares no negativos σ₁ ≥ σ₂ ≥ ... ≥ 0
- Vᵀ es una matriz ortogonal de n×n (vectores singulares derechos, autovectores de AᵀA)
A diferencia de la descomposición en autovalores, la SVD siempre existe para cualquier matriz, incluidas las matrices rectangulares y singulares. Esta universalidad la convierte en una de las factorizaciones más importantes en las matemáticas aplicadas.
Cómo se calcula la SVD
- Formar AᵀA: Calcular la matriz simétrica n×n AᵀA
- Hallar autovalores: Resolver det(AᵀA − λI) = 0 para obtener los autovalores λ₁ ≥ λ₂ ≥ ... ≥ 0
- Valores singulares: σᵢ = √λᵢ (raíces cuadradas de los autovalores)
- Vectores singulares derechos (V): Hallar los autovectores de AᵀA, ortonormalizarlos para obtener las columnas de V
- Vectores singulares izquierdos (U): Calcular uᵢ = Avᵢ/σᵢ para cada valor singular distinto de cero, extender a una base ortonormal completa
Propiedades clave
Rango de la matriz
El rango de la matriz A es igual al número de valores singulares distintos de cero. Esta es la forma numéricamente más estable de determinar el rango, mucho más confiable que la reducción por filas, que puede verse afectada por errores de punto flotante.
Número de condición
El número de condición mide qué tan sensible es un sistema lineal Ax = b a las perturbaciones. Un κ grande indica una matriz mal condicionada; κ = 1 es el caso ideal (matrices ortogonales).
Normas matriciales vía SVD
- Norma espectral (norma-2): \(\|A\|_2 = \sigma_1\) — el valor singular más grande
- Norma de Frobenius: \(\|A\|_F = \sqrt{\sigma_1^2 + \sigma_2^2 + \cdots}\)
- Norma nuclear: \(\|A\|_* = \sigma_1 + \sigma_2 + \cdots\) — suma de todos los valores singulares
Aplicaciones de la SVD
Aproximación de bajo rango (Teorema de Eckart–Young)
El teorema de Eckart–Young–Mirsky establece que la mejor aproximación de rango k de A (en norma de Frobenius o espectral) se obtiene manteniendo solo los k valores singulares más grandes:
El error de aproximación es: \(\|A - A_k\|_F = \sqrt{\sigma_{k+1}^2 + \cdots + \sigma_r^2}\)
SVD vs. Descomposición en Autovalores
| Característica | SVD | Descomposición en Autovalores |
|---|---|---|
| Se aplica a | Cualquier matriz m×n | Solo matrices cuadradas |
| Siempre existe | Sí | No (requiere ser diagonalizable) |
| Valores | Siempre reales, no negativos | Pueden ser complejos |
| Bases | Dos bases ortogonales (U, V) | Una base (puede no ser ortogonal) |
| Estabilidad numérica | Excelente | Puede ser inestable para matrices no simétricas |
Preguntas frecuentes
¿Qué es la Descomposición en Valores Singulares (SVD)?
La Descomposición en Valores Singulares (SVD) es una factorización de matrices que descompone cualquier matriz A real o compleja de m×n en tres matrices: A = UΣVᵀ, donde U es una matriz ortogonal de m×m de vectores singulares izquierdos, Σ es una matriz diagonal de m×n de valores singulares y Vᵀ es una matriz ortogonal de n×n de vectores singulares derechos. La SVD siempre existe para cualquier matriz.
¿Para qué se utilizan los valores singulares?
Los valores singulares revelan propiedades fundamentales de una matriz: el rango (número de valores singulares distintos de cero), el número de condición (relación entre el mayor y el menor) y las normas de la matriz. Se utilizan ampliamente en la compresión de datos (manteniendo solo los valores singulares más grandes), el análisis de componentes principales (PCA), la reducción de ruido, los sistemas de recomendación y la resolución de problemas de mínimos cuadrados.
¿Cuál es la diferencia entre SVD y la descomposición en autovalores?
La descomposición en autovalores solo funciona para matrices cuadradas y requiere que la matriz sea diagonalizable. La SVD funciona para cualquier matriz m×n (incluyendo rectangulares) y siempre existe. Para una matriz simétrica semidefinida positiva, la SVD y la autodescomposición coinciden. La SVD utiliza dos bases ortogonales diferentes (U y V), mientras que la autodescomposición utiliza una.
¿Cómo se relaciona la SVD con el PCA?
El PCA (Análisis de Componentes Principales) se calcula directamente mediante SVD. Cuando se centra la matriz de datos X y se calcula su SVD como X = UΣVᵀ, las columnas de V son los componentes principales (direcciones de máxima varianza), los valores singulares en Σ codifican las desviaciones estándar a lo largo de cada componente y UΣ proporciona los datos proyectados en el nuevo sistema de coordenadas.
¿Qué es una aproximación de bajo rango?
Una aproximación de rango k de la matriz A mantiene solo los k valores singulares más grandes y sus vectores correspondientes: A_k = U_k Σ_k V_k^T. Según el teorema de Eckart-Young, esta es la mejor aproximación de rango k tanto en la norma de Frobenius como en la espectral. Esta es la base matemática de la compresión de imágenes, el análisis semántico latente y la reducción de dimensionalidad.
¿Qué es el número de condición de una matriz?
El número de condición κ(A) = σ_max / σ_min es la relación entre el valor singular más grande y el más pequeño. Mide qué tan sensible es la solución de un sistema lineal Ax = b a las perturbaciones. Un número de condición grande significa que la matriz está mal condicionada y pequeños errores en la entrada pueden causar grandes errores en la solución. Un número de condición de 1 (matriz ortogonal) es el ideal.
Recursos adicionales
Cite este contenido, página o herramienta como:
"Calculadora de Descomposición en Valores Singulares (SVD)" en https://MiniWebtool.com/es// de MiniWebtool, https://MiniWebtool.com/
por el equipo de miniwebtool. Actualizado: 20 de febrero de 2026
También puede probar nuestro Solucionador de Matemáticas AI GPT para resolver sus problemas matemáticos mediante preguntas y respuestas en lenguaje natural.