Calculateur de Décomposition en Valeurs Singulières (SVD)
Calculez la décomposition en valeurs singulières (SVD) de n’importe quelle matrice. Décomposez A = UΣVᵀ avec des solutions étape par étape, une visualisation 3D interactive, une analyse de rang, l’indice de conditionnement et des applications en compression de données.
Embed Calculateur de Décomposition en Valeurs Singulières (SVD) Widget
Votre bloqueur de pubs nous empêche d’afficher des annonces
MiniWebtool est gratuit grâce aux annonces. Si cet outil vous a aidé, soutenez-nous avec Premium (sans pubs + outils plus rapides) ou ajoutez MiniWebtool.com à la liste blanche puis rechargez la page.
- Ou passez à Premium (sans pubs)
- Autorisez les pubs pour MiniWebtool.com, puis rechargez
Calculateur de Décomposition en Valeurs Singulières (SVD)
Bienvenue sur le Calculateur de Décomposition en Valeurs Singulières (SVD), un puissant outil d'algèbre linéaire qui décompose n'importe quelle matrice en ses composantes fondamentales. La SVD factorise une matrice A = UΣVᵀ et fournit des solutions étape par étape, des visualisations interactives, une analyse du rang, du conditionnement, de la qualité de l'approximation de rang inférieur et le calcul de la pseudo-inverse. Que vous étudiiez l'algèbre linéaire, travailliez sur le machine learning ou analysiez des données, ce calculateur fournit une décomposition matricielle de niveau professionnel.
Qu'est-ce que la décomposition en valeurs singulières ?
La décomposition en valeurs singulières (SVD) est la factorisation de toute matrice m×n A en trois matrices :
Où :
- A est la matrice m×n originale
- U est une matrice orthogonale m×m (vecteurs singuliers à gauche, vecteurs propres de AAᵀ)
- Σ (Sigma) est une matrice diagonale m×n avec des valeurs singulières non négatives σ₁ ≥ σ₂ ≥ ... ≥ 0
- Vᵀ est une matrice orthogonale n×n (vecteurs singuliers à droite, vecteurs propres de AᵀA)
Contrairement à la décomposition en valeurs propres, la SVD existe toujours pour n'importe quelle matrice, y compris les matrices rectangulaires et singulières. Cette universalité en fait l'une des factorisations les plus importantes en mathématiques appliquées.
Comment la SVD est calculée
- Former AᵀA : Calculer la matrice symétrique n×n AᵀA
- Trouver les valeurs propres : Résoudre det(AᵀA − λI) = 0 pour obtenir les valeurs propres λ₁ ≥ λ₂ ≥ ... ≥ 0
- Valeurs singulières : σᵢ = √λᵢ (racines carrées des valeurs propres)
- Vecteurs singuliers à droite (V) : Trouver les vecteurs propres de AᵀA, les orthonormaliser pour obtenir les colonnes de V
- Vecteurs singuliers à gauche (U) : Calculer uᵢ = Avᵢ/σᵢ pour chaque valeur singulière non nulle, étendre à une base orthonormée complète
Propriétés clés
Rang de la matrice
Le rang de la matrice A est égal au nombre de valeurs singulières non nulles. C'est la méthode la plus stable numériquement pour déterminer le rang, bien plus fiable que la réduction par lignes qui peut être faussée par des erreurs de virgule flottante.
Conditionnement
Le conditionnement mesure la sensibilité d'un système linéaire Ax = b aux perturbations. Un κ élevé indique une matrice mal conditionnée ; κ = 1 est le cas idéal (matrices orthogonales).
Normes matricielles via SVD
- Norme spectrale (norme 2) : \(\|A\|_2 = \sigma_1\) — la plus grande valeur singulière
- Norme de Frobenius : \(\|A\|_F = \sqrt{\sigma_1^2 + \sigma_2^2 + \cdots}\)
- Norme nucléaire : \(\|A\|_* = \sigma_1 + \sigma_2 + \cdots\) — somme de toutes les valeurs singulières
Applications de la SVD
Approximation de rang inférieur (Théorème d'Eckart–Young)
Le théorème d'Eckart–Young–Mirsky stipule que la meilleure approximation de rang k de A (en norme de Frobenius ou spectrale) est obtenue en ne conservant que les k plus grandes valeurs singulières :
L'erreur d'approximation est : \(\|A - A_k\|_F = \sqrt{\sigma_{k+1}^2 + \cdots + \sigma_r^2}\)
SVD vs Décomposition en valeurs propres
| Caractéristique | SVD | Décomposition en valeurs propres |
|---|---|---|
| S'applique à | Toute matrice m×n | Matrices carrées uniquement |
| Existe toujours | Oui | Non (nécessite la diagonalisabilité) |
| Valeurs | Toujours réelles, non négatives | Peuvent être complexes |
| Bases | Deux bases orthogonales (U, V) | Une seule base (peut ne pas être orthogonale) |
| Stabilité numérique | Excellente | Peut être instable pour les matrices non symétriques |
Foire aux questions
Qu'est-ce que la décomposition en valeurs singulières (SVD) ?
La décomposition en valeurs singulières (SVD) est une factorisation de matrice qui décompose toute matrice réelle ou complexe m×n A en trois matrices : A = UΣVᵀ, où U est une matrice orthogonale m×m de vecteurs singuliers à gauche, Σ est une matrice diagonale m×n de valeurs singulières, et Vᵀ est une matrice orthogonale n×n de vecteurs singuliers à droite. La SVD existe toujours pour n'importe quelle matrice.
À quoi servent les valeurs singulières ?
Les valeurs singulières révèlent les propriétés fondamentales d'une matrice : le rang (nombre de valeurs singulières non nulles), le conditionnement (rapport entre la plus grande et la plus petite) et les normes matricielles. Elles sont largement utilisées dans la compression de données (en ne conservant que les plus grandes valeurs singulières), l'analyse en composantes principales (PCA), la réduction du bruit, les systèmes de recommandation et la résolution de problèmes de moindres carrés.
Quelle est la différence entre la SVD et la décomposition en valeurs propres ?
La décomposition en valeurs propres ne fonctionne que pour les matrices carrées et nécessite que la matrice soit diagonalisable. La SVD fonctionne pour toute matrice m×n (y compris rectangulaire) et existe toujours. Pour une matrice symétrique semi-définie positive, la SVD et la décomposition en valeurs propres coïncident. La SVD utilise deux bases orthogonales différentes (U et V), tandis que la décomposition en valeurs propres n'en utilise qu'une.
Quel est le lien entre la SVD et l'ACP (PCA) ?
L'ACP (Analyse en Composantes Principales) est directement calculée à l'aide de la SVD. Lorsque vous centrez la matrice de données X et calculez sa SVD sous la forme X = UΣVᵀ, les colonnes de V sont les composantes principales (directions de variance maximale), les valeurs singulières dans Σ codent les écarts-types le long de chaque composante, et UΣ donne les données projetées dans le nouveau système de coordonnées.
Qu'est-ce qu'une approximation de rang inférieur ?
Une approximation de rang k d'une matrice A ne conserve que les k plus grandes valeurs singulières et leurs vecteurs correspondants : A_k = U_k Σ_k V_k^T. Selon le théorème d'Eckart-Young, il s'agit de la meilleure approximation de rang k dans les normes de Frobenius et spectrales. C'est le fondement mathématique de la compression d'image, de l'analyse sémantique latente et de la réduction de dimensionnalité.
Qu'est-ce que le conditionnement d'une matrice ?
Le conditionnement κ(A) = σ_max / σ_min est le rapport entre la plus grande et la plus petite valeur singulière. Il mesure la sensibilité de la solution d'un système linéaire Ax = b aux perturbations. Un conditionnement élevé signifie que la matrice est mal conditionnée et que de petites erreurs dans l'entrée peuvent entraîner de grandes erreurs dans la solution. Un conditionnement de 1 (matrice orthogonale) est idéal.
Ressources supplémentaires
Citez ce contenu, cette page ou cet outil comme suit :
"Calculateur de Décomposition en Valeurs Singulières (SVD)" sur https://MiniWebtool.com/fr// de MiniWebtool, https://MiniWebtool.com/
par l'équipe miniwebtool. Mis à jour : 20 fév. 2026
Vous pouvez également essayer notre Résolveur Mathématique IA GPT pour résoudre vos problèmes mathématiques grâce à des questions-réponses en langage naturel.