Singulärwertzerlegung (SVD) Rechner
Berechnen Sie die Singulärwertzerlegung (SVD) jeder Matrix. Zerlegen Sie A = UΣVᵀ mit Schritt-für-Schritt-Lösungen, interaktiver 3D-Visualisierung, Rang-Analyse, Konditionszahl und Anwendungen in der Datenkompression und Dimensionsreduktion.
Dein Adblocker verhindert, dass wir Werbung anzeigen
MiniWebtool ist kostenlos dank Werbung. Wenn dir dieses Tool geholfen hat, unterstütze uns mit Premium (werbefrei + schneller) oder setze MiniWebtool.com auf die Whitelist und lade die Seite neu.
- Oder auf Premium upgraden (werbefrei)
- Erlaube Werbung für MiniWebtool.com, dann neu laden
Singulärwertzerlegung (SVD) Rechner
Willkommen beim Singulärwertzerlegung SVD Rechner, einem leistungsstarken Werkzeug der linearen Algebra, das jede Matrix in ihre Grundkomponenten zerlegt. Die SVD faktorisiert eine Matrix A = UΣVᵀ und bietet Schritt-für-Schritt-Lösungen, interaktive Visualisierungen, Rang-Analysen, die Konditionszahl, die Qualität von Niedrigrang-Approximationen sowie die Berechnung der Pseudoinversen. Egal, ob Sie lineare Algebra studieren, im Bereich Machine Learning arbeiten oder Daten analysieren, dieser Rechner bietet professionelle Matrixzerlegungen.
Was ist die Singulärwertzerlegung?
Die Singulärwertzerlegung (SVD) ist die Faktorisierung einer beliebigen m×n-Matrix A in drei Matrizen:
Wobei:
- A die ursprüngliche m×n-Matrix ist
- U eine orthogonale m×m-Matrix ist (linke Singulärvektoren, Eigenvektoren von AAᵀ)
- Σ (Sigma) eine m×n-Diagonalmatrix mit nicht-negativen Singulärwerten σ₁ ≥ σ₂ ≥ ... ≥ 0 ist
- Vᵀ eine orthogonale n×n-Matrix ist (rechte Singulärvektoren, Eigenvektoren von AᵀA)
Im Gegensatz zur Eigenwertzerlegung existiert die SVD immer für jede Matrix, einschließlich rechteckiger und singulärer Matrizen. Diese Universalität macht sie zu einer der wichtigsten Faktorisierungen in der angewandten Mathematik.
Wie die SVD berechnet wird
- AᵀA bilden: Berechnen Sie die symmetrische n×n-Matrix AᵀA
- Eigenwerte finden: Lösen Sie det(AᵀA − λI) = 0, um die Eigenwerte λ₁ ≥ λ₂ ≥ ... ≥ 0 zu erhalten
- Singulärwerte: σᵢ = √λᵢ (Quadratwurzeln der Eigenwerte)
- Rechte Singulärvektoren (V): Finden Sie die Eigenvektoren von AᵀA und orthonormalisieren Sie diese, um die Spalten von V zu erhalten
- Linke Singulärvektoren (U): Berechnen Sie uᵢ = Avᵢ/σᵢ für jeden Singulärwert ungleich Null und erweitern Sie diese zu einer vollständigen Orthonormalbasis
Wichtige Eigenschaften
Matrixrang
Der Rang der Matrix A entspricht der Anzahl der Singulärwerte ungleich Null. Dies ist die numerisch stabilste Methode zur Bestimmung des Rangs, weitaus zuverlässiger als die Zeilenstufenform, die durch Gleitkommafehler verfälscht werden kann.
Konditionszahl
Die Konditionszahl misst, wie empfindlich ein lineares System Ax = b auf Störungen reagiert. Ein großes κ weist auf eine schlecht konditionierte Matrix hin; κ = 1 ist der Idealfall (orthogonale Matrizen).
Matrixnormen via SVD
- Spektralnorm (2-Norm): \(\|A\|_2 = \sigma_1\) — der größte Singulärwert
- Frobeniusnorm: \(\|A\|_F = \sqrt{\sigma_1^2 + \sigma_2^2 + \cdots}\)
- Nuklearnorm: \(\|A\|_* = \sigma_1 + \sigma_2 + \cdots\) — Summe aller Singulärwerte
Anwendungen der SVD
Niedrigrang-Approximation (Eckart-Young-Theorem)
Das Eckart-Young-Mirsky-Theorem besagt, dass die beste Rang-k-Approximation von A (in der Frobenius- oder Spektralnorm) erzielt wird, indem man nur die k größten Singulärwerte beibehält:
Der Approximationsfehler ist: \(\|A - A_k\|_F = \sqrt{\sigma_{k+1}^2 + \cdots + \sigma_r^2}\)
SVD vs. Eigenwertzerlegung
| Merkmal | SVD | Eigenwertzerlegung |
|---|---|---|
| Anwendbar auf | Jede m×n-Matrix | Nur quadratische Matrizen |
| Existiert immer | Ja | Nein (erfordert Diagonalisierbarkeit) |
| Werte | Immer reell, nicht-negativ | Können komplex sein |
| Basen | Zwei orthogonale Basen (U, V) | Eine Basis (evtl. nicht orthogonal) |
| Numerische Stabilität | Exzellent | Kann bei nicht-symmetrischen Matrizen instabil sein |
Häufig gestellte Fragen
Was ist die Singulärwertzerlegung (SVD)?
Die Singulärwertzerlegung (SVD) ist eine Matrixfaktorisierung, die jede reelle oder komplexe m×n-Matrix A in drei Matrizen zerlegt: A = UΣVᵀ, wobei U eine orthogonale m×m-Matrix der linken Singulärvektoren ist, Σ eine m×n-Diagonalmatrix der Singulärwerte und Vᵀ eine orthogonale n×n-Matrix der rechten Singulärvektoren darstellt. Die SVD existiert immer für jede beliebige Matrix.
Wofür werden Singulärwerte verwendet?
Singulärwerte offenbaren grundlegende Eigenschaften einer Matrix: den Rang (Anzahl der Singulärwerte ungleich Null), die Konditionszahl (Verhältnis vom größten zum kleinsten Wert) und Matrixnormen. Sie werden häufig in der Datenkompression (Beibehaltung nur der größten Singulärwerte), der Hauptkomponentenanalyse (PCA), der Rauschunterdrückung, in Empfehlungssystemen und zur Lösung von kleinsten Quadrate-Problemen eingesetzt.
Was ist der Unterschied zwischen SVD und Eigenwertzerlegung?
Die Eigenwertzerlegung funktioniert nur für quadratische Matrizen und setzt voraus, dass die Matrix diagonalisierbar ist. Die SVD funktioniert für jede m×n-Matrix (einschließlich rechteckiger) und existiert immer. Für eine symmetrische positiv semidefinitive Matrix fallen SVD und Eigenwertzerlegung zusammen. Die SVD verwendet zwei verschiedene orthogonale Basen (U und V), während die Eigenwertzerlegung nur eine verwendet.
In welcher Beziehung steht SVD zur PCA?
Die PCA (Hauptkomponentenanalyse) wird direkt mittels SVD berechnet. Wenn man die Datenmatrix X zentriert und ihre SVD als X = UΣVᵀ berechnet, sind die Spalten von V die Hauptkomponenten (Richtungen maximaler Varianz), die Singulärwerte in Σ kodieren die Standardabweichungen entlang jeder Komponente und UΣ liefert die projizierten Daten im neuen Koordinatensystem.
Was ist eine Niedrigrang-Approximation?
Eine Rang-k-Approximation einer Matrix A behält nur die k größten Singulärwerte und deren entsprechende Vektoren bei: A_k = U_k Σ_k V_k^T. Nach dem Eckart-Young-Theorem ist dies die beste Rang-k-Approximation sowohl in der Frobenius- als auch in der Spektralnorm. Dies ist die mathematische Grundlage für Bildkompression, latente semantische Analyse und Dimensionsreduktion.
Was ist die Konditionszahl einer Matrix?
Die Konditionszahl κ(A) = σ_max / σ_min ist das Verhältnis des größten zum kleinsten Singulärwert. Sie misst, wie empfindlich die Lösung eines linearen Systems Ax = b auf Störungen reagiert. Eine große Konditionszahl bedeutet, dass die Matrix schlecht konditioniert ist und kleine Fehler in der Eingabe große Fehler in der Lösung verursachen können. Eine Konditionszahl von 1 (orthogonale Matrix) ist ideal.
Zusätzliche Ressourcen
Zitieren Sie diesen Inhalt, diese Seite oder dieses Tool als:
"Singulärwertzerlegung (SVD) Rechner" unter https://MiniWebtool.com/de// von MiniWebtool, https://MiniWebtool.com/
vom miniwebtool-Team. Aktualisiert: 20. Februar 2026
Sie können auch unseren KI-Mathematik-Löser GPT ausprobieren, um Ihre mathematischen Probleme durch natürliche Sprachfragen und -antworten zu lösen.