file matrix00.htm zur Vorlesung Angew.Math.f.LAK, HGFei, WS 2002-2003, STAND Mi, 30. Okt.2002
WICHTIGE MERKSÄTZE
Basen und Lineare Abbildungen, Rolle der Matrizenrechnung:
Die MATRIX einer linearen Abbildung bzgl. zweier Basen enthält in den Spalten genau die Koordinaten (im Sinne der Basis des Bildraumes) der einzelnen Bilder der Basisvektoren aus dem Definitionsbereich.
Das Prinzip "kennt man eine lineare Abb. auf einem Erzeugendensystem, dann auch auf dem ganzen Vektorraum" impliziert natürlich, dass die Koeffizienten eines beliebigen Vektors (bzgl. der Basis im Bildraum) aus den Koeffizienten der Basisvektoren (also aus den Spalten der Martix) berechnet werden können, und ZWAR GENAU durch die Methode der (üblichen) Matrix-Vektor-Multiplikation.
Hat man dann auch noch gezeigt, dass die KOMPOSITION von linearen Abbildugen in gutem Einklang mit der gewohnten Matrixmultiplikation steht, so ist klar, dass eine lineare Abbildung genau dann invertierbar ist, wenn die zugehörige Matrix im Sinne des Matrix-Kalküls eine Inverse hat und vieles mehr.
Beachte: Die Matrix-Vektor Multiplikation kann auch als Linear-Kombinations-bildende Wirkung des Koeffizienten Vektors auf die Spalten der operierenen Matrix verstanden werden. Da auch die Matrix-Matrix Multiplikation als Wirkung der ersten Matrix auf die Spalten der rechts stehenden Matrix verstanden werden kann, enthält die Produktmatrix also diverse Elemente des Spaltenraumes des ersten Faktors.
Umgekehrt kann man natürlich auch den ersten Faktor in einem Matrix Produkt als eine Kollektion von Zeilenvektoren ansehen. Bedenkt man, dass in Analogie zum oben gesagten die Rechts-Wirkung einer Matrix auf einen Zeilenvektor zur Bildung von Linear-Kombinationen von Zeilenvektoren des rechts stehenden Matrix Faktors führt, erkennt man, dass die Zeilen der Produktmatrix A*B auch aus Lin.Komb. der Zeilen von B gesehen werden kann. Wenn man an die "Dominoregel" denkt (womit man leicht die Dimension der Produktmatrix bestimmen kann, so ist auch die Höhe der Spalten des ersten Faktors sowie die Länge der Zeilen des letzten Faktors in einem mehrfachen Produkt entscheidend, im Einklang mit dem soeben Gesagten.
Bei der Interpretation der Gauss-Elemation als Links-Matrix Multiplikation der Ausgangsmatrix mit (invertierbaren) Elementarmatrizen ergibt sich unter anderem: Die Schritte der Gauss-Elemination bewahren den Zeilenraum der Ausgangsmatrix, d.h. die Zeilen der reduzierten Zeilenstufenform bilden eine Basis für den Zeilenraum der ursprünglichen Matrix. Andererseits (nach einem etwas anderen, aber ebenfalls einfachen Argument, das die obigen Elementarüberlegungen benutzt) bleibt bei der Gauss-Elimination die lineare Unabhängigkeit von Spaltensystemen unangetastet. Da die Spalten der red.ZSTF. zu A klarerweise linear unabh. sind (wenn man diejenigen nimmt, die führende Einsen enthalten), gilt dasselbe auch für die ENTSPRECHENDEN Spalten der ursprünglichen Matrix, deren Anzahl natürlich gleich der Dimension des Zeilenraumes ist ( also folgt auch Zeilenrang einer Matrix ist gleich Spaltenrang...). Die so ausgewählten Spalten der Ausgangsmatrix sind also eine Basis für den Spaltenraum.
Gewisse Matrizen, jedenfalls die sog. diagonal dominanten Matrizen, können auf jeden Fall (ohne die Vertauschung von Zeilen) invertiert werden! Der Beweis ergibt sich durch Induktion (siehe etwa das Buch von H.Schwarz, Kap.1): Die Eigenschaft, diagonal dominant zu sein, bleibt nämlich bei der Anwendung der beiden Elementar-Schritte der Gauss Elim. erhalten!
Skalarprodukte, Orthonormalsysteme, Winkel HIER die NEUERUNGEN
Skalarprodukte (allgemeine Definitionen) als zusätzliche Struktur auf einem Vektorraum
Jedes Skalarprodukt induziert (analog zum klassischen Skalarprodukt) auf dem Vektorraum eine "Euklidische" Norm. Der Beweis diese Tatsache benutzt die Tatsache, dass für jedes (abstrakte) Skalarprodukt die Cauchy-Schwarz'sche Ungleichung gilt. Ebenso gilt für allgemeine Skalarprodukte der Satz von Pythagoras, d.h. in einem rechtwinkeligen Dreieck stimmt das Hypothenusen-Quadrat mit der Summe der Katethen-Quadrate überein.
Die Definition mit Hilfe des Winkels (Cosinus-Satz) ist aufgrund der Cauchy-Schwarz Ungleichung auch auf beliebiege Vektoren in V anwendbar.
Die Rolle der adjungierten Matrix B = A' , die "transponiert konjugierte Matrix (oder konjugiert-transponierte). Typischerweise gilt also b[j,k] == conj(a[k,j]). Sie ist dadurch charakterisiert, dass < A x , y > = < x , A' y > gilt, bzw. in Worten (da ja A" = A) dass man beim "auf die andere Seite bringen" die Matrix A einfach durch A' ersetzen muss.
Hermitesche Matrizen sind nach Def. also solche, mit A' = A (die man also jederzeit "auf die andere Seite im Skalarprodukt" bringen darf).
Eine Matrix heißt unitär, wenn A' = inv(A) gilt, und normal, wenn A A' = A' A gilt. Jede hermitesche und auch jede unitäre Matrix ist normal. Normalität und Invertierbarkeit sind unabhängige Eigenschaften von Matrizen.
Die unitären Matrizen bilden eine Gruppe (bzgl. der gew. Matrixmultiplikation). Das Produkt von zwei hermiteschen Matrizen ist wieder hermitesch genau dann wenn die beiden Matrizen miteinander kommutieren.Später werden wir sehen, dass genau die normalen Matrizen diagonalisierbar sind.
Prinzip der orthogonalen Zerlegung nach Teilräumen: Zu jedem Teilraum W eines endlichdim. VR mit Skalarproduktes (man könnte auch von einem endlichdim. Hilbertraum sprechen) gibt es ein eindeutig bestimmtes orthog. Komplement WO, mit der Eigenschaft dass Null das einzige gemeinsame Element von W und WO ist, und dass sich andererseits jeder Vektor in V (demgemäß eindeutig) in eine Summe von je einem Vektor aus W bzw. WO zerlegen läßt: v = w + wo. Die Zuordnung v wird auf w abgebildet ist wohldefiniert, und die sogenannte orthog. Projektion, und ist auch linear. Dementsprechend hat sie auch eine Matrixdarstellung.
Satz: P die Matrix zu einer orth. Proj. dann und nur dann wenn P = P*P, und P = P' gilt. Ist B eine beliebige ONB fuer V, so ist die Projektion von einem größeren Raum H (der V umfaßt) auf H genau die Summe der Projektionen auf die einzelnen 1-dim.Teilraume. Für V = R^k, aufgefasst als Teilraum von R^n, mit n > k, kann man B als System von Spaltenvektoren (die V aufspannen) interpretieren. Dann gilt: P = B*B'.
Bem.: Wenn man Rechts-Martixmultiplikation nimmt, also auf Zeilenvektoren Matrizen von rechts loslaesst, und also B nun als System von Zeilenvektoren schreibt, so haette P die (etwas natuerlichere) Form P = B' * B.
Hat man ein endliches Orthonormalsystem, dann gilt ebenfalls: Länge des Vektors entspricht der Euklidischen Länge der (eindeutigen) Koeffizientenvektoren.
Wichtige Prinzipien: Orthonormalsysteme können aus einer Basis mit Hilfe des Gram-Schmidt Verfahrens gewonnen werden. Dieses kann verbal so beschrieben werden:
1) vom Ergebnis her: das Gram Schmidt Verfahren erlaubt es, aus einer linear unabhängigen Folge von Vektoren (in einem Vektorraum V mit Skalarprodukt) ein (sogar eindeutig bestimmtes) Orthonormalsystem zu erzeugen, das die folgende Eigenschaft hat: Für jedes k in N stimmt das lineare Erzeugnis Vk (der sog. "lineare span") der ersten k Vektoren aus der vorgegebenen Familie mit dem linearen Erzeugnis der ersten k Vektoren des erzeugten Orthonormalsystems überein. Praktisch bedeutet das im Laufe des Verfahrens, dass man schrittweise eine immer umfassendere Orthonormalbasis bildet, aber die bis zum k-ten Schritt gewonnenen Orthonormalvektoren zur Beschreibung auf den linearen Span der ersten k Vektoren (des ursprünglichen Systems) verwenden kann.
Für den Fall V = Rn, mit irgendeinem Skalarprodukt, kann man diese Tatsache auch so ausdrücken. Schreibt man die gegebenen Basisvektoren in die Spalten einer n x n - Matrix A, und das Ergebnis in die Spalten einer (nun offensichtlich unitären) Matrix Q, so gilt (mit der üblichen Matrix Multiplikation) A * R1 = Q, wobei R1 eine obere Dreiecksmatrix ist (das drückt genau aus, dass die dritte Spalte von Q eben nur eine Lin.Komb. der ersten drei Spalten von A ist, ebenso die vierte etc..). Mit R = inv(R1) (das ist natürlich wieder eine obere Dreiecksmatix) gilt dann:
A = Q * R , und man spricht von einer sog. QR-Zerlegung von A ( in MATLAB. [Q,R] = qr(A); )
2) von der Funktionsbeschreibung her (wie macht man das): Wir werden eine leicht modifizierte Version des üblichen Verfahrens beschreiben: Das GS-Verfahren verläuft induktiv. Man startet mit dem ersten Vektor (bzw. der ersten Spalte von A) und normiert diese (sie ist ja von Null verschieden, somit bekommt man einen Richtungsvektor, von Norm 1). Hat man die ersten (k-1) Vektoren q_1,..., q_(k-1) gefunden, so kann man sich diese natürlich als n x (k-1) Matrix Q vorstellen (am Ende der Prozedur werden wir die "volle" Matrix Q vor uns haben), und die Projektion auf V_{k-1} kann man dadurch finden, dass man einen beliebigen Vektor x von links mit Q * Q' multipliziert. Aus Sparsamkeitsgründen sollte man aber
Q* (Q' * x) bilden. (?warum). Die Idee des GS-Verfahrens ist natürlich, vom k-ten Vektor des gegebenen Systems (d.h. der k-ten Spalte von A) den Teil abzuspalten, der schon in V_{k-1} liegt, also zunächst ak - Q*(Q*ak) zu bilden. Dieser Vektor ist wieder von Null verschieden, weil ja sonst ak schon in V_{k-1} liegen müßte, im Wiederspruch zur angenommenen linearen Unabhängigkeit des vorgegebenen Systems.
R kann durch "Rücksubstitution" aus R1 (fällt im Laufe des Verfahrens als Koeff. an) gewonnen werden. ENDE des GS-Verfahrens.
!Vergleich mit dem üblichen Verfahren!
FRAGESTELLUNG: Wie findet man die Projektion auf das lineare Erzeugnis einer endlichen Menge von Vektoren? Der erste (minimale) Schritt einer Modellierung ist die Interpretation der Familie von Vektoren als Spalten oder allenfalls Zeilen einer Matrix.
MATLAB lieftert übrigens eine direkte Methode, eine Orthogonalbasis f.d. Spaltenraum zu bekommen!
Achtung: die Orthonormalbasen, die man f.d. Spalten oder Zeilenraum bekommt, sind natürlich im allgemeinen ganz verschieden, während aber die Projektionsmatrix eindeutig durch die Teilräume gegeben ist. Außerdem unterscheiden sich verschiedene Rechenwege möglicherweise sehr stark in der numerischen Genauigkeit (also letztendlich auch der exakten Orthogonalität) des Ergebnisses, ganz abgesehen, daß der Rechenaufwand relativ unterschiedlich ausfallen kann.
MATLAB Code:
Sei A als Kollektion von Spaltenvektoren zu sehen, und x in Cm ein beliebiger Vektor. Dann ist B = orth(A) eine Orthonormalbasis f.d. Spaltenraum und dementsprechend gilt für den zugehörigen Projektionsoperator: P = B * B' , bzw. Px = B*(B'*x);
Ergänzungsfragen (Vorerst Übungsaufgabe): Projektion auf eine "affine Ebene" E (d.h. eine Ebene in R3, gegeben im geometrischen Sinne). Gegeben durch die Normalgleichung <x,n> = n' * x = c, für einen passenden reellen/komplexen Wert c. Dann verläuft die Orthogonalprojektion von z in R3 auf E durch Subtraktion eines entsprechenden Vielfachen des Normalvektors n , um von dem "Ist-wert" <z,n> auf den "Soll-wert" c zu kommen, also muß (wenn wir n als normiert annehmen) (c - <z,n>) n von z subtrahiert werden! Die Abbildung lautet also: z wird auf z - (c - <z,n>)n abgebildet. Sie ist nicht mehr linear, sondern eine affine Abbildung (eine lineare Abbildung plus eine Konstante, d.h. plus ein Vektor (hier cn ) der fest ist (und also nicht von dem input z abhängt).
Um den Gedanken betreffend den Zeilenraum (ein Teilraum des Rn oder Cn) bzw. des Spaltenraumes (ein Teilraum des Rm oder Cm) einer Matrix A weiterzuführen, erinnern wir uns daran, daß es für jeden dieser Räume auch ein orthogonales Komplement gibt, und natürlich (Ü) ist die orthogonale Projektion auf diese orthog. Komplement durch (I - P) gegeben (man verifiziere kurz dass das tatsächlich die beiden charakteristischen Eigenschaften einer orthogonalen Projektion hat, und dass ihr Zielraum genau das orth. Komplement ist. Demgemäß ist auch klar dass das orth. Kompl. des orth. Komplementes wieder der ursprüngliche Teilraum ist (ganz allgemein). Wir haben also vier Räume, die in natürlicher Weise mit jeder Matrix assoziiert sind: Zeilenraum und sein orth. Komplement (als Teilräume des Def. Bereiches), sowie Spaltenraum ( = Bildraum, bei der üblichen Matrixmult. von links) und sein orth. Komplement. Weiters gibt es noch den Nullraum (Kern) der lin. Abb. die zur Matrix A gehört. Da (bis auf Konjugation) der Spaltenraum von A' gerade der Zeilenraum von A ist (geometrisch interpretiert) und die adjungierte Abbildung natürlich "in die umgekehrte Richtung geht", haben wir auch noch den Kern von A' zu betrachten (in Rm oder Cm).
Eine wichtige Aussage, die diese vier Räume miteinander verbindet, ist der folgende
SATZ: Der Nullraum von A ist genau das orthogonale Komplement des Zeilenraumes von A (= Bildmenge zu A'), bzw. (gleichwertig aus logischer Sicht, weil ja A'' = A gilt): Das orthogonale Komplement des Bildbereichs von A ist genau der Nullraum von A'.
Korollar. Die Einschränkung der linearen Abbildung von A auf den Zeilenraum von A definierte eine bijektive und lineare Abbildung zwischen dem Zeilenraum von A und dem Spaltenraum von A. Wir wollen A& dafür schreiben (mit Tilde in der Vorlesung). Man kann die Abbildung x > A*x also auf folgende Weise "faktorisieren", d.h. als Komposition sehen: Zuerst projiziert man den input-Vektor auf den Zeilenraum (Normalprojektion also nun entlang des Nullraumes von A) und dann verwendet man die Bijektion A&.
Meist wird der Sachverhalt anders dargestellt. Man identifiziert den Zeilenraum mit den Äquivalenzklassen von Vektoren nach dem Nullraum von A, und interpretiert die Situation in gleichwertiger (aber "abstrakterer Form") als eine Identifizierung des Quotientenraumes Rn/null(A) mit dem Bildraum von A. Da jede Äquivalenzklasse genau von einem Element des Zeilenraumes repräsentiert wird, ist das aber kein inhaltlicher (sondern ein formaler) Unterschied in der Sichtweise. In jedem Fall ergibt sich aber aus der Situation folgende Relation für die involvierten Räume:
MERKSATZ:
dim(Nullraumes)+dim (Zeilenraum) = dim(Nullraumes)+dim(Spaltenraum) = dim(Nullraumes) + dim(Bildraum) = n .
In der Vorlesung werden diese Dinge alle bewiesen, und sind auch Stoff f.d. Prüfung (weil die Beweise kurz sind).
Weitere (einfache und nützliche) Fakten:
Lemma: Der Kern von A'A stimmt dem Kern von A überein. Ebenso ist der Bildbereich von A'A gleich dem Bildbereich von A', also gleich dem Zeilenraum von A. Entsprechende Aussagen gelten für AA'.
NÄCHSTES KAPITEL (voraussichtlich Anfang November)
Eigenwerte und Eigenvektoren, Diagonalisierbarkeit von Matrizen
Kleinigkeiten: Hermitesche Matrizen haben nur reelle Eigenwerte.
Die Eigenvektoren zu verschiedenen Eigenwerten sind automatisch orthogonal zueinander.
SPEKTRALSATZ für hermitesche Matrizen (im reellen Fall: symmetrische Matrizen): Für jede hermitesche Matrix A gibt es eine ONB von Eigenvektoren. Schreibt man diese als Spalten in eine (unitäre) Matrix V und sei D die Diagonalmatrix, deren Hauptdiagonale die Eigenwerte von A bilden, so haben wir: A * V = V * D. ($$)
Argument f.d. Interpretation des Resultates: die rechte Seite enhält genau die Eigenvektoren, auf die einzeln A losgelassen wird, während die rechte Seite der Gleichung die Vielfachen der Spalten von V enthält. Die Formel ($$) enthält also genau die Aussage, dass die Spalten von V Eigenvektoren sind. Umgekehrt ist ($$) natürlich äquivalent zu "Diagonalisierbarkeit" von A via Basiswechsel V, denn V'*A*V = D.