FILE PROTOK2.HTM (Fortsetzung von http://www.univie.ac.at/NuHAG/FEICOURS/SS03/protok1.htm )
Weitere Fortsetzung von http://www.univie.ac.at/NuHAG/FEICOURS/SS03/protok3.htm bzw. http://www.univie.ac.at/NuHAG/FEICOURS/SS03/protok4.htm und http://www.univie.ac.at/NuHAG/FEICOURS/SS03/protok5.htm
4.Woche (nach Ostern):
Material aufbereitet 17.April-25.April 2003: Wegen des 1.Mai Feiertages gibt es nur EINE Vorlesung am Di., 29. April (diese Vorlesung wird von Dr. Josef Mattes in Vertretung fuer HGFei gehalten, weil ich als DFG Gutachter 2 Tage in Berlin anwesend sein muss).
NACHTRAG-Merkregel: Die Spalten einer m x n Matrix A sind genau dann linear unabhängig wenn der Kern der zugehörigen linearen Abbildung trivial ist, d.h. nur aus dem Nullvektor besteht (das ist eigentlich nur ein "Spielen mit Begriffen-Worten"!), d.h. wenn die zugeh. lineare Abbildung injektiv ist. Andererseits sind die Spaltenvektoren ein Erzeugendensystem für R^m genau dann wenn die zugeh. lineare Abb. surjektiv ist. Die Matrix ist also INVERTIERBAR (die zug. lineare Abbildung ist also bijektiv) GENAU dann wenn die zugeh. lineare Abbildung bijektiv ist, wenn also beide Eigenschaften erfullt sind, d.h.genau dann wenn die Spalten der Matrix eine Basis des R^m bilden. sind.
Erinnere nochmals kurz an die Bestimmung der "inversen Matrix", ihre Bestimmung (etwa anhand einer allgemeinen 2x2-Matrix)
MERKREGEL: Die drei "erlaubten" Elementarschritte in der Gauss-Elimination sind als Links-Matrixmultiplikation mit invertierbaren) Elementarmatrizen (die dadurch entstehen, dass man die "entsprechende" Operation auf eine m x m Einheitsmatrix anwendet), vgl. Strang 2.3.
Konsequenz: Bei der Anwendung der Gauss-Elimination wird der Zeilenraum NICHT verändert. Daraus folgt auch: Zeilen der Z-Stufenform einer Matrix sind auch schon eine Basis f.d. Zeilenraum der Matrix.
Das Argument: Der Zeilenraum der "verbesserten" Matrix besteht aus Lin.Komb. von Zeilen, ist also im Zeilenraum enthalten. Da aber die umgekehrte Relation durch Anwendung der "inversen" Operation zur Inklusion in die umgekehrte Richtung führt, gilt offenkundig Gleichheit: Weiters liegt auf der Hand (warum?), dass die Zeilen, welche eine führende Eins besitzen, ein linear unabh. System bilden, also bilden sie eine Basis.
MERKREGEL: inv(A*B) = inv(B) * inv(A). (eine ähnliche Formel gilt für die transponierten Matrizen)
Kleine Beobachtung: Das Anwenden einer invertierbaren Matrix auf eine Erzeugendensystem bzw. auf eine lineare unabh. Menge ergibt wieder ein Erzeugendensystem bzw. eine linear unabhängige Familie von Vektoren. Insbesondere ist eine Familie von Vektoren in R^m genau dann eine Basis wenn sie unter Anwendung einer beliebigen inv. Matrix eine Basis ist.
MERKREGEL: Betrachten wir n Vektoren im R^m, so gilt: wenn n < m, dann spannen diese Vektoren nicht den ganzen R^m auf. Umgekehrt, hat man n > m Vektoren, so sind sie linear unabhängig. Folglich besteht jede Basis von R^m aus genau m Vektoren. BEGRÜNDUNG!!??
Eine wichtige Methode um von Aussagen über Spalten zu Aussagen über Zeilen einer Matrix zu kommen ist TRANSPOSITION.
Definition der transponierten Matrix: Vertausche Zeilen mit Spalten, d.h. B ist die transponierte von A wenn die Eintragung b(j,k) = a(k,j) gilt, für alle in Frage kommenden Positionen. Insbesondere sind die Produkmatrizen A*At bzw. At*A wohldefinierte, quadratische Matrizen.
Klarerweise ist der Zeilenraum der Transponierten Matrix genau der Spaltenraum der urspr. Matrix, etc...
MERKREGEL: Ebenso wie bei der Inversion von Matrizen gilt bei der Transposition:
Transponierte des Produktes ist gleich Produkt der einzelnen Transponierten, in umgekehrter Reihenfolge!! (der formale Beweis ist eine gute Übung und zeigt, ob Sie mit der Summenschreibweise f.d. Matrixmultiplikation schon gut vertraut sind).
BEACHTE: Alle bisher gemachten Aussagen müssen bzgl. Transposition sein, z.B. über die Zeilen bzw. Spalten der Prod.Matrix....
MERKREGEL: Inverse der transponierten Matrix ist gleich transponierte der Inversen! (d.h. Transposition und Inversion sind vertauschbare Operationen auf der Menge der invertierbaren Matrizen). Beweis durch "direkte Verifizierung" der Inversenrelation und Verwendung der Produktregel f. transponierte Matrizen.
Bem.: Der Übergang von einer (inv.) Matrix zu ihrer transp.-inversen Matrix ist also ein Gruppen-Isomorphismus von der Gruppe der inv. Matrizen in sich selber (man nennt solche Isomorphismen "in sich" auch Automorphismen, in diesem Falle Gruppen-Automorphismus).
Beispielsweise kann nun mit Hilfe von Transposition, Gauss-Elimination und nachfolgender "Rücktransp." eine Basis f.d. Spaltenraum gefunden werden.
Def.: Eine Matrix heißt symmetrisch, wenn sie mit ihrer transponierten übereinstimmt (d.h. sie ein Fixpunkt der Transposition ist).
Folge: Die inverse einer symmetrischen Matrix ist wieder symmetrisch.
5.Woche (6. und 8.Mai):
HAUPTZIEL: Dimension eines Vektorraumes (H.Anton, Chap. 5.4), Zeilenraum und Spaltenraum haben gleiche Dimension, die man dann "Rang der Matrix" nennt. (= Anzahl der führenden Einsen in der Zeilenstufenform, unabh. von der Realisierung!!), Dimensionsformel: Defekt + Rang = n. (H.Anton: Satz 5.6.3).
Basis ist (laut H.Anton, Satz 5.4.2) folgender Satz:
SATZ: Hat ein Vektorraum V eine Basis aus genau n Elementen, dann ist jede Teilmenge von V mit mehr als n Elementen linear abh., und jede Menge mit weniger als n Elementen kein Erzeugendensystem. Daher muss JEDE Basis von V genau n Elemente enthalten.
Diese Beobachtung gibt Anlass zur folgenden Definition:
Def.: Die Dimension eines (endlichdim.) Vektorraumes ist die Anzahl der Elemente einer (beliebigen bzw. jeder) Basis von V.
MERKREGEL: Die elem. Schritte der Gauss-Elimination ändern den Nullraum der entsprechenden Matrix nicht! Als Folge kann man schließen, dass eine Kollektion von Spaltenvektoren in einer allg. Matrix genau dann linear unabh. ist, wenn sie nach Umformung im Sinne von Gauss Elim. linear unabhängig sind. In dieser Form ist die Antwort aber "auf der Hand liegend" (warum? Spalten welche führende Einsen enthalten, sind linear unabh., andererseits sind Spalten, welche keine führende Eins enthalten abhängig: Details bitte selber überlegen!) vgl. H.Anton Chap.5.5.
Def. Standardbasis des R^n: Einheitsvektoren, nun allgemeinere Basen.
PROTOKOLL der tatsächlich gehaltenen Vorlesung:
Hauptziel: Der Dimensionsbegriff ist auch für allgemeine Vektorräume sinnvoll, d.h. wann immer man 2 beliebige Basen für einen Raum hat, so haben sie gleich viele Elemente. Diese Anzahl von Elementen nennt man die Dimension des (endlichdim.) Vektorraumes.
Somit hat man klarerweise:
SATZ: Ein Vektorraum V ist genau dann endlichdimensional wenn es einen Isomorphismus zu einem R^d gibt, d = dim(V). Jeder derartige Isomorphismus ist durch einen Wahl einer Basis in V (die notwendigerweise immer d Elemente hat) gegeben.
MAN BEACHTE: Dieser Satz besagt u.a., dass man das Bilden von Linearkombinationen von Vektoren entweder im (abstrakten oder konkreten) Vektorraum V machen kann ODER (und die Isomorphie-Aussage bedeutet, dass de facto KEIN Unterschied zwischen den beiden Aussagen ist) im Koeffizientenbereich bzgl. einer (bel. aber fest gewählten) Basis. Während das "koordinatenweise" Addieren von Elementen des R^n eine Definition ist, ist es im neuen (allgemeineren) Kontext eine Aussage, denn das BILDEN der Koordinaten, das Addieren (und genauso das sklare Multiplizieren) sind ja sowohl in V als auch in R^n schon vordefiniert, und die Kompatibilität der Prozeduren ist eine Aussage, die verifiziert werden muss (auch wenn das leicht geht, aufgrund der Eindeutigkeit der Wahl der Koeffizienten).
Argument: (ex.) isomorphe Vektorräume haben die gleich Dimension! Eine (geom., sagen wir durch Parameterdarst.) gegebene Ebene im R3 ist ein zweidim. Teilraum (wenn sie durch Null geht), und eine Gerade durch Null ist ein 1-dim Teilraum von R3, etc. etc...
Folgerungen: Hat man in einem d-dim. Vektorraum mehr als d Vektoren, dann sind sie jedenfalls linear abhängig. Hat man weniger als d Vektoren, dann können sie kein Erzeugendensystem sein.
Es folgen noch "viele" nützliche Aussagen (praktische Tricks), obwohl es nun naheliegend wäre, die Charakterisierungen von linearen Abbildungen (bei gegebenen Basen) durch Matrizen (eben nicht nur f.d. Fall der Standard-Matrix im Rd) zu beschreiben!!! (samt weiterhin gültiger Kompositionsregel).
Zwei wichtige Prinzipien: Verdünnungsprinzip (Reduktion eines Erzeugendensystems auf ein "minimales") bzw. Erweiterungsprinzip (Èrgänzung eines linear unabh. Systems unter Beibehaltung der linearen Unabhängigkeit, solange bis es ein maximales lin.unabh. System ist, denn dann ist es eine Basis).
Das Verdünnungsprinzip erlaubt die Konstruktion von Basen für beliebige Vektorräume V, welche "endlich erzeugt sind", d.h. welche das lineare Erzeugnis (wir schreiben meist "span") einer endlichen Menge au V sind. Insbesondere ist für diese Vektorräume die EXISTENZ einer (endlichen) Basis gesichert, die aus höchstens sovielen Elementen besteht, wie das (ursprüngliche) Erzeugersystem.
6.Woche (13. und 15.Mai):
Zusammenfassg.: Wir wissen nun dass jeder (endlich erzeugte) Vektorraum eine (und sogar viele) Basen hat (und daher zu einem R^n bzw. R^m isomorph ist). Wir werden also nun dieses Faktum nutzen um bekannte (oder weniger bekannte) Aussagen (die man mit Hilfe von Matrizen machen kann) auf allgemeine lineare Abbildungen übertragen.
Zentraler Einstiegssatz ist daher:
SATZ: Gegeben zwei endlichdim. Vektorräume V und W, und zugehörige Basen B bzw. C, und T sei eine lineare Abbildung von V nach W. Dann ist es möglich, die Matrix "auf dem Koeffizienten-Level" durch eine Matrix zu beschreiben. Diese Matrix enthält als Spalten die Koordinaten der Bilder der Elemente von B, geschrieben als Spaltenvektoren. Diese Matrix ist eindeutig dadurch festgelegt dass sie dazu verwendet werden kann, um die Koordinaten von T(v) bzgl. C aus den Koordinaten von v bzgl. B zu berechnen, und zwar einfach durch Matrixmultiplikation (! Dimensionen passen!). Diese Zuordnung (von linearen Abbildungen zu Matrizen) ist bei fester Wahl der Basis nicht nur injektiv sondern auch surjektiv.
Die wesentlichen Aussagen des obigen Satzes beruhen auf der Tatsache, dass
1) Eine lineare Abbildung von V nach W festgelegt ist, sobald die Bilder eines Erzeugendensystems bekannt sind Insbesondere ist eine lineare Abbildung T welche auf den Elementen einer erzeugenden Menge von V "verschwindet" (d.h. Null ist), notwendigerweise die Null-Abbildung.
2) Hat man eine linear unabhängige Folge v1,...,vr in V gegeben, so kann man zu jeder bel. Folge w1,...,wr in W auch eine lineare Abbildung T mit der Eigenschaft, dass T(v1) = w1, ... T(vr) = wr gilt (das gilt nur! fur linear unabh. Mengen; liegen zwischen den Elementen in V irgendwelche linearen Relationen vor, so müssen diese auch von den Elementen in W erfüllt sein, andernfalls ergeben sich Widersprüche).
3) Wesentlicher Punkt in der (logisch anspruchsvollen, weil sehr kompakten) Beweisführung ist u.a. das oben angesprochene Prinzip, dass der Übergang von Vektoren zu Koordinaten linear! ist (und klarerweise die allg. Eigenschaften von linearen Abbildungen).
ÜBUNGSMATERIAL: Beschreiben von Matrizen zu diversen linearen Abbildungen bzw. allen möglichen Basen.
MERKREGEL: Die allgemeine Lösungsmenge eines inhomogenen linearen Gleichungssystems kann geschrieben werden als die Summe einer (beliebigen) "speziellen Lösung" des inhomogenenen lin. Gl.Sys. + die allgemeine Lösung des homogenen Gleichungssystem. Eine äquivalente Formulierung: zwei bel. Lösungen des inhomog.Gl.Sys. unterscheiden sich um (im Sinne von Vektoren, d.h. ihre Differenz ist gleich) ein Element aus dem Nullraum der zugehörigen Abbildung. (s.H.Anton, Satz 5.5.2)
MERKREGEL: Eine lineare Abbildung T von einem Vektorraum V mit endlicher Basis B in einen Vektorraum W ist eindeutig durch die Bilder der Basisvektoren, als T(bk), k = 1,..,d gegeben. Umgekehrt kann man durch Vorgabe einer beliebigen Folge von Vektoren (Elementen von W) w1,...,wd im Zielraum W genau eine lineare Abbildung dadurch definieren, dass man vorgibt, dass T(bk) = wk gelten soll, für alle k. Der Zusammenhang ist auf folgende Weise gegeben: Die Koeffizienten von T(v) im Bildraum bzgl. der dort geltenden Basis werden durch Matrix-Multiplikation, angewendet auf die Koeffizienten von v in V realisiert (sollte klar sein, denn das Multiplizieren mit einer Matrix heisst ja nichts anderes als das Bilden von Linearkombinationen, und die Linearität von T garantiert dass man dieselben Koeffizienten verwenden kann/muß, um aus den Basisvektoren in V das Element v zu bekommen, wie andererseits um aus den Bildern ebendieser Basisvektoren das Bild T(v) zu bestimmen.
Weiters ist es wichtig, dass auch in diesem erweiterten Kontext (Zusammenhang) die Kompositionsregel gilt: Die Komposition von linearen Abbildungen (nun aber unter Wahl von "zusammenpassenden Basen") entspricht wiederum der Matrix-Multiplikation.
Bemerkung: wenn W = Rm und V = Rn, mit Standardbasis sind, kennen wir das Prinzip schon.
7.Woche (20. und 22. Mai):
Charakterisierung von invertierbaren linearen Abbildungen (die demgemäß nur zwischen Räumen gleicher Dimension möglich sind und daher durch (n x n) Matrizen gemacht werden kann:
Invertierbarkeit ist gleichbedeutend mit Injektivität, oder (auch) Surjektivität (jeweils alleine), oder der Möglichkeit, die Matrix durch Gauss-Jordan Elimination auf Einheitsgestalt zu bringen, oder die Matrix als ein Produkt von Elementarmatrizen zu schreiben (das sind vorerst die wichtigsten "Kriterien" [= dann und nur dann Bedingungen]).
Überraschende Konsequenzen: Ist eine lin. Abbildung von einem Vektorraum endl. Dim. in einen anderen Vektorraum gleicher Dimension für jede rechte Seite (bzw. "bedingt eindeutig": d.h. FALLS lösbar, dann auch schon eindeutig lösbar) lösbar, so ist sie auch schon bijektiv, d.h. für JEDE rechte Seite auch schon EINDEUTIG lösbar. Im Alternativfall (eine und daher beide Bedingungen sind verletzt) gilt: Entweder ist die Gleichung für eine vorgegebene rechte Seite gar nicht lösbar, oder es gibt unendlich viele Lösungen. Genaugesagt, die Lösungsmenge ist ein affiner Teilraum, dessen Dimension gleich der Defekt der linearen Abbildung ist (was bei der Gauss-Elimination genau der Zahl der "freien Variablen" entspricht!).
Somit ist auch klar, dass die (effektive) Bestimmung von Koordinaten bzgl. einer Alternativbasis vom Aufwand her genau der Inversion einer Matrix entspricht!
Konkrete lineare Abbildung: Von den Polynomen zu den Werten (Diskussion anhand des 3 x 3 Falles):
Def.: Die Vandermonde Matrix (von der Ordnung n, bzw. vom Grad (n-1) ) beschreibt den Übergang von den Koeffizienten der Polynome von entsprechender Ordnung bzw. Grad zu den Werten an einer entsprechenden Anzahl von Werten (Stellen, d.h. reellen oder komplexen Zahlen). Kurz, es ist die Matrix bzgl. der Standardbasen einer linearen Abbildung von R^n (bzw. C^n) in sich.
SATZ: Die Vandermonde Matrix ist stets invertiertbar (vorausgesetzt die n Punkte in R bzw. C sind paarweise verschieden). Insbesondere ist einerseits jedes Polynom von der Ordnung n durch die Werte an n beliebigen reellen oder komplexen Stellen festgelegt (Eindeutigkeitssatz). Umgekehrt, gibt es für je n Punkte (jedenfalls, und eben genau) ein Polynom, das bel. vorgegebene Daten interpoliert. Die "Fundamentallösungen" dieser Aufgabe, die der Vorgabe eines Einheitsvektors entsprechen, sind allgemein als die Lagrange Polynome bekannt. Die Lagrange Polynome sind also diejenigen (n) Polynome, die bei einer festen Wahl von n komplexen Zahlen genau an einer dieser Stellen den Wert EINS haben, und an den anderen den Wert Null. Für diese Lagrange Polynome kann man leicht eine explizite Form anschreiben.
Hinweis: Besonders ist der Fall, dass für die n komplexen Zahlen die n-ten Einheitswurzeln in der komplexen Ebene gewählt werden!!
GEOMETRIE und LINEARE ABBILDUNGEN:
Die Lösungsmengen von inhomogenen linearen Gleichungssystemen sind genau die affinen Teilräume ihrer Definitionsbereiche. Eher prosaisch ausgedrückt lautet diese Charakterisierung in den üblichen Texten so: Die allgemeine Lösungsmenge eines inhomogenen linearen Gleichungssystems
DIMENSIONSFORMEL: Rang + Defekt = Dim(Def.Bereich)
Begründung: Das wir die Abbildungen "isomorph" durch Abbildungen von R^n nach R^m beschrieben werden kann, ist es möglich, diese Aussage mit Hilfe der Gauss Elimination zu realisieren.
Weiteres Ziel: Homomorphiesatz: Isomorphie des Quotientenraumes (zu definieren und als Vektorraum zu beschreiben) des Def.Bereiches nach dem Nullraum der linearen Abbildung. Daraus folgend die Dimensionsformal (nochmals)
es folgt protok3.htm (Stoff zum Thema Skalarprodukte, Orthonormalbasen etc.), siehe
http://www.univie.ac.at/NuHAG/FEICOURS/SS03/protok3.htm
Zurück zur Matrixdarstellung von linearen Abbildungen: "Klarerweise" (d.i. ein Satz der schnell zu beweisen ist) gilt: Komposition von linearen Abbildungen entspricht (bei passenden Basen) der Matrix Multiplikation der entsprechenden Darstellungsmatrizen.
VORSCHAU: (Dinge, die möglicherweise nicht in diesem Semester in der Vorlesung umsetzbar sind):
Homomorphiesatz: V nach dem Nullraum von T (lin. Abb. von V nach W, wie üblich) ist als Vektorraum isomorph zum Bildraum T(V).
(erfordert die Definition von Äquivalenzklassen nach einem Unterraum und die Ausstattung der daraus resultierenden Menge mit einer Vektorraum Struktur)
weiteres "nützliches Prinzip": blockweise Matrixmultiplikation (Strang, ...): wird erst später gemacht!!
Wann hat eine Matrix eine Block-Diagonalgestalt? (Invarianz entsprechender Teilräume...)
Rechnen (insbes. Invertieren) von Blockmatrizen ist "billiger" (2 halb so grosse Matrizen sind schneller invertiert als eine grosse Matrix, weil beim Verdoppeln der Matrixgroesse dier Rechenaufwand etwa um den Faktor 8 = 2^3 steigt, im Block-Matrix Fall aber nur um den Faktor 2).
ebenfalls hierher passend: Austauschprinzip von Steinitz, Erweiterung einer beliebigen Basis eines Teilraumes zu einer Basis des ganzen (endlichdim.) Vektorraumes, und als Folge die Möglichkeit einen Teilraum durch einen "direkten Summanden" zu ergänzen (der allerdings nicht eindeutig ist). Lediglich seine Dimension ist eindeutig (und zwar Dim. des grossen Raumes minus Dim. des kleinen Raumes).
NACHTRAG: Konkrete lineare Abbildungen, wie z.B. Drehungen, Spiegelungen, etc., Permutationen von Koordinaten,... (das sind jeweils unitäre Abbildungen).