Content

7. Euklidischer Raum Rn und Vektoren in:

Michael Merz, Mario V. Wüthrich

Mathematik für Wirtschaftswissenschaftler, page 144 - 181

Die Einführung mit vielen ökonomischen Beispielen

1. Edition 2012, ISBN print: 978-3-8006-4482-7, ISBN online: 978-3-8006-4483-4, https://doi.org/10.15358/9783800644834_144

Bibliographic information
Teil II Lineare Algebra Kapitel7 Euklidischer Raum Rn und Vektoren Kapitel 7 Euklidischer Raum Rn und Vektoren 7.1 Ursprung der linearen Algebra Unter der Bezeichnung lineare Algebra wird im Allgemeinen das Teilgebiet der Mathematik verstanden, das sich mit sogenannten Vektorräumen und linearen Abbildungen (siehe Abschnitt 8.1) zwischen diesen beschäftigt. Die lineare Algebra schließt damit insbesondere die Betrachtung sogenannter linearer Gleichungssysteme (siehe Kapitel 9) und Matrizen (siehe Kapitel 8) mit ein. Viele Teilgebiete der Wirtschaftswissenschaften sind somit ohne Hilfsmittel aus der linearen Algebra kaum noch denkbar. Titelblatt des Buchs Introduction à l’analyse des lignes courbes algébriques von G. Cramer Ursprünglich ist die lineare Algebra aus der Untersuchung und Lösung linearer Gleichungssysteme und der rechnerischen Beschreibung geometrischer Objekte, der sogenannten analytischen Geometrie, entstanden. Die Geschichte der modernen linearen Algebra reicht zurück bis ins frühe 18. Jahrhundert. So ver- öffentlichte im Jahre 1750 der schweizer Mathematiker Gabriel Cramer (1704–1752) in seinem Buch „Introduction à l’analyse des lignes courbes algébriques“ mit der mittlerweile nach ihm benannten Cramerschen Regel erstmals eine Lösungsformel für lineare Gleichungssysteme. Auch einige zahlentheoretische Untersuchungen des deutschen Mathematikers Carl Friedrich Gauß (1777– 1855) lassen bereits vermuten, dass ihm der Begriff der Matrix vertraut war. Explizit erwähnt oder verwendet hat er Matrizen in seinen Arbeiten jedoch noch nicht. C. G. J. Jacobi Als der französische Mathematiker Jean-Baptiste le Rond d’Alembert (1717–1783) vorschlug, die Zeit als vierte Dimension einzuführen, und der italienische Mathematiker Joseph-Louis de Lagrange (1736–1813) mechanische Systeme mit allgemeinen Koordinaten beschrieb, war die Herausbildung des Begriffs des n-dimensionalen euklidischen Raums nahezu vollendet. Aufbauend auf diesen Ideen und Konzepten berechnete z. B. der deutsche Mathematiker Carl Gustav Jacob Jacobi (1804–1851), einer der produktivsten und vielseitigsten Mathematiker der Geschichte, das Volumen einer n-dimensionalen Kugel. H. Graßmann Abstrakte Vektorräume wurden erstmals von dem deutschen Mathematiker und Sprachwissenschaftler Hermann Graßmann (1809–1877) in seinem 1844 erschienenen mathematischen Hauptwerk „Ausdehnungslehre“ betrachtet. Da seine Arbeit jedoch sehr philosophisch gehalten und nur schwer verständlich war, wurde sie von der mathematischen Fachwelt zum großen Bedauern von Graßmann lange Zeit so gut wie nicht beachtet. Dies änderte sich erst ca. 25 Jahre nach Erstveröffentlichung seines mathematischen Hauptwerks, als bedeutende Mathematiker wie z. B. Hermann Hankel (1839–1873), Felix Klein (1849–1925) und Sophus Lie (1842–1899) auf seine Arbeit aufmerksam wurden. A. Cayley Der Begriff der n-dimensionalen euklidischen Geometrie wurde von dem englischen Mathematiker Arthur Cayley (1821–1895), dem Begründer der Matrizenrechnung, geprägt. In diesem Kapitel wird sich zeigen, dass im n-dimensionalen euklidischen Raum dieselben mathematischen Operationen und Begriffe wie in der zweidimensionalen Ebene und im dreidimensionalen Anschauungsraum definiert werden können. Dies ermöglicht, dass im n-dimensionalen euklidischen Raum die gleiche Geometrie betrieben werden kann wie in der Ebene und im Anschauungsraum. Der einzige Unterschied ist, dass der Mensch im n-dimensionalen euklidischen Raum mit n > 3 keine räumliche Vorstellung mehr besitzt. Da jedoch alle mathematischen Operationen und Begriffe lediglich die Verallgemeinerung der entsprechenden Begriffe in der zweidimensionalen Ebene und im dreidimensionalen Anschauungsraum sind, verwendet man für den n-dimensionalen euklidischen Raum dieselbe geometrische Interpretation und Sprechweise. 136 Kapitel 77.3 Euklidischer Raum Rn 7.2 Lineare Algebra in den Wirtschaftswissenschaften Die lineare Algebra erwies sich zuerst in der Physik – vor allem in der Relativitätstheorie und der Quantenmechanik – von großem Nutzen, bevor sie dann mit einiger Verzögerung auch in verschiedenen Bereichen der Wirtschaftswissenschaften zur Anwendung kam. Die lineare Algebra ist nur eines von vielen Teilgebieten der Mathematik, die in den letzten Jahrzehnten zahlreiche Anwendungen in unterschiedlichen Bereichen der Wirtschaftswissenschaften gefunden haben. Allerdings werden aus kaum einem anderen Gebiet der Mathematik derart häufig Kenntnisse in der Wirtschaftspraxis benötigt und kein anderer Bereich besitzt für das Verständnis von so vielen betriebs- und volkswirtschaftlichen Theorien eine dermaßen fundamentale Bedeutung wie die lineare Algebra. Zum Beispiel kommt die lineare Algebra in den folgenden wirtschaftswissenschaftlichen Bereichen zum Einsatz: • Finanzwirtschaft (z. B. Portfolioanalyse) • Ökonometrie (z. B. multivariate Regressionsanalyse) • Controlling (z. B. Input-Output-Beziehungen) • Wirtschaftstheorie (z. B. Analyse von Gleichgewichtsmodellen) • Statistik (z. B. multivariate statistische Methoden) • Marketing (z. B. Untersuchung der Markentreue) • Lineare Planungsrechnung (z. B. Simplex-Algorithmus) • Versicherungstechnik (z. B. Bonus-Malus-Systeme) • Spieltheorie (z. B. Zweipersonen-Nullsummenspiele) • usw. 7.3 Euklidischer Raum Rn W. R. Hamilton In Abschnitt 6.1 wurde die Menge Rn als das n-fache kartesische Produkt der Menge R der reellen Zahlen eingeführt. Die Menge Rn besteht aus allen geordneten n-Tupeln (x1, x2, . . . , xn) mit xi ∈ R für i = 1, . . . , n, wobei der Wert xi die i-te Koordinate von (x1, x2, . . . , xn) genannt wird. Im Folgenden wird gezeigt, wie die Elemente der Menge R n in natürlicher Weise – nämlich koordinatenweise – addiert und mit einer reellen Zahl (einem sogenannten Skalar) multipliziert werden können, so dass wieder ein Element aus Rn resultiert. Versehen mit einer solchen mathematischen Struktur wird die Menge Rn nach dem griechischen Mathematiker Euklid von Alexandria (ca. 360 v. Chr. bis ca. 280 v. Chr.) als n-dimensionaler euklidischer Raum bezeichnet und die Elemente von Rn heißen (n-dimensionale) Vektoren. Die Bezeichnung Vektor geht, wie auch die Benennung Skalar für eine reelle Zahl, auf den irischen Mathematiker und Physiker William Rowan Hamilton (1805–1865) zurück. Der n-dimensionale euklidische Raum Rn ist der einfachste und für die meisten wirtschaftswissenschaftlichen Anwendungen auch wichtigste Spezialfall eines sogenannten Vektorraums, der für die moderne Mathematik von grundlegender Bedeutung ist. In den Wirtschaftswissenschaften ist es durch den Begriff des Vektors möglich, mehrere ökonomische Größen gleichzeitig als ein Objekt mit verschiedenen Komponenten zu betrachten und nicht etwa als eine unstrukturierte Menge von einzelnen Objekten. Mit Hilfe von Vektoren lassen sich z. B. die Mengen oder Preise der in einem Güterbündel enthaltenen Güter übersichtlich darstellen oder auch vorgegebene Budgetrestriktionen auf einfache Weise ausdrücken. Definition 7.1 (Euklidischer Raum Rn) Die Menge Rn = {(x1, x2, . . . , xn) : xi ∈ R für i = 1, . . . , n} aller geordneten n-Tupel reeller Zahlen versehen mit der koordinatenweisen Addition (x1, . . . , xn)+ (y1, . . . , yn) := (x1 + y1, . . . , xn + yn) (7.1) und der skalaren Multiplikation λ(x1, . . . , xn) := (λx1, . . . , λxn) für λ ∈ R (7.2) wird als n-dimensionaler euklidischer Raum bezeichnet. Die Elemente der Menge Rn werden als n-dimensionale (reelle) Vektoren oder einfach kurz als Vektoren bezeichnet. Die wichtigsten Spezialfälle eines n-dimensionalen euklidischen Raums Rn sind die (eindimensionale) Menge der reellen Zahlen R, die (zweidimensionale) euklidische Ebene R2 und der (dreidimensionale) euklidische Raum (Anschauungsraum) R3. 137 Kapitel 7 Euklidischer Raum Rn und Vektoren Da es sich als zweckmäßig erwiesen hat, werden im Folgenden wie allgemein üblich n-dimensionale reelle Vektoren mit lateinischen Kleinbuchstaben in Fettdruck bezeichnet und – wenn nicht anders erwähnt – als Spaltenvektoren dargestellt: x := ⎛ ⎜⎜⎜ ⎝ x1 x2 ... xn ⎞ ⎟⎟⎟ ⎠ Falls in einer gegebenen Situation von dieser Konvention abgewichen und ein Vektor als Zeilenvektor dargestellt werden soll, wird dies durch die spezielle Bezeichnung xT := (x1, x2, . . . , xn) explizit angezeigt. Man nennt xT den zu x transponierten Vektor oder die Transposition von x. Der Vektor 0 := ⎛ ⎜⎜ ⎜ ⎝ 0 0 ... 0 ⎞ ⎟⎟ ⎟ ⎠ ∈ Rn wird als (n-dimensionaler) Nullvektor bezeichnet und entspricht anschaulich dem Koordinatenursprung im n-dimensionalen euklidischen Raum Rn. Ebenfalls von besonderer Bedeutung sind die n Einheitsvektoren e1, . . . , en des Rn. Sie 0 x y x + y 1 1 y x x + y Abb. 7.1: Geometrische Veranschaulichung der Vektoraddition in der Menge R der reellen Zahlen (links) und in der euklidischen Ebene R2 (rechts) sind gegeben durch e1 := ⎛ ⎜⎜⎜ ⎝ 1 0 ... 0 ⎞ ⎟⎟⎟ ⎠ , e2 := ⎛ ⎜⎜⎜ ⎝ 0 1 ... 0 ⎞ ⎟⎟⎟ ⎠ , . . . , en := ⎛ ⎜⎜⎜ ⎝ 0 0 ... 1 ⎞ ⎟⎟⎟ ⎠ . (7.3) Das heißt, beim i-ten Einheitsvektor ei ist die i-te Koordinate gleich Eins und die anderen n− 1 Koordinaten von ei sind gleich Null. Addition und skalare Multiplikation von Vektoren Die Addition von Vektoren ist im Spezialfall n = 1, d. h. in der Menge R der reellen Zahlen, nichts anderes als die Addition von reellen Zahlen. Stellt man eine reelle Zahl x auf dem Zahlenstrahl als einen von 0 ausgehenden Pfeil dar, so ergibt sich anschaulich die Summe zweier reeller Zahlen x und y, indem der von 0 nach y verlaufende Pfeil an das in x ankommende Pfeilende angehängt wird (siehe Abbildung 7.1, links). Da die Addition von Vektoren koordinatenweise definiert ist (vgl. (7.1)), lässt sich diese geometrische Deutung völlig analog auf den Fall n ≥ 2, d. h. den n-dimensionalen euklidischen Raum Rn, übertragen. In Abbildung 7.1, rechts ist die Addition zweier Vektoren x und y für den Spezialfall n = 2, d. h. für die euklidische Ebene R2, veranschaulicht. Der Summenvektor x + y ergibt sich nun geometrisch als Diagonale in einem Parallelogramm, dessen Seiten von den Vektoren x und y sowie den dazu parallel verlaufenden Pfeilen gebildet werden. 138 Kapitel 77.3 Euklidischer Raum Rn Die skalare Multiplikation λx bedeutet dagegen geometrisch eine Streckung (für |λ| > 1) bzw. eine Stauchung (für |λ| < 1) des Vektors x um den Faktor |λ| (vgl. Abbildung 7.2, links). Im Fall λ < 0 kehrt dabei der Vektor x zusätzlich seine Richtung um. Für x ∈ Rn setzt man allgemein −x := (−1) · x = ⎛ ⎜⎜⎜ ⎝ −x1 −x2 ... −xn ⎞ ⎟⎟⎟ ⎠ . Der Vektor −x ergibt sich anschaulich aus x durch Spiegelung am Koordinatenursprung (vgl. Abbildung 7.2, rechts). Darauf aufbauend ist die Differenz zweier Vektoren x, y ∈ Rn definiert durch x − y := x + (−1) · y = ⎛ ⎜⎜⎜ ⎝ x1 − y1 x2 − y2 ... xn − yn ⎞ ⎟⎟⎟ ⎠ . Beispiel 7.2 (Addition und skalare Multiplikation von Vektoren) a) Gegeben seien die 2-dimensionalen Vektoren x = ( 4 1 ) und y = ( 1 2 ) . Dann gilt z. B. x + y = ( 5 3 ) , x − y = ( 3 −1 ) , − x = (−4 −1 ) und − y = (−1 −2 ) (siehe Abbildung 7.3). 1 1 x 2x 1 2 x 1 1 x − x − 34 x Abb. 7.2: Geometrische Veranschaulichung der skalaren Multiplikation in der euklidischen Ebene R2 für λ = 2 und λ = 12 (links) sowie λ = −1 und λ = − 34 (rechts) b) Gegeben seien die 4-dimensionalen Vektoren x = ⎛ ⎜⎜ ⎝ 1 2 −3 −2 ⎞ ⎟⎟ ⎠ , y = ⎛ ⎜⎜ ⎝ 0 1 2 4 ⎞ ⎟⎟ ⎠ und z = ⎛ ⎜⎜ ⎝ −2 1 2 −5 ⎞ ⎟⎟ ⎠ . Dann gilt z. B. − 1 4 x = ⎛ ⎜⎜⎜⎜ ⎝ − 14 − 12 3 4 1 2 ⎞ ⎟⎟⎟⎟ ⎠ , x + 2y = ⎛ ⎜⎜ ⎝ 1 4 1 6 ⎞ ⎟⎟ ⎠ und x + 2y − z = ⎛ ⎜⎜ ⎝ 3 3 −1 11 ⎞ ⎟⎟ ⎠ . 1 1 x y x+ y −x −y x− y Abb. 7.3: Geometrische Veranschaulichung der Addition und skalaren Multiplikation zweier Vektoren x = (4, 1)T und y = (1, 2)T in der euklidischen Ebene R2 139 Kapitel 7 Euklidischer Raum Rn und Vektoren Vektorraum-Eigenschaften des Rn Die Addition und skalare Multiplikation von Vektoren im ndimensionalen euklidischen Raum Rn ist koordinatenweise definiert (vgl. (7.1)-(7.2)). Aus den Rechengesetzen für reelle Zahlen (vgl. Abschnitt 3.3) ergeben sich daher unmittelbar die im folgenden Satz zusammengefassten Eigenschaften des n-dimensionalen euklidischen Raums Rn. Da diese Eigenschaften genau die Merkmale sind, durch die ein sogenannter Vektorraum charakterisiert ist, werden sie auch als Vektorraum-Eigenschaften des Rn bezeichnet. Satz 7.3 (Vektorraum-Eigenschaften des Rn) Für die Vektoren des n-dimensionalen euklidischen Raums Rn gilt: a) Der Nullvektor 0 ist das neutrale Element und −x ist das inverse Element des Vektors x ∈ Rn bzgl. der Vektoraddition. Das heißt, es gilt für alle x ∈ Rn x + 0 = 0 + x = x und x + (−x) = (−x)+ x = 0. b) Die Vektoraddition genügt dem Kommutativ- und Assoziativgesetz. Das heißt, es gilt für alle x,y,z∈Rn x + y = y + x und x + (y + z) = (x + y)+ z. c) Die skalare Multiplikation genügt dem Assoziativund Distributivgesetz. Das heißt, es gilt für alle x, y ∈ R n und λ,μ ∈ R (λμ)x = λ(μx) und λ(x + y) = λx + λy (λ+ μ)x = λx + μx. d) Es gilt für alle x ∈ Rn 1 · x = x. Beweis: Siehe die Bemerkung vor Satz 7.3. Ordnungsrelation auf Rn Auf dem n-dimensionalen euklidischen Raum Rn kann eine Ordnungsrelation definiert werden. Denn schreibt man für zwei Vektoren x, y ∈ Rn x ≤ y, (7.4) wenn xi ≤ yi für alle i = 1, . . . , n gilt, dann ist die Menge R = {(x, y) ∈ Rn × Rn : x ≤ y} eine Ordnungsrelation auf Rn. Die Menge R ist jedoch keine vollständige Ordnungsrelation (Totalordnung). Zum Beispiel gilt für zwei Vektoren x, y ∈ Rn mit x1 < y1 und yn < xn weder x ≤ y noch y ≤ x. Das heißt, die Relation R ist nicht vollständig (zum Begriff der (vollständigen) Ordnungsrelation siehe Abschnitt 6.4). Ein Vektor x ∈ Rn mit 0 ≤ x heißt nichtnegativ und die Menge aller nichtnegativen Vektoren, d. h. die Menge R n + := {x ∈ Rn : 0 ≤ x} , wird als nichtnegativer Kegel des n-dimensionalen euklidischen Raums Rn bezeichnet. Ferner heißt für zwei Vektoren a, b ∈ Rn mit a ≤ b die Menge [a, b] := {x ∈ Rn : a ≤ x ≤ b} (7.5) abgeschlossenes Intervall des n-dimensionalen euklidischen Raums Rn (siehe Abbildung 7.4, links für den Spezialfall n=2). Analog zu (7.4) schreibt man für zwei Vektoren x, y ∈ Rn x < y, wenn xi < yi für alle i = 1, . . . , n gilt und die Mengen [a, b) := {x ∈ Rn : a ≤ x < b} , (7.6) (a, b] := {x ∈ Rn : a < x ≤ b} und (7.7) (a, b) := {x ∈ Rn : a < x < b} (7.8) heißen rechtsseitig offenes Intervall, linksseitig offenes Intervall bzw. offenes Intervall des n-dimensionalen euklidischen Raums Rn. Beispiel 7.4 (Tauschwirtschaft) F. Y. Edgeworth Betrachtet wird eine Tauschwirtschaft bestehend aus zwei Haushalten 1 und 2 sowie n Gütern. Die Menge aller möglichen Güterbündel sei durch den nichtnegativen Kegel Rn+ des n-dimensionalen euklidischen Raums Rn gegeben. Es wird angenommen, dass die Ausstattung der Gesamtwirtschaft 140 Kapitel 77.4 Lineare Gleichungssysteme 1 1 [a, b] a b Gut 1 Gut 2 1 1 w2 w1 w = w1 + w2 [0, w] Abb. 7.4: Abgeschlossenes Intervall [a, b] (links) und Edgeworth-Box [0,w] für zwei Güter (rechts) in der euklidischen Ebene R2 durch den nichtnegativen Vektor w ∈ Rn+ sowie die Anfangsausstattungen der beiden Haushalte 1 und 2 durch die nichtnegativen Vektoren w1 ∈ Rn+ bzw. w2 ∈ Rn+ gegeben sind. Ferner wird angenommen, dass die in der Gesamtwirtschaft vorhandenen Gütermengen vollständig auf die beiden Haushalte 1 und 2 aufgeteilt sind. Das heißt, es gelte w1 + w2 = w. Durch Tausch lässt sich dann für den Haushalt 1 jede Ausstattung x1 ∈ [0,w] und für den Haushalt 2 jede Ausstattung x2 ∈ [0,w] mit x1 + x2 = w realisieren (siehe Abbildung 7.4, rechts für den Spezialfall von n = 2 Gütern). Das abgeschlossene Intervall [0,w] des n-dimensionalen euklidischen Raums Rn wird nach dem irischen Ökonomen Francis Ysidro Edgeworth (1845–1926) als Edgeworth-Box oder Tauschbox bezeichnet. Sie ist ein verbreitetes Werkzeug in der allgemeinen Gleichgewichtstheorie. Die Edgeworth-Box wird z. B. in der Haushaltstheorie zur Analyse der Allokation von verschiedenen Gütern zwischen Haushalten und in der Produktionstheorie zur Aufteilung von Produktionsfaktoren zwischen Unternehmen verwendet. 7.4 Lineare Gleichungssysteme Lineare Gleichungssysteme besitzen für die Wirtschaftswissenschaften eine überragende Bedeutung. Denn viele ökonomische Modelle basieren auf der Annahme, dass sich die Zusammenhänge zwischen den verschiedenen ökonomischen Größen durch lineare Gleichungen, dies sind Gleichungen der Form a1x1 + a2x2 + . . .+ anxn = b (7.9) mit a1, . . . , an, b ∈ R und Variablen x1, . . . , xn, adäquat beschreiben lassen. Man spricht bei (7.9) auch genauer von einer linearen Gleichung in den n Unbekannten (Variablen) x1, . . . , xn mit den Koeffizienten a1, . . . , an und der rechten Seite b. Genügt ein Vektor x := (x1, . . . , xn)T ∈ Rn der linearen Gleichung (7.9), dann sagt man, dass x die lineare Gleichung (7.9) erfüllt oder löst. Im Unterschied zu einer nichtlinearen Gleichung treten bei einer linearen Gleichung die einzelnen Variablen xi lediglich in ihrer ersten Potenz als Faktor eines Produkts mit einem Koeffizienten ai auf, wobei diese Produkte ausschließlich addiert werden. Eine lineare Gleichung enthält somit keine höheren Potenzen, wie z. B. x43 , und auch keine Produkte verschiedener Variablen, wie z. B. x3x4. Darüber hinaus können bei einer linearen Gleichung die Variablen auch nicht als Argumente von reellen Funktionen, wie z. B. ln(x2), cos(x4) oder exp(x1), auftreten. In den meisten wirtschaftswissenschaftlichen Anwendungen treten gleichzeitig mehrere lineare Gleichungen auf. In diesem Fall spricht man von einem linearen Gleichungssystem: 141 Kapitel 7 Euklidischer Raum Rn und Vektoren Definition 7.5 (Lineares Gleichungssystem) Ein Gleichungssystem a11x1 + a12x2 + . . .+ a1nxn = b1 a21x1 + a22x2 + . . .+ a2nxn = b2 ... ... ... = ... (7.10) am1x1 + am2x2 + . . .+ amnxn = bm mit aij , bi ∈ R für i = 1, . . . , m und j = 1, . . . , n wird als lineares Gleichungssystem der Ordnungm×n in den n Unbekannten (Variablen) x1, . . . , xn mit den Koeffizienten aij und der rechten Seite b = (b1, . . . , bm)T bezeichnet. Gilt b1 = . . . = bm = 0, dann wird auch genauer von einem homogenen und andernfalls von einem inhomogenen linearen Gleichungssystem gesprochen. Ein lineares Gleichungssystem mit m = n heißt quadratisch. Ein Vektor x = (x1, . . . , xn)T ∈ Rn, dessen Koordinaten alle m linearen Gleichungen erfüllen, wird Lösung des linearen Gleichungssystems genannt und die MengeL aller Lösungen x ∈ Rn heißt Lösungsraum des linearen Gleichungssystems. Ein lineares Gleichungssystem mit L = ∅, also das mindestens eine Lösung besitzt, wird als konsistent bezeichnet. Andernfalls heißt es inkonsistent. In konkreten wirtschaftswissenschaftlichen Fragestellungen sind die Werte aij und bi für i = 1, . . . , m und j = 1, . . . , n vorgegeben und die Lösungen des linearen Gleichungssystems sind zu bestimmen. Der benötigte Aufwand bei der Lösung eines linearen Gleichungssystems hängt dabei maßgeblich von der Ordnung m × n, d. h. der Anzahl m der linearen Gleichungen und der Anzahl n der Variablen, sowie der Struktur des linearen Gleichungssystems ab. Eine Möglichkeit, das lineare Gleichungssystem (7.10) kürzer aufzuschreiben, basiert auf der Verwendung des Summenzeichens ∑ und ist gegeben durch n∑ j=1 aij xj = bi für i = 1, . . . , m. In Abschnitt 8.4 wird mit Hilfe von sogenannten Matrizen eine noch kürzere Schreibweise vorgestellt, die bei der Analyse von linearen Gleichungssystemen große Vorteile bietet. Wie man durch Einsetzen leicht bestätigen kann, besitzt ein homogenes lineares Gleichungssystem – neben möglicherweise noch anderen Lösungen – stets den Nullvektor 0 als Lösung. Diese Lösung wird als triviale Lösung des homogenen linearen Gleichungssystems bezeichnet. Für homogene lineare Gleichungssysteme gilt somit L = ∅, d. h. sie sind stets konsistent. Das lineare Gleichungssystem (7.10) kann auch mit Hilfe der Vektoren a1 := ⎛ ⎜⎜⎜ ⎝ a11 a21 ... am1 ⎞ ⎟⎟⎟ ⎠ , a2 := ⎛ ⎜⎜⎜ ⎝ a12 a22 ... am2 ⎞ ⎟⎟⎟ ⎠ , . . . , an := ⎛ ⎜⎜⎜ ⎝ a1n a2n ... amn ⎞ ⎟⎟⎟ ⎠ dargestellt werden. Denn (7.10) ist offensichlich äquivalent zu x1 ⎛ ⎜⎜⎜ ⎝ a11 a21 ... am1 ⎞ ⎟⎟⎟ ⎠ + x2 ⎛ ⎜⎜⎜ ⎝ a12 a22 ... am2 ⎞ ⎟⎟⎟ ⎠ + . . .+ xn ⎛ ⎜⎜⎜ ⎝ a1n a2n ... amn ⎞ ⎟⎟⎟ ⎠ = ⎛ ⎜⎜⎜ ⎝ b1 b2 ... bm ⎞ ⎟⎟⎟ ⎠ . (7.11) In Abschnitt 8.10 wird mit der Cramerschen Regel eine geschlossene Formel zur Lösung quadratischer linearer Gleichungssysteme bereitgestellt, während in Abschnitt 9.1 allgemeine lineare Gleichungssysteme hinsichtlich der Existenz und Eindeutigkeit von Lösungen untersucht werden. Insbesondere wird in Abschnitt 9.3 mit dem Gauß-Algorithmus ein sehr leistungsfähiges Verfahren zur Lösung linearer Gleichungssysteme beliebig großer Ordnung vorgestellt. Im folgenden Beispiel wird gezeigt, wie durch das sogenannte Einsetzungsverfahren lineare Gleichungssysteme kleinerer Ordnung problemlos gelöst werden können. Bei diesem Verfahren wird eine beliebige Gleichung nach einer Variablen aufgelöst und der resultierende Term in die anderen Gleichungen eingesetzt. Auf diese Weise wird eine Variable eliminiert. Dieses Vorgehen wiederholt man solange bis nur noch eine lineare Gleichung mit einer Variablen übrig ist, welche dann problemlos gelöst werden kann. Durch Einsetzen dieser Lösung in die anderen Gleichungen können dann sukzessive die Werte der anderen Variablen ermittelt werden. Beispiel 7.6 (Lineare Gleichungssysteme) a) Von einem Vater und seinem Sohn sei bekannt, dass sie zusammen 80 Jahre alt sind und dass der Vater vor 20 Jahren dreimal so alt war wie der Sohn. 142 Kapitel 77.5 Euklidisches Skalarprodukt und euklidische Norm Bezeichnen x1 und x2 das Alter des Vaters bzw. des Sohns, dann lassen sich diese Informationen durch das folgende lineare Gleichungssystem der Ordnung 2 × 2 darstellen: x1 + x2 = 80 x1 − 20 = 3(x2 − 20) Werden die Variablen x1 und x2 auf die linke und die reellen Zahlen auf die rechte Seite gebracht, resultiert ein äquivalentes lineares Gleichungssystem: x1 + x2 = 80 x1 − 3x2 = −40 Auflösen der ersten linearen Gleichung nach x2 und anschließendes Einsetzen in die zweite lineare Gleichung liefert x1 − 3(80 − x1)=−40 ⇔ 4x1=200 ⇔ x1 =50. Einsetzen von x1 = 50 in die erste Gleichung liefert x2 = 30. Der Lösungsraum ist somit gegeben durch L = {(50, 30)T }. Das heißt, der Vater ist 50 und der Sohn ist 30 Jahre alt. b) Für die Produktion von drei Produkten stehen einem Betrieb zwei Rohstoffe R1 und R2 in begrenzter Menge zur Verfügung. Die folgende Tabelle gibt für die drei ProdukteP1, P2 und P3 die benötigten Rohstoffmengen für jede produzierte Einheit, d. h. die Produktionskoeffizienten PK, sowie die vorhandenen Rohstoffmengen an: Rohstoffe PK Lagerbestand P1 P2 P3 R1 2 1 2 240 R2 3 0 2 230 Sind x1, x2, x3 die gesuchten Produktionsmengen für die drei Produkte P1, P2 und P3, dann lässt sich die obige Tabelle durch das folgende lineare Gleichungssystem der Ordnung 2 × 3 darstellen: 2x1 + x2 + 2x3 = 240 3x1 + 2x3 = 230 Auflösen der zweiten linearen Gleichung nach x3 und anschließendes Einsetzen in die erste lineare Gleichung liefert 2x1 + x2 + 2 ( 115 − 3 2 x1 ) = 240 ⇐⇒ − x1 + x2 = 10 ⇐⇒ x2 = 10 + x1. Das heißt, der Wert der Variablen x1 kann – theoretisch – jede beliebige reelle Zahl sein und das lineare Gleichungssystem besitzt somit unendlich viele Lösungen. Der (theoretische) Lösungsraum ist gegeben durch L = { (x1, x2, x3) T ∈ R3 : x2 = 10 + x1, x3 = 115 − 3 2 x1 und x1 ∈ R } . Da jedoch Produktionsmengen nur nichtnegativ sein können, sind von diesen Lösungen nur diejenigen ökonomisch sinnvoll, für die x1, x2, x3 ≥ 0 gilt. 7.5 Euklidisches Skalarprodukt und euklidische Norm Durch Einführung des sogenannten euklidischen Skalarprodukts wird der n-dimensionale euklidische Raum Rn mit zusätzlicher Struktur versehen. Diese zusätzliche Struktur ermöglicht es, die Länge eines Vektors, den Abstand und den Winkel zwischen Vektoren sowie die Orthogonalität von Vektoren zu definieren. Euklidisches Skalarprodukt Wie die folgende Definition zeigt, handelt es sich beim euklidischen Skalarprodukt um eine einfache Verknüpfung, die zwei n-dimensionalen Vektoren x und y eine reelle Zahl zuordnet: Definition 7.7 (Euklidisches Skalarprodukt) Für zwei Vektoren x, y ∈ Rn heißt die reelle Zahl 〈x, y〉 := n∑ i=1 xiyi euklidisches Skalarprodukt der Vektoren x und y. 143 Kapitel 7 Euklidischer Raum Rn und Vektoren Im Fall n = 1 ist das euklidische Skalarprodukt offensichtlich identisch mit der gewöhnlichen Multiplikation zweier reeller Zahlen. Das euklidische Skalarprodukt besitzt die im folgenden Satz zusammengefassten Eigenschaften: Satz 7.8 (Eigenschaften des euklidischen Skalarprodukts) Für alle x, y, z ∈ Rn und λ ∈ R gilt: a) 〈x, x〉 ≥ 0 b) 〈x, x〉 = 0 ⇐⇒ x = 0 c) 〈x, y〉 = 〈y, x〉 d) 〈x, y + z〉 = 〈x, y〉 + 〈x, z〉 e) 〈x, λy〉 = 〈λx, y〉 = λ 〈x, y〉 Beweis: Die Aussagen a)-e) folgen unmittelbar aus der Definition 7.7 und den Rechengesetzen für reelle Zahlen. H. A. Schwarz Für weitergehende Untersuchungen ist die folgende, nach dem französischen Mathematiker Augustin Louis Cauchy (1789–1857) und dem deutschen Mathematiker Hermann Amandus Schwarz (1843–1921) benannte, Cauchy- Schwarzsche Ungleichung sehr wichtig. Neben der linearen Algebra wird sie z. B. auch häufig in der Analysis und in der Wahrscheinlichkeitstheorie verwendet. Satz 7.9 (Cauchy-Schwarzsche Ungleichung) Für alle x, y ∈ Rn gilt 〈x, y〉2 ≤ 〈x, x〉 · 〈y, y〉 . (7.12) Das Gleichheitszeichen tritt dabei genau dann ein, wenn ein Skalar μ ∈ R mit x = μy existiert. Beweis: Ist y = 0, dann gilt sowohl 〈x, y〉 = 0 als auch 〈x, x〉· 〈y, y〉 = 0 und somit in (7.12) sogar das Gleichheitszeichen. Es kann daher ohne Beschränkung der Allgemeinheit y = 0 angenommen werden. Mit Satz 7.8 folgt für alle λ ∈ R 0 ≤ 〈x + λy, x + λy〉 = 〈x, x〉 + 2λ 〈x, y〉 + λ2 〈y, y〉 . (7.13) Mit der speziellen Wahl λ := −〈x,y〉〈y,y〉 folgt daraus weiter 0 ≤ 〈x, x〉 − 2 〈x, y〉 2 〈y, y〉 + 〈x, y〉2 〈y, y〉 = 〈x, x〉 − 〈x, y〉2 〈y, y〉 (7.14) und damit nach einer kurzen Umformung auch die Behauptung (7.12). Ferner folgt mit Satz 7.8b), dass in (7.13) und (7.14) genau dann das Gleichheitszeichen gilt, wenn x + λy = 0 bzw. x = −λy gilt. Euklidische Norm Mit Hilfe des euklidischen Skalarprodukts kann nun mit der (euklidischen) Norm und dem (euklidischen) Abstand ein Längen- bzw. Abstandsbegriff auf dem euklidischen Raum R n definiert werden: Definition 7.10 (Euklidische Norm und euklidischer Abstand) Für einen Vektor x ∈ Rn heißt die nichtnegative, reelle Zahl ‖x‖ := √〈x, x〉 = √√ √√ n∑ i=1 x2i (7.15) (euklidische) Norm oder Länge des Vektors x. Für zwei Vektoren x, y ∈ Rn wird die nichtnegative reelle Zahl ‖x − y‖ := √〈x − y, x − y〉 = √√ √√ n∑ i=1 (xi − yi)2 als (euklidischer) Abstand der Vektoren x und y bezeichnet. Die Norm ‖x‖ eines Vektors (Punktes) x kann als sein Abstand vom Koordinatenursprung 0 aufgefasst werden. Im Fall n = 1 ist die Norm offensichtlich identisch mit dem gewöhnlichen Betrag einer reellen Zahl und im Fall n = 2 erinnert die Norm an den Satz des Pythagoras (siehe Satz 5.3). Die Norm eines Vektors x und der Abstand zweier Vektoren x und y sind in Abbildung 7.5 für den Spezialfall n = 2, d. h. die euklidische Ebene R2, veranschaulicht. Mit Hilfe der (euklidischen) Norm erhält man für die Cauchy- Schwarzsche Ungleichung (7.12) die äquivalente Formulierung | 〈x, y〉 | ≤ ‖x‖ · ‖y‖ (7.16) 144 Kapitel 77.5 Euklidisches Skalarprodukt und euklidische Norm 1 1 x x1 x2 ||x| |= x2 1 + x 2 2 1 1 x y ||x − y||√ Abb. 7.5: Norm eines Vektors x (links) und der Abstand zweier Vektoren x und y in der euklidischen Ebene R2 für alle x, y ∈ Rn. Darüber hinaus besitzt die (euklidische) Norm die im folgenden Satz zusammengefassten Eigenschaften, die bereits vom Betrag reeller Zahlen her bekannt sind (vgl. Seite 47). Satz 7.11 (Eigenschaften der euklidischen Norm) Für alle x, y ∈ Rn und λ ∈ R gilt: a) ‖x‖ ≥ 0 b) ‖x‖ = 0 ⇐⇒ x = 0 c) ‖λx‖ = |λ| · ‖x‖ (Homogenität) d) ‖x + y‖ ≤ ‖x‖ + ‖y‖ (Dreiecksungleichung) Beweis: a)–c): Diese Aussagen folgen unmittelbar aus Satz 7.8a), b) und e). d): Mit Satz 7.8c) und d) folgt für alle x, y ∈ Rn ‖x + y‖2 = 〈x + y, x + y〉 = 〈x + y, x〉 + 〈x + y, y〉 = 〈x, x〉 + 2 〈x, y〉 + 〈y, y〉 . (7.17) Mit Satz 7.9 und der ersten Binomischen Formel folgt daraus weiter ‖x + y‖2 ≤ ‖x‖2 + 2√〈x, x〉√〈y, y〉 + ‖y‖2 = ‖x‖2 + 2 ‖x‖ ‖y‖ + ‖y‖2 = (‖x‖ + ‖y‖)2 und damit insbesondere die Behauptung ‖x + y‖ ≤ ‖x‖+‖y‖. Mit Satz 7.11b) erhält man: ‖x − y‖ = 0 ⇐⇒ x = y Aus dem Beweis der Dreiecksungleichung ist ersichtlich, dass ‖x + y‖ = ‖x‖ + ‖y‖ genau dann gilt, wenn 〈x, y〉 = √〈x, x〉√〈y, y〉 erfüllt ist. Mit Satz 7.9 folgt, dass dies genau dann der Fall ist, wenn mindestens einer der beiden Vektoren x und y der Nullvektor 0 ist oder ein Skalar μ > 0 mit x = μy existiert. Die Dreiecksungleichung verallgemeinert die in der euklidischen Ebene R2 geometrisch offensichtliche Tatsache, dass die Länge einer Seite in einem Dreieck höchstens gleich der Summe der Längen der beiden anderen Seiten ist (vgl. Abbildung 7.6, links). Ein Vektor x ∈ Rn mit der Norm 1 heißt Einheitsvektor oder normierter Vektor. Durch Multiplikation mit dem Skalar 1‖x‖ kann jeder Vektor x ∈ Rn mit x = 0 auf die Norm 1 gebracht, d. h. normiert, werden. Denn mit der Homogenitätseigenschaft der Norm folgt ∥ ∥∥ ∥ 1 ‖x‖x ∥∥ ∥∥ = 1 ‖x‖ · ‖x‖ = 1. Beispiel 7.12 (Euklidisches Skalarprodukt und Norm) a) Gegeben seien die vierdimensionalen Vektoren x = ⎛ ⎜⎜ ⎝ −1 2 0 4 ⎞ ⎟⎟ ⎠ , y = ⎛ ⎜⎜ ⎝ 3 −2 4 7 ⎞ ⎟⎟ ⎠ und z = ⎛ ⎜⎜ ⎝ 0 1 0 1 ⎞ ⎟⎟ ⎠ . Dann gilt z. B. 〈x, y〉 = 〈y, x〉 = (−1) · 3 + 2 · (−2)+ 0 · 4 + 4 · 7 = 21 145 Kapitel 7 Euklidischer Raum Rn und Vektoren x + y x y ||x + y|| ||y || ||x|| 0 x y ||x|| ||y || ||x + y|| ||x − y|| 0 Abb. 7.6: Dreiecksungleichung (links) und Parallelogrammgleichung (rechts) und 〈x, y〉 z = 21 · ⎛ ⎜⎜ ⎝ 0 1 0 1 ⎞ ⎟⎟ ⎠ = ⎛ ⎜⎜ ⎝ 0 21 0 21 ⎞ ⎟⎟ ⎠ . b) Betrachtet werden die beiden dreidimensionalen Vektoren x = ⎛ ⎝ 1 −2 3 ⎞ ⎠ und y = ⎛ ⎝ −3 2 5 ⎞ ⎠ . Hierbei gilt: ‖x‖ = √ 12 + (−2)2 + 32 = √14 ‖y‖ = √ (−3)2 + 22 + 52 = √38 ‖x + y‖ = √ (−2)2 + 02 + 82 = √68 ≤ √14 +√38 = ‖x‖ + ‖y‖ | 〈x, y〉 | = |1 · (−3)+ (−2) · 2 + 3 · 5| = 8 ≤ √14 · √38 = ‖x‖ · ‖y‖ Das folgende Beispiel gibt einen ersten Einblick, wie mit Hilfe des euklidischen Skalarprodukts ökonomische Problemstellungen kompakt dargestellt werden können: Beispiel 7.13 (Güterbündel) Betrachtet wird ein Güterbündel bestehend aus sechs verschiedenen Gütern. Die Gütermengen x1, . . . , x6 ∈ R und die Güterpreise p1, . . . , p6 ∈ R+ (in 1000€) dieser sechs Güter seien durch die Koordinaten der beiden Vektoren x = ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ x1 x2 x3 x4 x5 x6 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ = ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ 5 9 2 28 0 17 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ bzw. p = ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ p1 p2 p3 p4 p5 p6 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ = ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ 80 50 90 10 200 70 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ gegeben. Der Wert des gesamten Güterbündels berechnet sich dann als euklidisches Skalarprodukt der beiden Vektoren p und x und beträgt (in 1000€) 〈p, x〉 = 6∑ i=1 xipi = 2500. 7.6 Orthogonalität und Winkel Mit Hilfe des euklidischen Skalarprodukts können auch die Begriffe Orthogonalität und Winkel für den n-dimensionalen euklidischen Raum Rn erklärt werden. Orthogonalität Der Begriff der Orthogonalität ist im n-dimensionalen euklidischen Raum Rn wie folgt definiert: Definition 7.14 (Orthogonalität und Orthogonalsystem) Zwei Vektoren x, y ∈ Rn heißen orthogonal (zueinander), wenn 〈x, y〉 = 0 gilt. Man schreibt dann x⊥y. Gilt zusätzlich ‖x‖ = ‖y‖ = 1, dann werden sie auch als orthonormal bezeichnet. 146 Kapitel 77.6 Orthogonalität und Winkel Eine Menge M = {a1, a2, . . . , am} von m paarweise orthogonalen Vektoren des Rn, d. h. mit 〈 ai , aj 〉 = 0 für alle i, j = 1, . . . , m mit i = j , heißt Orthogonalsystem. Sind die Vektoren zusätzlich normiert, d. h. gilt ‖ai‖ = 1 für alle i = 1, . . . , m, dann wird M auch als Orthonormalsystem bezeichnet. Zu zwei orthogonalen Vektoren x, y ∈ Rn sagt man auch, dass sie orthogonal (senkrecht, rechtwinklig) zueinander stehen. Der Nullvektor 0 ist der einzige Vektor des Rn, der zu allen Vektoren des Rn orthogonal ist. Denn es gilt 〈x, 0〉 = 0 und damit x⊥ 0 für alle x ∈ Rn. L. Kronecker Der Sachverhalt, dass eine gegebene MengeM={a1, a2, . . . , am} von Vektoren des Rn ein Orthonormalsystem ist, wird häufig in der Kurzform 〈 ai , aj 〉 = δij := { 1 falls i = j 0 falls i = j (7.18) ausgedrückt. Dabei ist δij das nach dem deutschen Mathematiker Leopold Kronecker (1823– 1891) benannte Kroneckersymbol. Zum Beispiel gilt für die n Einheitsvektoren e1, . . . , en des R n offensichtlich 〈 ei , ej 〉 = δij (7.19) (vgl. (7.3)). Das heißt, jede Menge M = {e1, . . . , em} von m ≤ n verschiedenen Einheitsvektoren des Rn ist ein Orthonormalsystem. x + y x y ||x + y|| ||y|| ||x|| 0 0 x y (x, y)∠ Abb. 7.7: Satz des Pythagoras (links) und Winkel zwischen zwei Vektoren x und y (rechts) Briefmarke mit Portrait von Pythagoras Zwei der bekanntesten Ergebnisse der elementaren Geometrie sind die Parallelogrammgleichung (siehe Abbildung 7.6, rechts) und der nach dem griechischen Mathematiker und Philosophen Pythagoras von Samos (ca. 570 bis 510 v. Chr.) benannte Satz des Pythagoras (siehe Abbildung 7.7, links). Der folgende Satz besagt, dass diese beiden bedeutenden mathematischen Aussagen in jedem n-dimensionalen euklidischen Raum Rn Gültigkeit besitzen: Satz 7.15 (Parallelogrammgleichung und Satz des Pythagoras) Für zwei Vektoren x, y ∈ Rn gilt: a) ‖x + y‖2 + ‖x − y‖2 = 2 ‖x‖2 + 2 ‖y‖2 (Parallelogrammgleichung) b) ‖x + y‖2 = ‖x‖2 + ‖y‖2 gilt genau dann, wenn die beiden Vektoren x und y orthogonal zueinander sind (Satz des Pythagoras). Beweis: Zu a): Für zwei beliebige Vektoren x, y ∈ Rn gilt ‖x + y‖2 = ‖x‖2 + 2 〈x, y〉 + ‖y‖2 und (7.20) ‖x − y‖2 = ‖x‖2 − 2 〈x, y〉 + ‖y‖2 (7.21) (vgl. (7.17)). Durch Addition dieser beiden Gleichungen folgt die Aussage a). Zu b): Aus (7.20) folgt, dass ‖x + y‖2 = ‖x‖2 + ‖y‖2 genau dann gilt, wenn 〈x, y〉 = 0 ist und somit die Vektoren x und y orthogonal sind. 147 Kapitel 7 Euklidischer Raum Rn und Vektoren Winkel Neben der Orthogonalität ermöglicht das euklidische Skalarprodukt auch die Definition eines Winkelbegriffs. Die folgende Definition des Winkels zwischen zwei Vektoren x und y des Rn basiert maßgeblich auf der Tatsache, dass gemäß der Cauchy-Schwarzschen Ungleichung (7.12) stets | 〈x, y〉 | ≤ ‖x‖ · ‖y‖ gilt. Denn dies impliziert −1 ≤ 〈x, y〉‖x‖ · ‖y‖ ≤ 1 für alle Vektoren x, y ∈ Rn mit x = 0 und y = 0 und stellt damit insbesondere sicher, dass die folgende Definition für den Winkel im Bogenmaß eine wohldefinierte Zahl im Intervall [0, π ] liefert: Definition 7.16 (Winkel) Es seien x, y ∈ Rn zwei Vektoren mit x = 0 und y = 0. Dann ist der Winkel (im Bogenmaß) (x, y) zwischen x und y definiert durch (x, y) := arccos ( 〈x, y〉 ‖x‖ · ‖y‖ ) . (7.22) Diese Definition verallgemeinert den aus der (zweidimensionalen) euklidischen Ebene R2 und dem (dreidimensionalen) euklidischen RaumR3 bekannten Winkelbegriff auf beliebige n-dimensionale euklidische Räume Rn (vgl. Abbildung 7.7, rechts). Sind z. B. x, y ∈ Rn zwei Vektoren mit x = 0 und y = 0, dann folgt aus (7.22) 〈x, y〉 = 0 bzw. x⊥y ⇐⇒ (x, y) = π 2 . Das heißt, wie im R2 und R3 sind auch im Rn zwei Vektoren genau dann senkrecht zueinander, wenn sie den Winkel π 2 (Bogenmaß) bzw. 90 ◦ (Gradmaß) einschließen. Ferner folgt mit (7.21) und (7.22) ‖x − y‖2 = ‖x‖2 + ‖y‖2 − 2 〈x, y〉 = ‖x‖2 + ‖y‖2 − 2 ‖x‖ ‖y‖ cos( (x, y)). Dieser Zusammenhang ist nichts anderes als die Verallgemeinerung des Kosinussatzes aus der elementaren Geometrie (vgl. Satz 5.4b)), nun jedoch für den Fall eines beliebigen ndimensionalen euklidischen Raums Rn. Beispiel 7.17 (Winkel) a) Durch x und y seien die beiden dreidimensionalen Vektoren aus Beispiel 7.12b) gegeben. Für den Winkel zwischen diesen beiden Vektoren im Bogenmaß gilt (x, y) = arccos ( 8√ 14 · √38 ) ≈ 1,217. Im Gradmaß beträgt der Winkel (x, y) ≈ 69,71◦. b) Die beiden zweidimensionalen Vektoren x = ( 2 −2 ) und y = ( 4 4 ) sind orthogonal zueinander. Denn es gilt 〈x, y〉 = 2 · 4 + (−2) · 4 = 0. Sie sind jedoch nicht normiert, da ‖x‖ = 2√2 = 1 bzw. ‖y‖ = 4√2 = 1 gilt. Die Vektoren x und y sind damit insbesondere nicht orthonormiert. Durch Normierung dieser zwei Vektoren erhält man jedoch die beiden orthonormierten Vektoren u := 1 2 √ 2 ( 2 −2 ) = ( 1√ 2 − 1√ 2 ) und v := 1 4 √ 2 ( 4 4 ) = ( 1√ 2 1√ 2 ) . Für diese zwei Vektoren gilt 〈u, v〉 = 0 sowie ‖u‖ = 1 und ‖v‖ = 1. Insbesondere ist {u, v} ein Orthonormalsystem (vgl. Abbildung 7.8, links). Hyperebenen und Kugelflächen Mit Hilfe des euklidischen Skalarprodukts kann der Begriff der Hyperebene definiert werden: Definition 7.18 (Hyperebene) Es seien a ∈ Rn mit a = 0 und c ∈ R. Dann heißt die Menge H(a, c) := { x ∈ Rn : 〈a, x〉 = c } = { x ∈ Rn : n∑ i=1 aixi = c } (7.23) Hyperebene im Rn bezüglich a und c. 148 Kapitel 77.6 Orthogonalität und Winkel Im Fall n = 1, d. h. in der Menge R der reellen Zahlen, sind Hyperebenen einelementige Teilmengen von R. Für n = 2, d. h. im Falle der euklidischen Ebene R2, sind Hyperebenen durch Geraden im R2 gegeben und im Fall n = 3, d. h. im dreidimensionalen euklidischen Raum R3, entsprechen Hyperebenen Ebenen im Anschauungsraum. L. O. Hesse Für die beiden Fälle n = 3 und n = 2 mit ‖a‖ = 1 und c ≥ 0 ist die Gleichung 〈a, x〉 = c in (7.23) bereits aus der Schulmathematik als Hessesche-Normalform bekannt. Die Hessesche- Normalform ist nach dem deutschen Mathematiker Ludwig Otto Hesse (1811–1874) benannt. Sie beschreibt eine Gerade g (im Fall n = 2) bzw. eine Ebene E (im Fall n = 3), wobei der Vektor a der sogenannte normierte Normalenvektor von g bzw. E ist, der vom Koordinatenursprung zur Gerade g bzw. Ebene E zeigt, und der Wert c der Abstand der Geraden g bzw. der Ebene E vom Ursprung des Koordinatensystems (vgl. Abbildung 7.8, rechts). Durch eine Hyperebene H(a, c) im Rn wird der Rn stets in zwei Halbräume H≤(a, c) := {x ∈ Rn : 〈a, x〉 ≤ c} und H≥(a, c) := {x ∈ Rn : 〈a, x〉 ≥ c} geteilt. Diese Teilungseigenschaft von Hyperebenen ist in der Optimierungstheorie von großem Nutzen. 1 1 x y v u ∠(x, y) = 90° x1 x2 1 1 a c·a g : 〈a, x〉 = c H≥ (a, c)H≤ (a, c) x1 x2 Abb. 7.8: Orthogonale Vektoren x und y sowie orthonormierte Vektoren u und v (links) und Darstellung des normierten Normalenvektors a mit ‖a‖ = 1 und des Abstands c ≥ 0 bei der Hesseschen Normalform 〈a, x〉 = c (rechts) Zum Beispiel entspricht die Hyperebene H(a, c) in der euklidischen Ebene R2 einer Geraden g mit der Funktionsgleichung 〈a, x〉 = a1x1 + a2x2 = c, d. h. es gilt x2 = −a1 a2 x1 + c a2 für a2 = 0 und x1 = c a1 für a2 = 0. (7.24) Die euklidische Ebene R2 wird durch diese Gerade g in zwei Halbebenen H≤(a, c) und H≥(a, c) geteilt (vgl. Abbildung, 7.8, rechts). Beispiel 7.19 (Güterbündel mit Budgetrestriktion) Betrachtet wird das Güterbündel aus Beispiel 7.13 mit dem dort angegebenen Preisvektor pT = (80, 50, 90, 10, 200, 70) (in 1000€) für die sechs verschiedenen Güter des Güterbündels. Zusätzlich sei durch die Konstante c ∈ R+ die Budgetrestriktion eines Haushalts gegeben. Dann besteht die Hyperebene im R6 H(p, c) = {x ∈ R6 : 〈p, x〉 = c} = {x ∈ R6 : 80x1 + 50x2 + 90x3 + 10x4 + 200x5 + 70x6 = c } aus allen Güterbündeln x ∈ R6, welche bei den gegebenen Preisen p die Budgetrestriktion c erfüllen und vollständig ausschöpfen. Die beiden Halbräume H≤(p, c) = { x ∈ R6 : 〈p, x〉 ≤ c} und H≥(p, c) = { x ∈ R6 : 〈p, x〉 ≥ c} bestehen dagegen aus denjenigen Güterbündeln x ∈ R6, welche die Budgetrestriktion c erfüllen, aber nicht notwendigerweise vollständig ausschöpfen, bzw. aus denjenigen Güterbündeln x ∈ R6, welche die Budgetrestriktion c vollständig ausschöpfen oder sogar übersteigen. Analog zum Anschauungsraum R3 ist auch in seiner Verallgemeinerung in Form des n-dimensionalen euklidischen Raums Rn die Kugelfläche (Sphäre) als die Menge von Vektoren desRn definiert, deren Abstand von einem festen Vektor a ∈ Rn gleich einer gegebenen positiven reellen Zahl r ist: Definition 7.20 (Kugelfläche) Es seien a ∈ Rn und r > 0. Dann heißt die Menge K(a, r) := {x ∈ Rn : ‖x − a‖ = r} Kugelfläche oder Sphäre imRn mit dem Mittelpunkt a und dem Radius r . 149 Kapitel 7 Euklidischer Raum Rn und Vektoren x 2 x 3 x 1 a r K (a, r ) x 1 x 2 a r K (a, r ) Abb. 7.9: Kugelfläche K(a, r) im R3 (links) und im R2 (rechts) Im Fall n = 1, d. h. in der Menge R der reellen Zahlen, sind Kugelflächen zweielementige Teilmengen von R. Für n = 2, d. h. im Falle der euklidischen Ebene R2, sind Kugelflächen durch Kreislinien gegeben und im Fall n = 3, d. h. im dreidimensionalen euklidischen Raum R3, entsprechen Kugelflächen den Oberflächen von dreidimensionalen Kugeln im Anschauungsraum (vgl. Abbildung 7.9). Durch eine Kugelfläche K(a, r) mit a ∈ Rn wird der n-dimensionale euklidische Raum Rn in die beiden Mengen K<(a, r) := {x ∈ Rn : ‖x − a‖ < r} und K>(a, r) := {x ∈ Rn : ‖x − a‖ > r} geteilt. Die Mengen K<(a, r) und K>(a, r) werden als Kugelinneres oder offene Kugel bzw. Kugeläußeres mit Mittelpunkt a und Radius r bezeichnet. Die MengeK<(a, r) enthält alle Vektoren x ∈ Rn, deren Abstand zum Vektor a kleiner als r ist, während die Menge K>(a, r) aus allen Vektoren x ∈ Rn besteht, deren Abstand zum Vektor a größer als r ist. Durch Vereinigung von Kugelfläche und Kugelinnerem erhält man die Menge K≤(a, r) :=K(a, r) ∪K<(a, r) = {x ∈ Rn : ‖x − a‖ ≤ r} , die als Kugelkörper oder abgeschlossene Kugel mit Mittelpunkt a und Radius r bezeichnet wird. Beispiel 7.21 (Hyperebenen und Kugelflächen) Es seien a1 = ( 1 −1 ) und a2 = ( 2 2 ) sowie c = 1 und r = 1. Dann sind die Hyperebene H(a1, c) und die Kugelfläche K(a2, r) im R2 gegeben durch H(a1, c) = { x ∈ R2 : 〈a1, x〉 = c } = {x ∈ R2 : x1 − x2 = 1 } und K(a2, r) = { x ∈ R2 : ‖x − a2‖ = r } = { x ∈ R2 : √ (x1 − 2)2 + (x2 − 2)2 = 1 } . In Abbildung 7.10, links sind die Mengen H(a1, c), H≤(a1, c), H≥(a1, c), K(a2, r), K<(a2, r) und K>(a2, r) dargestellt. Bei H(a1, c) handelt es sich um eine Gerade, beiH≤(a1, c) undH≥(a1, c) um Halbebenen, beiK(a2, r) um eine Kreislinie, bei K<(a2, r) um eine Kreisfläche ohne Rand und bei K>(a2, r) um den gesamten R2 ohne die Kreisfläche K≤(a2, r). 7.7 Linearkombinationen und konvexe Mengen Im Folgenden werden die Begriffe Linearkombination, Konvexkombination und konvexe Menge eingeführt. Diese Begriffe werden z. B. bei der Untersuchung der Eigenschaften von Matrizen, zur Analyse von linearen Gleichungssystemen und zur Optimierung von Funktionen benötigt. 150 Kapitel 77.7 Linearkombinationen und konvexe Mengen Linear- und Konvexkombinationen Unter einer Linearkombination von Vektoren versteht man einen Vektor, der sich durch gegebene Vektoren unter Verwendung der Vektoraddition und der skalaren Multiplikation ausdrücken lässt: Definition 7.22 (Linearkombination) Ein Vektor y ∈ Rn heißt Linearkombination der Vektoren a1, . . . , am ∈ Rn, wenn es Skalare λ1, . . . , λm ∈ R gibt mit der Eigenschaft y = m∑ i=1 λiai = λ1a1 + . . .+ λmam. Gilt für die Skalare zusätzlich λi > 0 für i = 1, . . . , m, dann wird y auch positive Linearkombination genannt. Die Menge aller Linearkombinationen der Vektoren a1, . . . , am∈Rn heißt lineare Hülle von {a1, . . . , am}⊆Rn und wird mit Lin {a1, . . . , am} bezeichnet. Eine besonders wichtige Klasse von Linearkombinationen erhält man, wenn man zusätzlich fordert, dass die Skalare λ1, . . . , λm nichtnegativ sind und sich zu Eins aufaddieren. In einem solchen Fall spricht man dann von einer Konvexkombination: Definition 7.23 (Konvexkombination) Ein Vektor y ∈ Rn heißt Konvexkombination oder konvexe Linearkombination der Vektoren a1, . . . , am ∈ Rn, wenn es Skalare λ1, . . . , λm ∈ R+ gibt mit ∑mi=1 λi = 1 und y = m∑ i=1 λiai = λ1a1 + . . .+ λmam. Gilt für die Skalare zusätzlich λi > 0 für i = 1, . . . , m, dann wird y auch echte Konvexkombination genannt. Die Menge aller Konvexkombinationen der Vektoren a1, . . . , am ∈ Rn heißt konvexe Hülle oder abgeschlossenes konvexes Polyeder von {a1, . . . , am} ⊆ Rn und wird mit Konv {a1, . . . , am} bezeichnet. Offensichtlich ist jede Konvexkombination der Vektoren a1, . . . , am auch eine Linearkombination der Vektoren a1, . . . , am. Das heißt, es gilt stets Konv {a1, . . . , am} ⊆ Lin {a1, . . . , am} . Umgekehrt ist eine Linearkombination der Vektoren a1, . . . , am jedoch im Allgemeinen keine Konvexkombination der Vektoren a1, . . . , am. Ist mindestens einer der Vektoren a1, . . . , am ∈ Rn vom Nullvektor 0 verschieden, dann gilt Konv {a1, . . . , am} = Lin {a1, . . . , am}. Bezeichnen e1, . . . , en ∈ Rn die n Einheitsvektoren des Rn (vgl. (7.3)), dann folgt für einen beliebigen Vektor x ∈ Rn x = ⎛ ⎜⎜⎜ ⎝ x1 x2 ... xn ⎞ ⎟⎟⎟ ⎠ = x1 ⎛ ⎜⎜⎜ ⎝ 1 0 ... 0 ⎞ ⎟⎟⎟ ⎠ + . . .+ xn ⎛ ⎜⎜⎜ ⎝ 0 ... 0 1 ⎞ ⎟⎟⎟ ⎠ = n∑ i=1 xiei . Das heißt, jeder Vektor x ∈ Rn lässt sich als Linearkombination der n Einheitsvektoren darstellen. Es gilt somit R n = Lin {e1, . . . , en} . (7.25) Beispiel 7.24 (Linear- und Konvexkombinationen) a) Betrachtet werden die beiden Vektoren a1 = ⎛ ⎝ 1 3 −3 ⎞ ⎠ und a2 = ⎛ ⎝ 1 4 0 3 4 ⎞ ⎠ aus dem R3. Als Linearkombination der drei Einheitsvektoren e1, e2 und e3 besitzen diese beiden Vektoren die Darstellung a1 = ⎛ ⎝ 1 3 −3 ⎞ ⎠ = e1 + 3e2 − 3e3 bzw. a2 = ⎛ ⎜ ⎝ 1 4 0 3 4 ⎞ ⎟ ⎠ = 1 4 e1 + 0e1 + 3 4 e3. Die zweite Linearkombination ist eine Konvexkombination der drei Einheitsvektoren e1, e2, e3 und sogar eine echte Konvexkombination der beiden Einheitsvektoren e1 und e3. b) Zusätzlich zu den beiden Vektoren a1 und a2 aus Beispiel a) wird nun der Vektor y = ⎛ ⎜ ⎝ − 16 1 − 52 ⎞ ⎟ ⎠ = −1 6 e1 + e2 − 5 2 e3 151 Kapitel 7 Euklidischer Raum Rn und Vektoren x1 x2 1 2 3 1 2 3 K< (a2, r) K(a2, r) K> (a2, r) H(a1, c) H≤ (a1, c) H≥ (a1, c) x1 x2 A B 1 2 3 1 2 3 g a1 a2 Abb. 7.10: Veranschaulichung der Mengen H(a1, c),H≤(a1, c),H≥(a1, c),K(a2, r),K<(a2, r) und K>(a2, r) (links) und Linearkombinationen der Vektoren a1 und a2 (rechts) betrachtet. Dieser Vektor y lässt sich als Linearkombination der Vektoren a1 und a2 darstellen. Denn es gilt 1 3 a1 − 2a2 = ⎛ ⎝ − 16 1 − 52 ⎞ ⎠ = y. Der Vektor y ist jedoch keine Konvexkombination der beiden Vektoren a1 und a2. c) Betrachtet werden die zweidimensionalen Vektoren a1 = ( 1 2 ) und a2 = ( 2 1 ) und alle Linearkombinationen λ1a1+λ2a2 dieser beiden Vektoren. Ferner wird die Gerade durch die beiden Punkte aT1 = (1, 2) und aT2 = (2, 1) mit g bezeichnet. Dann gilt (vgl. dazu auch Abbildung 7.10, rechts): 1) Für λ1 + λ2 = 1 mit λ1, λ2 ≥ 0 resultiert die Strecke auf der Geraden g zwischen den beiden Punkten aT1 = (1, 2) und aT2 = (2, 1). Speziell für (λ1, λ2) = (0, 1) und (λ1, λ2) = (1, 0) erhält man a2 bzw. a1. 2) Für λ1 + λ2 = 1 mit λ1 > 0 und λ2 < 0 erhält man den Strahl auf der Geraden g links oberhalb von aT1 = (1, 2). 3) Für λ1 +λ2 = 1 mit λ1 < 0 und λ2 > 0 resultiert der Strahl auf der Geraden g rechts unterhalb von aT2 = (2, 1). 4) Für λ1 + λ2 ≤ 1 erhält man die Halbebene unterhalb und auf der Geraden g. Gilt zusätzlich λ1, λ2 ≥ 0, dann bekommt man die mitA bezeichnete Dreiecksfläche. 5) Für λ1+λ2 ≥ 1 resultiert die Halbebene oberhalb und auf der Geraden g. Gilt zusätzlich λ1, λ2 ≥ 0, dann bekommt man die mit B bezeichnete Fläche. Wegen Lin {a1, a2} = R2 kann insgesamt jeder Vektor der euklidischen Ebene R2 als Linearkombination von a1 und a2 dargestellt werden. Konvexe Mengen H. Minkowski Die Theorie der konvexen Mengen wurde von dem deutschen Mathematiker und Physiker Hermann Minkowski (1864–1909) in seinem Hauptwerk „Geometrie der Zahlen“ begründet, welches im Jahre 1910 erstmals vollständig veröffentlicht wurde. Konvexe Mengen werden vor allem in der Optimierungstheorie betrachtet, sie besitzen aber auch für viele andere mathematische Bereiche eine große Bedeutung. Eine Teilmenge M des n-dimensionalen euklidischen Raums R n wird als konvex bezeichnet, wenn für zwei beliebige Vek- 152 Kapitel 77.7 Linearkombinationen und konvexe Mengen toren a1, a2 ∈ M auch stets deren Verbindungsstrecke vollständig in M liegt: Definition 7.25 (Konvexe Menge) Eine Menge M ⊆ Rn heißt konvex, wenn für alle Vektoren a1, a2 ∈ M und λ ∈ [0, 1] auch jede Konvexkombination λa1 + (1 − λ)a2 von a1 und a2 in M liegt, d. h. λa1 + (1 − λ)a2 ∈ M für alle λ ∈ [0, 1] gilt. Durch die Menge Konv {a1, a2} = {λa1 + (1 − λ)a2 : λ ∈ [0, 1]} aller Konvexkombinationen (konvexe Hülle) der beiden Vektoren a1, a2 ∈ M erhält man die Verbindungsstrecke zwischen a1 und a2. Konvexität einer Menge bedeutet somit, dass für zwei beliebige Vektoren a1 und a2 aus M stets sichergestellt ist, dass auch ihre Verbindungsstrecke in M liegt (vgl. Abbildung 7.11, links). Diese Eigenschaft bewirkt, dass konvexe Mengen bei verschiedenen Fragestellungen einfacher zu handhaben sind als nicht konvexe Mengen. a1 a2 a1 a2 Abb. 7.11: Konvexe Menge M (links) und nicht konvexe Menge M (rechts) in der euklidischen Ebene R2 Beispiel 7.26 (Konvexe Mengen) a) Die leere Menge {} und einelementige Mengen {x} mit x ∈ Rn sind konvex. b) Konvexe Hüllen Konv {a1, . . . , am} und lineare Hüllen Lin {a1, . . . , am} sind konvex. Denn für zwei Vektoren x, y ∈ Konv {a1, . . . , am} gilt x = ∑mi=1 μiai mit μ1, . . . , μm ∈ R+ und ∑mi=1 μi = 1 bzw. y =∑m i=1 νiai mit ν1, . . . , νm ∈ R+ und ∑m i=1 νi = 1. Daraus folgt für eine beliebige Konvexkombination λx + (1 − λ)y: λx + (1 − λ)y = λ m∑ i=1 μiai + (1 − λ) m∑ i=1 νiai = m∑ i=1 (λμiai + (1 − λ)νiai ) mit λμi + (1 − λ)νi ≥ 0 für alle i = 1, . . . , m und m∑ i=1 (λμi + (1 − λ)νi) = λ m∑ i=1 μi + (1 − λ) m∑ i=1 νi = λ+ (1 − λ) = 1. Das heißt, es gilt λx+(1−λ)y ∈ Konv {a1, . . . , am}. Folglich ist Konv {a1, . . . , am} eine konvexe Menge. Analog zeigt man, dass auch die lineare Hülle Lin {a1, . . . , am} konvex ist. c) Hyperebenen H(a, c) im Rn sind konvex. Denn für zwei Vektoren x, y ∈ H(a, c) gilt 〈a, x〉 = c und 〈a, y〉 = c. Dies impliziert für eine beliebige Konvexkombination λx + (1 − λ)y: 〈a, λx + (1 − λ)y〉 = λ 〈a, x〉 + (1 − λ) 〈a, y〉 = λc + (1 − λ)c = c Es gilt somit λx+ (1−λ)y ∈ H(a, c). Daraus folgt, dass H(a, c) konvex ist. d) Halbräume H≤(a, c) und H≥(a, c) im Rn sind konvex. Denn für zwei Vektoren x, y ∈ H≤(a, c) gilt 〈a, x〉 ≤ c und 〈a, y〉 ≤ c. Dies impliziert für eine beliebige Konvexkombination λx + (1 − λ)y von x und y: 〈a, λx + (1 − λ)y〉 = λ 〈a, x〉 + (1 − λ) 〈a, y〉 ≤ λc + (1 − λ)c = c Es gilt somit λx + (1 − λ)y ∈ H≤(a, c). Daraus folgt, dass H≤(a, c) konvex ist. Analog zeigt man, dass auch der Halbraum H≥(a, c) konvex ist. e) KugelkörperK≤(a, r) und KugelinneresK<(a, r) im R n sind konvex. Denn für zwei Vektoren x, y ∈ K≤(a, r) gilt ‖x − a‖ ≤ r und ‖y − a‖ ≤ r . Zusammen mit der Dreiecksungleichung und der Homogenitätseigenschaft der euklidischen Norm (vgl. Satz 7.11c) und d)) impliziert dies für eine beliebige Konvexkombination λx + (1 − λ)y: 153 Kapitel 7 Euklidischer Raum Rn und Vektoren ‖λx + (1 − λ)y − a‖ = ‖λx + (1 − λ)y − λa − (1 − λ)a‖ = ‖λ(x − a)+ (1 − λ)(y − a)‖ ≤ ‖λ(x − a)‖ + ‖(1 − λ)(y − a)‖ = λ‖x − a‖ + (1 − λ)‖y − a‖ ≤ λr + (1 − λ)r = r Es gilt somit λx + (1− λ)y ∈ K≤(a, r). Folglich ist K≤(a, r) konvex. Analog zeigt man, dass auch das Kugelinnere K<(a, r) konvex ist. Der folgende Satz ist bei der Untersuchung von Mengen auf Konvexität oftmals ein nützliches Hilfsmittel: Satz 7.27 (Konvexität von Durchschnitten) Sind (Mi)i∈I konvexe Mengen des Rn, dann ist auch ihre Schnittmenge ⋂ i∈I Mi konvex. Beweis: Aus x, y ∈ ⋂ i∈I Mi folgt x, y ∈ Mi für alle i ∈ I . Ist nun λx + (1 − λ)y eine beliebige Konvexkombination von x und y, dann folgt aus der Konvexität der einzelnen Mengen Mi , dass λx+ (1−λ)y ∈ Mi für alle i ∈ I gilt. Dies impliziert jedoch λx + (1 − λ)y ∈ ⋂ i∈I Mi . Das heißt, die Menge ⋂ n∈I Mn ist ebenfalls konvex. 7.8 Lineare Unterräume und Erzeugendensysteme Zur Analyse von linearen Gleichungssystemen werden die beiden Begriffe linearer Unterraum und Erzeugendensystem benötigt. Lineare Unterräume Häufig interessiert man sich nicht für den kompletten n-dimensionalen euklidischen Raum Rn, sondern nur für gewisse Teilmengen U ⊆ Rn mit der Eigenschaft, dass sie bezüglich der Addition und der skalaren Multiplikation von Vektoren „abgeschlossen“ sind. Solche Mengen werden als lineare Unterräume des Rn bezeichnet: Definition 7.28 (Linearer Unterraum) Eine nichtleere TeilmengeU desRn mit den beiden Eigenschaften a) x + y ∈ U für alle x, y ∈ U und b) λx ∈ U für alle x ∈ U und λ ∈ R heißt linearer Unterraum oder linearer Teilraum des Rn. Ein linearer Unterraum U des Rn ist somit eine nichtleere Teilmenge von n-dimensionalen Vektoren mit der zusätzlichen Eigenschaft, dass die Addition x + y von zwei beliebigen Vektoren x, y ∈ U und die skalare Multiplikation λx eines beliebigen Vektors x ∈ U stets wieder einen Vektor aus U ergeben, d. h. nicht aus der Menge U hinausführt. Die beiden Eigenschaften a) und b) in Definition 7.28 lassen sich zusammenfassen zu λx + μy ∈ U für alle x, y ∈ U und λ,μ ∈ R. Lineare Unterräume sind damit insbesondere konvexe Mengen. Lineare Unterräume enthalten stets den Nullvektor 0. Dies folgt unmittelbar aus der Eigenschaft b) mit dem Skalar λ = 0 und einem beliebigen Vektor x ∈ U . Hyperebenen H(a, c) mit c = 0 sind daher z. B. keine linearen Unterräume, da in diesem Fall 0 ∈ H(a, c) gilt (vgl. (7.23)). Die nur aus dem Nullvektor 0 bestehende Menge {0} ist somit der kleinste lineare Unterraum des Rn und wird als Nullraum bezeichnet. Der n-dimensionale euklidische Raum Rn ist dagegen der größte lineare Unterraum des Rn. Erzeugendensystem Durch n-fache Anwendung der beiden Eigenschaften a) und b) folgt, dass für beliebige Vektoren a1, . . . , am aus einem linearen Unterraum U auch alle ihre Linearkombinationen∑n i=1 λiai in U liegen, also stets Lin {a1, . . . , am} ⊆ U (7.26) gilt. Aus der Definition 7.22 folgt ferner, dass die lineare Hülle Lin {a1, . . . , am} der Vektoren a1, . . . , am ∈ Rn selbst ein linearer Unterraum des Rn ist, der die Vektoren a1, . . . , am enthält. Zusammen mit (7.26) impliziert dies, dass die lineare Hülle Lin {a1, . . . , am} der Vektoren a1, . . . , am der kleinste lineare Unterraum des Rn ist, der die Vektoren a1, . . . , am enthält. 154 Kapitel 77.9 Lineare Unabhängigkeit Dies motiviert die folgende Definition: Definition 7.29 (Erzeugendensystem) Eine Menge {a1, . . . , am} von Vektoren heißt Erzeugendensystem des linearen Unterraums U ⊆ Rn, wenn Lin {a1, . . . , am} = U gilt. Ein Erzeugendensystem {a1, . . . , am} eines linearen Unterraums U ⊆ Rn besitzt somit die Eigenschaft, dass jeder Vektor ausU als Linearkombination der Vektoren a1, . . . , am dargestellt, d. h. erzeugt, werden kann. Zum Beispiel folgt aus (7.25), dass die Menge {e1, . . . , en} der n Einheitsvektoren des Rn ein Erzeugendensystem des Rn ist. Beispiel 7.30 (Lineare Unterräume und Erzeugendensysteme) a) Es sei x0 ∈ Rn ein beliebiger, vom Nullvektor 0 verschiedener Vektor. Dann ist die Menge U := {λx0 : λ ∈ R} aller skalaren Vielfachen von x0 ein linearer Unterraum des Rn. Alle Punkte von U liegen auf einer durch den Koordinatenursprung 0 und den Punkt x0 gehenden Geraden. Jeder Vektor λx0 mit λ = 0 ist ein Erzeugendensystem des linearen Unterraums U (vgl. Abbildung 7.12, links). b) Es seien a1 = (1, 1, 0, . . . , 0)T und a2 = (1,−1, 0, . . . , 0)T zwei Vektoren aus dem n-dimensionalen euklidischen Raum Rn. Wegen λ1a1 + λ2a2 = λ1(e1 + e2)+ λ2(e1 − e2) = (λ1 + λ2)e1 + (λ1 − λ2)e2 x2 x3 x1 x0 U x2 x3 x1 e2 a1e1 a2 U Abb. 7.12: Lineare Unterräume U = {λx0 : λ ∈ R} (links) und U = {λ1e1 + λ2e2 : λ1, λ2 ∈ R} im R3 (rechts) für alle λ1, λ2 ∈ R gilt Lin {a1, a2} = Lin {e1, e2}. Das heißt, die beiden Mengen {a1, a2} und {e1, e2} sind ein Erzeugendensystem desselben linearen Unterraums U := {λ1e1 + λ2e2 : λ1, λ2 ∈ R}, nämlich der x1-x2-Ebene im Rn (vgl. Abbildung 7.12, rechts). c) Die Menge U := {x ∈ Rn : xn = 0} ist ein linearer Unterraum des Rn. Denn für zwei Vektoren x, y ∈ U und einen Skalar λ ∈ R gilt stets λxn = 0 und xn+yn = 0. Das heißt, es gilt λx ∈ U und x+y ∈ U . Die Menge U ist somit ein linearer Unterraum des R n und ein Erzeugendensystem von U ist z. B. die Menge {e1, . . . , en−1} der ersten n− 1 Einheitsvektoren des Rn. 7.9 Lineare Unabhängigkeit Einer der wichtigsten Begriffe der linearen Algebra ist die lineare Unabhängigkeit von Vektoren. Er wird beispielsweise zur Untersuchung der Eigenschaften von Matrizen (siehe Abschnitt 8.2) und von linearen Gleichungssystemen (siehe Kapitel 9) benötigt. Definition 7.31 (Lineare Unabhängigkeit von Vektoren) Eine Menge {a1, . . . , am} ⊆ Rn von Vektoren heißt linear unabhängig, wenn die Gleichung λ1a1 + . . .+ λmam = 0 (7.27) nur für die reellen Zahlen λ1 = . . .=λm=0 erfüllt ist. Andernfalls heißt die Menge der Vektoren linear abhängig. 155 Kapitel 7 Euklidischer Raum Rn und Vektoren Die Darstellung (7.27) mit λ1= . . .=λm=0 wird als triviale Darstellung des Nullvektors bezeichnet. In dieser Sprechweise ist eine Menge {a1, . . . , am} von Vektoren somit genau dann linear abhängig, wenn auch nichttriviale Darstellungen des Nullvektors 0 existieren, d. h., wenn es Skalare λ1, . . . , λm gibt, von denen mindestens einer ungleich 0 ist. Aus der Definition 7.31 folgt unmittelbar, dass mit einer linear unabhängigen Menge {a1, . . . , am} von Vektoren auch jede nichtleere Teilmenge M von {a1, . . . , am} linear unabhängig ist. Ist umgekehrt die Menge {a1, . . . , am} linear abhängig, dann ist offenbar auch jede Menge M ⊆ Rn mit {a1, . . . , am} ⊆ M linear abhängig. Die Definition 7.31 besagt weiter, dass eine Menge {a} bestehend aus nur einem Vektor a genau dann linear unabhängig ist, wenn λa = 0 nur für λ = 0 erfüllt ist. Dies ist jedoch äquivalent zu a = 0. Eine Menge {a} bestehend aus nur einem Vektor a ist somit genau dann linear unabhängig, wenn es sich bei a nicht um den Nullvektor 0 handelt. Allgemein gilt, dass jede Menge {a1, . . . , am} von Vektoren, die den Nullvektor 0 enthält, linear abhängig ist. Denn ist z. B. der k-te Vektor ak der Menge {a1, . . . , am} gleich dem Nullvektor 0, dann gilt 0 · a1 + . . .+ λk0 + . . .+ 0 · am = 0 (7.28) für jedes λk ∈ R. Das heißt, in diesem Fall existieren nichttriviale Darstellungen des Nullvektors 0 und die Menge {a1, . . . , am} von Vektoren ist somit linear abhängig. Kommt in einer Menge {a1, . . . , am} von Vektoren ein Vektor mehrfach vor, dann ist die Menge ebenfalls linear abhängig. Denn gilt z. B. a1 = a2, dann ist λa1 − λa2 + 0 · a3 + . . .+ 0 · am = 0 für alle λ = 0 eine nichttriviale Darstellung des Nullvektors 0. Rechenregeln für linear unabhängige Vektoren Der folgende Satz ist im Umgang mit linear unabhängigen Vektoren sehr hilfreich. Er gibt verschiedene Operationen an, welche die lineare Unabhängigkeit einer Menge von Vektoren nicht aufheben: Satz 7.32 (Rechenregeln für linear unabhängige Vektoren) Eine linear unabhängige Menge von Vektoren {a1, . . . , am} ⊆ Rn bleibt unter den folgenden Operationen linear unabhängig: a) Multiplikation einer der m Vektoren mit einer Konstanten μ = 0 b) Addition des μ-fachen einer der m Vektoren mit μ ∈ R zu einem anderen Vektor c) Multiplikation der i-ten Koordinate aller m Vektoren mit einer Konstanten μ = 0 d) Addition des μ-fachen der i-ten Koordinate mit μ ∈ R zur j -ten Koordinate bei allen m Vektoren Beweis: Zu a): Es ist zu zeigen, dass die Menge {a1, . . . , μai , . . . , am} mit μ = 0 linear unabhängig ist. Dazu wird angenommen, dass λ1a1 + λ2a2 + . . .+ λi(μai )+ . . .+ λmam = 0 (7.29) für λ1, . . . , λm ∈ R erfüllt ist. Da λi(μai ) = (λiμ)ai gilt, folgt wegen der linearen Unabhängigkeit der Menge {a1, . . . , ai , . . . , am} aus (7.29) für die Koeffizienten λ1 = λ2 = . . . = λiμ = . . . = λm = 0. Zusammen mit μ = 0 impliziert dies jedoch λ1 = . . . = λi = . . . = λm = 0. Das heißt, der Nullvektor 0 lässt sich nur auf triviale Weise als Linearkombination der Vektoren a1, . . . , μai , . . . , am darstellen. Die Menge {a1, . . . , μai , . . . , am} ist somit linear unabhängig. Zu b): Es ist zu zeigen, dass die Menge {a1, . . . , ai + μaj , . . . , am} mit μ ∈ R linear unabhängig ist. Dazu wird angenommen, dass λ1a1 + λ2a2 + . . .+ λi(ai + μaj )+ . . .+ λmam = 0 (7.30) für λ1, . . . , λm ∈ R erfüllt ist. Da λi(ai + μaj )+ λjaj = λiai + (λj + λiμ)aj gilt, folgt wegen der linearen Unabhängigkeit der Menge {a1, . . . , ai , . . . , am} aus (7.30) für die Koeffizienten λ1 = . . . = λi = . . . = λj + λiμ = . . . = λm = 0. Wegen λi = 0 impliziert dies λj = 0 und damit insgesamt λ1 = . . . = λi = . . . = λj = . . . = λm = 0. Die Menge{ a1, . . . , ai + μaj , . . . , am } ist somit linear unabhängig. Zu c): Es ist zu zeigen, dass die Vektoren⎛ ⎜⎜⎜⎜⎜⎜ ⎝ a11 . . . μai1 . . . an1 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ , . . . , ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ a1m . . . μaim . . . anm ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ (7.31) 156 Kapitel 77.9 Lineare Unabhängigkeit für μ = 0 linear unabhängig sind. Dazu sei angenommen, dass λ1 ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a11 . . . μai1 . . . an1 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ + . . .+ λm ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a1m . . . μaim . . . anm ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 0 . . . 0 . . . 0 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ für λ1, . . . , λm ∈ R gelte. Dies impliziert λ1μai1 + . . . + λmμaim = 0 und damit wegen μ = 0 auch λ1ai1 + . . . + λmaim = 0. Daraus folgt λ1a1 + λ2a2 + . . .+ λmam = 0 und wegen der linearen Unabhängigkeit der Menge {a1, . . . , am} folgt weiter λ1 = . . . = λm = 0. Das heißt, die Menge bestehend aus den Vektoren (7.31) ist linear unabhängig. Zu d): Es ist zu zeigen, dass die Vektoren ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a11 . . . aj1 + μai1 . . . an1 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ , . . . , ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a1m . . . ajm + μaim . . . anm ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ (7.32) für μ ∈ R linear unabhängig sind. Dazu sei angenommen, dass λ1 ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ a11 . . . aj1 + μai1 . . . an1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ + . . .+ λm ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ a1m . . . ajm + μaim . . . anm ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ = ⎛ ⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 0 . . . 0 . . . 0 ⎞ ⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ für λ1, . . . , λm ∈ R gelte. Dies impliziert λ1(aj1 + μai1)+ . . .+ λm(ajm + μaim) = 0 λ1ai1 + . . .+ λmaim = 0. Durch Subtraktion des μ-fachen der zweiten Gleichung von der ersten Gleichung erhält man die Gleichung λ1aj1 + . . .+ λmajm = 0. Daraus folgt λ1a1 + . . . + λmam = 0 und zusammen mit der linearen Unabhängigkeit der Menge {a1, . . . , am} erhält man λ1 = . . . = λm = 0. Das heißt, die Menge bestehend aus den Vektoren (7.32) ist linear unabhängig. Fundamentallemma Der folgende Satz ist als Fundamentallemma bekannt und besagt, dass eine Menge von mehr als n Vektoren im Rn stets linear abhängig ist: Satz 7.33 (Fundamentallemma) Eine Menge {a1, . . . , am} ⊆ Rn von Vektoren mit m > n ist linear abhängig. Beweis: Es genügt zu zeigen, dass Mengen {a1, . . . , am} ⊆ Rn mit m = n + 1 linear abhängig sind. Denn ist die Menge {a1, . . . , an+1} linear abhängig, dann gilt dies auch für jede Menge M ⊆ Rn mit {a1, . . . , an+1} ⊆ M . Im Folgenden ist somit zu zeigen, dass die Gleichung λ1a1 + . . .+ λn+1an+1 = 0 (7.33) eine Lösung (λ1, . . . , λn+1) ∈ Rn+1 mit der Eigenschaft λi = 0 für mindestens ein i ∈ {1, . . . , n+ 1} besitzt. Dabei kann ai = 0 für alle i = 1, . . . , n+1 angenommen werden. Denn sonst würde sofort folgen, dass die Menge {a1, . . . , an+1} linear abhängig ist (vgl. (7.28)). Mit (a1i , . . . , ani) := aTi für i = 1, . . . , n+ 1 geht die Gleichung (7.33) in das lineare Gleichungssystem a11λ1 + a12λ2 + . . .+ a1n+1λn+1 = 0 a21λ1 + a22λ2 + . . .+ a2n+1λn+1 = 0 . . . an1λ1 + an2λ2 + . . .+ ann+1λn+1 = 0 (7.34) über. Durch Anwendung des Gauß-Algorithmus (siehe Abschnitt 9.3) lässt sich dieses lineare Gleichungssystem auf Zeilenstufenform (vgl. Definition 9.6) bringen. Da die Anzahl n der Zeilen kleiner als die Anzahl n+ 1 der Variablen ist, gibt es mindestens eine freie Variable λi . Nach Satz 9.8 besitzt das lineare Gleichungssystem (7.34) somit unendlich viele Lösungen. Damit gibt es insbesondere eine Lösung (λ1, . . . , λn+1), für welche λi = 0 für mindestens ein i ∈ {1, . . . , n+ 1} gilt. Das heißt, es existiert eine nichttriviale Darstellung des Nullvektors 0 und die Menge {a1, . . . , an+1} ist somit linear abhängig. Das Fundamentallemma 7.33 besagt somit, dass es im Rn höchstens n linear unabhängige Vektoren geben kann. Die maximal mögliche Anzahl von n linear unabhängigen Vektoren im Rn kann aber tatsächlich erreicht werden, wie das Beispiel der Menge {e1, . . . , en} der n Einheitsvektoren des R n zeigt. Denn für diese gilt λ1e1 + . . .+ λnen = 0 ⇐⇒ ⎛ ⎜ ⎝ λ1 ... λn ⎞ ⎟ ⎠ = ⎛ ⎜ ⎝ 0 ... 0 ⎞ ⎟ ⎠ . Die Menge {e1, . . . , en} der n Einheitsvektoren des Rn ist somit linear unabhängig. 157 Kapitel 7 Euklidischer Raum Rn und Vektoren Charakterisierung der linearen Abhängigkeit Der folgende Satz liefert eine anschauliche Charakterisierung für den Begriff der linearen Abhängigkeit einer Menge {a1, . . . , am} von Vektoren des Rn: Satz 7.34 (Charakterisierung der linearen Abhängigkeit) Eine Menge {a1, . . . , am} ⊆ Rn von Vektoren ist genau dann linear abhängig, wenn sich mindestens einer der Vektoren als Linearkombination der anderen darstellen lässt. Beweis: Die Vektoren a1, . . . , am seien linear abhängig. Dann folgt aus λ1a1 + . . .+ λmam = 0, dass λi = 0 für mindestens ein i ∈ {1, . . . , m} gilt. Daraus folgt λiai = − m∑ j=1 j =i λjaj bzw. ai = − m∑ j=1 j =i λj λi aj . Der Vektor ai ist somit eine Linearkombination der m−1 Vektoren a1, . . . , ai−1, ai+1, . . . , am. Es sei nun umgekehrt ai eine Linearkombination der anderen m− 1 Vektoren a1, . . . , ai−1, ai+1, . . . , am. Das heißt, es gelte ai = m∑ j=1 j =i λjaj bzw. 1 · ai − m∑ j=1 j =i λjaj = 0. Es existiert somit eine nichttriviale Darstellung des Nullvektors 0 und die Menge {a1, . . . , am} von Vektoren ist damit linear abhängig. Das folgende Beispiel zeigt, wie eine Menge von Vektoren auf lineare Unabhängigkeit untersucht werden kann: Beispiel 7.35 (Lineare Unabhängigkeit von Vektoren) a) Betrachtet wird die Menge {a1, a2, a3} ⊆ R2 mit den Vektoren a1 = ( 1 2 ) , a2 = ( 3 1 ) und a3 = ( 2 4 ) . Aus dem Fundamentallemma 7.33 folgt, dass die Menge {a1, a2, a3} linear abhängig ist. Zum Beispiel gilt a3 = 2a1. Das heißt, der Vektor a3 ist ein skalares Vielfaches von a1 und umgekehrt. Durch Linearkombination der beiden Vektoren a1 und a3 können daher nicht alle Vektoren der euklidischen Ebene R2 dargestellt werden, sondern nur die des linearen Unterraums U := {λa1 : λ ∈ R}. Die Menge {a1, a2} ist dagegen linear unabhängig. Denn aus der Gleichung λ1 ( 1 2 ) + λ2 ( 3 1 ) = ( 0 0 ) erhält man das lineare Gleichungssystem: λ1 + 3λ2 = 0 2λ1 + λ2 = 0 Aus der ersten Gleichung folgt λ1 = −3λ2. In die zweite Gleichung eingesetzt liefert dies −5λ2 = 0. Das heißt, es gilt λ1 = λ2 = 0 und der Nullvektor 0 kann somit nur auf triviale Weise als Linearkombination der beiden Vektoren a1 und a2 dargestellt werden. Die Menge {a1, a2} ist also linear unabhängig. Da jeder Vektor x ∈ R2 als Linearkombination von a1 und a2 dargestellt werden kann, ist die Menge {a1, a2} ein Erzeugendensystem des R2. Folglich gilt Lin {a1, a2} = R2 (vgl. Abbildung 7.13, links). b) Betrachtet wird die Menge {a1, a2, a3} ⊆ R3 mit den Vektoren a1 = ⎛ ⎝ 1 1 0 ⎞ ⎠ , a2 = ⎛ ⎝ 1 1 2 ⎞ ⎠ und a3 = ⎛ ⎝ 1 0 0 ⎞ ⎠ . Zur Untersuchung, ob die Menge {a1, a2, a3} linear unabhängig ist, wird wieder die Gleichung λ1 ⎛ ⎝ 1 1 0 ⎞ ⎠+ λ2 ⎛ ⎝ 1 1 2 ⎞ ⎠+ λ3 ⎛ ⎝ 1 0 0 ⎞ ⎠ = ⎛ ⎝ 0 0 0 ⎞ ⎠ untersucht. Dies führt zu folgendem linearen Gleichungssystem: λ1 + λ2 + λ3 = 0 λ1 + λ2 = 0 2λ2 = 0 Für die Koeffizienten λ1, λ2 und λ3 muss somit λ2 =λ1=λ3=0 gelten. Das heißt, der Nullvektor 0 158 Kapitel 77.9 Lineare Unabhängigkeit kann nur auf triviale Weise als Linearkombination der Vektoren a1, a2 und a3 dargestellt werden und die Menge {a1, a2, a3} ist linear unabhängig. Da jeder Vektor x ∈ R3 als Linearkombination von a1, a2 und a3 dargestellt werden kann, ist die Menge {a1, a2, a3} ein Erzeugendensystem des R3, also Lin {a1, a2, a3} = R3 (vgl. Abbildung 7.13, rechts). c) Betrachtet wird die Menge {x1, x2, x3} ⊆ R3 mit den Vektoren x1 = ⎛ ⎝ 1 0 2 ⎞ ⎠ , x2 = ⎛ ⎝ 2 −1 2 ⎞ ⎠ und x3 = ⎛ ⎝ −3 2 −2 ⎞ ⎠ . Die Gleichung λ1 ⎛ ⎝ 1 0 2 ⎞ ⎠+ λ2 ⎛ ⎝ 2 −1 2 ⎞ ⎠+ λ3 ⎛ ⎝ −3 2 −2 ⎞ ⎠ = ⎛ ⎝ 0 0 0 ⎞ ⎠ führt zu folgendem linearen Gleichungssystem: λ1 + 2λ2 − 3λ3 = 0 −λ2 + 2λ3 = 0 2λ1 + 2λ2 − 2λ3 = 0 Es besitzt z. B. die Lösung λ1 = 1, λ2 = −2 und λ3 = −1 (für das Lösen von linearen Gleichungssystemen siehe Abschnitt 9.3). Das heißt, es existiert eine nicht-triviale Darstellung des Nullvektors 0 und die Menge {x1, x2, x3} ist daher linear abhängig. Zum x1 x2 1 1 a1 a3 a2 x1 x3 x2 1 1 1 a1 a3 a2x1 x2 x3 Abb. 7.13: Linear abhängige Menge {a1, a2, a3} (links) sowie linear unabhängige Menge {a1, a2, a3} und linear abhängige Menge {x1, x2, x3} (rechts) Beispiel gilt x1 = 2x2 + x3. Der Vektor x1 lässt sich somit als Linearkombination der beiden Vektoren x2 und x3 darstellen und die Menge {x1, x2, x3} ist kein Erzeugendensystem des R3 (vgl. Abbildung 7.13, rechts). Eindeutigkeit von Linearkombinationen unabhängiger Vektoren Der nächste Satz besagt, dass die Darstellung von Vektoren als Linearkombination von linear unabhängigen Vektoren eindeutig ist. Diese Eigenschaft ist für die Untersuchung von linearen Gleichungssystemen bezüglich ihrer Lösbarkeit und der Eindeutigkeit der Lösung von entscheidender Bedeutung. Satz 7.36 (Eindeutigkeit von Linearkombinationen unabhängiger Vektoren) Die Menge {a1, . . . , am} ⊆ Rn sei linear unabhängig. Dann ist die Darstellung eines Vektors y ∈ Rn als Linearkombination von Vektoren aus {a1, . . . , am} eindeutig. Beweis: Es seien y = λ1a1+. . .+λmam und y = μ1a1+. . .+ μmam zwei Darstellungen des Vektors y als Linearkombination von Vektoren aus der linear unabhängigen Menge {a1, . . . , am}. Dann gilt y = λ1a1 + . . .+ λmam = μ1a1 + . . .+ μmam und damit auch (λ1 − μ1)a1 + . . .+ (λm − μm)am = 0. 159 Kapitel 7 Euklidischer Raum Rn und Vektoren Aus der linearen Unabhängigkeit von {a1, . . . , am} folgt unmittelbar λi−μi = 0 bzw. λi = μi für alle i = 1, . . . , m. Das heißt, die Darstellung von y als Linearkombination von a1, . . . , am ist eindeutig. Zusammenhang zwischen linearer Unabhängigkeit und Orthogonalität Aus der linearen Unabhängigkeit einer Menge {a1, . . . , am} folgt im Allgemeinen nicht, dass die Vektoren paarweise orthogonal sind. Zum Beispiel wurde in Beispiel 7.35a) nachgewiesen, dass die Menge {a1, a2} mit den beiden Vektoren aT1 = (1, 2) und aT2 = (3, 1) linear unabhängig ist. Die beiden Vektoren a1 und a2 sind aber nicht orthogonal, denn für ihr Skalarprodukt gilt 〈a1, a2〉 = 5 = 0. Wie der folgende Satz jedoch zeigt, wird umgekehrt durch paarweise Orthogonalität stets lineare Unabhängigkeit impliziert: Satz 7.37 (Orthogonalität impliziert lineare Unabhängigkeit) Ein Orthogonalsystem {a1, . . . , am} ⊆ Rn ist linear unabhängig. Beweis: Es gelte λ1a1 + . . .+ λmam = 0. (7.35) Durch Bildung des Skalarprodukts beider Seiten von (7.35) mit einem Vektor ai ∈ {a1, . . . , am} erhält man aufgrund der paarweisen Orthogonalität der Vektoren a1, . . . , am λi 〈ai , ai〉 = 〈0, ai〉 = 0 für alle i = 1, . . . , m. Wegen 〈ai , ai〉 = ‖ai‖ = 0 für alle i = 1, . . . , m impliziert dies aber bereits λ1 = . . . = λm = 0. Es existiert folglich nur die triviale Darstellung des Nullvektors 0 als Linearkombination der Vektoren a1, . . . , am und die Menge {a1, . . . , am} ⊆ Rn ist daher linear unabhängig. Mit Satz 7.37 und (7.19) folgt unmittelbar, dass jede Menge {e1, . . . , em} von m verschiedenen Einheitsvektoren des Rn linear unabhängig ist. Im nachfolgenden Beispiel wird deutlich, wie der Begriff der linearen Unabhängigkeit einer Menge von Vektoren auf natürliche Weise bei der Betrachtung von Portfolios auftritt: Beispiel 7.38 (Portfolios und Hedging) Betrachtet wird ein Markt mit drei verschiedenen Wertpapieren A, B und C, die alle zum gegenwärtigen Zeitpunkt zu einem Preis von 200€ gehandelt werden. Für das kommende Jahr sind für den Markt fünf verschiedene Entwicklungen denkbar und die Kurse der drei Wertpapiere in einem Jahr hängen von dieser Entwicklung ab. Das heißt, für die drei Wertpapiere sind nach Ablauf eines Jahres jeweils höchstens fünf verschiedene Kurswerte möglich, die durch die Koordinaten der Vektoren (in €) vA := ⎛ ⎜⎜⎜⎜ ⎝ 300 100 200 150 250 ⎞ ⎟⎟⎟⎟ ⎠ , vB := ⎛ ⎜⎜⎜⎜ ⎝ 250 150 200 100 300 ⎞ ⎟⎟⎟⎟ ⎠ und vC := ⎛ ⎜⎜⎜⎜ ⎝ 200 150 200 300 150 ⎞ ⎟⎟⎟⎟ ⎠ gegeben seien. Welches der drei Wertpapiere A, B und C in einem Jahr den höchsten Kurs aufweist, ist somit von der Entwicklung des Marktes abhängig. Realisiert sich z. B. die erste Entwicklungsmöglichkeit, dann ist das Wertpapier A am vorteilhaftesten. Tritt dagegen die vierte Entwicklungsmöglichkeit ein, dann ist das Wertpapier C vorzuziehen. Die Menge {vA, vB} ist linear unabhängig, denn keiner der beiden Vektoren ist offensichtlich ein skalares Vielfaches des anderen Vektors. Wird zusätzlich der Vektor vP := ⎛ ⎜⎜ ⎜⎜ ⎝ 270 130 200 120 280 ⎞ ⎟⎟ ⎟⎟ ⎠ betrachtet, dann ist die Menge {vA, vB, vP } linear abhängig. Denn es gilt 2vA+3vB−5vP = 0 und somit Lin {vA, vB, vP } = Lin {vA, vB}. Ferner folgt aus vP = 2 5 vA + 3 5 vB, dass vP ∈ Konv {vA, vB} und damit insbesondere Konv {vA, vB, vP } = Konv {vA, vB} (7.36) 160 Kapitel 77.10 Basis und Dimension gilt. Eine Konvexkombination von mehreren Wertpapieren wird in der Finanzwirtschaft als Portfolio bezeichnet. Die Gleichung (7.36) bedeutet somit, dass zu jedem Portfolio aus Konv {vA, vB, vP } auch ein Portfolio aus Konv {vA, vB} existiert, das in einem Jahr genau dieselben Ertragsmöglichkeiten eröffnet. Die Menge {vA, vB, vC} ist dagegen linear unabhängig. In Konv {vA, vB, vC} existieren somit Portfolios v, die in einem Jahr Ertragsmöglichkeiten bieten, die durch kein Portfolio aus Konv {vA, vB} erzielt werden können. Unter Hedging im Zusammenhang mit Wertpapieren versteht man die Absicherung von Wertpapieren gegen Kursrisiken. Grundgedanke des Hedgings ist die Erzielung einer risikokompensatorischen Wirkung durch das Eingehen entgegengesetzter Risikopositionen. Das heißt, der Kursverlust in einem Wertpapier wird durch den Kurszuwachs eines anderen Wertpapiers (teilweise) ausgeglichen. Die sich dadurch ergebende Gesamtposition des Portfolios ist dann bezüglich des Risikos ganz oder teilweise ausgeglichen. Wird z. B. das mit einem Portfolio v ∈ Konv {vA, vB, vC} verbundene Risiko durch die Differenz zwischen dem größt- und dem kleinstmöglichen Ertrag, d. h. durch max {v1, . . . , v5} − min {v1, . . . , v5} , gemessen, dann beträgt z. B. das mit dem Portfolio v = 1 4 vA + 1 4 vB + 1 2 vC = ⎛ ⎜ ⎜⎜ ⎜ ⎝ 237,5 137,5 200 212,5 212,5 ⎞ ⎟ ⎟⎟ ⎟ ⎠ verbundene Risiko 237,5€ − 137,5€ = 100€. Dieses Risiko ist deutlich kleiner als das mit den einzelnen Wertpapieren A (200€), B (200€) und C (150€) verbundene Risiko. 7.10 Basis und Dimension In diesem Abschnitt werden mit der Basis und der Dimension eines linearen UnterraumsU ⊆ Rn zwei weitere Begriffe eingeführt, die für die Untersuchung von linearen Gleichungssystemen und Matrizen benötigt werden. Basis eines linearen Unterraums Im Abschnitt 7.9 wurde bereits gezeigt, dass die Darstellung eines Vektors y aus einem linearen Unterraum U ⊆ Rn als Linearkombination y = λ1a1 + . . .+ λmam von Vektoren einer linear unabhängigen Menge {a1, . . . , am} ⊆ Rn stets eindeutig ist. Durch die lineare Unabhängigkeit von {a1, . . . , am} ist jedoch nicht gewährleistet, dass sich alle Vektoren y aus U als Linearkombination der Vektoren a1, . . . , am darstellen lassen. Dazu ist es notwendig, dass die linear unabhängige Menge {a1, . . . , am} zusätzlich ein Erzeugendensystem des linearen Unterraums U ist, also Lin {a1, . . . , am} = U gilt. In einem solchen Fall wird {a1, . . . , am} als Basis des linearen UnterraumsU bezeichnet: Definition 7.39 (Basis eines linearen Unterraums) Eine linear unabhängige Menge {a1, . . . , am} ⊆ Rn von Vektoren, die ein Erzeugendensystem des linearen Unterraums U ⊆ Rn ist, wird als Basis von U bezeichnet. Die Vektoren a1, . . . , am heißen Basisvektoren von U . Eine Basis {a1, . . . , am} eines linearen Unterraums U ⊆ Rn besitzt somit die Eigenschaft, dass sich jeder Vektor y ∈ U auf genau eine Weise als Linearkombination y = λ1a1 + . . .+ λmam der Basisvektoren a1, . . . , am darstellen lässt. Die Koeffizienten λ1, . . . , λm dieser Darstellung werden als Koordinaten des Vektors y bezüglich der Basis {a1, . . . , am} bezeichnet. E. Steinitz Der Nullraum {0} besitzt offensichtlich nur die eine Basis {0}. Bei allen anderen Unterräumen U des Rn ist die Basis nicht eindeutig. Zum Beispiel ist jede linear unabhängige Menge {a1,a2}⊆R2 eine Basis der euklidischen Ebene R2 und jede linear unabhängige Menge {a1,a2,a3} ⊆ R3 eine Basis des Anschauungsraums R3. Der folgende Austauschsatz von Steinitz liefert eine Charakterisierung aller Basen eines linearen Unterraums U ⊆ Rn. Er ist benannt nach dem deutschen Mathematiker Ernst Steinitz (1871–1928). 161 Kapitel 7 Euklidischer Raum Rn und Vektoren Satz 7.40 (Austauschsatz von Steinitz) Es sei {a1, . . . , am} eine Basis des linearen Unterraums U ⊆ Rn. Dann gilt: a) Ist b = λ1a1 + . . . + λmam eine Linearkombination der Basisvektoren mit λi = 0 für ein i ∈ {1, . . . , m}, dann ist auch {a1, . . . , ai−1, b, ai+1, . . . , am} eine Basis von U . b) Ist {b1, . . . , bk} ⊆ U mit k ≤ m eine linear unabhängige Menge von Vektoren, dann können k geeignete Vektoren der Basis {a1, . . . , am} ausgewählt und gegen b1, . . . , bk ausgetauscht werden, so dass die resultierende Menge wieder eine Basis von U ist. Beweis: Zu a): Die Menge {a1, . . . , ai−1, b, ai+1, . . . , am} ist linear unabhängig. Denn aus η1a1 + . . .+ ηi−1ai−1 + ηib + ηi+1ai+1 + . . .+ ηmam = 0 folgt durch Einsetzen von b = λ1a1 + . . .+ λmam (η1 + ηiλ1)a1 + . . .+ (ηi−1 + ηiλi−1)ai−1 + ηiλiai + (ηi+1 + ηiλi+1)ai+1 + . . .+ (ηm + ηiλm)am = 0. Da die Menge {a1, . . . , am} nach Voraussetzung linear unabhängig ist, folgt daraus ηj + ηiλj = 0 für j = 1, . . . , i − 1, i + 1, . . . , m und ηiλi = 0. (7.37) Wegen λi = 0 impliziert die rechte Gleichung in (7.37) ηi = 0, woraus zusammen mit der linken Gleichung in (7.37) ηj = 0 für j = 1, . . . , i − 1, i + 1, . . . , m folgt. Es existiert somit nur die triviale Darstellung des Nullvektors 0 als Linearkombination der Vektoren a1, . . . , ai−1, b, ai+1, . . . , am. Das heißt, die Menge {a1, . . . , ai−1, b, ai+1, . . . , am} ist linear unabhängig. Ferner gilt Lin {a1, . . . , ai−1, b, ai+1, . . . , am} = U . Denn mit ai = 1 λi b − λ1 λi a1 − . . .− λi−1 λi ai−1 − λi+1 λi ai+1 − λm λi am erhält man für ein beliebiges y ∈ U die Darstellung y = ξ1a1 + . . .+ ξmam = ξi λi b + ( ξ1 − λ1 λi ) a1 + . . .+ ( ξi−1 − λi−1 λi ) ai−1 + ( ξi+1 − λi+1 λi ) ai+1 + . . .+ ( ξm − λm λi ) am. Das heißt, der Vektor y lässt sich auch als Linearkombination der Vektoren a1, . . . , ai−1, b, ai+1, . . . , am darstellen. Zu b): Der Vektor b1 kann als Linearkombination b1 = λ1a1 + . . .+ λmam der Basisvektoren a1, . . . , am dargestellt werden, wobei λi = 0 für mindestens ein i ∈ {1, . . . , m} gilt. Dabei kann ohne Beschränkung der Allgemeinheit (eventuell nach geeigneter Umnummerierung) λ1 = 0 angenommen werden. Gemäß Aussage a) ist dann {b1, a2, . . . , am} eine Basis von U . Anschließend kann der Vektor b2 als Linearkombination bezüglich der neuen Basis {b1, a2, . . . , am} ausgedrückt werden. Man erhält b2 = η1b1 + η2a2 + . . .+ ηmam, wobei wiederum ohne Beschränkung der Allgemeinheit η2 = 0 angenommen werden kann, da die Vektoren b1 und b2 gemäß Annahme linear unabhängig sind. Erneute Anwendung von Aussage a) liefert, dass {b1, b2, a3, . . . , am} eine Basis von U ist. Wird dieses Vorgehen insgesamt k-fach wiederholt, ergibt sich schließlich mit {b1, . . . , bk, ak+1, . . . , am} eine Basis von U , in der die k Vektoren {b1, . . . , bk} enthalten sind. Orthonormalbasis eines linearen Unterraums Aus Satz 7.40 folgt, dass für einen linearen Unterraum U ⊆ R n, der vom Nullraum verschieden ist, unendlich viele verschiedene Basen existieren. In wirtschaftswissenschaftlichen Anwendungen werden in der Regel Basen bevorzugt, deren Basisvektoren normiert und paarweise orthogonal sind, also ein Orthonormalsystem bilden (vgl. Definition 7.14). Solche Basen werden als Orthonormalbasen bezeichnet: Definition 7.41 (Orthonormalbasis) Ist eine Basis {a1, . . . , am} eines linearen Unterraums U ⊆ Rn ein Orthonormalsystem, dann wird sie als Orthonormalbasis von U bezeichnet. Ist {a1, . . . , am} eine Orthonormalbasis des linearen Unterraums U , dann lassen sich die Koordinaten eines Vektors x ∈ U bezüglich dieser Basis besonders leicht berechnen. Denn aus der Darstellung x = λ1a1 + . . .+ λmam (7.38) folgt durch Bildung des Skalarprodukts mit ai auf beiden Seiten der Gleichung (7.38) 〈x, ai〉 = λi (7.39) 162 Kapitel 77.10 Basis und Dimension für alle i = 1, . . . , m (vgl. auch (7.18)) und damit x = m∑ i=1 〈x, ai〉 ai . (7.40) Das heißt, die Skalarprodukte 〈x, ai〉 sind die Koordinaten von x bezüglich der Orthonormalbasis {a1, . . . , am}. Die in wirtschaftswissenschaftlichen Anwendungen am häufigsten verwendete Orthonormalbasis ist die kanonische Basis des Rn: Definition 7.42 (Kanonische Basis) Die Menge {e1, . . . , en} der n Einheitsvektoren des Rn heißt kanonische Basis des Rn. R. Descartes Bezüglich der kanonischen Basis besitzt ein Vektor x ∈ Rn die besonders einfache Darstellung x = ⎛ ⎜⎜ ⎜ ⎝ x1 x2 ... xn ⎞ ⎟⎟ ⎟ ⎠ = x1e1 + x2e2 + . . .+ xnen = n∑ i=1 xiei , welche als kanonische Zerlegung des Vektors x bezeichnet wird. Dies zeigt, dass bei Verwendung der kanonischen Basis die Koordinaten von x mit den Komponenten von x übereinstimmen. Die kanonische Basis des Rn führt zum (rechtwinkligen) kartesischen Koordinatensystem im Rn. Die Koordinaten von x bezüglich der kanonischen Basis werden deshalb oft auch als kartesische Koordinaten bezeichnet. Dimension eines linearen Unterraums Eine Basis {a1, . . . , am} eines linearen Unterraums U ist gemäß Definition 7.39 stets linear unabhängig. Dies bedeutet, dass keiner der Basisvektoren ai als Linearkombination der anderen m−1 Basisvektoren geschrieben werden kann. Die Entfernung eines Basisvektors ai aus der Basis hätte somit zur Folge, dass nicht mehr alle Vektoren aus U als Linearkombination dargestellt werden können. In diesem Sinne ist eine Basis ein nicht verkürzbares (minimales) Erzeugendensystem. Eine Basis besitzt gemäß Definition 7.39 auch die Eigenschaft, dass jeder Vektor aus U als Linearkombination der Basisvektoren {a1, . . . , am} dargestellt werden kann. Das heißt jedoch, dass m+1 Vektoren des linearen Unterraums U stets linear abhängig sind. In diesem Sinne ist eine Basis eine nicht erweiterbare (maximale) linear unabhängige Menge. Folglich besitzen alle Basen eines linearen Unterraums U ⊆ Rn dieselbe Anzahl von Basisvektoren. Dieser Sachverhalt ist die Grundlage für die folgende Definition des Begriffs Dimension eines linearen Unterraums: Definition 7.43 (Dimension eines linearen Unterraums) Die Anzahl der Vektoren einer Basis {a1, . . . , am} eines linearen Unterraums U ⊆ Rn wird Dimension von U genannt und mit dim U bezeichnet. Der Nullraum besitzt die Dimension Null. Da die Menge der n Einheitsvektoren eine Basis des Rn ist, besitzt der Rn gemäß Definition 7.43 die Dimension n. Die Definition 7.43 steht damit im Einklang mit der für den Rn verwendeten Bezeichnung „n-dimensionaler“ euklidischer Raum. Sie entspricht ferner auch der gewohnten Vorstellung, nach der ein eindimensionaler Raum durch eine Gerade, ein zweidimensionaler Raum durch eine Ebene und ein dreidimensionaler Raum durch unseren Anschauungsraum charakterisiert wird. a1 λ1a1 x a2 λ2a2 a1 λ1a1 x a2 λ2a2 Abb. 7.14: Zerlegung eines Vektors x ∈ R2 in einem schiefwinkligen Koordinatensystem (links) und Zerlegung eines Vektors x ∈ R2 in einem rechtwinkligen Koordinatensystem (rechts) 163 Kapitel 7 Euklidischer Raum Rn und Vektoren Beispiel 7.44 (Basis und Dimension) a) Die Menge {a1, a2} mit a1 = (−2 −2 ) und a2 = ( 1 3−1 ) ist linear unabhängig und ein Erzeugendensystem des R 2. Die Menge ist damit insbesondere eine Basis des R 2. Um die Koordinaten eines gegebenen Vektors xT = (x1, x2) bezüglich der Basis {a1, a2} zu erhalten, muss die Gleichung λ1a1 + λ2a2 = x bzw. das lineare Gleichungssystem −2λ1 + 1 3 λ2 = x1 −2λ1 − λ2 = x2 nach λ1 und λ2 aufgelöst werden. Es ergeben sich λ1 = −3 8 x1 − 1 8 x2 und λ2 = 3 4 (x1 − x2). Die Werte λ1 und λ2 sind die Koordinaten von x bezüglich der Basis {a1, a2} und damit die Koordinaten von x in einem schiefwinkligen Koordinatensystem (vgl. Abbildung 7.14, links). b) Die Menge {a1, a2} mit a1 = ( 3 5 4 5 ) und a2 = ( 4 5 − 35 ) ist eine Orthonormalbasis des R2. Denn es gilt 〈a1, a2〉 = 0 und 〈a1, a1〉 = 〈a2, a2〉 = 1. Das heißt, durch {a1, a2} wird ein rechtwinkliges Koordinatensystem festgelegt. Die Koordinaten eines gegebenen Vektors xT = (x1, x2) in diesem rechtwinkligen Koordinatensystem sind gegeben durch λ1 = 〈x, a1〉 = 3 5 x1 + 4 5 x2 und λ2 = 〈x, a2〉 = 4 5 x1 − 3 5 x2 (vgl. (7.39) und Abbildung 7.14, rechts). c) Die Menge {(−2 −2 ) , ( 1 −1 ) , ( 0 4 )} ist linear abhängig (vgl. Fundamentallemma 7.33) und damit keine Basis des R2. Sie ist aber ein Erzeugendensystem des R2. d) Die Menge ⎧ ⎨ ⎩ ⎛ ⎝ 1 2 3 ⎞ ⎠ , ⎛ ⎝ −3 −2 −1 ⎞ ⎠ , ⎛ ⎝ −2 0 2 ⎞ ⎠ ⎫ ⎬ ⎭ ist linear abhängig (z. B. ergibt die Summe der ersten beiden Vektoren den dritten Vektor) und damit keine Basis des R3. Da jedoch die ersten beiden Vektoren linear unabhängig sind, erzeugt die Menge einen zweidimensionalen linearen Unterraum im R3. e) Die Menge {a1, a2, a3} mit a1 = ⎛ ⎝ 4 5 0 ⎞ ⎠ , a2 = ⎛ ⎝ 4 5 4 ⎞ ⎠ und a3 = ⎛ ⎝ 0 5 0 ⎞ ⎠ ist linear unabhängig. Denn die Gleichung λ1a1 + λ2a2 + λ3a3 = 0 bzw. das zugehörige lineare Gleichungssystem 4λ1 + 4λ2 = 0 5λ1 + 5λ2 + 5λ3 = 0 4λ2 = 0 besitzen die Lösung λ2 = λ1 = λ3 = 0. Das heißt, der Nullvektor lässt sich nur auf triviale Weise als Linearkombination der Vektoren a1, a2 und a3 darstellen. Die Menge {a1, a2, a3} ist somit eine Basis des R3 (vgl. Abbildung 7.15). 164 Kapitel 77.11 Orthonormalisierungsverfahren von Schmidt x2 x1 x3 1 1 1 a1 a2 a3 Abb. 7.15: Basis {a1, a2, a3} des dreidimensionalen euklidischen Raums R3 7.11 Orthonormalisierungsverfahren von Schmidt E. Schmidt In diesem Abschnitt wird gezeigt, wie aus einer beliebigen Basis eines linearen Unterraums U des Rn stets eine Orthonormalbasis von U konstruiert werden kann. In Abschnitt 7.10 wurde bereits deutlich, dass sich die Koordinaten eines Vektors x aus einem linearen Unterraum U des R n bezüglich einer vorhandenen Basis dann besonders leicht berechnen lassen, wenn es sich bei der Basis um eine Orthonormalbasis von U handelt. Es stellt sich daher unmittelbar die Frage, ob eine gegebene Basis eines linearen Unterraums U ⊆ Rn stets in eine Orthonormalbasis von U transformiert werden kann. Diese Frage wird durch das folgende, nach dem deutschen Mathematiker Erhard Schmidt (1876–1959) benannte Orthonormalisierungsverfahren von Schmidt positiv beantwortet. Darüber hinaus gibt dieses Verfahren an, wie eine solche Orthonormalbasis aus einer bereits vorhandenen Basis konstruiert werden kann: Satz 7.45 (Orthonormalisierungsverfahren von Schmidt) Es kann aus jeder Basis {a1, . . . , am} eines m-dimensionalen linearen Unterraums U ⊆ Rn mit U = {0} durch b1 := a1‖a1‖ und bk := ck ‖ck‖ mit ck := ak − k−1∑ i=1 〈ak, bi〉 bi für k = 2, . . . , m eine Orthonormalbasis {b1, . . . , bm} von U konstruiert werden. Beweis: Für alle k = 2, . . . , m ist sichergestellt, dass ck = 0 gilt und somit bk definiert ist. Denn der Vektor ck ist für alle k = 2, . . . , m eine Linearkombination der linear unabhängigen Vektoren {a1, . . . , ak}, bei der nicht alle Koeffizienten gleich Null sind. Es gilt offensichtlich ‖bi‖ = 1 für alle i = 1, . . . , m. Das heißt, die Vektoren b1, . . . , bm sind normiert. Ferner erhält man mit vollständiger Induktion, dass {b1, . . . , bk} für alle k = 1, . . . , m ein Orthogonalsystem ist. Induktionsanfang: Für k = 1 ist nichts zu zeigen und die Aussage ist wahr. Induktionsschritt: Es wird angenommen, dass {b1, . . . , bk−1} für ein beliebiges aber festes k ∈ {2, . . . , m} ein Orthogonalsystem ist. Für einen beliebigen Vektor bj ∈ {b1, . . . , bk−1} und bk erhält man dann 〈 bk, bj 〉= 1‖ck‖ 〈 ck, bj 〉= 1‖ck‖ ( 〈 ak, bj 〉− k−1∑ i=1 〈ak, bi〉 〈 bi , bj 〉 ) = 1‖ck‖ (〈 ak, bj 〉− 〈ak, bj 〉) = 0. Folglich ist bk paarweise orthogonal zu allen Vektoren aus {b1, . . . , bk−1} und somit {b1, . . . , bk} ein Orthgonalsystem. Damit ist insgesamt gezeigt, dass {b1, . . . , bm} eine Orthonormalbasis des linearen Unterraums U ist. Gemäß Satz 7.45 besitzt jeder lineare Unterraum U ⊆ Rn ungleich dem Nullraum {0} eine Orthonormalbasis. Für eine Veranschaulichung des Orthonormalisierungsverfahrens von Schmidt im R3 siehe Abbildung 7.16. Das folgende Beispiel verdeutlicht das konkrete Vorgehen bei der Anwendung des Orthonormalisierungsverfahrens von Schmidt: 165 Kapitel 7 Euklidischer Raum Rn und Vektoren λ1b1 b1 〈a3, b1〉b1 b 2 〈a 3 ,b 2 〉b 2 2 ∑ i= 1 〈a3 ,bi 〉bi b3 a3 c3 λ2b2 Abb. 7.16: Veranschaulichung des Orthonormalisierungsverfahrens von Schmidt im R3 Beispiel 7.46 (Orthonormalisierungsverfahren von Schmidt) Durch {a1, a2, a3} mit a1 = ⎛ ⎝ 1 0 1 ⎞ ⎠ , a2 = ⎛ ⎝ 2 0 0 ⎞ ⎠ und a3 = ⎛ ⎝ 0 2 1 ⎞ ⎠ ist eine Basis des R3 gegeben. Mit dem Orthonormalisierungsverfahren von Schmidt erhält man die folgenden drei orthonormierten Vektoren b1, b2, b3: b1 = a1‖a1‖ = ⎛ ⎜ ⎝ 1√ 2 0 1√ 2 ⎞ ⎟ ⎠ c2 = a2 − 〈a2, b1〉 b1 = ⎛ ⎝ 2 0 0 ⎞ ⎠−√2 ⎛ ⎜ ⎝ 1√ 2 0 1√ 2 ⎞ ⎟ ⎠ = ⎛ ⎝ 1 0 −1 ⎞ ⎠ b2 = c2‖c2‖ = ⎛ ⎜ ⎝ 1√ 2 0 − 1√ 2 ⎞ ⎟ ⎠ c3 = a3 − 〈a3, b1〉 b1 − 〈a3, b2〉 b2 = ⎛ ⎝ 0 2 1 ⎞ ⎠− 1√ 2 ⎛ ⎜ ⎝ 1√ 2 0 1√ 2 ⎞ ⎟ ⎠+ 1√ 2 ⎛ ⎜ ⎝ 1√ 2 0 − 1√ 2 ⎞ ⎟ ⎠ = ⎛ ⎝ 0 2 0 ⎞ ⎠ b3 = c3‖c3‖ = ⎛ ⎝ 0 1 0 ⎞ ⎠ Die Menge {b1, b2, b3} ist somit eine Orthonormalbasis des R3. 7.12 Orthogonale Komplemente und orthogonale Projektionen Zwei weitere wichtige Begriffe im Zusammenhang mit dem Orthogonalitätsbegriff sind das orthogonale Komplement einer Menge M und die orthogonale Projektion auf einen linearen Unterraum U . Orthogonale Komplemente Aufbauend auf dem Orthogonalitätsbegriff für einzelne Vektoren (vgl. Definition 7.14) wird das orthogonale Komplement einer Menge M ⊆ Rn wie folgt definiert: Definition 7.47 (Orthogonales Komplement) Zwei Teilmengen M,N ⊆ Rn heißen orthogonal (zueinander), wenn 〈x, y〉 = 0 für alle x ∈ M und y ∈ N gilt. Man schreibt dann M ⊥ N . Ferner wird die Teilmenge M⊥ := {x ∈ Rn : 〈x, y〉 = 0 für alle y ∈ M} als orthogonales Komplement von M ⊆ Rn bezeichnet. Gilt 〈z, x〉 = 0 für alle x ∈ M , dann schreibt man z ⊥M . Aus den Eigenschaften des Skalarprodukts folgt, dass das orthogonale Komplement M⊥ für jede Menge M ⊆ Rn ein linearer Unterraum des Rn ist. Denn für zwei beliebige Vek- 166 Kapitel 77.12 Orthogonale Komplemente und orthogonale Projektionen M M x 0 x2 x1 M M 0 ⊥ ⊥ Abb. 7.17: Veranschaulichung des orthogonalen Komplements M⊥ eines eindimensionalen linearen Unterraums M im R2 (links) und eines zweidimensionalen linearen Unterraums M im R3 (rechts) toren x1, x2 ∈ M⊥ gilt 〈x1 + x2, y〉 = 〈x1, y〉 + 〈x2, y〉 = 0 und 〈λx1, y〉 = λ 〈x1, y〉 = 0 für alle y ∈ M und λ ∈ R (vgl. Definition 7.28). Die Abbildung 7.17, links, zeigt den von einem Vektor x ∈ R2 aufgespannten eindimensionalen linearen Unterraum M = Lin {x} im R2 als Gerade durch den Ursprung 0. Das zugehörige orthogonale Komplement M⊥ besteht aus allen durch den Ursprung 0 verlaufenden Vektoren, die orthogonal zu dieser Geraden sind. In Abbildung 7.17, rechts ist der von den beiden Vektoren x1, x2 ∈ R3 aufgespannte zweidimensionale lineare Unterraum M = Lin {x1, x2} im R3 als Ebene durch den Ursprung 0 dargestellt. Das zugehörige orthogonale Komplement M⊥ wird von allen durch den Ursprung 0 verlaufenden Vektoren gebildet, die orthogonal zu dieser Ebene sind. Ferner ist das orthogonale Komplement des Nullraums {0} ⊆ Rn (7.41) durch {0}⊥ = Rn gegeben. Denn es gilt 〈0, x〉 = 0 für alle x ∈ Rn. Umgekehrt ist (Rn)⊥ = {0} (7.42) das orthogonale Komplement des n-dimensionalen euklidischen Raums. Denn ein Vektor x aus (Rn)⊥ muss zu allen Vektoren aus Rn orthogonal sein, also insbesondere auch zu sich selbst. Das heißt, es muss 0 = 〈x, x〉 = ‖x‖2 gelten. Dies impliziert jedoch x = 0. Sind M und N zwei beliebige orthogonale Teilmengen des R n, dann folgt aus den Eigenschaften des Skalarprodukts, dass jede Linearkombination von Vektoren aus M zu jeder Linearkombination von Vektoren aus N orthogonal ist, d. h. es gilt Lin(M) ⊥ Lin(N). Der folgende Satz fasst weitere wichtige Eigenschaften des orthogonalen Komplements zusammen: Satz 7.48 (Eigenschaften des orthogonalen Komplements) Es sei U ein linearer Unterraum des Rn. Dann gilt: a) dim(U)+ dim(U⊥) = n b) ( U⊥ )⊥ = U c) Jeder Vektor x ∈ Rn lässt sich eindeutig als Summe x = u + v mit u ∈ U und v ∈ U⊥ darstellen. Beweis: Zu a): Es sei m := dim(U). Dabei kann ohne Beschränkung der Allgemeinheit 1 ≤ m ≤ n − 1 angenommen werden, da in den beiden Fällen m = 0 und m = n die Aussage a) offensichtlich wahr ist (vgl. dazu (7.41) und (7.42)). Gemäß Satz 7.45 gibt es eine Orthonormalbasis {a1, . . . , am} von U , die zu einer Orthonormalbasis {a1, . . . , am, am+1, . . . , an} des Rn erweitert werden kann. Es gilt dann offensichtlich Lin {am+1, . . . , an} ⊆ U⊥. Ist umgekehrt x = n∑ i=1 λiai ∈ U⊥, (7.43) dann erhält man durch Bildung der Skalarprodukte mit a1, . . . , am ∈ U auf beiden Seiten der Gleichung (7.43) die Beziehungen λ1 = . . . = λm = 0. Folglich gilt x ∈ Lin {am+1, . . . , an} bzw. U⊥ ⊆ Lin {am+1, . . . , an} und damit insgesamt U⊥ = Lin {am+1, . . . , an}. 167 Kapitel 7 Euklidischer Raum Rn und Vektoren Zu b): Mit Rn=Lin {a1, . . . , an} und U⊥=Lin {am+1, . . . , an} aus dem Beweis der Aussage a) folgt (U⊥)⊥=Lin {a1, . . . , am} =U . Zu c): Es sei x = ∑ni=1 λiai ein beliebiger Vektor des Rn. Für u := m∑ i=1 λiai und v := n∑ i=m+1 λiai (7.44) gilt dann u ∈ U , v ∈ U⊥ und x = u + v. Da die Vektoren {a1, . . . , an} linear unabhängig sind, ist diese Darstellung eindeutig (vgl. Satz 7.36). Orthogonale Projektionen Aufbauend auf Satz 7.48c) kann nun der Begriff der orthogonalen Projektion auf einen linearen Unterraum U ⊆ Rn wie folgt definiert werden: Definition 7.49 (Orthogonale Projektion) Es sei U ein linearer Unterraum des Rn. Dann heißt die Abbildung PU : Rn −→ U, x %→ PU(x) mit x−PU(x)⊥U für alle x ∈ Rn orthogonale Projektion auf U . Für die orthogonale Projektion auf den linearen Unterraum gilt somit x − PU(x) ∈ U⊥ für alle x ∈ Rn und mit Satz 7.48c) folgt, dass die orthogonale Projektion PU auf einen linearen Unterraum U eindeutig ist. Ferner gilt x − (x − PU(x)) = PU(x) ⊥ U⊥ für alle x ∈ Rn. Folglich ist die orthogonale Projektion PU⊥ auf das orthogonale Komplement U⊥ gegeben durch PU⊥(x) = x − PU(x) bzw. PU(x)+ PU⊥(x) = x für alle x ∈ Rn (vgl. Abbildung 7.18, links). Der folgende Satz gibt an, wie die orthogonale Projektion auf den linearen Unterraum U auf einfache Weise berechnet werden kann: Satz 7.50 (Berechnung der orthogonalen Projektion) Es sei U ein linearer Unterraum des Rn mit der Orthonormalbasis {a1, . . . , am}. Dann ist die orthogonale Projektion auf den linearen Unterraum U gegeben durch PU(x) = m∑ i=1 〈x, ai〉 ai . (7.45) Beweis: Mit (7.39) und (7.44) erhält man PU(x) =∑m i=1〈x,ai〉 ai und damit die Behauptung. Aus diesem Satz folgt, dass die orthogonale Projektion PU auf einen linearen Unterraum U eine surjektive, aber nur im Falle U = Rn auch eine injektive Abbildung ist. PU (x) U 0 x PU (x) PU (x) U 0 x y PU (x)⊥ ⊥ Abb. 7.18: Orthogonale Projektion von x ∈ R3 auf den linearen UnterraumU (links) undPU (x)als beste Approximation von x ∈ R 3 durch einen Vektor aus U (rechts) Der Nutzen von Satz 7.50 wird im folgenden Beispiel deutlich: Beispiel 7.51 (Orthogonales Komplement und orthogonale Projektion) a) Gegeben sei der eindimensionale lineare Unterraum U = {x ∈ R2 : x1 = x2 } . Er besitzt das orthogonale Komplement U⊥ = {y ∈ R2 : y1 = −y2 } . Denn es gilt 〈x, y〉 = x1y1 + x2y2 = x1y1 + x1(−y1) = 0 für alle x ∈ U und y ∈ U⊥. Ferner seien a1 := ( 1√ 2 1√ 2 ) und a2 := ( − 1√ 2 1√ 2 ) . 168 Kapitel 77.12 Orthogonale Komplemente und orthogonale Projektionen Dann sind {a1} und {a2} Orthonormalbasen von U bzw. U⊥ und die orthogonalen Projektionen eines Vektors x ∈ R2 auf die beiden Unterräume U und U⊥ sind gegeben durch PU(x) = 〈x, a1〉 a1 = ( 1√ 2 x1 + 1√ 2 x2 ) a1 = ( 1 2 (x1 + x2) 1 2 (x1 + x2) ) bzw. PU⊥(x) = 〈x, a2〉 a2 = ( − 1√ 2 x1 + 1√ 2 x2 ) a2 = ( 1 2 (x1 − x2) 1 2 (x2 − x1) ) (vgl. Abbildung 7.19). b) Betrachtet wird der von dem Orthonormalsystem {b1, b2} mit b1 = ⎛ ⎜ ⎝ 1√ 2 0 1√ 2 ⎞ ⎟ ⎠ und b2 = ⎛ ⎜ ⎝ 1√ 2 0 − 1√ 2 ⎞ ⎟ ⎠ erzeugte, zweidimensionale lineare UnterraumU des R 3 (vgl. Beispiel 7.46). Die orthogonale Projektion des Vektors x = (1, 1, 2)T auf den linearen Unterraum U ist gegeben durch PU(x) = 〈x, b1〉 b1 + 〈x, b2〉 b2 = ( 1√ 2 + 0 +√2 ) b1+ ( 1√ 2 + 0 −√2 ) b2 = ⎛ ⎝ 3 2 0 3 2 ⎞ ⎠+ ⎛ ⎝ − 12 0 1 2 ⎞ ⎠ = ⎛ ⎝ 1 0 2 ⎞ ⎠ . Die große Bedeutung der orthogonalen Projektion PU(x) ist vor allem in dem folgenden Satz begründet. Er besagt, dass PU(x) die beste Approximation des Vektors x durch einen Vektor y aus dem linearen Unterraum U ist (vgl. auch Abbildung 7.18, rechts): Satz 7.52 (Optimalitätseigenschaft der orthogonalen Projektion) Es sei U ein linearer Unterraum des Rn. Dann gilt ‖x − PU(x)‖ = min y∈U ‖x − y‖ (7.46) für alle x ∈ Rn. x UU PU (x) PU (x)⊥ ⊥ Abb. 7.19: Orthogonale Projektion von x ∈ R2 auf einen eindimensionalen linearen Unterraum U und sein orthogonales Komplement U⊥ Beweis: Für jedes y ∈ U und x ∈ Rn gilt x − PU(x) ∈ U⊥ sowie PU(x)− y ∈ U , woraus x − PU(x) ⊥ PU(x)− y folgt. Zusammen mit dem Satz des Pythagoras (vgl. Satz 7.15b)) folgt daraus ‖x − y‖2 = ‖(x − PU(x))+ (PU (x)− y)‖2 = ‖x − PU(x)‖2 + ‖PU(x)− y‖2 ≥ ‖x − PU(x)‖2 und somit die Behauptung. Im folgenden Beispiel wird der große Nutzen orthogonaler Projektionen für die Wirtschaftswissenschaften anhand einer Anwendung aus der Statistik und Ökonometrie demonstriert: Beispiel 7.53 (Kleinste-Quadrate-Schätzer) F. Galton Die Optimalitätseigenschaft (7.46) orthogonaler Projektionen PU kann auch zur Ermittlung des sogenannten Kleinste-Quadrate-Schätzers im linearen Regressionsmodell verwendet werden. Als Begründer der „Regressionsanalyse“ gilt der britische Naturforscher Francis Galton (1822–1911), der ein Cousin des britischen Naturforschers Charles Robert 169 Kapitel 7 Euklidischer Raum Rn und Vektoren Darwin (1809–1882) war, dem Vater der modernen Evolutionstheorie. Galton beschäftigte sich u. a. mit Fragen zur Vererbung und untersuchte dabei insbesondere, wie die Körpergröße (erwachsener) Kinder mit der durchschnittlichen Körpergröße beider Elternteile zusammenhängt. Mit Hilfe der linearen Regressionsanalyse kann der lineare Zusammenhang zwischen einer Zielvariablen y und einer erklärenden Variablen x untersucht werden. Dabei wird unterstellt, dass dieser Zusammenhang nicht exakt gilt, sondern von zufälligen und latenten Einflüssen und Störungen überlagert wird, die sich im Mittel jedoch aufheben. Zum Beispiel wird im einfachen linearen Regressionsmodell y = β0 + β1x + ε (7.47) angenommen, dass die Zielvariable y bis auf eine Störvariable ε eine affin-lineare Funktion der erklärenden Variablen x ist. Durch β0+β1x wird somit der systematische Einfluss der erklärenden Variablen x auf die Zielvariable y beschrieben und durch die Störvariable ε werden die zufälligen Einflüsse und Störungen erfasst. Sind durch y1, . . . , yn und x1, . . . , xn jeweils n Beobachtungen für die Zielvariable y bzw. die erklärende Variable x gegeben, dann werden in der Regressionsanalyse die Parameter β0 und β1 im Modell (7.47) durch β̂0 und β̂1 so geschätzt, dass die Summe der quadrierten Abweichungen n∑ i=1 ( yi − β̂0 − β̂1xi )2 minimal ist, d. h. n∑ i=1 ( yi − β̂0 − β̂1xi )2 = min β0,β1∈R n∑ i=1 (yi − β0 − β1xi)2 (7.48) gilt. Mit den Vektoren y := ⎛ ⎜ ⎝ y1 ... yn ⎞ ⎟ ⎠ , x := ⎛ ⎜ ⎝ x1 ... xn ⎞ ⎟ ⎠ und 1 := ⎛ ⎜ ⎝ 1 ... 1 ⎞ ⎟ ⎠ sowie dem zweidimensionalen linearen Unterraum U := {u ∈ Rn : u = β01 + β1x für β0, β1 ∈ R} lässt sich das Optimierungsproblem (7.48) auch in der Form ∥∥y − β̂01 − β̂1x ∥∥ = min u∈U ‖y − u‖ schreiben. Mit Satz 7.52 folgt daher, dass PU(y) = β̂01+ β̂1x gilt. Aus y−PU(y) ⊥ U (vgl. Definition 7.49) ergeben sich für β̂01 + β̂1x die beiden folgenden Orthogonalitätsbedingungen: 1) y − (β̂01 + β̂1x) ⊥ 1, also 0 = 〈y − β̂01 − β̂1x, 1 〉 = n∑ i=1 ( yi − β̂0 − β̂1xi ) (7.49) und damit β̂0 = y − β̂1x mit y := 1 n n∑ i=1 yi (7.50) und x := 1 n n∑ i=1 xi . 2) y − (β̂01 + β̂1x) ⊥ x, also 0 = 〈y − β̂01 − β̂1x, x 〉 = n∑ i=1 ( yi − β̂0 − β̂1xi ) xi = n∑ i=1 ( yi − β̂0 − β̂1xi ) (xi − x) = n∑ i=1 ( (yi − y)− β̂1(xi − x) ) (xi − x), wobei die 2. Gleichung aus (7.49) folgt und sich die 4. Gleichung mit (7.50) ergibt. Durch eine einfache Umformung erhält man schließlich β̂1 = ∑n i=1(xi − x)(yi − y)∑n i=1(xi − x)2 . (7.51) Die Werte β̂0 und β̂1 werden als Kleinste-Quadrate- Schätzungen der Parameter β0 und β1 bezeichnet und die Gerade y = β̂0 + β̂1x heißt Regressionsgerade. 170 Kapitel 77.12 Orthogonale Komplemente und orthogonale Projektionen x y x1 x2 x3 x4 x5 x6 y1 y2 y3 y4 y5 y6 Abb. 7.20: Regresionsgerade y = 3,732 + 0,048x zu den Beobachtungen (xi , yi ) für i = 1, . . . , 6 Wurden z. B. für die Zielvariable y und die erklärende Variable x die Werte in der Tabelle 1 2 3 4 5 6 yi 6,4 7,6 6,8 7,9 9,3 10,8 xi 55 74 77 85 110 150 beobachtet, dann erhält man mit (7.50)–(7.51) die Kleinste-Quadrate-Schätzungen β̂0 = 3,732 und β̂1 = 0,048 für die Parameter β0 bzw. β1 (vgl. Abbildung 7.20). 171

Chapter Preview

References

Zusammenfassung

"uneingeschränkt zu empfehlen, [...] insbesondere als Einstiegslektüre im Bachelor-Studium". In: Studium, 2013.

So zentral die Rolle der Mathematik in der Ökonomie ist, so schwer tun sich die Studierenden mit mathematischen Methoden und Konzepten. Umso wichtiger ist es, die Studierenden bei ihrem aktuellen Wissensstand abzuholen und vorsichtig an den Stoff heranzuführen. Diesem Ziel verschreibt sich dieses Lehrbuch. Es führt mit vielen interessanten Beispielen aus der Ökonomie, kurzen Anekdoten und einem modernen mehrfarbigen Design in die zentralen mathematischen Methoden für ein erfolgreiches Wirtschaftsstudium ein, ohne dabei auf mathematische Klarheit sowie die notwendige Formalität und Stringenz zu verzichten. Auch nach dem Studium ist dieses Buch ein wertvoller Begleiter bei der mathematischen Lösung wirtschaftswissenschaftlicher Problemstellungen.

Aus dem Inhalt:

* Mathematische Grundlagen

* Lineare Algebra

* Matrizentheorie

* Folgen und Reihen

* Reellwertige Funktionen in einer und mehreren Variablen

* Differential- und Integralrechnung

* Optimierung mit und ohne Nebenbedingungen

* Numerische Verfahren

Dozenten finden auf der Website zum Buch unter www.vahlen.de zusätzliche Materialien zum Download.

"Indem Sie den Lehrstoff schrittweise aufbereiten und den Leser bei seinem aktuellen Wissenstand abholen, gelingt es ihnen [den Autoren], auch komplexe Zusammenhänge leicht nachvollziehbar zu vermitteln. Geschickt bauen sie immer wieder kurze Anekdoten, historische Ereignisse und überraschende Erkenntnisse in den Text ein". In: Studium, 2013.

Prof. Dr. Michael Merz ist Inhaber des Lehrstuhls für Mathematik und Statistik in den Wirtschaftswissenschaften an der Universität Hamburg. Prof. Dr. Mario V. Wüthrich forscht und lehrt am Department für Mathematik der ETH Zürich.