Content

8. Lineare Abbildungen und Matrizen in:

Michael Merz, Mario V. Wüthrich

Mathematik für Wirtschaftswissenschaftler, page 182 - 228

Die Einführung mit vielen ökonomischen Beispielen

1. Edition 2012, ISBN print: 978-3-8006-4482-7, ISBN online: 978-3-8006-4483-4, https://doi.org/10.15358/9783800644834_182

Bibliographic information
Kapitel8 Lineare Abbildungen und Matrizen Kapitel 8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen In diesem Abschnitt werden der Begriff der linearen Abbildung eingeführt und die Eigenschaften linearer Abbildungen untersucht. Bei linearen Abbildungen handelt es sich um höherdimensionale Abbildungen von Rn nach Rm, die sich durch eine besonders einfache Abbildungsvorschrift auszeichnen und sehr eng mit Matrizen zusammenhängen (siehe Abschnitt 8.4). Lineare Abbildungen sind wie folgt definiert: Definition 8.1 (Lineare Abbildung) Es seien U ⊆ Rn und V ⊆ Rm zwei lineare Unterräume. Eine Abbildung f : U −→ V heißt linear, falls sie die beiden folgenden Eigenschaften besitzt: a) f ist additiv, d. h. es gilt für alle x, y ∈ U f (x + y) = f (x)+ f (y). (8.1) b) f ist homogen, d. h. es gilt für alle x ∈ U und λ ∈ R f (λx) = λf (x). (8.2) Eine lineare Abbildung f : U −→ V besitzt somit die Eigenschaft, dass sie die auf den beiden linearen Unterräumen U und V jeweils definierte Vektoraddition „+“ und skalare Multiplikation „·“ respektiert: Das Bild f (x + y) der Summe zweier Vektoren x und y aus U ist gleich der Summe f (x)+f (y) der Bilder der beiden einzelnen Vektoren x und y. Analog stimmt das Bild f (λx) des skalaren Vielfachen eines Vektors x aus U mit dem skalaren Vielfachen λf (x) des Bildes des Vektors x überein. In diesem Sinne erhalten lineare Abbildungen f : U −→ V die strukturellen Eigenschaften der linearen Unterräume U und V . Im eindimensionalen Fall m = n = 1, d. h. von der Menge R der reellen Zahlen wieder nach R, sind lineare Abbildungen bereits aus der Schule wohlbekannt. Denn dies sind gerade die reellen Funktionen der Form f : R −→ R, x %→ a ·x mit a ∈ R, also Funktionen, deren Graph eine Gerade ist, welche durch den Ursprung (0, 0) verläuft. Dagegen sind reelle Funktionen der Bauart f : R −→ R, x %→ a · x + b mit b = 0, also Funktionen, deren Graph eine Gerade ist, die nicht durch den Ursprung (0, 0) verläuft, keine linearen Abbildungen. Sie werden deshalb als affin-linear bezeichnet. Die beiden Gleichungen (8.1)–(8.2) lassen sich zu der Gleichung f (λx + μy) = λf (x)+ μf (y) zusammenfassen, wobei x, y ∈ U und λ,μ ∈ R gilt. Durch vollständige Induktion kann man leicht zeigen, dass sich diese Eigenschaft zu f ( k∑ i=1 λixi ) = k∑ i=1 λif (xi ) für alle x1, . . . , xk ∈ U und λ1, . . . , λk ∈ R verallgemeinern lässt. Eine weitere elementare Eigenschaft einer linearen Abbildung f : U −→ V ist, dass der Nullvektor aus U stets auf den Nullvektor in V abgebildet wird, d. h. f (0) = 0 (8.3) gilt. Dies folgt aus (8.2) durch Einsetzen von λ = 0. Dabei wird, wie allgemein üblich, für den Nullvektor in Rn und den Nullvektor in Rm dieselbe Bezeichnung gewählt. x1 x2 x3 μPU (y) λPU (x) λPU (x) + μPU (y) U λx μy λx + μy Abb. 8.1: Linearität der orthogonalen ProjektionPU : R3 −→ U Beispiel 8.2 (Lineare Abbildungen) a) Es sei x ∈ Rm ein beliebiger Vektor. Dann ist die Abbildung f : R −→ Rm, r %→ rx linear. Denn es gilt für alle r, s ∈ R und λ,μ ∈ R f (λr + μs) = (λr + μs)x = λrx + μsx = λf (r)+ μf (s). 174 Kapitel 88.1 Lineare Abbildungen Im Fallm = 1 erhält man Funktionen, deren Graph in der zweidimensionalen euklidischen Ebene R2 eine Gerade durch den Ursprung (0, 0) ist. Im Allgemeinen beschreibt die Funktion f eine Gerade durch den Ursprung im n-dimensionalen euklidischen Raum. b) Die Summenbildung f : Rn −→ R, x %→ n∑ i=1 xi ist eine lineare Abbildung. Denn es gilt f (λx + μy) = n∑ i=1 (λxi + μyi) = λ n∑ i=1 xi + μ n∑ i=1 yi = λf (x)+ μf (y) für alle x, y ∈ Rn und λ,μ ∈ R. c) Die Abbildung f : R2 −→ R3, x %→ ⎛ ⎝ ax1 + bx2 cx1 + dx2 ex1 + f x2 ⎞ ⎠ ist für beliebige a, b, c, d, e, f ∈ R eine lineare Abbildung. Denn es gilt für alle x, y ∈ R2 und λ,μ ∈ R f (λx + μy) = ⎛ ⎝ a(λx1 + μy1)+ b(λx2 + μy2) c(λx1 + μy1)+ d(λx2 + μy2) e(λx1 + μy1)+ f (λx2 + μy2) ⎞ ⎠ = λ ⎛ ⎝ ax1 + bx2 cx1 + dx2 ex1 + f x2 ⎞ ⎠+ μ ⎛ ⎝ ay1 + by2 cy1 + dy2 ey1 + fy2 ⎞ ⎠ = λf (x)+ μf (y). x2 x1 x1 x2 x2 = x1 x f1(x) x f2(x) x1 x2 − x2 x1 Abb. 8.2: Spiegelung an der Winkelhalbierenden (links) und Drehung um 90◦ (rechts) als lineare Abbildungen d) Die orthogonale Projektion PU : Rn −→ U, x %→ PU(x) auf den linearen Unterraum U ⊆ Rn ist eine lineare Abbildung. Denn ist {a1, . . . , am} eine Orthonormalbasis von U , dann folgt mit Satz 7.50 und den Eigenschaften des euklidischen Skalarprodukts (vgl. Satz 7.8 d) und e)) PU(λx + μy) = m∑ i=1 〈λx + μy, ai〉 ai = λ m∑ i=1 〈x, ai〉 ai + μ m∑ i=1 〈y, ai〉 ai = λPU(x)+ μPU(y) für alle x, y ∈ Rn und λ,μ ∈ R (vgl. Abbildung 8.1). e) Analog zu a)-d) zeigt man, dass auch die beiden Abbildungen f1 : R2 −→ R2, x %→ (x2, x1)T und f2 : R2 −→ R2, x %→ (−x2, x1)T linear sind. Geometrisch veranschaulicht ordnet die lineare Abbildung f1 jedem Vektor x = (x1, x2)T sein Spiegelbild an der Winkelhalbierenden x2 = x1 zu, während die Abbildung f2 jeden Vektor x um den Winkel 90◦ gegen den Uhrzeigersinn dreht (vgl. Abbildung 8.2). 175 Kapitel 8 Lineare Abbildungen und Matrizen Kern und Bild einer linearen Abbildung Von zentraler Bedeutung für die Untersuchung der Eigenschaften einer linearen Abbildung f : U −→ V sind die Menge der Elemente von U , die von f auf den Nullvektor 0 ∈ V abgebildet werden, und die Teilmenge von V , die aus allen Bildern von f besteht. Dies motiviert die folgenden Bezeichnungen und Schreibweisen: Definition 8.3 (Kern und Bild einer linearen Abbildung) Es sei f : U −→ V eine lineare Abbildung. Dann gilt: a) Die Menge Kern(f ) := {x ∈ U : f (x) = 0} heißt Kern von f . b) Die Menge Bild(f ) := {y ∈ V : es gibt ein x mit y = f (x)} heißt Bild von f . In der Notation von Definition 6.24 bedeutet dies Kern(f ) = f −1({0}) und Bild(f ) = f (U). Aus (8.3) folgt, dass stets 0 ∈ Kern(f ), also Kern(f ) = ∅ (8.4) gilt. Die Linearität einer Abbildung f : U −→ V zwischen zwei linearen Unterräumen U und V hat zur Folge, dass auch der Kern und das Bild von f lineare Unterräume sind: Satz 8.4 (Kern und Bild sind lineare Unterräume) Es sei f : U −→ V eine lineare Abbildung. Dann ist Kern(f ) ein linearer Unterraum von U ⊆ Rn und Bild(f ) ist ein linearer Unterraum von V ⊆ Rm. Beweis: Zu Kern(f ): Es seien x, y ∈ Kern(f ) und λ,μ ∈ R beliebig gewählt. Dann folgt mit der Linearität von f f (λx + μy) = λf (x)+ μf (y) = 0. Das heißt, es gilt λx + μy ∈ Kern(f ) und der Kern von f ist somit ein linearer Unterraum von U ⊆ Rn. Zu Bild(f ): Es seien y1, y2 ∈ Bild(f ) und λ,μ ∈ R beliebig gewählt. Dann gibt es zwei Vektoren x1, x2 ∈ U mit f (x1) = y1 bzw. f (x2) = y2 und mit der Linearität von f folgt λy1 + μy2 = λf (x1)+ μf (x2) = f (λx1 + μx2). Es gilt somit λy1+μy2 ∈ Bild(f ) und das Bild von f ist daher ein linearer Unterraum von V ⊆ Rm. Aus Satz 8.4 erhält man für die Injektivität und den Kern einer linearen Abbildung den folgenden Zusammenhang: Folgerung 8.5 (Injektivität und Kern) Eine lineare Abbildung f : U −→ V ist genau dann injektiv, wenn Kern(f ) = {0} gilt. Beweis: Ist die lineare Abbildung f injektiv, dann ist x = 0 das einzige Element aus U mit f (x) = 0. Das heißt, es gilt Kern(f ) = {0}. Gilt umgekehrt Kern(f ) = {0} und sind x, y ∈ U zwei Vektoren mit f (x) = f (y), dann folgt f (x−y) = 0, also x−y = 0 bzw. x = y. Die lineare Abbildung f ist somit injektiv. Gemäß der Folgerung 8.5 genügt es bei der Untersuchung auf Injektivität einer linearen Abbildung f : U −→ V zu überprüfen, ob ausschließlich der Nullvektor 0 ∈ U auf den Nullvektor 0 ∈ V abgebildet wird. Beispiel 8.6 (Kern und Bild einer linearen Abbildung) a) Für die lineare Abbildung f : R −→ Rm, r %→ rx mit x ∈ Rm (vgl. Beispiel 8.2a)) gilt Kern(f ) = { {0} falls x = 0 R falls x = 0 . Die Abbildung f ist somit genau dann injektiv, d. h. Kern(f ) = {0}, wenn x = 0 gilt. b) Es sei U ein linearer Unterraum von Rn mit der Orthonormalbasis {a1, . . . , am} und PU : Rn −→ U , x %→ PU(x) sei die orthogonale Projektion auf U . Für die lineare Abbildung PU (vgl. Beispiel 8.2d)) erhält man mit (7.45) PU(x) = 0 ⇐⇒ 〈x, ai〉 = 0 für alle i = 1, . . . , m. Das heißt, es gilt PU(x) = 0 genau dann, wenn x ∈ U⊥ erfüllt ist. Folglich ist Kern(PU) = U⊥ und das Bild von PU ist gegeben durch Bild(PU) = U . Die orthogonale Projektion PU ist genau dann sowohl injektiv als auch surjektiv, kurz bijektiv, wenn U = Rn gilt. c) Für die beiden linearen Abbildungen f1 : R2 −→R2, x %→ (x2, x1)T und f2 : R2 −→R2, x %→ (−x2, x1)T 176 Kapitel 88.1 Lineare Abbildungen aus Beispiel 8.2c) gilt offensichtlich Kern(f1) = Kern(f2) = {0} und Bild(f1) = Bild(f2) = R2. Sie sind somit sowohl injektiv als auch surjektiv, also bijektiv. Dimensionsformel Der folgende Satz ist eines der wichtigsten Resultate im Zusammenhang mit linearen Abbildungen. Er besagt, dass eine lineare Abbildung f : U −→ V den linearen Unterraum stets derart aufteilt, dass die Dimension des Kerns von f plus der Dimension des Bildes von f gleich der Dimension des linearen Unterraums U ist. Satz 8.7 (Dimensionsformel) Für den Kern und das Bild einer linearen Abbildung f : U −→ V gilt dim (Kern(f ))+ dim (Bild(f )) = dim(U). (8.5) Beweis: Es sei p := dim (Kern(f )) und q := dim (Bild(f )). Fall q = 0: Dann gilt Bild(f ) = {0}, woraus Kern(f ) = U und damit insbesondere die Behauptung (8.5) folgt. Fall q ≥ 1: Die Vektoren a1, . . . , aq ∈ U seien so gewählt, dass { f (a1), . . . , f (aq) } ⊆ V eine Basis von Bild(f ) ist. Für p ≥ 1 sei B := {b1, . . . , bp } ⊆ U eine Basis von Kern(f ) und im Falle von p = 0 gelte B := ∅. Es wird nun gezeigt, dass die Menge M := {a1, . . . , aq } ∪ B eine Basis von U ist. Damit ist dann p + q = dim(U), also die Behauptung (8.5), nachgewiesen. M ist linear unabhängig: Es seien λ1, . . . , λq , μ1, . . . , μp reelle Zahlen mit der Eigenschaft q∑ i=1 λiai + p∑ j=1 μjbj = 0. (8.6) Wegen f (bj ) = 0 für j = 1, . . . , p folgt durch Anwendung von f auf beiden Seiten der Gleichung (8.6) q∑ i=1 λif (ai ) = 0. (8.7) Da jedoch die Menge { f (a1), . . . , f (aq) } nach Voraussetzung linear unabhängig ist, folgt aus (8.7) λ1 = . . . = λq = 0. Eingesetzt in (8.6) liefert dies p∑ j=1 μjbj = 0 und zusammen mit der linearen Unabhängigkeit von{ b1, . . . , bp } folgt daraus μ1 = . . . = μp = 0. Das heißt, der Nullvektor lässt sich nur auf triviale Weise als Linearkombination von Vektoren aus M darstellen. Die Menge M ist folglich linear unabhängig. M ist ein Erzeugendensystem von U : Es sei x ∈ U beliebig gewählt. Da { f (a1), . . . , f (aq) } nach Voraussetzung eine Basis von Bild(f ) ist, gibt es reelle Zahlen α1, . . . , αq mit der Eigenschaft f (x) = q∑ i=1 αif (ai ) bzw. f ( x − q∑ i=1 αiai ) = 0. Folglich gilt x − q∑ i=1 αiai ∈ Kern(f ) und es gibt somit reelle Zahlen β1, . . . , βp mit x − q∑ i=1 αiai = p∑ j=1 βjbj bzw. x = q∑ i=1 αiai + p∑ j=1 βjbj . Daraus folgt x ∈ Lin(M). Die Menge M ist somit ein linear unabhängiges Erzeugendensystem und damit insbesondere eine Basis von U . Mit Satz 8.7 erhält man, dass bei einer linearen Abbildung f : U −→ V die Dimension des Bildes von f nicht die Dimension der linearen Unterräume U und V übersteigt. Das heißt, es gilt stets dim (Bild(f )) ≤ min {dim(U), dim(V )} . (8.8) Denn aus 8.5 folgt dim (Bild(f ))≤dim(U) und Bild(f )⊆V (vgl. Definition 8.3b) impliziert dim (Bild(f )) ≤ dim(V ). Insgesamt gilt somit (8.8). Mit Hilfe der Folgerung 8.5 und dem Satz 8.7 lässt sich auch leicht die Gültigkeit des nächsten Resultats nachweisen. Es besagt u. a., dass eine lineare Abbildung f : U −→ V , bei welcher der Definitionsbereich U und der Bildbereich V dieselbe Dimension besitzen, genau dann injektiv ist, wenn sie surjektiv ist. 177 Kapitel 8 Lineare Abbildungen und Matrizen Folgerung 8.8 (Injektivität und Surjektivität bei einer linearen Abbildung) Es sei f : U −→ V eine lineare Abbildung. Dann gilt: a) f ist genau dann injektiv, wenn dim (Kern(f )) = 0. b) f ist genau dann surjektiv, wenn dim (Bild(f )) = dim(V ). c) Im Falle von dim(U) = dim(V ) ist f genau dann injektiv, wenn f surjektiv ist. Beweis: Zu a): Folgt unmittelbar aus Folgerung 8.5. Zu b): Die lineare Abbildung f ist genau dann surjektiv, wenn Bild(f ) = V gilt. Da gemäß Definition 8.3b) Bild(f ) ⊆ V gilt, ist dies genau dann der Fall, wenn dim (Bild(f )) = dim(V ) gilt. Zu c): Gemäß Aussage a) ist die Injektivität von f äquivalent zu dim (Kern(f )) = 0. Zusammen mit Satz 8.7 und der Voraussetzung dim(U) = dim(V ) impliziert dies dim (Bild(f )) = dim(V ). Wegen Bild(f ) ⊆ V folgt daraus Bild(f ) = V , d. h. die Surjektivität von f . 8.2 Matrizen J. J. Sylvester Die Bezeichnung Matrix wurde 1850 von dem englischen Mathematiker James Joseph Sylvester (1814–1897) eingeführt. Bei Matrizen handelt es sich um ein fundamentales Hilfsmittel der linearen Algebra. In Abschnitt 8.4 wird sich zeigen, dass zwischen Matrizen, linearen Abbildungen und linearen Gleichungssystemen eine sehr enge Beziehung besteht. Dieser Zusammenhang ermöglicht es zum einen mit linearen Abbildungen auf einfache und elegante Weise zu „rechnen“ und zum anderen lineare Gleichungssysteme mit Hilfe von Matrizen in einer übersichtlichen Form darzustellen und zu lösen. Wie die folgende Definition zeigt, ist eine Matrix im Wesentlichen nichts anderes als eine rechteckige Anordnung von reellen Zahlen: Definition 8.9 (Matrix) Eine zweidimensionale, rechteckige Anordnung reeller Zahlen aij ∈ R mit i = 1, . . . , m und j = 1, . . . , n bestehend aus m Zeilen und n Spalten der Form A := ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜ ⎝ a11 a12 · · · a1j · · · a1n a21 a22 · · · a2j · · · a2n ... ... ... ... ai1 ai2 · · · aij · · · ain ... ... ... ... am1 am2 · · · amj · · · amn ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟ ⎠ (8.9) heißt (reelle) m× n-Matrix, Matrix der Ordnung m× n oder auch Matrix der Dimension m×n. Die m ·n Zahlen aij werden als Einträge, Elemente oder auch Komponenten der Matrix A bezeichnet. Genauer ist durch aij der Eintrag in der i-ten Zeile und j -ten Spalte von A gegeben, wobei die Werte i und j Zeilen- bzw. Spaltenindex von A genannt werden. Besitzt die Matrix A genauso viele Zeilen wie Spalten, d. h. gilt m = n, dann heißt A quadratisch. Anstelle von (8.9) wird für eine m × n-Matrix oft auch die Kurzschreibweise A = (aij )m,n verwendet. Die Menge aller m× n-Matrizen wird mit M(m, n) bezeichnet. In dieser Definition wird gefordert, dass die Einträge aij einer Matrix reelle Zahlen sind. Sie trägt damit der Tatsache Rechnung, dass Matrizen in den meisten wirtschaftswissenschaftlichen Anwendungen ausschließlich reelle Einträge besitzen. Für Matrizen können jedoch problemlos und ohne Änderungen auch komplexe Einträge zugelassen werden. Matrizen werden üblicherweise mit lateinischen Großbuchstaben bezeichnet. Häufig erfolgt die Angabe der lateinischen Großbuchstaben – wie in diesem Lehrbuch – in Fettdruck. In manchen Fällen werden in (8.9) anstelle von runden Klammern auch eckige Klammern verwendet. Die m Zeilen ( ai1, ai2, . . . , ain ) := (ai1 ai2 . . . ain ) für i = 1, . . . , m heißen (n-dimensionale) Zeilenvektoren der Matrix A und die n Spalten ⎛ ⎜⎜⎜ ⎝ a1j a2j ... amj ⎞ ⎟⎟⎟ ⎠ 178 Kapitel 88.2 Matrizen für j = 1, . . . , n werden als (m-dimensionale) Spaltenvektoren von A bezeichnet. Die Menge M(m, 1) besteht aus allen m-dimensionalen Spaltenvektoren und die Menge M(1, n) aus allen n-dimensionalen Zeilenvektoren. Es gilt also M(m, 1) = Rm. Insbesondere entspricht der Spezialfall m = 1, d. h. die Menge M(1, 1), der Menge R der reellen Zahlen. Eine 1×1 Matrix A = (a) korrespondiert somit mit der reellen Zahl a, weshalb im Falle der Betrachtung von 1×1-Matrizen auf die beiden Matrixklammern verzichtet wird. Für einige Betrachtungen sind bei einer m× n-Matrix A = (aij )m,n die speziellen Einträge aii mit i = 1, . . . ,min {m, n} von Interesse. Zusammen bilden sie die sogenannte Hauptdiagonale der Matrix A: A = (aij )m,n = ⎛ ⎜⎜⎜ ⎝ a11 a12 · · · a1m · · · a1n a21 a22 · · · a2m · · · a2n ... ... . . . ... ... am1 am2 · · · amm · · · amn ⎞ ⎟⎟⎟ ⎠ Matrizen treten in den verschiedensten wirtschaftswissenschaftlichen Anwendungen auf: Beispiel 8.10 (Matrizen in den Wirtschaftswissenschaften) a) Betrachtet wird eine Unternehmung, die mit Hilfe von m Produktionsfaktoren F1, . . . , Fm die n verschiedenen Produkte P1, . . . , Pn herstellt. Zur Herstellung einer Mengeneinheit des Produktes Pj werden aij Mengeneinheiten des Produktionsfaktors Fi benötigt: Produktions- Produkte faktoren P1 P2 . . . Pn F1 a11 a12 . . . a1n F2 a21 a22 . . . a2n ... ... ... . . . ... Fm am1 am2 . . . amn Werden die Produktionskoeffizienten aij für i = 1, . . . , m und j = 1, . . . , n zu einer m× n-Matrix zusammengefasst, dann erhält man die Direktbedarfsmatrix A = (aij )m,n = ⎛ ⎜⎜⎜ ⎝ a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn ⎞ ⎟⎟⎟ ⎠ . Zum Beispiel gehört die 3 × 2-Direktbedarfsmatrix A = (aij )3,2 = ⎛ ⎝ 2 1 0 3 5 4 ⎞ ⎠ zu einem Unternehmen, das aus drei Produktionsfaktoren F1, F2 und F3 zwei Produkte P1 und P2 herstellt. Hierbei werden für die Produktion des ersten Produkts 2 Einheiten von F1, 0 Einheiten von F2 und 5 Einheiten von F3 benötigt. b) Wird eine Volkswirtschaft in n verschiedene Sektoren S1, . . . , Sn, wie z. B. Handel, Bau, Holzverarbeitung, Maschinenbau, Geldwirtschaft usw., eingeteilt, dann kann mit xij der Gesamtwert aller Lieferungen des Sektors Si in den Sektor Sj innerhalb einer vorgegebenen Bilanzperiode beschrieben werden. Die für den Endverbrauch vorgesehene Produktion des Sektors Si sei mit ei für i = 1, . . . , n bezeichnet. Der Endverbrauch kann als (n+1)-ter Sektor EV aufgefasst werden, der jedoch im Gegensatz zu den anderen n Sektoren nur Lieferungen empfängt und keine Lieferungen tätigt: Gesamtwert Sektoren Lieferungen S1 S2 . . . Sn EV S1 x11 x12 . . . x1n e1 S2 x21 x22 . . . x2n e2 ... ... ... . . . ... ... Sn xn1 xn2 . . . xnn en Die Koeffizienten vij := xijxi mit xi := ∑n j=1 xij + ei für i, j = 1, . . . , n heißen Input-Output- Koeffizienten und geben den Anteil an, der von Sektor Si an den Sektor Sj geliefert wird, damit Sj eine Einheit produzieren kann. Die Input-Output- Koeffizienten werden oft zu einer (quadratischen) n× n-Matrix 179 Kapitel 8 Lineare Abbildungen und Matrizen V = (vij )n,n = ⎛ ⎜⎜⎜ ⎝ v11 v12 · · · v1n v21 v22 · · · v2n ... ... . . . ... vn1 vn2 · · · vnn ⎞ ⎟⎟⎟ ⎠ zusammengefasst, die als Verflechtungsmatrix bezeichnet wird. In analoger Weise kann man auch die Außenwirtschaftsbeziehungen zwischen n Ländern in einer n× n-Matrix darstellen. Die Verflechtungsmatrix wird z. B. für sogenannte Input- Output-Analysen benötigt, die im Wesentlichen von dem russischen Wirtschaftswissenschaftler und Wirtschafts- W. Leontief nobelpreisträger Wassily Leontief (1905–1999) entwickelt wurde (siehe Beispiel 8.48). Sie hat die Untersuchung aller denkbaren Input-Output- Beziehungen der verschiedenen Sektoren einer Volkswirtschaft zum Gegenstand, indem die direkten und indirekten Beziehungen zwischen dem Einsatz von Produktionsfaktoren (Input) und den damit produzierten Gütern (Output) analysiert und systematisiert werden. Dieser volkswirtschaftliche Ansatz lässt sich jedoch auch auf betriebswirtschaftliche Analysen übertragen. c) Wird ein Handlungsreisender betrachtet, der an einem bestimmten Tag Kunden an n verschiedenen Orten O1, . . . , On aufsuchen möchte, dann kann mit aij die Entfernung zwischen den zwei Orten Oi und Oj angegeben werden. Die (quadratische) n × n-Matrix A = (aij )n,n aller Entfernungen aij heißt Entfernungsmatrix. Da es für die Entfernung zwischen zwei Orten Oi und Oj keine Rolle spielt, in welcher Reihenfolge sie besucht werden, gilt für eine Entfernungsmatrix stets aij = aji für alle i, j = 1, . . . , n. Ferner beträgt die Entfernung von einem Ort Oi zu sich selbst 0 und damit gilt aii = 0 für alle i = 1, . . . , n. Das heißt, eine n× n-Entfernungsmatrix ist stets von der Form A = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ 0 a12 · · · · · · a1n a12 0 · · · · · · a2n ... ... . . . ... ... ... . . . an−1n a1n a2n · · · an−1n 0 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ . Zum Beispiel gehört die 4 × 4-Matrix A = (aij )4,4 = ⎛ ⎜⎜ ⎝ 0 302 187 277 302 0 36 214 187 36 0 96 277 214 96 0 ⎞ ⎟⎟ ⎠ zu einem Handlungsreisenden, der Kunden an vier verschiedenen Orten O1,O2,O3 und O4 aufsuchen möchte. So beträgt die Entfernung zwischen den Orten O3 und O1 187 km und zwischen den Orten O3 und O2 36 km. Transponierte Matrizen Viele Eigenschaften von Matrizen lassen sich mit Hilfe von transponierten Matrizen einfacher formulieren. Definition 8.11 (Transponierte Matrix) Die zu einer m × n-Matrix A = (aij )m,n transponierte Matrix ist die durch a′ji := aij für i = 1, . . . , m und j = 1, . . . , n definierte n × m-Matrix AT = (a′ji )n,m. Die Matrix AT wird auch kurz als Transponierte von A bezeichnet. Der Übergang von einer Matrix zu ihrer Transponierten heißt Transponieren oder Transposition. Anschaulich gesprochen entsteht die transponierte Matrix AT durch Spiegelung der Einträge aij der Matrix A = (aij )m,n an der Hauptdiagonalen a11, a22, . . . , amm von A. Die i-te Spalte von A entspricht somit der i-ten Zeile von AT und die j -te Zeile von A korrespondiert mit der j -ten Spalte von AT . Das heißt, dass aus einer m × n-Matrix eine n × m-Matrix wird (vgl. Abbildung 8.3). Insbesondere gilt, dass die Transposition einer m×1-Matrix (d. h. eines m-dimensionalen Spaltenvektors) eine 1 × m- Matrix (d. h. einen m-dimensionalen Zeilenvektor) liefert. Die Transponierte der Matrix AT ist wieder gleich A, d. h. es gilt stets (AT )T = A. 180 Kapitel 88.2 Matrizen A = ⎛ ⎜⎜⎝ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 ⎞ ⎟⎟⎠ AT = ⎛ ⎜⎜⎜⎜⎝ 1 6 11 16 2 7 12 17 3 8 13 18 4 9 14 19 5 10 15 20 ⎞ ⎟⎟⎟⎟⎠ Transposition Abb. 8.3: Veranschaulichung der Transposition an einer 4 × 5-Matrix A Beispiel 8.12 (Transponierte Matrizen) Es seien A = ⎛ ⎜⎜ ⎝ 1 1 −3 −4 0 0 2 −1 −1 − 23−1 −4 1 −2 8 −6 0 −5 2 4 ⎞ ⎟⎟ ⎠ , B = ⎛ ⎜⎜⎜⎜ ⎝ 2 2 −1 −5 0 ⎞ ⎟⎟⎟⎟ ⎠ und C = (1,−2, 3) . Dann gilt AT = ⎛ ⎜⎜ ⎜⎜ ⎝ 1 0 −1 −6 1 2 −4 0 −3 −1 1 −5 −4 −1 −2 2 0 − 23 8 4 ⎞ ⎟⎟ ⎟⎟ ⎠ und ( AT )T = ⎛ ⎜⎜ ⎝ 1 1 −3 −4 0 0 2 −1 −1 − 23−1 −4 1 −2 8 −6 0 −5 2 4 ⎞ ⎟⎟ ⎠ = A sowie BT = (2, 2,−1,−5, 0) und CT = ⎛ ⎝ 1 −2 3 ⎞ ⎠ . In manchen Fällen ist es zweckmäßig, eine m × n-Matrix A = (aij )m,n als Zeilenvektor zu schreiben, dessen Einträge Spaltenvektoren sind: A = (b1, b2, . . . , bn ) mit b1 = ⎛ ⎜ ⎜⎜ ⎝ a11 a21 ... am1 ⎞ ⎟⎟ ⎟ ⎠ , b2 = ⎛ ⎜ ⎜⎜ ⎝ a12 a22 ... am2 ⎞ ⎟⎟ ⎟ ⎠ , . . . , bn = ⎛ ⎜ ⎜⎜ ⎝ a1n a2n ... amn ⎞ ⎟⎟ ⎟ ⎠ . (8.10) Entsprechend lässt sich die Matrix A als Spaltenvektor schreiben, dessen Einträge Zeilenvektoren sind: A = ⎛ ⎜⎜⎜ ⎝ cT1 cT2 ... cTm ⎞ ⎟⎟⎟ ⎠ mit c1 = ⎛ ⎜⎜⎜ ⎝ a11 a12 ... a1n ⎞ ⎟⎟⎟ ⎠ , c2 = ⎛ ⎜⎜⎜ ⎝ a21 a22 ... a2n ⎞ ⎟⎟⎟ ⎠ , . . . , cm = ⎛ ⎜⎜⎜ ⎝ am1 am2 ... amn ⎞ ⎟⎟⎟ ⎠ . (8.11) Relationen für Matrizen Auf der Menge M(m, n) der m×n-Matrizen lassen sich die folgenden Relationen definieren: Definition 8.13 (Vergleichsrelationen für Matrizen) Es seien A = (aij )m,n und B = (bij )m,n zwei Matrizen der Ordnung m× n. Dann gilt: a) A = B (gelesen: „A gleich B“), genau dann, wenn aij = bij für alle Indexpaare (i, j) b) A = B (gelesen: „A ungleich B“), genau dann, wenn aij = bij für mindestens ein Indexpaar (i, j) c) A ≤ B (gelesen: „A kleiner oder gleich B“), genau dann, wenn aij ≤ bij für alle Indexpaare (i, j) d) A < B (gelesen: „A kleiner B“), genau dann, wenn aij < bij für alle Indexpaare (i, j) Entsprechend sind A ≥ B (gelesen: „A größer oder gleich B“) und A > B (gelesen: „A größer B“) definiert Die Relationen in Definition 8.13 sind nur für Matrizen der gleichen Ordnung definiert. Aber auch bei Vorliegen zweier Matrizen A und B der gleichen Ordnung m×n ist es möglich, dass z. B. weder A ≥ B noch B ≥ A gilt. 181 Kapitel 8 Lineare Abbildungen und Matrizen Aus der Definition 8.13 ergeben sich unmittelbar die folgenden Implikationen: A = B ⇐⇒ A ≤ B ∧ A ≥ B A < B ⇒ A ≤ B A > B ⇒ A ≥ B A < B ⇒ A = B Die Relationen besitzen die folgenden Eigenschaften: Satz 8.14 (Eigenschaften der Vergleichsrelationen) Auf der Menge M(m, n) der m× n-Matrizen gilt: a) Die Relation „=“ ist reflexiv, transitiv, symmetrisch und antisymmetrisch, also eine Identitätsrelation. b) Die Relationen „≤“ und „≥“ sind reflexiv, transitiv und antisymmetrisch, also Ordnungsrelationen. c) Die Relationen „<“ und „>“ sind transitiv. Beweis: Zu a): Da die Gleichheitsrelation „=“ auf der Menge R der reellen Zahlen reflexiv, transitiv, symmetrisch und antisymmetrisch ist und die Relation R := {(A,B) ∈ M(m, n) × M(m, n) : A = B} komponentenweise über die Gleichheitsrelation „=“ auf R definiert ist, folgt, dass R eine Identitätsrelation auf der Menge M(m, n) ist (vgl. Beispiele 6.9b) und 6.12b)). Zu b) und c): Analog zu a) ergeben sich für die Relationen „≤“, „≥“, „<“ und „>“ auf der Menge M(m, n) die entsprechenden Eigenschaften. Beispiel 8.15 (Vergleichsrelationen für Matrizen) Gegeben seien die Matrizen A = ⎛ ⎝ 2 3 −1 4 −2 0 ⎞ ⎠ , B = ⎛ ⎝ 3 8 0 4 −2 1 ⎞ ⎠ , C = ⎛ ⎝ 10 10 8 6 −1 1 ⎞ ⎠ , D = ⎛ ⎝ 2 3 0 4 −2 0 ⎞ ⎠ , F = ⎛ ⎝ 2 3 −1 4 −2 0 ⎞ ⎠ und G = ⎛ ⎝ −5 6 −1 7 −3 0 ⎞ ⎠ . Dann gelten die Beziehungen A ≤ D ≤ B ≤ C, C > A, C > B und F = A. Die Matrix G steht dagegen bezüglich „=“, „≤“, „≥“, „<“ oder „>“ zu keiner der fünf Matrizen A,B,C,D und F in Relation. 8.3 Spezielle Matrizen In den folgenden Unterabschnitten werden Matrizen mit einer speziellen Struktur eingeführt, die in verschiedenen Betrachtungen von besonderer Bedeutung sind. Nullmatrizen und Einheitsmatrizen Die Nullmatrix und die Einheitsmatrix werden als neutrale Elemente bei der Addition bzw. der Multiplikation von Matrizen benötigt (siehe Abschnitt 8.5). Definition 8.16 (Nullmatrix und Einheitsmatrix) Es sei A = (aij )m,n eine m× n-Matrix. Dann gilt: a) Die Matrix A heißt Nullmatrix, wenn aij = 0 für alle i = 1, . . . , m und j = 1, . . . , n gilt. Man schreibt dann Om×n = ⎛ ⎜⎜⎜ ⎝ 0 0 . . . 0 0 0 . . . 0 ... . . . ... 0 . . . 0 0 ⎞ ⎟⎟⎟ ⎠ . b) Giltm = n, d. h. ist A eine quadratische n×n-Matrix, dann heißt A Einheitsmatrix, wenn aii = 1 für alle i = 1, . . . , n und aij = 0 für i = j gilt. Man schreibt dann En = ⎛ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 0 . . . 0 0 1 . . . ... ... . . . 0 0 . . . 0 1 ⎞ ⎟ ⎟⎟ ⎟⎟ ⎠ . (8.12) Ist die Ordnung einer Nullmatrix oder Einheitsmatrix aus dem Zusammenhang klar, dann wird auch O und E anstelle von Om×n bzw. En geschrieben. Die n Spaltenvektoren der Einheitsmatrix En stimmen offensichtlich mit den n Einheitsvektoren e1, . . . , en des Rn und die n Zeilenvektoren von En mit den transponierten Einheitsvektoren eT1 , . . . , e T n überein. Bei den n Spaltenvektoren und den m Zeilenvektoren der Nullmatrix Om×n handelt es sich um den m-dimensionalen Nullvektor 0 bzw. den n-dimensionalen transponierten Nullvektor 0T . 182 Kapitel 88.4 Zusammenhang zwischen linearen Abbildungen, Matrizen ... Diagonalmatrizen Von besonders einfacher Gestalt sind sogenannte Diagonalmatrizen: Definition 8.17 (Diagonalmatrix) Eine quadratische Matrix D = (dij )n,n mit dij = 0 für i = j heißt Diagonalmatrix. Sie ist von der Form D = ⎛ ⎜⎜⎜⎜⎜ ⎝ d11 0 . . . 0 0 d22 . . . ... ... . . . 0 0 . . . 0 dnn ⎞ ⎟⎟⎟⎟⎟ ⎠ . Häufig wird für die Diagonalmatrix D auch die Bezeichnung diag(d11, . . . , dnn) verwendet. Die Einträge einer Diagonalmatrix außerhalb der Hauptdiagonalen sind somit alle gleich 0. Zum Beispiel sind alle Einheitsmatrizen Diagonalmatrizen. Bei einer Diagonalmatrix können aber natürlich auch alle Einträge auf der Hauptdiagonalen gleich 0 sein. Beispiel 8.18 (Diagonalmatrizen) Die beiden quadratischen Matrizen A = ⎛ ⎝ 2 0 0 0 0 0 0 0 −4 ⎞ ⎠ und B = ( 7 0 0 −7 ) sind Diagonalmatrizen der Ordnung 3× 3 bzw. der Ordnung 2 × 2. Dreiecksmatrizen Für die Lösung von linearen Gleichungssystemen sind sogenannte Dreiecksmatrizen von großer Bedeutung. Man unterscheidet zwischen unteren und oberen Dreiecksmatrizen: Definition 8.19 (Untere und obere Dreiecksmatrix) Eine quadratische Matrix A = (aij )n,n mit aij = 0 für j > i heißt untere Dreiecksmatrix. Sie ist von der Form A = ⎛ ⎜⎜⎜⎜⎜ ⎝ a11 0 . . . 0 ... . . . ... ... . . . 0 an1 . . . . . . ann ⎞ ⎟⎟⎟⎟⎟ ⎠ . Gilt dagegen aij = 0 für i > j , dann heißt sie obere Dreiecksmatrix. Sie ist von der Form A = ⎛ ⎜⎜⎜⎜⎜ ⎝ a11 . . . . . . a1n 0 . . . ... ... . . . ... 0 . . . 0 ann ⎞ ⎟⎟⎟⎟⎟ ⎠ . Bei einer unteren Dreiecksmatrix sind also alle Einträge oberhalb und bei einer oberen Dreiecksmatrix alle Einträge unterhalb der Diagonalen gleich 0. Durch Transposition geht eine untere in eine obere Dreiecksmatrix über und umgekehrt. Untere und obere Dreiecksmatrizen werden oft unter der Bezeichnung Dreiecksmatrizen zusammengefasst. Zum Beispiel sind alle Diagonalmatrizen und damit insbesondere auch alle Einheitsmatrizen sowohl untere als auch obere Dreiecksmatrizen. Beispiel 8.20 (Untere und obere Dreiecksmatrizen) Bei den beiden quadratischen Matrizen A = ⎛ ⎝ 1 −1 4 0 0 2 0 0 2 ⎞ ⎠ und B = ⎛ ⎜⎜ ⎝ 2 0 0 0 −1 5 0 0 0 −1 −3 0 9 −2 1 4 ⎞ ⎟⎟ ⎠ handelt es sich um eine obere Dreiecksmatrix der Ordnung 3×3 bzw. um eine untere Dreiecksmatrix der Ordnung 4 × 4. 8.4 Zusammenhang zwischen linearen Abbildungen, Matrizen und linearen Gleichungssystemen Im Folgenden wird zum einen gezeigt, dass zwischen linearen Abbildungen f : Rn −→ Rm und m × n-Matrizen A eine eindeutige Beziehung besteht und zum anderen, dass sich ein 183 Kapitel 8 Lineare Abbildungen und Matrizen lineares Gleichungssystem der Ordnung m×n mit Hilfe einer m× n-Matrix A übersichtlich darstellen lässt. Zusammenhang zwischen linearen Abbildungen und Matrizen Im Folgenden sei A = (aij )m,n eine beliebige m× n-Matrix und fA die durch fA : Rn −→ Rm, x %→ fA(x) := ⎛ ⎜⎜⎜⎜⎜ ⎝ n∑ j=1 a1j xj ... n∑ j=1 amjxj ⎞ ⎟⎟⎟⎟⎟ ⎠ (8.13) definierte Abbildung. Für diese Abbildung gilt fA(λx + μy) = ⎛ ⎜⎜⎜⎜⎜ ⎝ n∑ j=1 a1j (λxj + μyj ) ... n∑ j=1 amj (λxj + μyj ) ⎞ ⎟⎟⎟⎟⎟ ⎠ = λ ⎛ ⎜⎜ ⎜⎜ ⎜ ⎝ n∑ j=1 a1j xj ... n∑ j=1 amjxj ⎞ ⎟⎟ ⎟⎟ ⎟ ⎠ + μ ⎛ ⎜ ⎜⎜ ⎜⎜ ⎝ n∑ j=1 a1j yj ... n∑ j=1 amjyj ⎞ ⎟⎟ ⎟⎟ ⎟ ⎠ = λfA(x)+ μfA(y). Das heißt, jede m×n-Matrix A definiert eine lineare Abbildung fA : Rn −→ Rm. Um zu zeigen, dass die Umkehrung dieser Aussage ebenfalls richtig ist, werden im Folgenden eine beliebige lineare Abbildung f : Rn −→ Rm und die kanonischen Basen {e1, . . . , en} und { e∗1, . . . , e ∗ m } des Rn bzw. Rm betrachtet. Dann gibt es eindeutig bestimmte reelle Zahlen aij für i = 1, . . . , m und j = 1, . . . , n, so dass f (ej ) = m∑ i=1 aije∗i für j = 1, . . . , n (8.14) gilt. Die reellen Zahlen a1j , . . . , amj sind die Koordinaten des Vektors f (ej ) ∈ Rm bezüglich der kanonischen Basis{ e∗1, . . . , e ∗ m } des Rm. Aus (8.14) und der Linearität von f folgt, dass f (x) für einen beliebigen Vektor x = ∑nj=1 xjej ∈ R n die Darstellung f (x) = f ⎛ ⎝ n∑ j=1 xjej ⎞ ⎠ = n∑ j=1 xjf (ej ) = n∑ j=1 m∑ i=1 aij xje∗i = ⎛ ⎜⎜⎜⎜⎜ ⎝ n∑ j=1 a1j xj ... n∑ j=1 amjxj ⎞ ⎟⎟⎟⎟⎟ ⎠ (8.15) besitzt. Das heißt, es gilt fA = f , wobei A die m×n Matrix A = ⎛ ⎜⎜⎜ ⎝ a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn ⎞ ⎟⎟⎟ ⎠ ist (vgl. (8.13)). Jeder linearen Abbildung f : Rn −→ Rm entspricht somit eine eindeutig bestimmte m × n-Matrix A derart, dass die Abbildungsvorschrift von f durch (8.15) gegeben ist. Die Matrix A wird als kanonische Matrix von f oder auch als die zur linearen Abbildung f gehörende Matrix bezeichnet und die Elemente der j -ten Spalte von A sind die Koordinaten des Vektors f (ej ) bezüglich der kanonischen Basis { e∗1, . . . , e ∗ m } des Rm. Diese Erkenntnisse werden im folgenden Satz noch einmal zusammengefasst: Satz 8.21 (Lineare Abbildungen und Matrizen) Jede m×n-Matrix A = (aij )m,n ist die kanonische Matrix genau einer linearen Abbildung fA : Rn −→ Rm und umgekehrt. Dabei besteht zwischen der linearen Abbildung fA und der kanonischen Matrix A = (aij )m,n die Beziehung fA : Rn −→ Rm, x %→ ⎛ ⎜ ⎜⎜ ⎜⎜ ⎝ n∑ j=1 a1j xj ... n∑ j=1 amjxj ⎞ ⎟ ⎟⎟ ⎟⎟ ⎠ . (8.16) Beweis: Siehe die Ausführungen vor diesem Satz. Aufgrund dieses Zusammenhangs ist es nicht notwendig, zwischen m×n-Matrizen und linearen Abbildungen von Rn nach Rm zu unterscheiden. Sie entsprechen sich in eindeutiger Weise. 184 Kapitel 88.4 Zusammenhang zwischen linearen Abbildungen, Matrizen ... Mit Hilfe von Satz 8.21 erhält man für die Transponierte AT einer Matrix A die folgende interessante und nützliche Interpretation: Satz 8.22 (Transposition und Skalarprodukt) Für die linearen Abbildungen fA und fAT zu einer m × n-Matrix A = (aij )m,n bzw. ihrer Transponierten AT = (a′ji )n,m gilt der Zusammenhang 〈fA(x), y〉 = 〈x, fAT (y)〉 für alle x ∈ Rn und y ∈ Rm. Beweis: Mit (8.16) und a′ji = aij für alle i = 1, . . . , m und j = 1, . . . , n folgt 〈 x, fAT (y) 〉 = n∑ j=1 ( m∑ i=1 a′jiyi ) xj = n∑ j=1 ( m∑ i=1 aij yi ) xj = m∑ i=1 ⎛ ⎝ n∑ j=1 aij xj ⎞ ⎠ yi = 〈fA(x), y〉 . Im folgenden Beispiel sind die kanonischen Matrizen zu einigen ausgewählten linearen Abbildungen aufgeführt: Beispiel 8.23 (Lineare Abbildungen und ihre kanonischen Matrizen) a) Die Identität IdRn : Rn −→ Rn, x %→ x ist offensichtlich eine lineare Abbildung und besitzt als kanonische Matrix die Einheitsmatrix En. b) Die lineare Abbildung f : R −→ Rm, r %→ rx mit x ∈ Rm aus Beispiel 8.2a) besitzt die kanonische m× 1-Matrix A = ⎛ ⎜ ⎝ x1 ... xm ⎞ ⎟ ⎠ . c) Zur linearen Abbildung f : Rn −→ R, x %→ n∑ i=1 xi aus Beispiel 8.2b) gehört die kanonische 1×n-Matrix A = (1, 1, . . . , 1) . d) Die lineare Abbildung f : R2 −→ R3, x %→ ⎛ ⎝ ax1 + bx2 cx1 + dx2 ex1 + f x2 ⎞ ⎠ aus Beispiel 8.2c) besitzt die kanonische 3×2-Matrix A = ⎛ ⎝ a b c d e f ⎞ ⎠ . e) Die orthogonale Projektion PU : R3 −→ U auf die euklidische Ebene U = R2 (vgl. Beispiel 8.2d) für n = 3) besitzt die kanonische 3 × 3-Matrix A = ⎛ ⎝ 1 0 0 0 1 0 0 0 0 ⎞ ⎠ . f) Zu den beiden linearen Abbildungen f1 : R2 −→ R 2, x %→ (x2, x1)T und f2 : R2 −→ R2, x %→ (−x2, x1)T aus Beispiel 8.2e) gehören die kanonischen 2 × 2-Matrizen A = ( 0 1 1 0 ) bzw. A = ( 0 −1 1 0 ) . Zusammenhang zwischen Matrizen und linearen Gleichungssystemen In Abschnitt 7.4 wurde bereits gezeigt, dass sich das lineare Gleichungssystem a11x1 + a12x2 + . . .+ a1nxn = b1 a21x1 + a22x2 + . . .+ a2nxn = b2 ... ... ... = ... (8.17) am1x1 + am2x2 + . . .+ amnxn = bm mit Hilfe der n Spaltenvektoren a1 := ⎛ ⎜⎜ ⎜ ⎝ a11 a21 ... am1 ⎞ ⎟ ⎟⎟ ⎠ , a2 := ⎛ ⎜⎜ ⎜ ⎝ a12 a22 ... am2 ⎞ ⎟ ⎟⎟ ⎠ , . . . , an := ⎛ ⎜⎜ ⎜ ⎝ a1n a2n ... amn ⎞ ⎟ ⎟⎟ ⎠ etwas kompakter darstellen lässt (vgl. (7.11)). Die kompakteste und für weitere Rechnungen oftmals auch praktikabelste 185 Kapitel 8 Lineare Abbildungen und Matrizen Darstellung erhält man jedoch mit Hilfe einer m×n-Matrix. Denn mit A := ⎛ ⎜ ⎝ a11 · · · a1n ... . . . ... am1 · · · amn ⎞ ⎟ ⎠ ︸ ︷︷ ︸ Koeffizientenmatrix bekannt , x := ⎛ ⎜ ⎝ x1 ... xn ⎞ ⎟ ⎠ ︸ ︷︷ ︸ Variablen unbekannt und b := ⎛ ⎜ ⎝ b1 ... bm ⎞ ⎟ ⎠ ︸ ︷︷ ︸ rechte Seite bekannt erhält man für (8.17) die äußerst prägnante Matrixform A x = b. (8.18) Die m×n-Matrix A wird als Koeffizientenmatrix des linearen Gleichungssystems (8.17) bezeichnet und die Menge aller Lösungen von (8.18) (bzw. (8.17)) ist gegeben durch L = {x ∈ Rn : A x = b}. Wie sich in Abschnitt 9.1 zeigen wird, hängt die Existenz und Eindeutigkeit einer Lösung des linearen Gleichungssystems ausschließlich von den Eigenschaften der Koeffizientenmatrix A ab. Dieser Zusammenhang erlaubt es, die Erkenntnisse über Matrizen bei der Untersuchung von linearen Gleichungssystemen einzusetzen. Beispiel 8.24 (Koeffizientenmatrizen linearer Gleichungssysteme) a) Das lineare Gleichungssystem in Beispiel 7.6a) lautet in Matrixform ( 1 1 1 −3 )( x1 x2 ) = ( 80 −40 ) . b) Das lineare Gleichungssystem in Beispiel 7.6b) lautet in Matrixform ( 2 1 2 3 0 2 )⎛ ⎝ x1 x2 x3 ⎞ ⎠ = ( 240 230 ) . 8.5 Matrizenalgebra In diesem Abschnitt werden mit der skalaren Multiplikation, Addition und Multiplikation die wichtigsten mathematischen Operationen für Matrizen eingeführt. Die Definition und Interpretation dieser Operationen ergibt sich in natürlicher Weise aus dem in Abschnitt 8.4 dargestellten engen Zusammenhang zwischen m× n-Matrizen und linearen Abbildungen f : Rn −→ Rm. Skalare Multiplikation und Addition von Matrizen Die skalare Multiplikation und Addition von Matrizen sind völlig analog zu der von Vektoren definiert: Definition 8.25 (Skalare Multiplikation und Addition von Matrizen) Es seien A = (aij )m,n und B = (bij )m,n zwei m × n- Matrizen und λ eine reelle Zahl. a) Die skalare Multiplikation der Matrix A mit der reellen Zahl λ ist definiert durch λA=λ ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... am1 . . . amn ⎞ ⎟ ⎠ := ⎛ ⎜ ⎝ λa11 . . . λa1n ... . . . ... λam1 . . . λamn ⎞ ⎟ ⎠ (8.19) und Aλ := λA. b) Die Addition der Matrizen A und B ist definiert durch A + B = ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... am1 . . . amn ⎞ ⎟ ⎠+ ⎛ ⎜ ⎝ b11 . . . b1n ... . . . ... bm1 . . . bmn ⎞ ⎟ ⎠ := ⎛ ⎜ ⎝ a11 + b11 . . . a1n + b1n ... . . . ... am1 + bm1 . . . amn + bmn ⎞ ⎟ ⎠ . (8.20) Das heißt, eine m×n-Matrix A wird mit einem Skalar λ multipliziert, indem alle m ·n Einträge aij von A mit dem Skalar λ multipliziert werden. Analog erhält man die Summe zweier m× n-Matrizen A und B, indem jeder der m · n Einträge aij von A mit dem jeweils entsprechenden Eintrag bij von B addiert wird. Dabei ist jedoch zu beachten, dass die Addition nur für zwei Matrizen der gleichen Ordnung definiert ist. Die Definitionen (8.19)–(8.20) sind durch den engen Zusammenhang zwischen m× n-Matrizen und linearen Abbildungen f : Rn −→ Rm motiviert. Denn für die durch die Matrizen A,B, λA und A + B induzierten linearen Abbildungen (vgl. 8.16) gilt nun fλA(x) = ⎛ ⎜⎜ ⎜⎜⎜ ⎝ n∑ j=1 λa1j xj ... n∑ j=1 λamjxj ⎞ ⎟⎟⎟ ⎟⎟ ⎠ = λ ⎛ ⎜⎜⎜ ⎜⎜ ⎝ n∑ j=1 a1j xj ... n∑ j=1 amjxj ⎞ ⎟⎟⎟ ⎟⎟ ⎠ = λfA(x) 186 Kapitel 88.5 Matrizenalgebra und fA+B(x)= ⎛ ⎜⎜⎜⎜⎜ ⎝ n∑ j=1 (a1j + b1j )xj ... n∑ j=1 (amj + bmj )xj ⎞ ⎟⎟⎟⎟⎟ ⎠ = ⎛ ⎜⎜⎜⎜⎜ ⎝ n∑ j=1 a1j xj ... n∑ j=1 amjxj ⎞ ⎟⎟⎟⎟⎟ ⎠ + ⎛ ⎜⎜⎜⎜⎜ ⎝ n∑ j=1 b1j xj ... n∑ j=1 bmjxj ⎞ ⎟⎟⎟⎟⎟ ⎠ =fA(x)+ fB(x) für alle x ∈ Rn und λ ∈ R. Aufgrund der komponentenweisen Definition der skalaren Multiplikation (8.19) und Addition (8.20) von m×n-Matrizen ergeben sich aus den Rechengesetzen für reelle Zahlen unmittelbar für Matrizen A,B,C ∈ M(m, n) und Skalare λ,μ ∈ R die folgenden Rechengesetze. Diese Rechenregeln entsprechen den Eigenschaften der Addition und skalaren Multiplikation von Vektoren im n-dimensionalen euklidischen Raum R n (vgl. Satz 7.3): a) Assoziativgesetze: A + (B + C) = (A + B)+ C (λμ)A = λ(μA) b) Kommutativgesetze: A + B = B + A λμA = μλA c) Distributivgesetze: λ(A + B) = λA + λB (λ+ μ)A = λA + μA d) Existenz von neutralen Elementen: 1 · A = A = A · 1 O + A = A = A + O e) Existenz eines inversen Elements: A + (−A) = O = −A + A f) Transposition: (A + B)T = AT + BT In den beiden folgenden Beispielen sind einige konkrete Rechenbeispiele für die skalare Multiplikation und Addition von Matrizen aufgeführt: Beispiel 8.26 (Skalare Multiplikation und Addition von Matrizen) a) Gegeben seien die drei 2 × 2-Matrizen A= ( 4 2 1 0 ) , B= ( 1 1 1 1 ) und C= (−2 −1 −3 −2 ) . Dann gilt zum Beispiel 3A − 2B + C = ( 8 3 −2 −4 ) und A − 10B − 3C = ( 0 −5 0 −4 ) . b) Gegeben seien die beiden 3 × 2-Matrizen A = ⎛ ⎝ 2 3 −1 0 4 −6 ⎞ ⎠ und B = ⎛ ⎝ 4 1 2 −3 0 4 ⎞ ⎠ . Dann gilt A + B = ⎛ ⎝ 6 4 1 −3 4 −2 ⎞ ⎠ , A − B = ⎛ ⎝ −2 2 −3 3 4 −10 ⎞ ⎠ , (A + B)T = ( 6 1 4 4 −3 −2 ) und AT + BT = ( 2 −1 4 3 0 −6 ) + ( 4 2 0 1 −3 4 ) = ( 6 1 4 4 −3 −2 ) = (A + B)T . Das folgende Beispiel demonstriert das Auftreten der skalaren Multiplikation und Addition von Matrizen in wirtschaftswissenschaftlichen Fragestellungen: Beispiel 8.27 (Wirtschaftswissenschaftliche Anwendungen) a) Betrachtet wird ein Hersteller, der vier Güter G1,G2,G3,G4 auf drei Maschinen M1,M2,M3 produziert. Die Produktionszeit aij (in Minuten) für eine 187 Kapitel 8 Lineare Abbildungen und Matrizen Einheit von Gut Gi auf der Maschine Mj sei gegeben durch die Einträge der 4 × 3-Matrix A = ⎛ ⎜⎜ ⎝ 4 5 2 5 2 4 5 4 6 2 8 2 ⎞ ⎟⎟ ⎠ . Beispielsweise werden für die Produktion einer Einheit von Gut G1 auf der Maschine M2 fünf Minuten benötigt. Werden von jedem Gut 10 Einheiten produziert, dann ergeben sich die Gesamtmaschinenbelegungszeiten zur Produktion von 10 Einheiten durch die Einträge der 4 × 3-Matrix 10A = ⎛ ⎜⎜ ⎝ 40 50 20 50 20 40 50 40 60 20 80 20 ⎞ ⎟⎟ ⎠ . b) Ein Betrieb produziert drei Güter G1,G2 und G3 und liefert sie an die vier HändlerH1, H2, H3 undH4. Die Einträge aij und bij in den beiden folgenden 3 × 4- Matrizen A bzw. B geben die Liefermengen von Gut Gi an den Händler Hj in den ersten beiden Halbjahren an: A = ⎛ ⎝ 12 8 0 20 7 5 20 10 14 4 6 15 ⎞ ⎠ und B = ⎛ ⎝ 13 12 5 10 13 7 8 20 12 8 7 15 ⎞ ⎠ Es gilt somit A + B = ⎛ ⎝ 25 20 5 30 20 12 28 30 26 12 13 30 ⎞ ⎠ und B − A = ⎛ ⎝ 1 4 5 −10 6 2 −12 10 −2 4 1 0 ⎞ ⎠ . Durch die Einträge der 3 × 4-Matrizen A + B und A−B sind der Jahresabsatz bzw. die Steigerung des Absatzes im 2. Halbjahr für die drei Güter Gi und die vier Händler Hj gegeben. Multiplikation von Matrizen Die Multiplikation zweier Matrizen A ∈ M(m,p) und B ∈ M(p, n) ist wie folgt definiert: Definition 8.28 (Multiplikation von Matrizen) Es seien A = (aij )m,p eine m×p-Matrix und B = (bij )p,n eine p × n-Matrix. Dann ist das Produkt von A und B eine m× n-Matrix und definiert durch A B = ⎛ ⎜ ⎝ a11 . . . a1p ... . . . ... am1 . . . amp ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ b11 . . . b1n ... . . . ... bp1 . . . bpn ⎞ ⎟ ⎠ := ⎛ ⎜⎜⎜⎜⎜ ⎝ p∑ k=1 a1kbk1 . . . p∑ k=1 a1kbkn ... . . . ... p∑ k=1 amkbk1 . . . p∑ k=1 amkbkn ⎞ ⎟⎟⎟⎟⎟ ⎠ . (8.21) Die Multiplikation zweier Matrizen A und B ist somit nur dann definiert, wenn die linke Matrix A genauso viele Spalten wie die rechte Matrix B Zeilen besitzt (sogenannte Konformität von A und B). Das resultierende Matrizenprodukt C = (cij )m,n = A B besitzt dann genauso viele Zeilen wie A und genauso viele Spalten wie B. Der Eintrag in der i-ten Zeile und j -ten Spalte von C, d. h. der Eintrag cij , berechnet sich durch paarweise Multiplikation der Einträge der i-ten Zeile von A mit den Einträgen der j -ten Spalte von B und Aufsummieren der p resultierenden Produkte: cij = ai1b1j + ai2b2j + . . .+ aipbpj = p∑ k=1 aikbkj (8.22) Mit anderen Worten: Der Eintrag cij ist gleich dem Skalarprodukt 〈 ai , bj 〉 der i-ten Zeile ai von A und der j -ten Spalte bj von B. Das Vorgehen bei der Multiplikation zweier Matrizen kann mit Hilfe des sogenannten Falkschen-Schemas veranschaulicht werden (vgl. Abbildung 8.4). Aus der benötigten Dimensionsvoraussetzung (Konformität) bei der Matrizenmultiplikation folgt, dass selbst dann, wenn das Produkt A B definiert ist, nicht notwendigerweise B A erklärt sein muss. Zum Beispiel ist für eine 3×3-Matrix A und eine 3×2-Matrix B sehr wohl das Produkt A B definiert, aber nicht das Produkt B A. Im Falle quadratischer Matrizen A und B derselben Ordnung 188 Kapitel 88.5 Matrizenalgebra a11 a12 . . . a1p a21 a22 . . . a2p ... ... . . . ... am1 am2 . . . amp ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ A : m Zeilen p Spalten b11 b12 . . . b1n b21 b22 . . . b2n ... ... . . . ... bp1 bp2 . . . bpn ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ B : p Zeilen n Spalten c11 c12 . . . c1n c21 c22 . . . c2n ... ... . . . ... cm1 cm2 . . . cmn ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ a 21 ·b 12 a 22 ·b 22 a 2p ·b p2 + + . . .+ C= AB : m Zeilen n Spalten Abb. 8.4: Veranschaulichung der Matrizenmultiplikation mit Hilfe des Falkschen-Schemas sind jedoch stets beide Produkte A B und B A definiert. Aber selbst dann, wenn für zwei Matrizen A und B beide Produkte A B und B A definiert sind, ist die Matrizenmultiplikation nicht kommutativ. Das heißt, im Allgemeinen gilt A B = B A. Zum Beispiel erhält man ⎛ ⎝ 3 3 1 0 5 2 ⎞ ⎠ ( 2 5 0 0 0 1 ) = ⎛ ⎝ 6 15 3 2 5 0 10 25 2 ⎞ ⎠ und ( 2 5 0 0 0 1 ) ⎛ ⎝ 3 3 1 0 5 2 ⎞ ⎠ = ( 11 6 5 2 ) . Für eine Begründung der Nicht-Kommutativität der Matrizenmultiplikation siehe Satz 8.29 sowie die anschließende Bemerkung. Aus der benötigten Dimensionsvoraussetzung (Konformität) und der fehlenden Kommutativität der Matrizenmultiplikation folgt insbesondere, dass bei Termen der Form A B + C A im Allgemeinen die Matrix A nicht ausgeklammert werden bzw. das Ausklammern von A ein falsches Ergebnis liefern kann. Aus demselben Grund kann ein Term der Form A B + B A nicht zu 2A B vereinfacht werden. 189 Kapitel 8 Lineare Abbildungen und Matrizen Für Matrizen A ∈ M(m,p) und B,F ∈ M(p, q) sowie C ∈ M(q, n) lässt sich die Gültigkeit der folgenden Rechenregeln durch Nachrechnen direkt nachweisen: a) Assoziativgesetz: (A B)C = A (B C) b) Distributivgesetze: A (B + F) = A B + A F (B + F)C = B C + F C c) Existenz eines neutralen Elements: A Ep = Em A = A d) Transposition: (A B)T = BT AT Die Existenz eines inversen Elements für die Matrizenmultiplikation wird in Abschnitt 8.7 gesondert untersucht. Die k-te Potenz einer quadratischen Matrix A ∈ M(n, n) ist für k ∈ N0 durch Ak := { En für k = 0 Ak−1 A für k ≥ 1 definiert. Neben Ak ∈ M(n, n) für alle k ∈ N0 gelten für die k-te Potenz die beiden Rechenregeln Ak Al = Ak+l = Al Ak und (Ak)l = Ak·l = (Al)k . Mit den Potenzen einer quadratischen Matrix kann folglich genauso gerechnet werden wie mit den Potenzen einer reellen Zahl. Analog zur skalaren Multiplikation und Addition von Matrizen in Definition 8.25 ist auch die Matrizenmultiplikation in Definition 8.28 durch den engen Zusammenhang zwischen Matrizen und linearen Abbildungen motiviert. Denn wie der folgende Satz zeigt, besitzt die Komposition fA◦fB : R n−→Rm zweier linearer Abbildungen fA : Rp−→Rm und fB : Rn −→ Rp mit den kanonischen Matrizen A bzw. B das Matrizenprodukt A B als kanonische Matrix: Satz 8.29 (Matrizenmultiplikation als Komposition linearer Abbildungen) Es seien fA : Rp −→ Rm und fB : Rn −→ Rp zwei lineare Abbildungen mit den kanonischen Matrizen A = (aij )m,p bzw. B = (bij )p,n. Dann ist die Komposition fA ◦ fB : Rn −→ Rm eine lineare Abbildung und das Produkt A B ist die kanonische Matrix von fA ◦ fB. Beweis: Es seien x, y ∈ Rn und λ,μ ∈ R beliebig gewählt. Mit der Linearität von fA und fB folgt dann (fA ◦ fB)(λx + μy) = fA (fB(λx + μy)) = fA (λfB(x)+ μfB(y)) = λfA (fB(x))+ μfA (fB(y)) = λ(fA ◦ fB) (x)+ μ(fA ◦ fB) (y) . Dies zeigt, dass die Abbildung fA ◦ fB : Rn −→ Rm ebenfalls linear ist. Es gelte nun z = fA(y) und y = fB(x) mit x ∈ Rn. Ferner seien A = (aij )m,p und B = (bij )p,n die kanonischen Matrizen von fA bzw. fB. Dann folgt mit (8.16), dass z und y durch zi = p∑ k=1 aikyk für i = 1, . . . , m bzw. yk = n∑ j=1 bkj xj für k = 1, . . . , p gegeben sind. Es gilt somit zi = p∑ k=1 aik n∑ j=1 bkj xj = n∑ j=1 p∑ k=1 aikbkj xj für i = 1, . . . , m. Setzt man cij := p∑ k=1 aikbkj für i = 1, . . . , m und j = 1, . . . , n, dann erhält man zi = n∑ j=1 cij xj für i = 1, . . . , m. Daraus folgt zusammen mit (8.16) und (8.22), dass das Matrizenprodukt C = (cij )m,n = A B die kanonische Matrix der Komposition fA ◦ fB ist. Da die Komposition von Abbildungen im Allgemeinen nicht kommutativ ist, liefert der Satz 8.29 insbesondere eine Begründung für die Nicht-Kommutativität der Matrizenmultiplikation. Der Rechenaufwand bei der Matrizenmultiplikation kann schnell sehr groß werden. Denn bei der Multiplikation einer m× p-Matrix A mit einer p× n-Matrix B müssen m · n · p Multiplikationen ausgeführt werden. Bei zwei Matrizen der Ordnung 1000 × 1000 ergibt dies bereits 109 Multiplikationen. 190 Kapitel 88.5 Matrizenalgebra Beispiel 8.30 (Multiplikation von Matrizen) a) Gegeben seien die vier Matrizen A = ⎛ ⎝ 1 3 0 2 4 −1 ⎞ ⎠ , B = ( 2 −1 3 2 ) , C = ( 7 −2 −1 3 0 4 2 −1 ) und F = ⎛ ⎜⎜ ⎝ −1 1 0 2 4 3 0 1 0 4 −2 −3 ⎞ ⎟⎟ ⎠ . Dann gilt A B = ⎛ ⎝ 1 3 0 2 4 −1 ⎞ ⎠ ( 2 −1 3 2 ) = ⎛ ⎝ 11 5 6 4 5 −6 ⎞ ⎠ und C F = ( 7 −2 −1 3 0 4 2 −1 ) ⎛ ⎜⎜ ⎝ −1 1 0 2 4 3 0 1 0 4 −2 −3 ⎞ ⎟⎟ ⎠ = ( 1 −8 −15 4 20 15 ) . Die Matrizenprodukte B A und F C sind dagegen nicht definiert. b) Betrachtet werden die beiden Matrizen A = ⎛ ⎜⎜ ⎝ 3 2 1 0 −1 3 0 2 ⎞ ⎟⎟ ⎠ und B = ( 1 1 1 −2 1 −1 ) . Man erhält A B = ⎛ ⎜⎜ ⎝ 3 2 1 0 −1 3 0 2 ⎞ ⎟⎟ ⎠ ( 1 1 1 −2 1 −1 ) = ⎛ ⎜⎜ ⎝ −1 5 1 1 1 1 −7 2 −4 −4 2 −2 ⎞ ⎟⎟ ⎠ und somit (A B)T = ⎛ ⎝ −1 1 −7 −4 5 1 2 2 1 1 −4 −2 ⎞ ⎠ . Dies stimmt überein mit BT AT = ⎛ ⎝ 1 −2 1 1 1 −1 ⎞ ⎠ ( 3 1 −1 0 2 0 3 2 ) = ⎛ ⎝ −1 1 −7 −4 5 1 2 2 1 1 −4 −2 ⎞ ⎠ . c) Gegeben seien die drei Matrizen A = ⎛ ⎝ 2 −1 0 2 4 1 ⎞ ⎠ , E3 = ⎛ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎠ und O3×3 = ⎛ ⎝ 0 0 0 0 0 0 0 0 0 ⎞ ⎠ . Dann erhält man E3 A= ⎛ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎠ ⎛ ⎝ 2 −1 0 2 4 1 ⎞ ⎠= ⎛ ⎝ 2 −1 0 2 4 1 ⎞ ⎠=A und O3×3 A= ⎛ ⎝ 0 0 0 0 0 0 0 0 0 ⎞ ⎠ ⎛ ⎝ 2 −1 0 2 4 1 ⎞ ⎠= ⎛ ⎝ 0 0 0 0 0 0 ⎞ ⎠=O3×2. Analog erhält man O2×3 A = O2×2, A O2×2 = O3×2, A O2×3 = O3×3 und A E2 = A. Das folgende Beispiel zeigt eine typische wirtschaftswissenschaftliche Anwendung der Matrizenmultiplikation: Beispiel 8.31 (Wirtschaftswissenschaftliche Anwendung) Ein Unternehmen produziert aus vier Einzelteilen T1, T2, T3, T4 drei Bauteile B1, B2, B3, aus denen anschließend zwei Endprodukte P1,P2 gefertigt werden. 191 Kapitel 8 Lineare Abbildungen und Matrizen den. Dabei bezeichnet aik die Anzahl der Einheiten von Ti , die zur Produktion einer Einheit von Bk benötigt wird und bkj die Anzahl der Einheiten von Bk , die zur Produktion einer Einheit von Pj eingesetzt werden muss. Die beiden folgenden Tabellen enthalten die Werte für diese Produktionskoeffizienten aik und bkj : Einzel- Bauteile teile B1 B2 B3 T1 5 2 3 T2 4 3 2 T3 2 6 5 T4 3 5 3 bzw. Bau- Produkte teile P1 P2 B1 1 2 B2 3 1 B3 2 3 In Matrizenschreibweise führt dies zu den beiden Matrizen A und B: A = (aik)4,3 = ⎛ ⎜⎜ ⎝ 5 2 3 4 3 2 2 6 5 3 5 3 ⎞ ⎟⎟ ⎠ bzw. B = (bkj )3,2 = ⎛ ⎝ 1 2 3 1 2 3 ⎞ ⎠ Weiter bezeichnet cij die Anzahl der Einheiten von Ti , die zur Produktion einer Einheit von Pj erforderlich ist. Dann gilt z. B. c11 = 5 · 1 + 2 · 3 + 3 · 2 = 17 bzw. allgemein cij = 3∑ k=1 aik · bkj . Dies führt zur folgenden Matrix C = (cij )4,2 zur Beschreibung der benötigten Einheiten der vier Einzelteile T1, T2, T3, T4 für die Produktion der beiden Produkte P1 und P2: C = (cij )4,2 = A B = ⎛ ⎜⎜ ⎝ 5 2 3 4 3 2 2 6 5 3 5 3 ⎞ ⎟⎟ ⎠ ⎛ ⎝ 1 2 3 1 2 3 ⎞ ⎠= ⎛ ⎜ ⎜ ⎝ 17 21 17 17 30 25 24 20 ⎞ ⎟ ⎟ ⎠ Sollen nun z. B. acht Einheiten des Produkts P1 und zehn Einheiten des Produkts P2 hergestellt werden, dann beberechnen sich die Stückzahlen der hierfür benötigten Einzelteile wie folgt: T1 : 17 · 8 + 21 · 10 = 346 T2 : 17 · 8 + 17 · 10 = 306 T3 : 30 · 8 + 25 · 10 = 490 T4 : 24 · 8 + 20 · 10 = 392 Mit dem Vektor a = ( 8 10 ) für die Stückzahlen der zu produzierenden Einheiten der beiden Produkte P1 und P2 erhält man dasselbe Ergebnis durch Berechnung des Matrizenprodukts C a = ⎛ ⎜ ⎝ 17 21 17 17 30 25 24 20 ⎞ ⎟ ⎠ ( 8 10 ) = ⎛ ⎜ ⎝ 346 306 490 392 ⎞ ⎟ ⎠ . Wichtige Spezialfälle der Matrizenmultiplikation Im Folgenden werden vier wichtige und häufig auftretende Spezialfälle der Matrizenmultiplikation betrachtet: a) Besonders einfach lässt sich das Produkt einer beliebigen n × n-Matrix A = (aij )n,n und einer Diagonalmatrix D derselben Ordnung berechnen. Dann resultiert bei Linksmultiplikation von D mit A D A = ⎛ ⎜ ⎜⎜ ⎝ d1 0 . . . 0 0 d2 0 ... . . . 0 0 . . . 0 dn ⎞ ⎟⎟ ⎟ ⎠ ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... an1 . . . ann ⎞ ⎟ ⎠ = ⎛ ⎜ ⎝ d1a11 . . . d1a1n ... . . . ... dnan1 . . . dnann ⎞ ⎟ ⎠ und bei Rechtsmultiplikation A D = ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... an1 . . . ann ⎞ ⎟ ⎠ ⎛ ⎜ ⎜⎜ ⎝ d1 0 . . . 0 0 d2 0 ... . . . 0 0 . . . 0 dn ⎞ ⎟ ⎟⎟ ⎠ = ⎛ ⎜ ⎝ d1a11 . . . dna1n ... . . . ... d1an1 . . . dnann ⎞ ⎟ ⎠ . 192 Kapitel 88.5 Matrizenalgebra Gilt für die Einträge auf der Hauptdiagonalen von D zusätzlich d1 = . . . = dn = d, dann folgt D A = A D = dA. Das heißt, in diesem Fall entspricht die Multiplikation mit D der skalaren Multiplikation der Matrix A mit der reellen Zahl d und ist somit insbesondere kommutativ. Die Matrix D wird deshalb oft auch als Skalarmatrix bezeichnet. b) Multipliziert man eine m × n-Matrix A = (aij )m,n mit einer n×1-Matrix, d. h. einem n-dimensionalen Spaltenvektor x, dann erhält man den m-dimensionalen Spaltenvektor A x = ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... am1 . . . amn ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ x1 ... xn ⎞ ⎟ ⎠ = ⎛ ⎜ ⎝ ∑n j=1 a1j xj ...∑n j=1 amjxj ⎞ ⎟ ⎠ . (8.23) Die lineare Abbildung x %→ A x stimmt folglich mit der linearen Abbildung fA in Satz 8.21 überein. Für die zur Matrix A gehörende lineare Abbildung fA gilt somit fA(x) = A x für alle x ∈ Rn. (8.24) Aus diesem Grund wird anstelle von fA oftmals einfach A x geschrieben. Mit (8.23) erhält man ferner, dass sich das Matrizenprodukt einer m × p-Matrix A und einer p×n-Matrix B mit den Spaltenvektoren b1, . . . , bn ∈ Rp darstellen lässt als A B = (A b1, . . . ,A bn ) . (8.25) Das heißt, dass die n Spaltenvektoren von A B durch die Vektoren A b1, . . . ,A bn ∈ Rm gegeben sind. c) Multipliziert man eine m × 1-Matrix, also einen mdimensionalen Spaltenvektor a, mit einer 1 × n-Matrix, d. h. einem n-dimensionalen Zeilenvektor b, dann resultiert eine m× n-Matrix: a b = ⎛ ⎜ ⎝ a1 ... am ⎞ ⎟ ⎠ ( b1, . . . , bn ) = ⎛ ⎜ ⎝ a1b1 . . . a1bn ... ... amb1 . . . ambn ⎞ ⎟ ⎠ In diesem Fall spricht man auch vom dyadischen oder tensoriellen Produkt und schreibt a ⊗ b. d) Bei der Multiplikation einer 1×n-Matrix a mit einer n×1- Matrix b erhält man das Skalarprodukt von a und b: a b = (a1, . . . , an ) ⎛ ⎜ ⎝ b1 ... bn ⎞ ⎟ ⎠ = n∑ i=1 aibi = 〈a, b〉 Beispiel 8.32 (Wirtschaftswissenschaftliche Anwendungen) a) Es wird ein Unternehmen betrachtet, das sechs Produkte P1, . . . , P6 verkauft. Die Verkaufsmengen xi und die Verkaufspreise pi (in €) für die sechs verschiedenen Produkte sind gegeben durch die Einträge in den beiden folgenden Spaltenvektoren x= ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ 5 9 2 28 0 17 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ bzw. p= ⎛ ⎜⎜⎜⎜⎜⎜ ⎝ 80 50 90 10 200 70 ⎞ ⎟⎟⎟⎟⎟⎟ ⎠ . Der Umsatz beträgt somit U = xT p = 〈x, p〉 = 6∑ i=1 xipi = 2500€. b) Betrachtet wird ein Markt mit drei konkurrierenden ProduktenP1, P2 undP3. Die Marktanteile dieser drei Produkte zum Zeitpunkt t betragen 0,3, 0,6 bzw. 0,1. Weiter bezeichnen für i, j = 1, 2, 3 die Werte aij den Anteil der Käufer von Produkt Pj zum Zeitpunkt t , die zum Zeitpunkt t + 1 das Produkt Pi kaufen. Das heißt, die Werte aij mit i = j entsprechen den „Wechselwahrscheinlichkeiten“ zwischen den drei Produkten und das Diagonalelement aii gibt die Wahrscheinlichkeit an, dass ein Käufer dem Produkt i treu bleibt. Diese Wahrscheinlichkeiten sind in der sogenannten Übergangsmatrix A = ⎛ ⎝ 0,5 0,2 0,1 0,2 0,4 0,3 0,3 0,4 0,6 ⎞ ⎠ (8.26) zusammengefasst (vgl. Abbildung 8.5). Die Einträge der Übergangsmatrix (8.26) sind alle nichtnegativ und die Summe der Werte in einer Spalte ist gleich Eins. Matrizen mit diesen beiden Eigenschaften werden als stochastische Matrizen bezeichnet und spielen auch 193 Kapitel 8 Lineare Abbildungen und Matrizen in vielen anderen Anwendungen eine wichtige Rolle (siehe auch Beispiel 10.12). Durch die Vektoren xt , xt+1, xt+2, . . . seien die Marktanteile zum Zeitpunkt t, t + 1, t + 2, . . . gegeben. Dabei gilt gemäß Annahme xt = ⎛ ⎝ 0,3 0,6 0,1 ⎞ ⎠ und die Marktanteile eine Periode später erhält man durch xt+1=A xt = ⎛ ⎝ 0,5 0,2 0,1 0,2 0,4 0,3 0,3 0,4 0,6 ⎞ ⎠ ⎛ ⎝ 0,3 0,6 0,1 ⎞ ⎠= ⎛ ⎝ 0,28 0,33 0,39 ⎞ ⎠. Falls die Übergangsmatrix A stationär – d. h. zeitlich konstant – ist, lassen sich die Marktanteile zum Zeitpunkt t + 2 auf analoge Weise berechnen und man erhält dann xt+2 =A xt+1= ⎛ ⎝ 0,5 0,2 0,1 0,2 0,4 0,3 0,3 0,4 0,6 ⎞ ⎠ ⎛ ⎝ 0,28 0,33 0,39 ⎞ ⎠= ⎛ ⎝ 0,245 0,305 0,45 ⎞ ⎠. Das heißt, die Marktanteile der drei Produkte P1, P2 und P3 zum Zeitpunkt t = 2 betragen 0,245, 0,305 bzw. 0,45. Alternativ kann man xt+2 berechnen durch xt+2 = A xt+1 = A (A xt ) = A2 xt = ⎛ ⎝ 0,32 0,22 0,17 0,27 0,32 0,32 0,41 0,46 0,51 ⎞ ⎠ ⎛ ⎝ 0,3 0,6 0,1 ⎞ ⎠ = ⎛ ⎝ 0,245 0,305 0,45 ⎞ ⎠ . Allgemein gilt für den Marktanteil zum Zeitpunkt t + n xt+n = An xt (8.27) für alle n ∈ N0. Im Marketing werden solche und ähnliche Fragestellungen bei der Untersuchung der Markentreue von Käufern analysiert. P1 P2 P3 0,5 0,4 0,6 0,3 0,1 0,4 0,3 0,2 0,2 Abb. 8.5: Graphische Veranschaulichung der Übergangswahrscheinlichkeiten für die drei Produkte P1, P2 und P3 8.6 Rang In Satz 8.21 und (8.24) wurde gezeigt, dass jede m × n- Matrix A die kanonische Matrix genau einer linearen Abbildung fA : Rn −→ Rm ist und A x = fA(x) für alle x ∈ Rn (8.28) gilt. Dies motiviert, die in Definition 8.3 für lineare Abbildungen eingeführten Begriffe Kern und Bild auch für Matrizen zu erklären, indem man für eine m× n-Matrix A Kern(A) := Kern(fA) und Bild(A) := Bild(fA) (8.29) definiert. Die linearen Unterräume Kern(A) und Bild(A) hei- ßen Kern bzw. Bild der Matrix A. Der Kern einer Matrix A, wird häufig auch als Nullraum der Matrix A bezeichnet. Mit (8.28) erhält man für den Kern und das Bild einer m × n- Matrix A die alternativen Darstellungen Kern(A)={x∈Rn :A x = 0} bzw. (8.30) Bild(A)={y∈Rm : es gibt ein x ∈ Rn mit y = A x}. (8.31) Die Dimension des linearen Unterraums Bild(A) von Rm spielt bei der Lösung von linearen Gleichungssystemen eine bedeutende Rolle. Aus diesem Grund wird im Folgenden mit dem Rang ein eigener Begriff für die Dimension von Bild(A) eingeführt: Definition 8.33 (Rang einer Matrix) Bei einer m×n-Matrix A wird rang(A) := dim (Bild(A)) als Rang der Matrix A bezeichnet. Für eine m × n-Matrix A gehört ein Vektor b ∈ Rm genau dann zum linearen Unterraum Bild(A), wenn es ein x ∈ Rn mit der Eigenschaft A x = b gibt. Also wenn a11x1 + a12x2 + . . .+ a1nxn = b1 a21x1 + a22x2 + . . .+ a2nxn = b2 ... ... ... = ... am1x1 + am2x2 + . . .+ amnxn = bm 194 Kapitel 88.6 Rang und damit x1 ⎛ ⎜⎜⎜ ⎝ a11 a21 ... am1 ⎞ ⎟⎟⎟ ⎠ ︸ ︷︷ ︸ =:a1 + x2 ⎛ ⎜⎜⎜ ⎝ a12 a22 ... am2 ⎞ ⎟⎟⎟ ⎠ ︸ ︷︷ ︸ =:a2 + . . .+ xn ⎛ ⎜⎜⎜ ⎝ a1n a2n ... amn ⎞ ⎟⎟⎟ ⎠ ︸ ︷︷ ︸ =:an = ⎛ ⎜⎜⎜ ⎝ b1 b2 ... bm ⎞ ⎟⎟⎟ ⎠ erfüllt ist. Das heißt, ein Vektor b ∈ Rm gehört genau dann zum linearen Unterraum Bild(A), wenn er eine Linearkombination der Spaltenvektoren a1, . . . , an der Matrix A ist. Folglich gilt Bild(A) = Lin {a1, . . . , an} . (8.32) Das Bild einer Matrix A ist somit gleich dem linearen Unterraum des Rm, der von den m-dimensionalen Spaltenvektoren a1, . . . , an der Matrix A erzeugt wird. Die Dimension von Bild(A), also der Rang der Matrix A, entspricht daher der maximalen Anzahl linear unabhängiger Spaltenvektoren von A und wie mit Folgerung 8.36 gezeigt wird, ist rang(A) auch gleich der maximalen Anzahl linear unabhängiger Zeilenvektoren von A. Der folgende Satz fasst die wichtigsten Eigenschaften des Kerns, des Bildes und des Rangs einer Matrix A zusammen: Satz 8.34 (Eigenschaften des Kerns, Bildes und Rangs einer Matrix) Es seien A eine m×p-Matrix und B eine p×n-Matrix. Dann gilt: a) rang(A) ≤ min {m,p} b) dim (Kern(A))+ rang(A) = p (Dimensionsformel) c) {0} ⊆ Kern(A) d) Kern(A) = {0} ⇐⇒ rang(A) = p e) Kern(A) = Bild(AT )⊥ f) rang(A) = rang(AT ) g) rang(A B) ≤ min {rang(A), rang(B)} Beweis: Zu a): Wegen Bild(A) ⊆ Rm gilt rang(A) = dim (Bild(A)) ≤ m und mit Bild(A) = Lin {a1, . . . , ap } (vgl. (8.32)) erhält man rang(A) ≤ p. Es gilt somit insgesamt rang(A) ≤ min {m,p}. Zu b): Folgt mit (8.29), Definition 8.33 und Satz 8.7 angewandt auf die lineare Abbildung fA : Rp −→ Rm. Zu c): Folgt unmittelbar aus (8.4) und (8.30) oder der Tatsache, dass Kern(A) ein linearer Unterraum ist. Zu d): Es gilt Kern(A) = {0} ⇔ dim (Kern(A)) = 0. Zusammen mit Aussage b) folgt daraus die Behauptung. Zu e): Mit Satz 8.22 erhält man für alle x ∈ Kern(A) und alle y ∈ Rm 0 = 〈fA(x), y〉 = 〈 x, fAT (y) 〉 . Das heißt, es gilt Kern(A) ⊆ Bild(AT )⊥ (vgl. Definition 7.47). Gilt umgekehrt x ∈ Bild(AT )⊥, dann folgt mit Satz 8.22 für alle y ∈ Rm 0 = 〈x, fAT (y) 〉 = 〈fA(x), y〉 . Dies impliziert fA(x) ∈ (Rm)⊥ = {0} (vgl. (7.42)), also x ∈ Kern(A). Es gilt somit auch Bild(AT )⊥ ⊆ Kern(A) und damit insgesamt die Behauptung Kern(A) = Bild(AT )⊥. Zu f): Mit Satz 7.48a) folgt p = dim ( Bild(AT ) ) + dim ( Bild(AT )⊥ ) . Daraus folgt zusammen mit Aussage e) und rang(AT ) = dim ( Bild(AT ) ) p = rang(AT )+ dim (Kern(A)) . In Kombination mit Aussage b) liefert dies dim (Kern(A))+ rang(A) = rang(AT )+ dim (Kern(A)) und damit die Behauptung rang(A) = rang(AT ). Zu g): Es seien b1, . . . , bn die Spaltenvektoren von B und r := rang(B). Da rang(B) die maximale Anzahl linear unabhängiger Spaltenvektoren von B angibt, sind beliebige r+1 Spaltenvektoren bk1 , . . . , bkr+1 der Matrix B linear abhängig. Damit sind aber auch beliebige r+1 Spaltenvektoren unter den Spaltenvektoren A b1, . . . ,A bn der Matrix A B linear abhängig. Denn für linear abhängige Vektoren bk1 , . . . , bkr+1 gilt ∑r+1 i=1 λibki = 0 mit mindestens einem λi = 0. Dies impliziert 0 = A ( r+1∑ i=1 λibki ) = r+1∑ i=1 λiA bki mit mindestens einem λi = 0. Das heißt, die Vektoren A bk1 , . . . ,A bkr+1 sind ebenfalls linear abhängig. Also ist rang(AB) ≤ r = rang(B). Analog erhält man rang(BT AT ) ≤ rang(AT ). Daraus folgt zusammen mit Aussage f) rang(AB)= rang((AB)T )= rang(BTAT )≤ rang(AT )= rang(A). Es gilt somit insgesamt die Behauptung g). Aufgrund des Satzes 8.34a) wird von einer m× n-Matrix A gesagt, dass sie den vollen Rang besitzt, wenn rang(A) = min {m, n} 195 Kapitel 8 Lineare Abbildungen und Matrizen gilt. Für eine quadratische n× n-Matrix A bedeutet ein voller Rang somit rang(A) = min {n, n} = n. Aufgrund ihrer großen Bedeutung wurde für quadratische Matrizen mit vollem Rang eine eigene Bezeichnung eingeführt: Definition 8.35 (Reguläre Matrix) Eine quadratische n × n-Matrix mit vollem Rang, d. h. mit rang(A) = n, heißt regulär. Besitzt eine quadratische n × n-Matrix dagegen nicht den vollen Rang, d. h. gilt rang(A) < n, wird sie als singulär bezeichnet. Mit Satz 8.34f) erhält man auch das folgende, auf den ersten Blick nicht offensichtliche Resultat, welches in der Literatur unter dem Namen Rangsatz bekannt ist: Folgerung 8.36 (Rangsatz) Die maximale Anzahl linear unabhängiger Spaltenvektoren und die maximale Anzahl linear unabhängiger Zeilenvektoren einer m× n Matrix A stimmen mit rang(A) überein. Beweis: Die Werte rang(A) und rang(AT ) geben die maximale Anzahl linear unabhängiger Spaltenvektoren von A bzw. AT an (siehe hierzu die Erläuterungen vor Satz 8.34). Da jedoch die Spalten von AT die Zeilen von A sind und nach Satz 8.34f) rang(A) = rang(AT ) gilt, folgt die Behauptung. Der Rangsatz besagt somit, dass der lineare Unterraum des R m, der durch die Spaltenvektoren einer m×n Matrix A erzeugt wird, stets die gleiche Dimension hat wie der durch die Zeilenvektoren von A aufgespannte lineare Unterraum des Rn. Beispiel 8.37 (Rang einer Matrix) a) Gegeben seien die folgenden Matrizen a = ⎛ ⎜⎜ ⎝ −2 0 1 −3 ⎞ ⎟⎟ ⎠ , E = ⎛ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎠ , A = ⎛ ⎝ 1 2 3 2 4 6 3 6 9 ⎞ ⎠ und B = ⎛ ⎝ 1 1 0 0 0 0 0 1 1 0 1 0 ⎞ ⎠ . Die Spalten der Matrizen a und E sind offensichtlich linear unabhängig. Es gilt somit rang(a) = 1 und rang(E) = 3. Dagegen sind die Spalten von A jeweils Vielfache voneinander. Man erhält somit rang(A) = 1. Für die Matrix B gilt, dass die zweite, dritte und vierte Spalte von B linear unabhängig sind, während die erste Spalte eine Linearkombination (genauer, die Summe) der zweiten und dritten Spalte ist. Folglich gilt rang(B) = 3. b) Für die vier Spaltenvektoren a1, a2, a3, a4 der 4×4- Matrix A = ⎛ ⎜⎜ ⎝ 2 −1 −10 4 −3 1 13 −5 0 2 8 −4 1 −2 −11 5 ⎞ ⎟⎟ ⎠ gilt: 2a3 = −6a1 + 8a2 a4 = a1 − 2a2 Ferner ist die Menge {a1, a2} linear unabhängig. Die maximale Anzahl linear unabhängiger Spaltenvektoren von A beträgt somit zwei und es gilt rang(A) = 2. Zusammen mit der Dimensionsformel (vgl. Satz 8.34b)) folgt daraus für die Dimension des Kerns dim (Kern(A)) = 4 − rang(A) = 2. In Abschnitt 9.6 wird gezeigt, wie der Rang einer Matrix beliebig großer Ordnung mit Hilfe des Gauß-Algorithmus berechnet werden kann. Zum Abschluss dieses Abschnitts liefert das folgende Resultat für lineare Abbildungen fA : Rn −→ Rm eine Charakterisierung der Eigenschaften Injektivität, Surjektivität und Bijektivität anhand des Rangs der zugehörigen kanonischen Matrix A: Folgerung 8.38 (Injektivität, Surjektivität, Bijektivität und Rang) Für eine lineare Abbildung fA : Rn −→ Rm, x %→ A x gilt: a) fA ist injektiv ⇐⇒ rang(A) = n b) fA ist surjektiv ⇐⇒ rang(A) = m c) fA ist bijektiv ⇐⇒ rang(A) = n = m 196 Kapitel 88.7 Inverse Matrizen Beweis: Zu a): Mit Folgerung 8.8a) und Satz 8.34b) erhält man, dass rang(A) = dim (Bild(A)) = n genau dann gilt, wenn fA injektiv ist. Zu b): Mit Folgerung 8.8b) erhält man, dass rang(A) = dim (Bild(A)) = m genau dann gilt, wenn fA surjektiv ist. Zu c): Eine Abbildung ist per Definition genau dann bijektiv, wenn sie injektiv und surjektiv ist. Mit den Aussagen a) und b) erhält man somit, dass die lineare Abbildung fA genau dann bijektiv ist, wenn rang(A) = n = m gilt. 8.7 Inverse Matrizen In der Menge der reellen Zahlen R existiert bekanntlich für jede reelle Zahl a ∈ R \ {0} genau ein b ∈ R mit der Eigenschaft b a = 1. Diese reelle Zahl b ist durch a−1 = 1 a gegeben und wird als inverses Element oder Kehrwert der reellen Zahl a ∈ R\{0} bezeichnet (vgl. Abschnitt 3.3). Das inverse Element dient z. B. zur Auflösung von Gleichungen nach einer Unbekannten x: a x = c ⇐⇒ a−1a x = a−1c ⇐⇒ 1 · x = a−1c ⇐⇒ x = c a . Analog zum inversen Element einer reellen Zahl ist man auch im Zusammenhang mit einer quadratischen Matrix A ∈ M(n, n) an einer quadratischen Matrix B ∈ M(n, n) mit der Eigenschaft B A = E (8.33) interessiert. Denn mit einer solchen Matrix B erhält man A x = c ⇐⇒ B A x = B c ⇐⇒ E x = B c ⇐⇒ x = B c. Das heißt, mit einer quadratischen Matrix B ∈ M(n, n) mit der Eigenschaft (8.33) kann eine Gleichung der Form A x = c, also ein lineares Gleichungssystem (siehe Abschnitt 8.4), nach dem Vektor x aufgelöst werden. Darüber hinaus spielen Matrizen mit der Eigenschaft (8.33) in vielen weiteren Bereichen der linearen Algebra eine wichtige Rolle. Dies motiviert die folgende Definition: Definition 8.39 (Inverse Matrix) Es sei A eine quadratische n×n-Matrix. Dann heißt eine quadratische n× n-Matrix B mit der Eigenschaft B A = E = A B inverse Matrix (kurz: Inverse) von A und die Matrix A wird invertierbar genannt. Die Matrix B wird im Falle ihrer Existenz mit A−1 := B bezeichnet. Eine Matrix A, die keine Inverse besitzt, wird als nicht invertierbar bezeichnet. Der folgende Satz besagt, dass die Inverse einer quadratischen Matrix im Falle ihrer Existenz eindeutig bestimmt ist: Satz 8.40 (Eindeutigkeit der inversen Matrix) Die Inverse einer quadratischen n × n-Matrix A ist im Falle ihrer Existenz eindeutig. Beweis: Es seien B und C zwei n × n-Matrizen mit der Eigenschaft B A = A B = E bzw. C A = A C = E. Dann folgt B = E B = (C A)B = C (A B) = C E = C. Das heißt, es gilt B = C. Dieses Ergebnis hat die wichtige Konsequenz, dass ein quadratisches lineares Gleichungssystem A x = c der Ordnung n×n mit invertierbarer Koeffizientenmatrix A und beliebiger rechter Seite c ∈ Rn stets genau eine Lösung besitzt. Diese Lösung erhält man mit Hilfe der Inversen A−1 durch Multiplikation von links auf die beiden Seiten des linearen Gleichungsystems: A−1 A x = A−1 c ⇐⇒ E x = A−1 c ⇐⇒ x = A−1 c Der Lösungsraum ist folglich gegeben durch L = {A−1 c} (vgl. Beispiel 8.42). Dieses schöne Ergebnis besitzt jedoch den erheblichen Nachteil, dass die Berechnung der Inversen einer invertierbaren Matrix in den meisten Fällen relativ aufwendig ist. Die Lösung eines quadratischen linearen Gleichungssystems A x = c mit invertierbarer Koeffizientenmatrix A erfolgt deshalb in der Regel nicht mittels der inversen Matrix A−1, sondern in den meisten Fällen werden dazu andere, effizientere und allgemeinere Verfahren, wie z. B. der Gauß-Algorithmus (siehe Abschnitt 9.5), eingesetzt. 197 Kapitel 8 Lineare Abbildungen und Matrizen Der folgende Satz besagt, dass eine bijektive lineare Abbildung fA : Rn −→ Rn, x %→ A x eine lineare Umkehrabbildung f −1A : Rn −→ Rn mit der kanonischen Matrix A−1 besitzt: Satz 8.41 (Umkehrabbildung einer bijektiven linearen Abbildung) Es sei fA : Rn −→ Rn, x %→ A x eine bijektive lineare Abbildung mit der kanonischen n×n-Matrix A. Dann ist auch die Umkehrabbildung f −1A : Rn −→ Rn linear und besitzt als kanonische n× n-Matrix die Inverse A−1 der Matrix A. Beweis: Die Vektoren y1, y2 ∈ Rn und die Skalare λ,μ ∈ R seien beliebig gewählt. Dann existieren aufgrund der Bijektivität von fA eindeutig bestimmte Vektoren x1, x2 ∈ Rn mit fA(x1) = y1 und fA(x2) = y2. Zusammen mit der Linearität von fA folgt daraus f−1A (λy1 + μy2) = f−1A (λfA(x1)+ μfA(x2)) = f−1A (fA(λx1 + μx2)) = λx1 + μx2 = λf−1A (y1)+ μf−1A (y2) . Das heißt, die Abbildung f−1A ist linear. Für die beiden linearen Abbildungen fA : Rn −→ Rn und f−1A : Rn −→ Rn gilt f−1A ◦ fA = fA ◦ f−1A = IdRn (8.34) (vgl. Satz 6.33c)). Bezeichnet B die kanonische Matrix der Umkehrabbildung f−1A : Rn −→ Rn, dann folgt mit Satz 8.29, dass auch die beiden Kompositionen f−1A ◦fA und fA ◦f−1A lineare Abbildungen sind, welche die kanonischen Matrizen B A bzw. A B besitzen. Da die Identität IdRn die n × n-Einheitsmatrix E als kanonische Matrix besitzt, impliziert dies zusammen mit (8.34) B A = A B = E. Die kanonische Matrix B der Umkehrabbildung f−1A :Rn−→Rn ist somit die Inverse A−1 der Matrix A. Beispiel 8.42 (Inverse Matrizen) Die beiden Matrizen A = ( 1 1 0 1 ) und B = ⎛ ⎝ 1 1 0 3 5 2 2 1 1 ⎞ ⎠ sind invertierbar. Die Inversen von A und B sind gegeben durch A−1 = ( 1 −1 0 1 ) bzw. B−1 = ⎛ ⎜ ⎝ 3 4 − 14 12 1 4 1 4 − 12 − 74 14 12 ⎞ ⎟ ⎠ . Denn es gilt A−1 A = ( 1 −1 0 1 )( 1 1 0 1 ) = ( 1 0 0 1 ) = A A−1 und B−1 B= ⎛ ⎜ ⎝ 3 4 − 14 12 1 4 1 4 − 12 − 74 14 12 ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ 1 1 0 3 5 2 2 1 1 ⎞ ⎟ ⎠= ⎛ ⎜ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎟ ⎠ =B B−1. Gilt zum Beispiel b = ( 2 1 ) und c = ⎛ ⎝ −1 3 −2 ⎞ ⎠ , dann besitzen die beiden linearen Gleichungssysteme A x = b und B x = c die jeweils eindeutige Lösung ( 1 −1 0 1 )( 2 1 ) = ( 1 1 ) bzw. ⎛ ⎜ ⎝ 3 4 − 14 12 1 4 1 4 − 12 − 74 14 12 ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ −1 3 −2 ⎞ ⎟ ⎠ = ⎛ ⎜ ⎝ − 52 3 2 3 2 ⎞ ⎟ ⎠ . Bedauerlicherweise besitzt nicht jede quadratische Matrix eine Inverse. Betrachtet man zum Beispiel die Matrix A = ( 1 0 0 0 ) , dann gilt ( 1 0 0 0 )( u v w x ) = ( u v 0 0 ) = ( 1 0 0 1 ) = E für alle u, v,w, x ∈ R. Das heißt, die Matrix A besitzt keine Inverse und ist somit nicht invertierbar. Eine quadratische n×n-Matrix A ist genau dann invertierbar, wenn sie den vollen Rang rang(A) = n besitzt, also regulär ist: 198 Kapitel 88.7 Inverse Matrizen Satz 8.43 (Äquivalenz von Invertierbarkeit und Regularität) Eine n×n-Matrix A besitzt genau dann eine Inverse A−1, wenn sie regulär ist, also rang(A) = n gilt. Beweis: Besitzt die n×n-Matrix A die Inverse A−1, dann folgt A x = 0 ⇐⇒ A−1 A x = A−10 ⇐⇒ x = 0. Das heißt, es gilt Kern(A) = {0} und somit auch rang(A) = n (vgl. Satz 8.34d)). Es sei nun umgekehrt angenommen, dass rang(A) = n gilt. Dann ist die lineare Abbildung fA : Rn −→ Rn, x %→ A x bijektiv (vgl. Folgerung 8.38c)) und die Umkehrabbildung f−1A : Rn −→ Rn von fA ist gemäß Satz 8.41 linear mit der Inversen A−1 von A als kanonische Matrix. Eine quadratische n× n-Matrix A ist also genau dann nicht invertierbar, wenn sie singulär ist, d. h. rang(A) < n gilt. Die relativ aufwendige Berechnung der Inversen A−1 einer n×n-Matrix kann im Falle ihrer Existenz zum Beispiel mit Hilfe des Gauß-Algorithmus (siehe Abschnitt 9.5) oder der sogenannten Inversenformel (siehe Satz 8.75) erfolgen. Für 2 × 2-Matrizen, Diagonalmatrizen und sogenannte orthogonalen Matrizen (siehe Abschnitt 8.8) ist die Berechnung der Inversen dagegen sehr einfach. Im Falle von 2× 2-Matrizen existiert die folgende einprägsame Formel zur Berechnung der Inversen: Satz 8.44 (Inverse einer 2 × 2-Matrix) Eine 2 × 2-Matrix A = ( a b c d ) ist genau dann invertierbar, wenn ad − bc = 0 gilt. Die Inverse ist dann gegeben durch A−1 = 1 ad − bc ( d −b −c a ) . Beweis: Der Beweis erfolgt durch Nachrechnen: 1 ad − bc ( d −b −c a )( a b c d ) = 1 ad − bc ( ad − bc 0 0 ad − bc ) = ( 1 0 0 1 ) = E Analog erhält man ( a b c d ) 1 ad − bc ( d −b −c a ) = E. Die Zahl ad − bc heißt Determinante der 2 × 2-Matrix A. Mit Hilfe von Determinanten lassen sich viele Eigenschaften einer Matrix ausdrücken. In Abschnitt 8.10 wird deshalb der Begriff der Determinante für beliebige n × n-Matrizen eingeführt. Beispiel 8.45 (Inverse einer 2 × 2-Matrix) Für die Matrix A = ( 1 2 3 4 ) gilt ad− bc = 1 · 4− 2 · 3 = −2 = 0. Die Inverse von A existiert somit und ist gemäß Satz 8.44 gegeben durch A−1 = −1 2 ( 4 −2 −3 1 ) = ( −2 1 3/2 −1/2 ) . Sehr einfach lässt sich auch die Inverse von Diagonalmatrizen D = ⎛ ⎜ ⎜⎜ ⎝ d11 0 . . . 0 0 d22 0 ... . . . 0 0 . . . 0 dnn ⎞ ⎟⎟ ⎟ ⎠ berechnen. Die Inverse D−1 existiert genau dann, wenn alle n Diagonalelemente dii von D ungleich 0 sind und ist in diesem Fall durch D−1 = ⎛ ⎜⎜ ⎜⎜ ⎝ 1 d11 0 . . . 0 0 1 d22 0 ... . . . 0 0 . . . 0 1 dnn ⎞ ⎟ ⎟⎟ ⎟ ⎠ gegeben. Denn es gilt ⎛ ⎜ ⎜⎜ ⎝ d11 0 . . . 0 0 d22 0 ... . . . 0 0 . . . 0 dnn ⎞ ⎟⎟ ⎟ ⎠ ⎛ ⎜ ⎜⎜ ⎜ ⎝ 1 d11 0 . . . 0 0 1 d22 0 ... . . . 0 0 . . . 0 1 dnn ⎞ ⎟⎟ ⎟⎟ ⎠ = ⎛ ⎜⎜⎜ ⎜ ⎝ 1 d11 0 . . . 0 0 1 d22 0 ... . . . 0 0 . . . 0 1 dnn ⎞ ⎟⎟⎟⎟ ⎠ ⎛ ⎜⎜ ⎜ ⎝ d11 0 . . . 0 0 d22 0 ... . . . 0 0 . . . 0 dnn ⎞ ⎟ ⎟⎟ ⎠ = E. 199 Kapitel 8 Lineare Abbildungen und Matrizen Beispiel 8.46 (Inverse von Diagonalmatrizen) Bei den beiden Matrizen D1 = ⎛ ⎜ ⎝ 5 0 0 0 − 32 0 0 0 − 67 ⎞ ⎟ ⎠ und D2 = ⎛ ⎜⎜⎜ ⎝ 2 0 0 0 0 − 34 0 0 0 0 0 0 0 0 0 15 ⎞ ⎟⎟⎟ ⎠ handelt es sich um Diagonalmatrizen. Jedoch sind lediglich bei der Diagonalmatrix D1 alle Diagonalelemente ungleich 0. Somit besitzt nur D1 eine Inverse. Diese ist gegeben durch D−11 = ⎛ ⎜ ⎝ 1 5 0 0 0 − 23 0 0 0 − 76 ⎞ ⎟ ⎠ . Denn es gilt ⎛ ⎝ 5 0 0 0 − 32 0 0 0 − 67 ⎞ ⎠ ⎛ ⎝ 1 5 0 0 0 − 23 0 0 0 − 76 ⎞ ⎠ = ⎛ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎠ = ⎛ ⎝ 1 5 0 0 0 − 23 0 0 0 − 76 ⎞ ⎠ ⎛ ⎝ 5 0 0 0 − 32 0 0 0 − 67 ⎞ ⎠ . Der folgende Satz fasst die wichtigsten Eigenschaften inverser Matrizen zusammen: Satz 8.47 (Eigenschaften inverser Matrizen) Es seien A,B ∈ M(n, n) zwei quadratische invertierbare n× n-Matrizen und r ∈ R \ {0}. Dann gilt: a) Die Inverse A−1 ist invertierbar und besitzt die Inverse (A−1)−1 = A. b) Die Transponierte AT ist invertierbar und besitzt die Inverse (AT )−1 = (A−1)T . c) Das Produkt A B ist invertierbar und besitzt die Inverse (A B)−1 = B−1 A−1. d) Die Matrix rA ist invertierbar und besitzt die Inverse (rA)−1 = 1 r A−1. Beweis: Zu a): Es gilt A−1 A = A A−1 = E. Das heißt, A ist die Inverse von A−1 und es gilt somit (A−1)−1 = A. Zu b): Aus A−1 A = A A−1 = E folgt durch Transposition AT (A−1)T = (A−1)T AT = ET = E. Folglich ist (A−1)T die Inverse von AT und es gilt somit (AT )−1 = (A−1)T . Zu c): Aus A−1 A = A A−1 = E und B−1 B = B B−1 = E folgt B−1 A−1 A B=B−1 B= E bzw. A B B−1 A−1=A A−1= E. Das heißt, B−1 A−1 ist die Inverse von A B und es gilt somit (A B)−1 = B−1 A−1. Zu d): Mit A−1 A = A A−1 = E erhält man 1 r A−1 rA = 1 r rA−1 A = E und rA 1 r A−1 = r 1 r A A−1 = E. Durch 1 r A−1 ist somit die Inverse von rA gegeben und es gilt (rA)−1 = 1 r A−1. Beispiel 8.48 (Wirtschaftswissenschaftliche Anwendung) Im Folgenden wird die Situation aus Beispiel 8.10b) mit n verschiedenen Sektoren S1, . . . , Sn betrachtet, die durch Lieferströme xij mit i, j = 1, . . . , n miteinander verbunden sind. Bezeichnet ei wieder die für den Endverbrauch EV vorgesehene Produktion des Sektors Si , dann beträgt der Gesamtoutput des i-ten Sektors Si xi = n∑ j=1 xij + ei für i = 1, . . . , n. Mit den Input-Output-Koeffizienten vij = xijxi für i, j = 1, . . . , n erhält man für xi die alternative Darstellung xi = n∑ j=1 vij xi + ei für i = 1, . . . , n bzw. nach Auflösung nach der Variablen ei für den Endverbrauch die n linearen Gleichungen ei = xi − n∑ j=1 vij xi = (1 − vii)xi − n∑ j=1 j =i vij xi für i = 1, . . . , n. (8.35) 200 Kapitel 88.8 Symmetrische und orthogonale Matrizen Mit der Verflechtungsmatrix V = (vij )n,n und den beiden n-dimensionalen Vektoren e := ⎛ ⎜ ⎝ e1 ... en ⎞ ⎟ ⎠ und x := ⎛ ⎜ ⎝ x1 ... xn ⎞ ⎟ ⎠ erhält man für die n linearen Gleichungen (8.35) die alternative Matrixschreibweise e = (E − V) x. Die lineare Abbildung f : Rn+ −→ Rn+, x %→ (E − V) x weist jedem Gesamtoutputvektor x ∈ Rn+ den entsprechenden Endverbrauchsvektor e ∈ Rn+ zu. Im Falle, dass die Matrix (E−V) invertierbar ist, existiert die Umkehrabbildung f −1 : Rn+ −→ Rn+, e %→ (E − V)−1 e, die dem Endverbrauchsvektor e den im Zusammenhang mit den Lieferverflechtungen erforderlichen Gesamtoutputvektor x zuordnet. Sind beispielsweise für n = 2 die Verflechtungsmatrix und der Gesamtoutputvektor durch V = ( 0,2 0,6 0,8 0,1 ) bzw. x = ( 100 100 ) gegeben, dann folgt für den Endverbrauchsvektor e = (E − V) x = ( 0,8 −0,6 −0,8 0,9 )( 100 100 ) = ( 20 10 ) . Wegen 0,8 · 0,9 − (−0,6) · (−0,8) = 0,24 = 0 ist die Matrix (E − V) invertierbar und besitzt die Inverse (E − V)−1 = 1 0,24 ( 0,9 0,6 0,8 0,8 ) = ( 15 4 5 2 10 3 10 3 ) (vgl. Satz 8.44). Ist der Endverbrauchsvektor z. B. durch e = (20, 10)T gegeben, dann erhält man für den Gesamtoutputvektor x = (E − V)−1 e = ( 15 4 5 2 10 3 10 3 )( 20 10 ) = ( 100 100 ) . S1 S2 EV S3x11 x33 x22 e1 e3 e2 x31 x13 x23 x32 x12 x21 Abb. 8.6: Graphische Darstellung der Lieferströme zwischen den drei Sektoren S1, S2, S3 und dem Endverbrauch EV 8.8 Symmetrische und orthogonale Matrizen Mit den symmetrischen, schiefsymmetrischen und orthogonalen Matrizen werden nun drei wichtige Klassen von Matrizen betrachtet, die sich jeweils durch eine spezielle Struktur und besonders angenehme mathematische Eigenschaften auszeichnen. Symmetrische und schiefsymmetrische Matrizen Bei einer Reihe von wirtschaftswissenschaftlichen Anwendungen treten sogenannte symmetrische oder schiefsymmetrische Matrizen auf. Definition 8.49 (Symmetrische und schiefsymmetrische Matrix) Eine quadratische Matrix A = (aij )n,n ∈ M(n, n) mit aij = aji für alle i, j = 1, . . . , n, d. h. A = AT , heißt symmetrisch. Gilt dagegen aij = −aji für alle i, j = 1, . . . , n, d. h. A = −AT , wird sie schiefsymmetrisch genannt. Eine symmetrische Matrix A stimmt also mit ihrer Transponierten AT überein. Anschaulich bedeutet dies, dass die Einträge einer symmetrischen Matrix A spiegelsymmetrisch zur Hauptdiagonalen angeordnet sind. Beispiele für symmetrische Matrizen sind somit Diagonalmatrizen, also insbeson- 201 Kapitel 8 Lineare Abbildungen und Matrizen dere alle Einheitsmatrizen. Ferner ist A + AT symmetrisch für jede beliebige quadratische Matrix A. Denn es gilt ( A + AT )T = AT + (AT )T = AT + A = A + AT . Daraus folgt, dass ganz allgemein r ( A + AT ) (8.36) für jedes r ∈ R und jede beliebige quadratische Matrix A eine symmetrische Matrix ist. Ebenfalls symmetrisch ist die Matrix A AT für eine beliebige quadratische Matrix A. Denn es gilt ( A AT )T = (AT )T AT = AAT . Für die Einträge auf der Hauptdiagonalen einer schiefsymmetrischen Matrix A gilt aii = −aii für alle i = 1, . . . , n. Dies impliziert aii = 0 für alle i = 1, . . . , n und somit, dass bei einer schiefsymmetrischen Matrix A alle Einträge auf der Hauptdiagonalen gleich 0 sind. Die Einträge einer schiefsymmetrischen Matrix A oberhalb (unterhalb) der Hauptdiagonalen erhält man anschaulich durch Spiegelung der Einträge unterhalb (oberhalb) der Hauptdiagonalen und Multiplikation mit −1. Zum Beispiel sind alle Nullmatrizen sowohl symmetrisch als auch schiefsymmetrisch. Darüber hinaus ist für jede beliebige quadratische Matrix A durch A − AT eine schiefsymmetrische Matrix gegeben. Denn es gilt ( A − AT )T = AT − (AT )T = AT − A = − (A − AT ) . Daraus erhält man, dass ganz allgemein r ( A − AT ) (8.37) für jedes r ∈ R und jede beliebige quadratische Matrix A eine schiefsymmetrische Matrix ist. Zwischen symmetrischen und schiefsymmetrischen Matrizen besteht der folgende einfache Zusammenhang: Satz 8.50 (Zusammenhang symmetrische und schiefsymmetrische Matrizen) Eine quadratische Matrix A ∈ M(n, n) kann stets in eine Summe A = S + S∗ bestehend aus der symmetrischen Matrix S := 12 ( A+AT ) und der schiefsymmetrischen Matrix S∗ := 12 ( A − AT ) zerlegt werden. Beweis: Die Matrizen S und S∗ sind symmetrisch bzw. schiefsymmetrisch (vgl. (8.36)-(8.37) mit r = 12 ) und es gilt S + S∗ = 1 2 ( A + AT )+ 1 2 ( A − AT ) = 1 2 A + 1 2 AT + 1 2 A − 1 2 AT = A. Beispiel 8.51 (Symmetrische und schiefsymmetrische Matrizen) a) Für die beiden quadratischen Matrizen A = ⎛ ⎝ 1 2 5 2 8 1 5 1 7 ⎞ ⎠ und B = ⎛ ⎜ ⎜ ⎝ 2 −1 0 3 −1 7 1 −2 0 1 0 1 3 −2 1 4 ⎞ ⎟ ⎟ ⎠ gilt A = AT bzw. B = BT . Das heißt, die Matrizen A und B sind symmetrische Matrizen der Ordnung 3 × 3 bzw. 4 × 4. Die Matrix C = ⎛ ⎝ 0 2 −7 −2 0 5 7 −5 0 ⎞ ⎠ ist dagegen eine schiefsymmetrische Matrix der Ordnung 3 × 3. b) Für die quadratische Matrix A = ⎛ ⎝ 6 12 2 4 0 8 6 4 2 ⎞ ⎠ 202 Kapitel 88.8 Symmetrische und orthogonale Matrizen erhält man AT = ⎛ ⎝ 6 4 6 12 0 4 2 8 2 ⎞ ⎠ und S= 1 2 ( A + AT )= 1 2 ⎛ ⎝ 12 16 8 16 0 12 8 12 4 ⎞ ⎠= ⎛ ⎝ 6 8 4 8 0 6 4 6 2 ⎞ ⎠ sowie S∗ = 1 2 ( A − AT ) = 1 2 ⎛ ⎝ 0 8 −4 −8 0 4 4 −4 0 ⎞ ⎠ = ⎛ ⎝ 0 4 −2 −4 0 2 2 −2 0 ⎞ ⎠ . Die Matrizen S und S∗ sind offensichtlich symmetrisch bzw. schiefsymmetrisch. Orthogonale Matrizen Die orthogonalen Matrizen bilden eine Klasse von quadratischen Matrizen, für welche sich die inverse Matrix sehr einfach berechnen lässt. Orthogonale Matrizen sind wie folgt definiert: Definition 8.52 (Orthogonale Matrix) Eine quadratische Matrix A ∈ M(n, n) heißt orthogonal, falls gilt A AT = AT A = E. (8.38) Eine quadratische Matrix A ist also orthogonal, wenn sie eine inverse Matrix A−1 besitzt und diese durch Transposition von A entsteht, d. h. A−1 = AT (8.39) gilt. Wegen AT ( AT )T = AT A = E und (AT )T AT = A AT = E ist mit A ∈ M(n, n) auch ihre Transponierte AT orthogonal. Mit A = (b1, b2, . . . , bn ) = ⎛ ⎜⎜ ⎜ ⎝ cT1 cT2 ... cTn ⎞ ⎟⎟⎟ ⎠ (vgl. (8.10)–(8.11)) erhält man, dass (8.38) äquivalent ist zu 〈 bi , bj 〉 = { 1 falls i = j 0 falls i = j und 〈 ci , cj 〉 = { 1 falls i = j 0 falls i = j . Bei einer orthogonalen Matrix A sind also alle Spalten- und alle Zeilenvektoren untereinander paarweise orthogonal und besitzen die Länge Eins. Mit anderen Worten: Die Menge der Spaltenvektoren und die Menge der Zeilenvektoren sind jeweils eine Orthonormalbasis des Rn. Diese Beobachtung erklärt die Bezeichnung „orthogonale Matrix“. Beispiel 8.53 (Orthogonale Matrizen) a) Die 2 × 2-Matrix A = ( 3 5 − 45 4 5 3 5 ) ist orthogonal. Denn für ihre Transponierte AT = ( 3 5 4 5 − 45 35 ) gilt A AT = ( 3 5 − 45 4 5 3 5 )( 3 5 4 5 − 45 35 ) = E = ( 3 5 4 5 − 45 35 )( 3 5 − 45 4 5 3 5 ) = AT A. Für die Spalten- und Zeilenvektoren von A, d. h. für die Vektoren b1 = ( 3 5 4 5 ) und b2 = ( − 45 3 5 ) bzw. c1 = ( 3 5 ,− 45 )T und c2 = ( 4 5 , 3 5 )T , gilt 〈b1, b2〉 = 〈b2, b1〉 = 3 5 · ( −4 5 ) + 4 5 · 3 5 =0 sowie 〈c1, c2〉 = 〈c2, c1〉 = 3 5 · 4 5 + ( −4 5 ) · 3 5 =0. 203 Kapitel 8 Lineare Abbildungen und Matrizen Das heißt, die Spalten- und Zeilenvektoren sind untereinander paarweise orthogonal. Weiter sind die Vektoren normiert, denn es gilt: ‖b1‖ = √ (3/5)2 + (4/5)2 = 1 ‖b2‖ = √ (−4/5)2 + (3/5)2 = 1 ‖c1‖ = √ (3/5)2 + (−4/5)2 = 1 ‖c2‖ = √ (4/5)2 + (3/5)2 = 1 b) Die 3 × 3-Matrix A = ⎛ ⎜ ⎝ 1 2 − 12 √ 3 0 1 2 √ 3 12 0 0 0 1 ⎞ ⎟ ⎠ ist ebenfalls orthogonal. Denn es gilt A AT = ⎛ ⎜ ⎝ 1 2 − 12 √ 3 0 1 2 √ 3 12 0 0 0 1 ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ 1 2 1 2 √ 3 0 − 12 √ 3 12 0 0 0 1 ⎞ ⎟ ⎠ = E = AT A. Der folgende Satz fasst wichtige Eigenschaften orthogonaler Matrizen zusammen: Satz 8.54 (Eigenschaften orthogonaler Matrizen) Es seien A,B ∈ M(n, n) zwei orthogonale Matrizen und x, y ∈ Rn. Dann gilt: a) 〈A x,A y〉 = 〈x, y〉 b) ‖A x‖ = ‖x‖ c) ‖A x − A y‖ = ‖x − y‖ d) (A x,A y) = (x, y) e) AB ist orthogonal Beweis: Zu a): Es gilt 〈A x,A y〉 = (A x)T A y = xT AT A y = xT E y = xT y = 〈x, y〉 . Zu b): Für y = x folgt aus Aussage a) ‖A x‖ = √〈A x,A x〉 = √〈x, x〉 = ‖x‖. Zu c): Mit Aussage b) erhält man ‖A x − A y‖ = ‖A (x − y)‖ = ‖x − y‖. Zu d): Folgt mit den Aussagen a) und b) unmittelbar aus der Definition 7.16. Zu e): Es gilt A B (A B)T = A B BT AT = A E AT = A AT = E. Analog zeigt man (A B)T A B = E. Orthogonale Matrizen A ∈ M(n, n) besitzen somit die Eigenschaft, dass sie die Länge ‖x‖ eines Vektors x ∈ Rn sowie den Abstand ‖x − y‖, das Skalarprodukt 〈x, y〉 und den Winkel (x, y) zwischen zwei Vektoren x, y ∈ Rn nicht ver- ändern. Die lineare Abbildung fA : Rn −→ Rn, x %→ A x mit einer orthogonalen Matrix A ist somit eine Kongruenzabbildung (von lat. congruens „übereinstimmend“, „passend“), die Form und Größe geometrischer Figuren nicht verändert, sondern jede Figur auf eine zu ihr kongruente Figur abbildet. Das heißt, der Vektor A x geht aus dem Vektor x durch Drehung oder Spiegelung hervor. Der große Nutzen dieser Erkenntnis wird sich beim Beweis des Satzes vom Fußball eindrucksvoll zeigen (siehe Beispiel 10.11). 8.9 Spur Die Spur ist nach der Determinante (vgl. Abschnitt 8.10) eine der wichtigsten Kennzahlen einer quadratischen Matrix A ∈ M(n, n). Sie steht in engem Zusammenhang mit den sogenannten Eigenwerten (siehe Abschnitt 10.1) einer quadratischen Matrix A und ist definiert als die Summe der Einträge auf der Hauptdiagonalen von A. Definition 8.55 (Spur) Die Spur einer quadratischen Matrix A ∈ M(n, n) ist gegeben durch spur(A) := n∑ i=1 aii . Der folgende Satz fasst einige einfache Eigenschaften der Spur zusammen: Satz 8.56 (Eigenschaften der Spur) Für die Spur gilt: a) spur(En) = n b) spur(A) = spur(AT ) für alle A ∈ M(n, n) 204 Kapitel 88.10 Determinanten c) spur(λA + μB) = λ spur(A) + μ spur(B) für alle A,B ∈ M(n, n) und λ,μ ∈ R d) spur(A B) = spur(B A) für alle A ∈ M(m, n) und B ∈ M(n,m) Beweis: Die Aussagen a) bis d) folgen unmittelbar aus der Definition der Spur. Beispiel 8.57 (Spur quadratischer Matrizen) Für die Spur der drei quadratischen Matrizen A = ⎛ ⎝ 1 2 5 2 8 1 5 1 7 ⎞ ⎠ , B = ⎛ ⎜⎜ ⎝ 2 −1 0 3 −1 7 1 −2 0 1 0 1 3 −2 1 4 ⎞ ⎟⎟ ⎠ und C = ⎛ ⎝ 0 2 −7 −2 0 5 7 −5 0 ⎞ ⎠ gilt spur(A) = 16, spur(B) = 13 bzw. spur(C) = 0. 8.10 Determinanten Straße benannt nach G. Cardano Im Zusammenhang mit linearen Gleichungssystemen wurden Determinanten bereits vor Matrizen von dem italienischen Arzt, Philosophen und Mathematiker Gerolamo Cardano (1501–1576) Ende des 16. Jahrhunderts und von dem deutschen Universalgelehrten Gottfried Wilhelm Leibniz (1646–1716) ungefähr 100 Jahre später betrachtet. Die Determinante ist eine weitere Kennziffer einer quadratischen Matrix A ∈ M(n, n), die in vielen mathematischen Betrachtungen eine wichtige Rolle spielt. Neben ihrem engen Zusammenhang zu den Eigenwerten von A (siehe Abschnitt 10.1) „determiniert“ sie, ob die Matrix A invertierbar und das lineare Gleichungssystem A x = b für einen beliebigen Vektor b ∈ Rn eindeutig lösbar ist. Darüber hinaus sind Determinanten z. B. auch in der nichtlinearen Optimierungstheorie von reellwertigen Funktionen in nVariablen von großer Bedeutung (siehe Kapitel 24). Für die Definition der Determinante einer quadratischen Matrix A ∈ M(n, n) mit n ≥ 2 und die Formulierung des darauf aufbauenden Entwicklungssatzes von Laplace (siehe Satz 8.60) werden die Untermatrizen Aij von A ∈ M(n, n) benötigt. Die Untermatrix Aij entsteht aus der Matrix A durch Streichen der i-ten Zeile und der j -ten Spalte von A. Das heißt, die Untermatrix Aij ist von der Ordnung (n−1)×(n−1) und es gilt: Aij := ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜ ⎝ a11 . . . a1j−1 a1j+1 . . . a1n ... . . . ... ... . . . ... ai−11 . . . ai−1j−1 ai−1j+1 . . . ai−1n ai+11 . . . ai+1j−1 ai+1j+1 . . . ai+1n ... . . . ... ... . . . ... an1 . . . anj−1 anj+1 . . . ann ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟ ⎠ ∈ M(n− 1, n− 1) (8.40) Die Determinante det(Aij ) einer Untermatrix Aij wird als Minor bezeichnet. Mit Hilfe von Untermatrizen und Minoren lässt sich der Begriff der Determinante einer quadratischen Matrix wie folgt definieren: Definition 8.58 (Determinante) Die Determinante einer quadratischen Matrix A = ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... an1 . . . ann ⎞ ⎟ ⎠ ∈ M(n, n) der Ordnung n× n ist rekursiv definiert durch det(A) := ⎧ ⎪⎨ ⎪⎩ a11 für n = 1 n∑ j=1 (−1)1+j a1j det(A1j ) für n > 1 . (8.41) Bei der Berechnung der Determinante einer Matrix A gemäß (8.41) sagt man, dass „die Matrix A nach der ersten Zeile entwickelt wird“. Wie sich jedoch mit dem Entwicklungssatz von Laplace (vgl. Satz 8.60) zeigen wird, kann eine quadratische Matrix A nach jeder Zeile und jeder Spalte entwickelt werden. Aus (8.41) lässt sich erkennen, dass der Berechnungsaufwand für die Determinante einer Matrix A ∈ M(n, n) stark mit der Ordnung n× n ansteigt. Denn die Determinante der 205 Kapitel 8 Lineare Abbildungen und Matrizen n × n-Matrix A wird auf die Summe der n Determinanten der (n−1)× (n−1)-Untermatrizen A11, . . . ,A1n zurückgeführt. Diese n Determinanten können dann mit (8.41) wiederum jeweils auf eine Summe von n−1 Determinanten von (n− 2)× (n− 2)-Untermatrizen zurückgeführt werden usw. In den drei einfachsten Fällen n = 1, 2, 3 erhält man auf diese Weise: • n = 1: Gemäß (8.41) ist die Determinante durch den Wert det(A)=a11 gegeben. Das heißt, die Determinante det(A) stimmt mit dem Eintrag der Matrix A = (a11) überein. • n = 2: Für die Determinante gilt det ( a11 a12 a21 a22 ) = 2∑ j=1 (−1)1+j a1j det(A1j ) = a11a22 − a12a21. (8.42) Daraus folgt zusammen mit Satz 8.44, dass eine 2×2- Matrix A genau dann invertierbar ist, wenn det(A) = 0 erfüllt ist. Die Inverse ist dann gegeben durch A−1 = 1 det(A) ( a22 −a12 −a21 a11 ) . (8.43) Wie sich mit Satz 8.67 zeigen wird, gilt die Äquivalenz von Invertierbarkeit und det(A) = 0 nicht nur im Falle von 2×2-Matrizen, sondern für beliebige n×n-Matrizen. • n = 3: Für die Determinante erhält man det ⎛ ⎝ a11 a12 a13 a21 a22 a23 a31 a32 a33 ⎞ ⎠ = 3∑ j=1 (−1)1+j a1j det(A1j ) = a11 det ( a22 a23 a32 a33 ) − a12 det ( a21 a23 a31 a33 ) + a13 det ( a21 a22 a31 a32 ) = a11(a22a33 − a23a32)− a12(a21a33 − a23a31) + a13(a21a32 − a22a31) = a11a22a33 + a12a23a31 + a13a21a32 (8.44) − a13a22a31 − a11a23a32 − a12a21a33. Die relativ unübersichtliche Formel (8.44) kann man sich leicht mit Hilfe der nach dem französischen Mathematiker Pierre Frédéric Sarrus (1798–1861) benannten Regel von Sarrus (auch Jägerzaun-Regel genannt) merken. Die Regel von Sarrus ist ein einfaches Schema zur Berechnung der Determinante (8.44), bei der rechts neben die drei Spalten der 3×3-Matrix A noch einmal die ersten beiden Spalten der Matrix A geschrieben werden (vgl. Abbildung 8.7). Die Determinante (8.44) ergibt sich dann als Summe der Produkte der Einträge auf den blauen Schräglinien von links oben nach rechts unten vermindert um die Summe der Produkte der Einträge auf den grünen Schräglinien von rechts oben nach links unten. Abb. 8.7: Regel von Sarrus Es sei jedoch hier ausdrücklich darauf hingewiesen, dass für Matrizen der Ordnung n×n mit n ≥ 4 im Allgemeinen keine so einfachen Berechnungsschemata mehr existieren. Dies bedeutet insbesondere, dass sich die Formel (8.42) und die Regel von Sarrus (8.44) nicht auf Matrizen der Ordnung n×n mit n ≥ 4 verallgemeinern lassen. Beispiel 8.59 (Berechnung von Determinanten) a) Für die Determinante der 2 × 2-Matrix A = ( −3 12 4 5 7 ) erhält man mit (8.42): det(A) = −3 · 7 − 1 2 · 4 5 = −107 5 Wegen det(A) = 0 ist die 2 × 2-Matrix A invertierbar. b) Für die Determinante der 3 × 3-Matrix A = ⎛ ⎝ 0 1 2 3 2 1 1 1 0 ⎞ ⎠ 206 Kapitel 88.10 Determinanten erhält man mit (8.41): det(A) = 0 · det ( 2 1 1 0 ) − 1 · det ( 3 1 1 0 ) + 2 · det ( 3 2 1 1 ) = 0 · (2 · 0 − 1 · 1)− 1 · (3 · 0 − 1 · 1) + 2 · (3 · 1 − 1 · 2) = 3 Mit der Regel von Sarrus (8.44) erhält man natürlich dasselbe Ergebnis: det(A) = 0 · 2 · 0 + 1 · 1 · 1 + 2 · 3 · 1 − 1 · 2 · 2 − 1 · 1 · 0 − 0 · 3 · 1 = 3 c) Für die Determinante der 4 × 4-Matrix A = ⎛ ⎜⎜ ⎝ −4 0 0 0 2 0 1 2 −1 3 2 1 7 1 1 0 ⎞ ⎟⎟ ⎠ erhält man mit (8.41) und dem Ergebnis aus Beispiel b): det(A) = −4 · det(A11)− 0 · det(A12) + 0 · det(A13)− 0 · det(A14) = −4 · det ⎛ ⎝ 0 1 2 3 2 1 1 1 0 ⎞ ⎠ = −4 · 3 = −12 Geometrische Interpretation Die Determinante einer quadratischen Matrix A ∈ M(n, n) besitzt eine interessante geometrische Interpretation. Denn ist fA : Rn −→ Rn, x %→ A x eine lineare Abbildung mit der kanonischen Matrix A und M eine Teilmenge des Rn, dann kann man zeigen, dass das Volumen Vol(A (M)) des Bildes von M unter der linearen Abbildung fA, also das Volumen der Menge A (M) := {y ∈ Rn : y = A x mit x ∈ M} , durch Vol(A (M)) = |det(A)| · Vol(M) (8.45) gegeben ist. Das heißt, | det(A)| gibt den Skalierungsfaktor an, um den sich das Volumen von M durch die lineare Abbildung fA ändert. Speziell für den n-dimensionalen Einheitswürfel E := [0, 1]n des Rn mit Vol(E) = 1 folgt Vol(A (E)) = |det(A)| . (8.46) Der Betrag der Determinante einer quadratischen Matrix A ∈ M(n, n) ist somit gleich dem Volumen des Bildes des n-dimensionalen Einheitswürfels E = [0, 1]n unter der zugehörigen linearen Abbildung fA. Der n-dimensionale Einheitswürfel E=[0, 1]n ist die Menge der Punkte (λ1, . . . , λn)T ∈ Rn, deren Koordinaten λ1, . . . , λn bezüglich der kanonischen Basis {e1, . . . , en} von R n zwischen 0 und 1 liegen. Es gilt somit [0, 1]n = { n∑ i=1 λiei : λ1, . . . , λn ∈ [0, 1] } . Da ferner a1 = A e1, . . . , an = A en gilt, wobei a1, . . . , an die n Spaltenvektoren der Matrix A sind, erhält man für das Bild des n-dimensionalen Einheitswürfels E = [0, 1]n unter der zugehörigen linearen Abbildung fA die Darstellung A (E) = { n∑ i=1 λiai : λ1, . . . , λn ∈ [0, 1] } . Diese Menge wird als n-dimensionales Parallelotop (Parallelepiped) bezeichnet und durch die n Spaltenvektoren der Matrix A aufgespannt. Bei einem n-dimensionalen Parallelotop A (E) handelt es sich also um einen geometrischen Körper im Rn, der aus dem n-dimensionalen Einheitswürfel E durch die lineare Abbildung fA : Rn −→ Rn, x %→ A x hervorgeht. Im R2 und R3 kann man sich diese Transformation so vorstellen, dass die Menge A (E) durch „Ziehen an einer Ecke“ aus dem Einheitswürfel E entsteht. Im Spezialfall n = 2 wird ein Parallelotop auch als Parallelogramm bezeichnet. Ein Parallelogramm wird von vier paarweise parallelen Geraden begrenzt und geht aus dem Einheitsquadrat [0, 1]2 durch Ziehen an einer Ecke hervor (vgl. Abbildung 8.8, links). Mit (8.42) und (8.46) folgt für das Volumen eines von den Vektoren a1, a2 ∈ R2 aufgespannten Parallelogramms die Formel∣∣ ∣∣det ( a11 a12 a21 a22 )∣∣∣ ∣ = |a11a22 − a12a21|. (8.47) Kalkspat Im Spezialfall n = 3 wird ein Parallelotop dagegen auch als Spat bezeichnet, da die Kristalle von Kalkspat (CaCO3) Ähnlichkeit zu dreidimensionalen Parallelotopen aufweisen. Ein Spat wird aus sechs paarweise in paral- 207 Kapitel 8 Lineare Abbildungen und Matrizen x1 x2 a1 a2 det(A) x1 x3 x2 a3 a2 a1 det(A) Abb. 8.8: Zweidimensionales Parallelotop (links) und dreidimensionales Parallelotop (rechts) lelen Ebenen liegenden Parallelogrammen begrenzt und entsteht aus dem Einheitswürfel [0, 1]3 durch Ziehen an einer der Ecken (vgl. Abbildung 8.8, rechts). Mit (8.44) und (8.46) erhält man für das Volumen eines von den Vektoren a1, a2, a3 ∈ R3 aufgespannten Spats die Formel ∣∣ ∣∣ ∣∣ det ⎛ ⎝ a11 a12 a13 a21 a22 a23 a31 a32 a33 ⎞ ⎠ ∣∣ ∣∣ ∣∣ =|a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a11a23a32 − a12a21a33|. Entwicklungssatz von Laplace Für die Berechnung der Determinante einer n × n-Matrix A mit n ≥ 4 ist die Definition 8.58 in den meisten Fällen nicht sehr praktikabel. Wie jedoch aus Beispiel 8.59c) ersichtlich ist, vereinfacht sich die Berechnung der Determinante mit Hilfe von (8.41) erheblich, wenn die erste Zeile der Matrix A viele Nullen enthält. Denn in diesem Fall sind bei der Entwicklung der Matrix A nach der ersten Zeile gemäß der Formel (8.41) viele Koeffizienten a1j gleich Null und die zugehörigen Minoren det(A1j ) müssen dann erst gar nicht berechnet werden. P.-S. Laplace Der folgende nach dem französischen Mathematiker und Physiker Pierre-Simon Laplace (1749– 1827) benannte Entwicklungssatz von Laplace besagt, dass eine n× n-Matrix A auch nach jeder anderen Zeile oder Spalte entwickelt werden kann. Dieses Ergebnis ermöglicht es somit, den Aufwand bei der Berechnung der Determinante auch dann deutlich zu verringern, wenn nicht in der ersten Zeile, sondern in einer anderen Zeile oder sogar in einer Spalte die meisten Nullen enthalten sind. Für diese und eine ganze Reihe anderer großer physikalischer und mathematischer Leistungen wurde Laplace die Ehre zuteil, dass er namentlich auf dem Eiffelturm verewigt wurde und sogar ein Mondkrater und ein Asteroid seinen Namen tragen. Aufgrund seines politischen Opportunismus, immer auf der Seite der aktuell politisch Mächtigen zu sein, wurde Laplace jedoch nicht im Panthéon, sondern auf dem Pariser Friedhof beigesetzt. Satz 8.60 (Entwicklungssatz von Laplace) Für die Determinante einer n× n-Matrix A gilt: det(A)= n∑ j=1 (−1)i+j aij det(Aij ) (Entwicklung nach der Zeile i = 1, . . . , n) det(A)= n∑ i=1 (−1)i+j aij det(Aij ) (Entwicklung nach der Spalte j = 1, . . . , n) Beweis: Siehe z. B. Kowalsky-Michler [37], Seiten 116–117. Gemäß dem Entwicklungssatz von Laplace ist es somit möglich eine quadratische n × n-Matrix A nach jeder beliebigen Zeile oder Spalte zu entwickeln. Es resultiert stets der- 208 Kapitel 88.10 Determinanten selbe Wert für det(A). Zur Minimierung des Aufwands bei der Berechnung der Determinante von A ist es jedoch sinnvoll, die Matrix A bzgl. der Zeile i oder der Spalte j zu entwickeln, welche die meisten Nullen enthält. Die Determinantenberechnung mit dem Entwicklungssatz von Laplace ist also umso aufwendiger, je größer die Ordnung der Matrix ist und je weniger Nullen sie besitzt. Beim Entwicklungssatz von Laplace werden die Minoren det(Aij ) mit einem Vorzeichen gemäß dem Muster ⎛ ⎜⎜⎜⎜⎜ ⎝ + − + − · · · − + − + · · · + − + − · · · − + − + · · · ... ... ... ... . . . ⎞ ⎟⎟⎟⎟⎟ ⎠ versehen. Die Produkte (−1)i+j det(Aij ) bestehend aus den Vorzeichen (−1)i+j und den Minoren det(Aij ) werden oft als Adjunkte oder Kofaktoren bezeichnet. Aus dem Entwicklungssatz von Laplace lässt sich für Dreiecksmatrizen unmittelbar das folgende Resultat ableiten. Es besagt, dass sich die Determinante bei einer Dreiecksmatrix ganz einfach als Produkt der Einträge aii auf der Hauptdiagonalen berechnen lässt. Folgerung 8.61 (Determinante einer Dreiecksmatrix) Untere und obere n× n-Dreiecksmatrizen A = ⎛ ⎜ ⎜⎜ ⎜⎜ ⎝ a11 0 . . . 0 a21 a22 . . . ... ... . . . 0 an1 . . . ann−1 ann ⎞ ⎟⎟ ⎟⎟ ⎟ ⎠ bzw. A = ⎛ ⎜ ⎜⎜ ⎝ a11 a12 . . . a1n 0 a22 . . . a2n ... . . . ... 0 . . . 0 ann ⎞ ⎟⎟ ⎟ ⎠ besitzen die Determinante det(A) = n∏ i=1 aii . Beweis: Die Behauptung folgt unmittelbar durch wiederholte Anwendung des Entwicklungssatzes von Laplace auf die erste Spalte bzw. die erste Zeile von A. Da eine Diagonalmatrix A = ⎛ ⎜⎜⎜ ⎝ a11 0 . . . 0 0 a22 0 ... . . . 0 0 . . . 0 ann ⎞ ⎟⎟⎟ ⎠ auch eine Dreiecksmatrix ist, ergibt sich bei Diagonalmatrizen die Determinante ebenfalls einfach als Produkt der Einträge auf der Hauptdiagonalen. Dies bedeutet insbesondere, dass eine Einheitsmatrix E stets die Determinante det(E) = 1 besitzt. Beispiel 8.62 (Anwendung des Entwicklungssatzes von Laplace) a) Bei der 4 × 4-Matrix A = ⎛ ⎜⎜ ⎝ 1 2 0 1 2 0 0 −1 −1 1 2 0 0 3 1 1 ⎞ ⎟⎟ ⎠ bietet sich eine Entwicklung nach der zweiten Zeile oder der dritten Spalte an. Eine Entwicklung nach der zweiten Zeile liefert det(A)=−2 det ⎛ ⎝ 2 0 1 1 2 0 3 1 1 ⎞ ⎠− 1 det ⎛ ⎝ 1 2 0 −1 1 2 0 3 1 ⎞ ⎠. Daraus folgt durch Anwendung der Regel von Sarrus (8.44) auf die beiden verbleibenden Minoren det(A) = −2(4 + 0 + 1 − (6 + 0 + 0)) − 1(1 + 0 + 0 − (0 + 6 − 2)) = 5. b) Bei der 5 × 5-Matrix A = ⎛ ⎜ ⎜⎜ ⎜ ⎝ 1 0 2 0 0 1 0 0 3 1 1 2 0 0 1 0 1 4 −1 0 0 0 0 −2 −2 ⎞ ⎟ ⎟⎟ ⎟ ⎠ bietet sich eine Entwicklung nach der ersten oder fünften Zeile sowie nach der zweiten oder dritten 209 Kapitel 8 Lineare Abbildungen und Matrizen Spalte an. Eine Entwicklung nach der ersten Zeile liefert det(A) = 1 det ⎛ ⎜⎜ ⎝ 0 0 3 1 2 0 0 1 1 4 −1 0 0 0 −2 −2 ⎞ ⎟⎟ ⎠ + 2 det ⎛ ⎜⎜ ⎝ 1 0 3 1 1 2 0 1 0 1 −1 0 0 0 −2 −2 ⎞ ⎟⎟ ⎠ . Wird der erste der verbleibenden Minoren nach der zweiten Spalte und der zweite Minor nach der ersten Spalte entwickelt, erhält man weiter det(A) = 1 · (−4) · det ⎛ ⎝ 0 3 1 2 0 1 0 −2 −2 ⎞ ⎠ + 2 · ⎡ ⎣1 · det ⎛ ⎝ 2 0 1 1 −1 0 0 −2 −2 ⎞ ⎠ −1 · det ⎛ ⎝ 0 3 1 1 −1 0 0 −2 −2 ⎞ ⎠ ⎤ ⎦ . Daraus folgt schließlich mit der Regel von Sarrus (8.44) det(A) = −4 · (0 + 0 − 4 − (0 + 0 − 12)) + 2 · [( 4 + 0 − 2 − (0 + 0 + 0)) − (0 + 0 − 2 − (0 + 0 − 6)) ] = −36. c) Die Determinanten der beiden Dreiecksmatrizen A= ⎛ ⎜⎜ ⎝ 5 −2 3 1 0 −1 3 3 0 0 −4 −1 0 0 0 5 ⎞ ⎟⎟ ⎠ und B= ⎛ ⎜ ⎝ 4 0 0 0 13 0 0 0 −3 ⎞ ⎟ ⎠ sind gegeben durch det(A) = 5 · (−1) · (−4) · 5 = 100 bzw. det(B) = 4 · 1 3 · (−3) = −4. Eine weitere einfache Folgerung aus dem Entwicklungssatz von Laplace betrifft die transponierte Matrix. Sie besagt, dass die Determinante einer quadratischen Matrix A stets mit der Determinante ihrer Transponierten übereinstimmt. Folgerung 8.63 (Determinante der transponierten Matrix) Für eine n× n-Matrix A gilt det(A) = det(AT ). Beweis: Die i-te Zeile von A entspricht der i-ten Spalte von AT . Gemäß dem Entwicklungssatz von Laplace ergibt jedoch die Entwicklung nach Zeilen oder Spalten stets denselben Wert für die Determinante. Rechenregeln für Determinanten Der folgende Satz fasst die wichtigsten Rechenregeln für Determinanten zusammen. Diese Rechenregeln geben an, wie sich die Determinante einer quadratischen Matrix A verändert, wenn an der Matrix elementare Zeilen- oder Spaltenumformungen vorgenommen werden. Dieses Wissen führt zu einem effizienten Verfahren zur Berechnung von Determinanten und erlaubt es, für Determinanten einige interessante Eigenschaften und Zusammenhänge nachzuweisen. Für die Formulierung dieser Rechenregeln ist es hilfreich, für die Determinante einer n× n-Matrix A mit den Spaltenvektoren a1, . . . , an ∈ Rn auch die Schreibweise det(A) = det(a1, . . . , an) zu verwenden. Man erhält dann das folgende Resultat: Satz 8.64 (Rechenregeln für Determinanten) Es seien A = (a1, . . . , an) eine n × n-Matrix mit den Spaltenvektoren a1, . . . , an ∈ Rn sowie bk ∈ Rn und λ ∈ R. Dann gilt: a) det(a1, . . . , λak, . . . , an)=λ det(a1, . . . , ak, . . . , an) b) det(a1, . . . , ak+bk, . . . , an)=det(a1, . . . , ak, . . . , an) +det(a1, . . . , bk, . . . , an) c) det(. . . , a, . . . , a, . . .) = 0 d) det(. . . , ai , . . . , ak, . . .)=− det(. . . , ak, . . . , ai , . . .) 210 Kapitel 88.10 Determinanten e) det(. . . ,ai , . . . ,ak, . . .)=det(. . . ,ai , . . . ,ak+λai , . . .) f) det(. . . , 0, . . .) = 0 Die Rechenregeln a) bis f) gelten völlig analog auch für die Zeilenvektoren der n× n-Matrix A. Beweis: Zu a) und b): Die Aussagen a) und b) folgen unmittelbar durch Einsetzen in (8.41). Zu c): Die Matrix A wird in beliebiger Reihenfolge nach den n− 2 Spalten entwickelt, die sich unterscheiden. Nach diesen n − 2 Entwicklungsschritten erhält man eine Summe von Determinanten von 2 × 2-Matrizen mit jeweils zwei identischen Spalten. Mit (8.42) folgt für solche Determinanten det ( a a b b ) = ab − ba = 0. Damit erhält man insbesondere die Behauptung c). Zu d): Mit den Aussagen b) und c) folgt det(. . . , ai , . . . , ak, . . .)+ det(. . . , ak, . . . , ai , . . .) = det(. . . , ai , . . . , ak, . . .)+ det(. . . , ak, . . . , ai , . . .) + det(. . . , ai , . . . , ai , . . .)+ det(. . . , ak, . . . , ak, . . .) = det(. . . , ai , . . . , ak + ai , . . .) + det(. . . , ak, . . . , ai + ak, . . .) = det(. . . , ak + ai , . . . , ai + ak, . . .) = 0 und damit insbesondere auch die Behauptung det(. . . , ai , . . . , ak, . . .) = − det(. . . , ak, . . . , ai , . . .). Zu e): Mit den Aussagen c), a) und b) folgt det(. . . , ai , . . . , ak, . . .) = det(. . . , ai , . . . , ak, . . .)+ 0 = det(. . . , ai , . . . , ak, . . .)+ λ det(. . . , ai , . . . , ai , . . .) = det(. . . , ai , . . . , ak, . . .)+ det(. . . , ai , . . . , λai , . . .) = det(. . . , ai , . . . , ak + λai , . . .). Zu f): Mit a) erhält man det(. . . , 0, . . .) = det(. . . , 0 · a, . . .) = 0 · det(. . . , a, . . .) = 0. Aus det(A) = det(AT ) (vgl. Folgerung 8.63) folgt unmittelbar, dass die Rechenregeln a) bis f) völlig analog auch für die Zeilenvektoren der Matrix A gelten. Bei der numerischen Berechnung von Determinanten sind vor allem die beiden Rechenregeln d) und e) sehr hilfreich. Sie sind die Grundlage für das gängigste numerische Verfahren zur Berechnung von Determinanten. Bei diesem Verfahren wird ausgenutzt, dass sich durch 1) die Addition des λ-fachen einer Zeile oder Spalte zu einer anderen Zeile bzw. Spalte die Determinante gemäß Rechenregel e) nicht ändert und 2) das Vertauschen zweier Zeilen oder Spalten entsprechend Rechenregel d) lediglich das Vorzeichen der Determinante umkehrt. Durch diese beiden Arten von Umformungen wird eine gegebene n× n-Matrix A = ⎛ ⎜⎜⎜ ⎝ a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... an1 . . . . . . ann ⎞ ⎟⎟⎟ ⎠ solange umgeformt, bis eine obere Dreiecksmatrix B = ⎛ ⎜ ⎜⎜ ⎝ b11 b12 . . . b1n 0 b22 . . . b2n ... . . . ... 0 . . . 0 bnn ⎞ ⎟⎟ ⎟ ⎠ resultiert, deren Determinante gemäß Folgerung 8.61 sehr einfach durch Multiplikation der Einträge auf der Hauptdiagonalen, d. h. der Werte b11, . . . , bnn, berechnet werden kann. Ist k die Anzahl der bei der Umformung A → B benötigten Zeilen- und Spaltenvertauschungen, dann ist die Determinante von A gegeben durch det(A) = (−1)k det(B) = (−1)k n∏ i=1 bii . Dieses Vorgehen ist das am meisten verwendete Verfahren zur Determinantenberechnung und üblicherweise auch in mathematischer Software implementiert. Das konkrete Vorgehen bei diesem Verfahren wird im nächsten Beispiel 8.65 verdeutlicht. Dabei ist es zweckmäßig, die Zeilen durchzunummerieren und die durchgeführten Zeilenumformungen rechts (in blauer Schrift) anzugeben. 211 Kapitel 8 Lineare Abbildungen und Matrizen Beispiel 8.65 (Berechnung von Determinanten mittels Rechenregeln) a) Berechnet wird die Determinante der 4 × 4-Matrix A = ⎛ ⎜⎜ ⎝ 1 0 2 1 −1 1 3 1 1 −2 0 −1 0 −2 1 1 ⎞ ⎟⎟ ⎠ . Mit der Rechenregel e) in Satz 8.64 erhält man: A (1) 1 0 2 1 (2) −1 1 3 1 (3) 1 −2 0 −1 (4) 0 −2 1 1 (1) 1 0 2 1 (2′) 0 1 5 2 (2)+ (1) (3′) 0 −2 −2 −2 (3)− (1) (4) 0 −2 1 1 (1) 1 0 2 1 (2′) 0 1 5 2 (3′′) 0 0 8 2 (3′)+ 2 · (2′) (4′) 0 0 11 5 (4)+ 2 · (2′) (1) 1 0 2 1 (2′) 0 1 5 2 (3′′) 0 0 8 2 (4′′) 0 0 0 9/4 (4′)− 11/8 · (3′′) Für die Determinante von A erhält man somit det(A) = 1 · 1 · 8 · 9 4 = 18. b) Berechnet wird die Determinante der 4 × 4-Matrix A = ⎛ ⎜ ⎜ ⎝ 1 −2 9 −3 3 4 1 3 6 8 −2 1 2 1 3 10 ⎞ ⎟ ⎟ ⎠ . Mit den Rechenregeln e) und d) in Satz 8.64 erhält man: A (1) 1 −2 9 −3 (2) 3 4 1 3 (3) 6 8 −2 1 (4) 2 1 3 10 (1) 1 −2 9 −3 (2′) 0 10 −26 12 (2)− 3 · (1) (3′) 0 20 −56 19 (3)− 6 · (1) (4′) 0 5 −15 16 (4)− 2 · (1) (1) 1 −2 9 −3 (4′) 0 5 −15 16 (2′) ←→ (4′) (3′) 0 20 −56 19 (2′) 0 10 −26 12 (4′) ←→ (2′) (1) 1 −2 9 −3 (4′) 0 5 −15 16 (3′′) 0 0 4 −45 (3′)− 4 · (4′) (2′′) 0 0 4 −20 (2′)− 2 · (4′) (1) 1 −2 9 −3 (4′) 0 5 −15 16 (3′′) 0 0 4 −45 (2′′′) 0 0 0 25 (2′′)− (3′′) Da bei diesen Umformungen einmal zwei Zeilen vertauscht wurden, erhält man für die Determinante von A den Wert det(A) = (−1)1 · 1 · 5 · 4 · 25 = −500. Das folgende Beispiel zeigt, wie die Rechenregeln in Satz 8.64 und der Entwicklungssatz von Laplace bei der Berechnung von Determinanten auch kombiniert werden können: Beispiel 8.66 (Berechnung der Vandermonde- Determinante) Die (n+ 1)× (n+ 1)-Matrix V = ⎛ ⎜⎜ ⎜ ⎝ 1 x0 x20 . . . x n 0 1 x1 x21 . . . x n 1 ... ... ... . . . ... 1 xn x2n . . . x n n ⎞ ⎟⎟ ⎟ ⎠ wird nach dem französischen Mathematiker Alexandre- Théophile Vandermonde (1735–1796) als Vandermonde- Matrix und ihre Determinante det(V) als Vandermonde- 212 Kapitel 88.10 Determinanten Determinante bezeichnet. Die Vandermonde-Matrix spielt bei der Interpolation von Funktionen eine wichtige Rolle (siehe Abschnitt 27.1). Für die Berechnung der Determinante von V in einem Tableau mittels Zeilenumformungen ist es zweckmäßig die transponierte Vandermonde-Matrix VT zu betrachten. Es wird dann von der zweiten Zeile der Matrix VT das x0fache der ersten Zeile, von der dritten Zeile das x0-fache der zweiten Zeile usw. abgezogen bis schließlich das x0fache der n-ten Zeile von der (n+1)-ten Zeile subtrahiert wird. Auf diese Weise erhält man dann: VT (1) 1 1 . . . 1 (2) x0 x1 . . . xn (3) x20 x 2 1 . . . x 2 n . . . . . . . . . . . . . . . (n) xn−10 x n−1 1 . . . x n−1 n (n+ 1) xn0 xn1 . . . xnn (1) 1 1 . . . 1 (2′) 0 x1−x0 . . . xn − x0 (2)−x0 · (1) (3′) 0 x21 −x0x1 . . . x2n − x0xn (3)−x0 · (2) . . . . . . . . . . . . . . . . . . (n′) 0 xn−11 −x0xn−21 . . . xn−1n −x0xn−2n (n)−x0 · (n−1) (n+1′) 0 xn1 −x0xn−11 . . . xnn−x0xn−1n (n+1)−x0 · (n) Die so entstandene Matrix wird anschließend gemäß dem Entwicklungssatz von Laplace (vgl. Satz 8.60) nach der ersten Spalte entwickelt. Dies liefert zusammen mit der Rechenregel a) in Satz 8.64 det(VT )=det ⎛ ⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 1 . . . 1 0 x1 − x0 . . . xn − x0 0 x21 − x0x1 . . . x2n − x0xn ... ... . . . ... 0 xn−11 − x0xn−21 . . . xn−1n − x0xn−2n 0 xn1 − x0xn−11 . . . xnn − x0xn−1n ⎞ ⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ =det ⎛ ⎜⎜ ⎜⎜ ⎝ x1 − x0 . . . xn − x0 x1(x1 − x0) . . . xn(xn − x0) ... . . . ... xn−21 (x1 − x0) . . . xn−2n (xn − x0) xn−11 (x1 − x0) . . . xn−1n (xn − x0) ⎞ ⎟ ⎟⎟ ⎟ ⎠ =(x1 − x0)(x2 − x0) · . . . · (xn − x0) × det ⎛ ⎜ ⎜⎜⎜ ⎝ 1 . . . 1 x1 . . . xn ... . . . ... xn−21 . . . x n−2 n xn−11 . . . x n−1 n ⎞ ⎟ ⎟⎟⎟ ⎠ . (8.48) Die so resultierende n×n-Matrix auf der rechten Seite von (8.48) hat die gleiche Struktur wie die Ausgangsmatrix VT . Das vorgestellte Vorgehen kann nun sukzessive wiederholt werden, bis man schließlich für det(V) = det(VT ) (vgl. Folgerung 8.63) das folgende Produkt erhält: det(V)=(x1 − x0)(x2 − x0) · . . . · (xn − x0) · (x2 − x1) · . . . · (xn − x1) . . . · (xn−1−xn−2)(xn−xn−2) · (xn − xn−1) = ∏ 1≤i 0 den Basiskonsum und β ∈ (0, 1) die sogenannte Grenzneigung zum Konsum. M3) Das Steueraufkommen ist eine affin-lineare Funktion des Volkseinkommens: S = γ + δE (8.53) Dabei bezeichnet γ > 0 die einkommensunabhängigen Steuern und δ ∈ (0, 1) den Steuersatz. Hierbei ist das Ziel die Ermittlung der endogenen Variablen E,K, S in Abhängigkeit der exogenen Variablen I0 und A0. 1. Schritt: Die Annahmen (8.51), (8.52) und (8.53) führen zu dem linearen Gleichungssystem E −K = I0 + A0 −βE +K + βS = α −δE + S = γ 217 Kapitel 8 Lineare Abbildungen und Matrizen bzw. in Matrixform ⎛ ⎝ 1 −1 0 −β 1 β −δ 0 1 ⎞ ⎠ ︸ ︷︷ ︸ =A ⎛ ⎝ E K S ⎞ ⎠ = ⎛ ⎝ I0 + A0 α γ ⎞ ⎠ . (8.54) 2. Schritt: Überprüfung des linearen Gleichungssystems (8.54) auf die Existenz einer eindeutigen Lösung. Mit der Regel von Sarrus (8.44) erhält man für die Determinante von A den Wert det(A) = 1 + βδ − β. Das heißt, die Determinante ist genau dann ungleich 0 und somit das lineare Gleichungssystem (8.54) eindeutig lösbar, wenn β(1 − δ) = 1 (8.55) gilt. Da jedoch gemäß den Modellannahmen M2) und M3) 0 < β, δ < 1 gilt, ist (8.55) stets erfüllt. 3. Schritt: Berechnung der Lösung E,K und S des linearen Gleichungssystems (8.54) mittels der Cramerschen Regel. Mit der Regel von Sarrus erhält man: det ⎛ ⎝ I0 + A0 −1 0 α 1 β γ 0 1 ⎞ ⎠= I0+A0−βγ+α det ⎛ ⎝ 1 I0 + A0 0 −β α β −δ γ 1 ⎞ ⎠= α+(I0+A0)β(1−δ)−βγ det ⎛ ⎝ 1 −1 I0 + A0 −β 1 α −δ 0 γ ⎞ ⎠= γ+αδ+δ(I0+A0)−βγ Mit der Cramerschen Regel resultiert somit die folgende Lösung: E = I0 + A0 − βγ + α 1 + βδ − β K = α + (I0 + A0)β(1 − δ)− βγ 1 + βδ − β (8.56) S = γ + αδ + δ(I0 + A0)− βγ 1 + βδ − β 4. Schritt: Komparativ-statische Analyse der Zusammenhänge durch Betrachtung verschiedener partieller Ableitungen (zur Definition und Berechnung partieller Ableitungen siehe Abschnitt 22.1). Zum Beispiel kann durch die Berechnung der partiellen Ableitungen des Volkseinkommens (8.56) nach den Staatsausgaben A0 und dem Steuersatz δ untersucht werden, wie sich das Volkseinkommen E in Abhängigkeit der Staatsausgaben A0 und des Steuersatzes δ verhält. Man erhält dann die partiellen Ableitungen: ∂E ∂A0 = 1 1 + βδ − β > 0 ∂E ∂δ = −(I0 + A0 − βγ + α)β (1 + βδ − β)2 = −βE 1 + βδ − β < 0 Das heißt, das VolkseinkommenE erhöht sich bei steigenden Staatsausgaben A0 und verringert sich bei Erhöhung des Steuersatzes δ. Inversenformel Mit Hilfe der Cramerschen Regel ist es auch möglich, die Inverse A−1 einer invertierbaren Matrix A geschlossen darzustellen. Um dies einzusehen, wird im Folgenden eine beliebige invertierbare n× n-Matrix A = ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... an1 . . . ann ⎞ ⎟ ⎠ betrachtet, deren Inverse durch A−1 = (b1, . . . , bn) = ⎛ ⎜ ⎝ b11 . . . b1n ... . . . ... bn1 . . . bnn ⎞ ⎟ ⎠ gegeben sei. Das heißt, b1, . . . , bn ∈ Rn sind die n Spaltenvektoren der Inversen A−1. Weiter seien e1, . . . , en ∈ Rn die n Einheitsvektoren des Rn (vgl. (7.3)). Für j = 1, . . . , n gilt dann A xj = ej ⇐⇒ A−1 A xj = A−1 ej ⇐⇒ xj = bj . (8.57) Folglich ist die Lösung xj = (x1j , . . . , xnj )T des linearen Gleichungssystems A xj = ej gleich der j -ten Spalte bj der Inversen A−1. Somit können durch Bestimmung der Lösungen x1, . . . , xn der n linearen Gleichungssysteme A x1 = e1, . . . ,A xn = en (8.58) die n Spalten b1, . . . , bn der Inversen A−1 berechnet werden. Werden diese Lösungen zu einer Matrix zusammengefasst, resultiert die Inverse von A: (x1, . . . , xn) = (b1, . . . , bn) = A−1 (8.59) 218 Kapitel 88.10 Determinanten Wird zur Berechnung der Lösungen x1, . . . , xn die Cramersche Regel eingesetzt, dann erhält man die folgende geschlossene Formel für die Inverse einer invertierbaren Matrix: Satz 8.75 (Inversenformel) Die Inverse einer invertierbaren n× n-Matrix A ist gegeben durch A−1 = 1 det(A) ⎛ ⎜⎜⎜ ⎝ A∗11 A ∗ 21 . . . A ∗ n1 A∗12 A ∗ 22 . . . A ∗ n2 ... ... . . . ... A∗1n A ∗ 2n . . . A ∗ nn ⎞ ⎟⎟⎟ ⎠ , (8.60) wobei A∗ij := (−1)i+j det(Aij ) die Kofaktoren der Matrix A sind. Beweis: Bezeichnen a1, . . . , an ∈ Rn die Spaltenvektoren der Matrix A, dann folgt aus den Überlegungen unmittelbar vor diesem Satz und der Cramerschen Regel (siehe Satz 8.72), dass der Eintrag in der i-ten Zeile und j -ten Spalte von A−1 durch xij = det(a1, . . . , ai−1, ej , ai+1, . . . , an) det(A) gegeben ist. Die Matrix (a1, . . . , ai−1, ej , ai+1, . . . , an) besitzt als Eintrag in der j -ten Zeile und i-ten Spalte eine 1, während alle anderen Einträge in der i-ten Spalte gleich 0 sind. Durch i Vertauschungen benachbarter Spalten kann man ej zur ersten Spalte machen und durch j Vertauschungen benachbarter Zeilen kann man anschließend erreichen, dass die 1 in der linken oberen Ecke steht. Das heißt, die resultierende Matrix ist von der Form ⎛ ⎜ ⎜⎜ ⎝ 1 ∗ ∗ . . . ∗ 0 . . . Aji 0 ⎞ ⎟ ⎟⎟ ⎠ . (8.61) Aufgrund der Zeilen- und Spaltenvertauschungen unterscheidet sich die Determinante von (8.61) von der Determinante det(a1, . . . , ai−1, ej , ai+1, . . . , an) nur um den Faktor (−1)j+i (vgl. Satz 8.64d)). Durch Entwicklung der Matrix (8.61) nach der ersten Spalte (vgl. Satz 8.60) erhält man somit xij = 1 det(A) det(a1, . . . , ai−1, ej , ai+1, . . . , an) = (−1)j+i 1 det(A) det(Aji ) = 1 det(A) A∗ji und damit die Behauptung. Die Matrix auf der rechten Seite von (8.60) wird als Adjungierte von A bezeichnet. Sie ist die Transponierte der Matrix bestehend aus den Kofaktoren A∗ij = (−1)i+j det(Aij ). Das heißt, der Eintrag an der (i, j)-Stelle der Adjungierten von A ist nicht der Kofaktor A∗ij , sondern der Kofaktor A ∗ ji (für die Definition von det(Aij ) siehe (8.40)). Analog zur Cramerschen Regel ist die Anwendung der Inversenformel (8.60) sehr rechenaufwendig, denn für ihre Anwendung müssen n2 Determinanten det(Aij ) berechnet werden. In den meisten Fällen wird deshalb zur Ermittlung der Inversen einer invertierbaren Matrix der Gauß-Algorithmus (vgl. Abschnitt 9.5) eingesetzt. Beispiel 8.76 (Inversenformel) Die 3 × 3-Matrix A = ⎛ ⎝ 1 2 0 1 0 3 2 1 1 ⎞ ⎠ besitzt die folgenden Minoren: det(A11) = det ( 0 3 1 1 ) = −3 det(A12) = det ( 1 3 2 1 ) = −5 det(A13) = det ( 1 0 2 1 ) = 1 det(A21) = det ( 2 0 1 1 ) = 2 det(A22) = det ( 1 0 2 1 ) = 1 det(A23) = det ( 1 2 2 1 ) = −3 det(A31) = det ( 2 0 0 3 ) = 6 det(A32) = det ( 1 0 1 3 ) = 3 det(A33) = det ( 1 2 1 0 ) = −2 Für die Determinante von A erhält man mit der Regel von Sarrus det(A) = 0 + 12 + 0 − 0 − 3 − 2 = 7. Die Inverse von A ist somit gegeben durch A−1 = 1 7 ⎛ ⎝ −3 −2 6 5 1 −3 1 3 −2 ⎞ ⎠ = ⎛ ⎜ ⎝ − 37 − 27 67 5 7 1 7 − 37 1 7 3 7 − 27 ⎞ ⎟ ⎠ . 219

Chapter Preview

References

Zusammenfassung

"uneingeschränkt zu empfehlen, [...] insbesondere als Einstiegslektüre im Bachelor-Studium". In: Studium, 2013.

So zentral die Rolle der Mathematik in der Ökonomie ist, so schwer tun sich die Studierenden mit mathematischen Methoden und Konzepten. Umso wichtiger ist es, die Studierenden bei ihrem aktuellen Wissensstand abzuholen und vorsichtig an den Stoff heranzuführen. Diesem Ziel verschreibt sich dieses Lehrbuch. Es führt mit vielen interessanten Beispielen aus der Ökonomie, kurzen Anekdoten und einem modernen mehrfarbigen Design in die zentralen mathematischen Methoden für ein erfolgreiches Wirtschaftsstudium ein, ohne dabei auf mathematische Klarheit sowie die notwendige Formalität und Stringenz zu verzichten. Auch nach dem Studium ist dieses Buch ein wertvoller Begleiter bei der mathematischen Lösung wirtschaftswissenschaftlicher Problemstellungen.

Aus dem Inhalt:

* Mathematische Grundlagen

* Lineare Algebra

* Matrizentheorie

* Folgen und Reihen

* Reellwertige Funktionen in einer und mehreren Variablen

* Differential- und Integralrechnung

* Optimierung mit und ohne Nebenbedingungen

* Numerische Verfahren

Dozenten finden auf der Website zum Buch unter www.vahlen.de zusätzliche Materialien zum Download.

"Indem Sie den Lehrstoff schrittweise aufbereiten und den Leser bei seinem aktuellen Wissenstand abholen, gelingt es ihnen [den Autoren], auch komplexe Zusammenhänge leicht nachvollziehbar zu vermitteln. Geschickt bauen sie immer wieder kurze Anekdoten, historische Ereignisse und überraschende Erkenntnisse in den Text ein". In: Studium, 2013.

Prof. Dr. Michael Merz ist Inhaber des Lehrstuhls für Mathematik und Statistik in den Wirtschaftswissenschaften an der Universität Hamburg. Prof. Dr. Mario V. Wüthrich forscht und lehrt am Department für Mathematik der ETH Zürich.