Content

10. Eigenwerttheorie und Quadratische Formen in:

Michael Merz, Mario V. Wüthrich

Mathematik für Wirtschaftswissenschaftler, page 243 - 272

Die Einführung mit vielen ökonomischen Beispielen

1. Edition 2012, ISBN print: 978-3-8006-4482-7, ISBN online: 978-3-8006-4483-4, https://doi.org/10.15358/9783800644834_243

Bibliographic information
Kapitel10 Eigenwerttheorie und Quadratische Formen Kapitel 10 Eigenwerttheorie und Quadratische Formen 10.1 Eigenwerttheorie Die Betrachtung von verschiedenen wirtschaftswissenschaftlichen Fragestellungen, wie z. B. die Untersuchung von Wachstums- und Schrumpfungsprozessen, die Berechnung von Versicherungsprämien, die Prognose von zukünftigen Werten einer (ökonomischen) Zeitreihe, die Untersuchung der Markentreue von Konsumenten, das Studium von dynamischen Systemen usw., ist oftmals eng mit der Lösung eines sogenannten Eigenwertproblems verbunden. Das heißt, solche Fragestellungen führen auf die Problemstellung, dass für eine gegebene quadratische Matrix A ein lineares Gleichungssystem der Form A x = λx (10.1) bzw. in ausführlicher Schreibweise a11x1 + a12x2 + . . .+ a1nxn = λ1x1 a21x1 + a22x2 + . . .+ a2nxn = λ2x2 ... ... ... = ... am1x1 + am2x2 + . . .+ amnxn = λmxn zu lösen ist. Mit anderen Worten: Es sind Vektoren x = 0 gesucht, die bei der Transformation (linearen Abbildung) x %→ A x unverändert bleiben oder auf ein Vielfaches λ von sich selbst abgebildet werden. Der Wert λ wird dann als Eigenwert und der Vektor x als Eigenvektor der Matrix A bezeichnet. Die Theorie zur Untersuchung von Eigenwertproblemen heißt Eigenwerttheorie. Das folgende Beispiel gibt einen Einblick, wie bereits einfache ökonomische Fragestellungen zu einem Eigenwertproblem führen können: Beispiel 10.1 (Wirtschaftsentwicklung) Betrachtet wird ein einfaches makroökonomisches Modell für die zeitliche Entwicklung des Konsums und der Investitionen in einer Volkswirtschaft. Dabei bezeichnen xt den Konsum (in €) zum Zeitpunkt t und yt die Investitionen (in €) zum Zeitpunkt t . In diesem Modell wird angenommen, dass sich die zeitliche Entwicklung des Konsums und der Investitionen wie folgt beschreiben lassen: a) Die Veränderung des Konsums xt+1−xt im Zeitraum (t, t + 1] verhält sich proportional zu den Investitionen yt im Zeitpunkt t mit dem Proportionalitätsfaktor 0,2. b) Die Differenz aus den Investitionen yt+1 zum Zeitpunkt t + 1 und 65% der Investitionen yt zum Zeitpunkt t verhält sich proportional zum Konsum xt im Zeitpunkt t mit dem Proportionalitätsfaktor 0,1. Das heißt, die zeitliche Entwicklung des Konsums und der Investitionen lassen sich durch das lineare Gleichungssystem xt+1 = xt + 0,2yt yt+1 = 0,1xt + 0,65yt (10.2) beschreiben. Es soll nun die Frage untersucht werden, ob es eine Wirtschaftsentwicklung gibt, bei welcher der Konsum und die Investitionen jeweils mit demselben Proportionalitätsfaktor λ wachsen (für λ > 1) oder fallen (für λ < 1). Das heißt, es ist eine Wirtschaftsentwicklung gesucht, bei der xt+1 = λxt yt+1 = λyt (10.3) gilt. Mit den Bezeichnungen A := ( 1 0, 2 0,1 0,65 ) und x := ( xt yt ) lassen sich (10.2) und (10.3) als Eigenwertproblem formulieren: A x = λx Die 2 × 2-Matrix A besitzt die beiden Eigenwerte λ1 = 1,05 und λ2 = 0,6 und die zugehörigen Eigenvektoren x1 = ( 4a a ) bzw. x2 = ( a −2a ) für ein beliebiges a ∈ R \ {0}. Denn es gilt: A x1 = ( 1 0, 2 0,1 0,65 )( 4a a ) = ( 4,2a 1,05a ) = 1,05 ( 4a a ) = λ1x1 A x2 = ( 1 0, 2 0,1 0,65 )( a −2a ) = ( 0,6a −1,2a ) = 0,6 ( a −2a ) = λ2x2 236 Kapitel 1010.1 Eigenwerttheorie Interpretation von λ1 und x1 für a > 0: Wird in der Volkswirtschaft zum Zeitpunkt t viermal soviel konsumiert wie investiert, dann wachsen die Konsum- und die Investitionsausgaben im Zeitraum (t, t+1] mit der gleichen Rate von λ1 − 1 = 5%. Interpretation von λ2 und x2 für a > 0: Wird in der Volkswirtschaft zum Zeitpunkt t zweimal soviel deinvestiert wie konsumiert, dann „wachsen“ die Konsum- und die Investitionsausgaben im Zeitraum (t, t+1] mit der gleichen Rate von λ2 − 1 = −40%. Der Konsum und die Investitionen schrumpfen somit in diesem Fall um 40%. Insgesamt gilt also, dass sowohl ein Wachstum von 5% als auch eine Verringerung von 40% bei Konsum und Investitionen zu einer gleichförmigen Wirtschaftsentwicklung führen. Eigenwerte und Eigenvektoren Die Definition der Begriffe Eigenwert und Eigenvektor lautet wie folgt: Definition 10.2 (Eigenwert und Eigenvektor) Für eine n× n-Matrix A heißt eine Zahl λ ∈ R, für die das lineare Gleichungssystem A x = λx (10.4) eine Lösung x ∈ Rn\{0} besitzt, reeller Eigenwert von A, und der Vektor x wird als reeller Eigenvektor von A zum Eigenwert λ bezeichnet. In der obigen Definition wird vorausgesetzt, dass Eigenwerte reelle Zahlen sind. Es kann aber auch vorkommen, dass für eine n × n-Matrix A eine komplexe Zahl λ ∈ C existiert, so dass das lineare Gleichungssystem (10.4) eine Lösung x ∈ Cn \ {0} besitzt. In diesem Fall bezeichnet man λ als komplexen Eigenwert und x als komplexen Eigenvektor von A. Bei der Betrachtung der Definition 10.2 ist es wichtig zu beachten, dass ein Eigenvektor per Definition ungleich dem Nullvektor 0 sein muss. Denn ohne diese Einschränkung würde aus der für alle λ ∈ R gültigen Gleichung A 0 = λ0 folgen, dass alle λ ∈ R (reelle) Eigenwerte von A sind, weshalb die Definition nicht sehr sinnvoll wäre. Es kann jedoch durchaus vorkommen, dass λ = 0 ein Eigenwert von A ist. Ein Eigenvektor x zum Eigenwert λ ist der Matrix A in dem Sinne „eigen“, dass er durch A nicht stark verändert wird, sondern lediglich auf ein λ-faches von sich selbst abgebildet wird. Im Falle von |λ| > 1 handelt es sich dabei um eine Streckung und im Falle von |λ| < 1 um eine Stauchung. Eine weitere wichtige Eigenschaft von Eigenvektoren ist, dass sie nur bis auf einen (von null verschiedenen) Faktor μ ∈ R eindeutig bestimmt sind. Ist nämlich x ein Eigenvektor der Matrix A zum Eigenwert λ, dann ist auch der Vektor μx mit μ ∈ R\ {0} ein Eigenvektor der Matrix A zum Eigenwert λ. Denn es gilt A (μx) = μA x = μλx = λ(μx). Das heißt, mit x wird auch der Vektor μx auf sein λ-faches abgebildet. Insbesondere bedeutet dies, dass ein Vektor x ∈ R\{0} genau dann ein (reeller) Eigenvektor von A ist, wenn die Gerade G = {μx : μ ∈ R} in sich abgebildet wird. Man nennt G daher auch Fixgerade von A. So betrachtet besteht das Eigenwertproblem für A darin, alle Fixgeraden von A zu finden. Beispiel 10.3 (Stationäre Marktanteile) Betrachtet wird die Situation aus Beispiel 8.32b) mit den drei konkurrierenden Produkten P1, P2 und P3 sowie der Übergangsmatrix A = ⎛ ⎝ 0,5 0,2 0,1 0,2 0,4 0,3 0,3 0,4 0,6 ⎞ ⎠ , welche die Wechselwahrscheinlichkeiten von Käufern innerhalb einer Zeitperiode (t, t + 1] angibt. Es stellt sich nun die Frage, ob es für diesen Markt einen stationären Zustand gibt, so dass sich die Marktanteile der drei Produkte P1, P2 und P3 nicht mehr von Periode zu Periode verändern. Werden diese drei gesuchten stationären Marktanteile durch die Einträge des Vektors xt ∈ R3 bezeichnet, dann führt diese Fragestellung zu dem Eigenwertproblem A xt = xt . (10.5) Denn ist der Vektor xt eine Lösung des Eigenwertproblems (10.5), dann gilt xt+n = An xt = An−1 (A xt ) = An−1 xt = . . . = xt , 237 Kapitel 10 Eigenwerttheorie und Quadratische Formen also xt+n = xt für alle n ∈ N (vgl. (8.27)). Das heißt, falls ein Vektor mit stationären Marktanteilen existiert, ist dies äquivalent zur Berechnung eines Eigenvektors der Matrix A zum Eigenwert λ = 1. Eigenvektoren zum Eigenwert 1 werden als stationäre Vektoren bezeichnet und treten in vielen Anwendungen auf (siehe hierzu auch Beispiel 10.12). Ausgeschrieben lautet das lineare Gleichunssystem (10.5) 0,5x1 + 0,2x2 + 0,1x3 = x1 0,2x1 + 0,4x2 + 0,3x3 = x2 0,3x1 + 0,4x2 + 0,6x3 = x3 bzw. umgeformt zu einem homogenen linearen Gleichungssystem: − 5 10 x1 + 2 10 x2 + 1 10 x3 = 0 2 10 x1 − 6 10 x2 + 3 10 x3 = 0 3 10 x1 + 4 10 x2 − 4 10 x3 = 0 Mit dem Gauß-Algorithmus (vgl. Abschnitt 9.3) erhält man: x1 x2 x3 b (1) − 510 210 110 0 (2) 210 − 610 310 0 (3) 310 4 10 − 410 0 (1′) −5 2 1 0 10 · (1) (2′) 2 −6 3 0 10 · (2) (3′) 3 4 −4 0 10 · (3) (1′) −5 2 1 0 (2′′) 0 − 265 175 0 (2′)+ 2/5 · (1′) (3′′) 0 265 − 175 0 (3′)+ 3/5 · (1′) (1′′) −5 0 3013 0 (1′)+ 10/26 · (2′′) (2′′) 0 − 265 175 0 (3′′′) 0 0 0 0 (3′′)+ (2′′) (1′′′) 1 0 − 613 0 − 15 · (1′′) (2′′′) 0 1 − 1726 0 − 526 · (2′′) (3′′′) 0 0 0 0 Auflösen nach den beiden führenden Variablen x1 und x2 liefert mit der Parameterzuweisung x3 = a die Lösung xt = a ⎛ ⎜ ⎝ 6 13 17 26 1 ⎞ ⎟ ⎠ für alle a ∈ R\{0}. Dieser Vektor ist zwar ein Eigenvektor zum Eigenwert 1, aber noch nicht der Vektor mit den gesuchten stationären Marktanteilen. Da sich die Marktanteile zu Eins aufaddieren müssen, ist der Parameter a so zu wählen, dass 6 13 a + 17 26 a + a = 1, also a = 26 55 , gilt. Man erhält dann für den Vektor mit den gesuchten Marktanteilen x∗t = ⎛ ⎜ ⎝ 12 55 17 55 26 55 ⎞ ⎟ ⎠ . Das heißt, besitzen die Produkte P1, P2 und P3 die Marktanteile 1255 , 17 55 bzw. 26 55 , dann verändern sich diese in den kommenden Perioden nicht mehr. Charakteristische Polynome Der folgende Satz stellt einen wichtigen Zusammenhang zwischen den Eigenwerten einer quadratischen Matrix A und der Determinante der Matrix A − λE her: Satz 10.4 (Zusammenhang zwischen Eigenwerten und Determinante) Ein Wert λ ist genau dann ein Eigenwert einer n × n- Matrix A, wenn det(A − λE) = 0 gilt. Beweis: Ein Wert λ ist genau dann ein Eigenwert von A, wenn es einen Vektor x = 0 gibt, so dass A x = λx gilt. Mit Hilfe der n× n-Einheitsmatrix E kann diese Gleichung in der Form (A−λE) x = 0 geschrieben werden. Im Falle der Existenz eines Eigenwerts λ gibt es somit neben dem Nullvektor 0 einen weiteren Vektor x, der durch die Matrix A−λE auf den Nullvektor abgebildet wird. Das heißt, die zu A−λE gehörende lineare Ab- 238 Kapitel 1010.1 Eigenwerttheorie bildung ist nicht injektiv. Daraus folgt zusammen mit Folgerung 8.38a) und Satz 8.67 A x = λx ⇐⇒ (A − λE) x = 0 ⇐⇒ rang(A − λE) < n ⇐⇒ det(A − λE) = 0. Die große Bedeutung des Satzes 10.4 liegt darin begründet, dass er einen konstruktiven Ansatz zur Berechnung der Eigenwerte einer n× n-Matrix A liefert. Denn er besagt, dass man durch Auflösen der Gleichung det(A − λE) = 0 bzw. det ⎛ ⎜⎜⎜ ⎝ a11 − λ a12 . . . a1n a21 a22 − λ . . . a2n ... ... . . . ... an1 an2 . . . ann − λ ⎞ ⎟⎟⎟ ⎠ = 0 (10.6) nach λ die Eigenwerte von A erhält. Die Gleichung (10.6) wird deshalb als charakteristische Gleichung von A bezeichnet. Mit den Rechenregeln für Determinanten und etwas Rechenaufwand kann man weiter zeigen, dass die Determinante det(A−λE) ein Polynom n-ten Grades in λ ist. Genauer gilt det(A − λE) = (−1)nλn + (−1)n−1spur(A)λn−1 (10.7) + (−1)n−2cn−2λn−2 + . . .− c1λ+ det(A) mit geeigneten Konstanten c1, . . . , cn−2 ∈ R, wobei spur(A) und det(A) die Spur bzw. die Determinante der Matrix A bezeichnen. Die Eigenwerte von A sind durch die Nullstellen dieses Polynoms gegeben. Aufgrund seiner großen Bedeutung für die Eigenwerttheorie wurde für dieses Polynom eine eigene Bezeichnung eingeführt: Definition 10.5 (Charakteristisches Polynom) Es sei A eine n×n-Matrix. Dann heißt das Polynom n-ten Grades pA(λ) : = det(A − λE) = (−1)nλn + (−1)n−1spur(A)λn−1 (10.8) + (−1)n−2cn−2λn−2 + . . .− c1λ+ det(A) charakteristisches Polynom von A. Eine k-fache Nullstelle von pA wird als k-facher Eigenwert von A bezeichnet und die Zahl k wird algebraische Vielfachheit von λ genannt. Zur Bestimmung der Eigenwerte einer n × n-Matrix A hat man also die Nullstellen des charakteristischen Polynoms pA zu berechnen. Da der Fundamentalsatz der Algebra (vgl. Satz 4.2) besagt, dass pA als ein Polynom vom Grad n genau n (nicht notwendigerweise verschiedene) Nullstellen besitzt, bedeutet dies, dass A genau n (nicht notwendigerweise verschiedene) Eigenwerte bzw. maximal n reelle Eigenwerte besitzt. Ferner folgt mit Satz 4.4, dass komplexe Eigenwerte stets als konjugierte Paare auftreten. Das heißt, ist λ ein komplexer Eigenwert von A, dann ist auch die konjugiert komplexe Zahl λ ein komplexer Eigenwert von A. Bei einer 2 × 2-Matrix A können die beiden existierenden Eigenwerte als Lösungen der quadratischen Gleichung pA(λ) = λ2+bλ+c = 0 leicht mit den Lösungsformeln (4.8) oder (4.11) berechnet werden. Im Falle einer n × n-Matrix A mit n ≥ 3 ist jedoch die analytische Berechnung der Eigenwerte von A durch Bestimmung der Nullstellen des charakteristischen Polynoms pA im Allgemeinen nicht mehr so einfach möglich (vgl. Abschnitt 4.3). In solchen Fällen kommen dann numerische Verfahren wie z. B. das Regula-falsioder das Newton-Verfahren zum Einsatz (siehe hierzu Kapitel 26). Nachdem die Eigenwerte einer n×n-Matrix A ermittelt worden sind, kann zu jedem Eigenwert λ der zugehörige Eigenvektor x berechnet werden, indem das homogene lineare Gleichungssystem (A − λE) x = 0 (10.9) gelöst wird. Dabei ist zu beachten, dass det(A − λE) = 0 äquivalent ist zu rang(A − λE) < n (vgl. Satz 8.67). Das heißt, die Matrix A − λE hat nicht den vollen Rang n und das homogene lineare Gleichungssystem (10.9) besitzt daher unendlich viele Lösungen (vgl. Satz 9.3). Genauer gilt, dass n − rang(A − λE) die Anzahl der linear unabhängigen Lösungen ist und der Lösungsbereich L des homogenen linearen Gleichungssystems (10.9) damit die Dimension n− rang(A − λE) ≥ 1 besitzt (vgl. Seite 222). Folglich ist n− rang(A − λE) (10.10) auch die Anzahl der zum Eigenwert λ gehörenden linear unabhängigen Eigenvektoren und bei der Anwendung des Gauß-Algorithmus zur Lösung von (10.9) resultieren n − rang(A − λE) freie Variablen, denen jeweils ein beliebiger Parameter zugewiesen werden kann. Im folgenden Beispiel wird die konkrete Berechnung von Eigenwerten und Eigenvektoren demonstriert: 239 Kapitel 10 Eigenwerttheorie und Quadratische Formen Beispiel 10.6 (Berechnung von Eigenwerten und Eigenvektoren) a) Die 2 × 2-Matrix im Beispiel 10.1 zur Wirtschaftsentwicklung besitzt das charakteristische Polynom pA(λ) = det ( 1 − λ 0,2 0,1 0,65 − λ ) = (1 − λ)(0,65 − λ)− 0,02 = λ2 − 1,65λ+ 0,63. Mit der Lösungsformel (4.8) für quadratische Gleichungen erhält man daraus die beiden folgenden reellen Eigenwerte λ1 = 1,65 + √ 1,652 − 4 · 0,63 2 = 1,05 und λ2 = 1,65 − √ 1,652 − 4 · 0,63 2 = 0,6. Zur Berechnung der zu den reellen Eigenwerten λ1 = 1,05 und λ2 = 0,6 gehörenden reellen Eigenvektoren sind die linearen Gleichungssysteme (A−λ1E) x1 = 0 und (A − λ2E) x2 = 0 zu lösen. Diese beiden linearen Gleichungssysteme sind gegeben durch (−0,05 0,2 0,1 −0,4 )( x1 x2 ) = ( 0 0 ) und ( 0,4 0,2 0,1 0,05 )( x1 x2 ) = ( 0 0 ) bzw. −0,05x1 + 0,2x2 = 0 und 0,4x1 + 0,2x2 = 0 0,1x1 − 0,4x2 = 0 0,1x1 + 0,05x2 = 0. Offensichtlich gilt rang(A−λ1E)= rang(A−λ2E)=1 und damit 2− rang(A−λ1E)=2−rang(A−λ2E)=1. Gemäß (10.10) gibt es somit zu beiden reellen Eigenwerten jeweils einen linear unabhängigen reellen Eigenvektor. Das erste lineare Gleichungssystem ist somit erfüllt, wenn x1 = 4x2 gilt, und das zweite, wenn x1 = − 12x2 erfüllt ist. Die beiden reellen Eigenvektoren x1 und x2 zu den reellen Eigenwerten λ1 und λ2 sind somit gegeben durch x1= ( 4a a ) =a ( 4 1 ) bzw. x2 = (− 12b b ) =b (− 12 1 ) mit a, b ∈ R \ {0}. b) Für die 3 × 3-Matrix A = ⎛ ⎝ 0 2 −1 2 −1 1 2 −1 3 ⎞ ⎠ erhält man mit der Regel von Sarrus das charakteristische Polynom pA(λ) = det ⎛ ⎝ 0 − λ 2 −1 2 −1 − λ 1 2 −1 3 − λ ⎞ ⎠ = −λ3 + 2λ2 + 4λ− 8 = −(λ− 2)2(λ+ 2). Das heißt, das charakteristische Polynom pA besitzt die doppelte Nullstelle λ1,2 = 2 und die einfache Nullstelle λ3 = −2. Somit ist 2 ein zweifacher und −2 ein einfacher reeller Eigenwert von A. Zur Berechnung der reellen Eigenvektoren zu den beiden verschiedenen reellen Eigenwerten λ1,2 = 2 und λ3 = −2 sind die beiden linearen Gleichungssysteme (A − λ1,2E) x1 = 0 und (A − λ3E) x2 = 0 zu lösen. Diese sind gegeben durch ⎛ ⎝ −2 2 −1 2 −3 1 2 −1 1 ⎞ ⎠ ⎛ ⎝ x1 x2 x3 ⎞ ⎠ = ⎛ ⎝ 0 0 0 ⎞ ⎠ bzw. ⎛ ⎝ 2 2 −1 2 1 1 2 −1 5 ⎞ ⎠ ⎛ ⎝ x1 x2 x3 ⎞ ⎠ = ⎛ ⎝ 0 0 0 ⎞ ⎠ . Mit Hilfe des Gauß-Algorithmus zeigt man leicht, dass rang(A−λ1,2E) = rang(A−λ3E) = 2 und damit 3−rang(A−λ1,2E) = 3−rang(A−λ3E) = 1 gilt (vgl. Abschnitt 9.6). Mit (10.10) folgt daher, dass es zu beiden reellen Eigenwerten λ1,2 = 2 und λ3 = −2 jeweils nur einen linear unabhängigen reellen Eigenvektor gibt. Das erste lineare Gleichungssystem lautet ausgeschrieben: −2x1 + 2x2 − x3 = 0 2x1 − 3x2 + x3 = 0 2x1 − x2 + x3 = 0 Durch Lösen dieses linearen Gleichungssystems z. B. mit Hilfe des Gauß-Algorithmus (vgl. Abschnitt 9.3) erhält 240 Kapitel 1010.1 Eigenwerttheorie man für λ1,2 = 2 den reellen Eigenvektor x1 = ⎛ ⎝ 1 2a 0 −a ⎞ ⎠ = a ⎛ ⎝ 1 2 0 −1 ⎞ ⎠ mit einem beliebigen a ∈ R \ {0}. Für den zweiten reellen Eigenwert λ3 = −2 erhält man das lineare Gleichungssystem 2x1 + 2x2 − x3 = 0 2x1 + x2 + x3 = 0 2x1 − x2 + 5x3 = 0 und daraus den reellen Eigenvektor x2 = ⎛ ⎝ 3 2b−2b −b ⎞ ⎠ = b ⎛ ⎝ 3 2−2 −1 ⎞ ⎠ mit einem beliebigen b ∈ R \ {0}. c) Für die 3 × 3-Matrix A = ⎛ ⎝ 0 0 −2 1 2 1 1 0 3 ⎞ ⎠ erhält man mit der Regel von Sarrus das charakteristische Polynom pA(λ) = det ⎛ ⎝ 0 − λ 0 −2 1 2 − λ 1 1 0 3 − λ ⎞ ⎠ = −λ3 + 5λ2 − 8λ+ 4 = −(λ− 1)(λ− 2)2. Das heißt, das charakteristische Polynom pA besitzt die einfache Nullstelle λ1 = 1 und die doppelte Nullstelle λ2,3 = 2. Somit ist 1 ein einfacher und 2 ein zweifacher reeller Eigenwert von A. Zur Berechnung der reellen Eigenvektoren zu den beiden verschiedenen reellen Eigenwerten λ1 = 1 und λ2,3 = 2 sind die beiden linearen Gleichungssysteme (A − λ1E) x1 = 0 und (A − λ2,3E) x2 = 0 zu lösen. Diese sind gegeben durch ⎛ ⎝ −1 0 −2 1 1 1 1 0 2 ⎞ ⎠ ⎛ ⎝ x1 x2 x3 ⎞ ⎠ = ⎛ ⎝ 0 0 0 ⎞ ⎠ bzw. ⎛ ⎝ −2 0 −2 1 0 1 1 0 1 ⎞ ⎠ ⎛ ⎝ x1 x2 x3 ⎞ ⎠ = ⎛ ⎝ 0 0 0 ⎞ ⎠ . Man zeigt leicht, dass rang(A − λ1E) = 2 und rang(A−λ2,3E) = 1 gilt. Daraus folgt 3− rang(A− λ1E) = 1 und 3− rang(A−λ2,3E) = 2. Mit (10.10) erhält man daher, dass es zum reellen Eigenwert λ1 = 1 einen und zum reellen Eigenwert λ2,3 = 2 zwei linear unabhängige reelle Eigenvektoren gibt. Das erste lineare Gleichungssystem lautet ausgeschrieben: −x1 − 2x3 = 0 x1 + x2 + x3 = 0 x1 + 2x3 = 0 Durch Lösen dieses linearen Gleichungssystems, z. B. mit Hilfe des Gauß-Algorithmus (vgl. Abschnitt 9.3), erhält man für λ1 = 1 den reellen Eigenvektor x1 = ⎛ ⎝ −2a a a ⎞ ⎠ = a ⎛ ⎝ −2 1 1 ⎞ ⎠ mit einem beliebigen a ∈ R \ {0}. Für den zweiten reellen Eigenwert λ2,3 = 2 erhält man das lineare Gleichungssystem: −2x1 − 2x3 = 0 x1 + x3 = 0 x1 + x3 = 0 Diese drei linearen Gleichungen sind erfüllt, wenn x1 = −x3 gilt und die reellen Eigenvektoren zum Eigenwert λ2,3 = 2 sind damit von der Gestalt x2 = ⎛ ⎝ −b c b ⎞ ⎠= ⎛ ⎝ −b 0 b ⎞ ⎠+ ⎛ ⎝ 0 c 0 ⎞ ⎠=b ⎛ ⎝ −1 0 1 ⎞ ⎠+ c ⎛ ⎝ 0 1 0 ⎞ ⎠ für beliebige b, c ∈ R mit der Eigenschaft (b, c) = (0, 0). Alle Eigenvektoren zum Eigenwert λ2,3 = 2 sind somit nicht (triviale) Linearkombinationen der beiden linear unabhängigen Eigenvektoren ⎛ ⎝ −1 0 1 ⎞ ⎠ und ⎛ ⎝ 0 1 0 ⎞ ⎠ . d) Für die 3 × 3-Matrix A = ⎛ ⎝ 1 0 1 0 1 1 −1 −1 0 ⎞ ⎠ 241 Kapitel 10 Eigenwerttheorie und Quadratische Formen erhält man mit der Regel von Sarrus das charakteristische Polynom pA(λ) = det ⎛ ⎝ 1 − λ 0 1 0 1 − λ 1 −1 −1 −λ ⎞ ⎠ = −λ3 + 2λ2 − 3λ+ 2. Durch Probieren erkennt man, dass λ1 = 1 eine Nullstelle von pA ist und eine anschließende Polynomdivision mit dem Linearfaktor (λ− 1) liefert: (λ3 − 2λ2 + 3λ− 2) : (λ− 1) = λ2 − λ+ 2 −λ3 + λ2 − λ2 + 3λ λ2 − λ 2λ− 2 −2λ+ 2 0 Mit der Lösungsformel (4.8) erhält man für das verbleibende quadratische Polynom λ2−λ+2 die beiden Nullstellen λ2 = 1 + √ 1 − 8 2 = 1 2 + √ 7 2 i und λ3 = 1 − √ 1 − 8 2 = 1 2 − √ 7 2 i. Das heißt, die Matrix A hat den reellen Eigenwert λ1 = 1 und die beiden zueinander konjugiert komplexen Eigenwerte λ2 = 12 + √ 7 2 i und λ3 = 12 − √ 7 2 i. Dieses Beispiel zeigt, dass eine Matrix gleichzeitig sowohl reelle als auch komplexe Eigenwerte besitzen kann. Besonders einfach lassen sich die Eigenwerte einer (unteren bzw. oberen) Dreiecksmatrix berechnen. Zum Beispiel erhält man für eine obere n× n-Dreiecksmatrix A = ⎛ ⎜⎜ ⎜ ⎝ a11 a12 . . . a1n 0 a22 a2n ... . . . ... 0 . . . 0 ann ⎞ ⎟ ⎟⎟ ⎠ mit den Einträgen a11, . . . , ann auf der Hauptdiagonalen das charakteristische Polynom pA(λ)=det ⎛ ⎜⎜⎜ ⎝ a11 − λ a12 . . . a1n 0 a22 − λ a2n ... . . . ... 0 . . . 0 ann − λ ⎞ ⎟⎟⎟ ⎠ = n∏ i=1 (aii−λ) (vgl. Folgerung 8.61). Damit ergibt sich die charakteristische Gleichung pA(λ) = n∏ i=1 (aii − λ) = 0 (10.11) und es folgt unmittelbar, dass die Eigenwerte einer oberen Dreiecksmatrix A durch ihre Einträge a11, . . . , ann auf der Hauptdiagonalen gegeben sind. Eine analoge Aussage erhält man für untere Dreiecksmatrizen. Ist A sogar eine n × n- Diagonalmatrix, dann gilt zusätzlich A ei = aiiei für alle i = 1, . . . , n. Das heißt, eine n× n-Diagonalmatrix besitzt die n Einheitsvektoren e1, . . . , en ∈ Rn als Eigenvektoren. Beispiel 10.7 (Eigenwerte von Dreiecksmatrizen) Die beiden Dreiecksmatrizen A = ⎛ ⎝ 1 2 0 0 3 25 0 1 3 −1 ⎞ ⎠ und B = ⎛ ⎜⎜ ⎝ 3 2 −5 16 0 14 0 −3 0 0 2 16 0 0 0 1 ⎞ ⎟⎟ ⎠ besitzen die Eigenwerte λ1 = 12 , λ2 = 25 , λ3 = −1 bzw. λ1 = 3, λ2 = 14 , λ3 = 2, λ4 = 1. Eigenschaften von Eigenwerten Ist A eine n×n-Matrix mit den (nicht notwendigerweise verschiedenen) Eigenwerten λ1, . . . , λn, dann lässt sich ihr charakteristisches Polynom (10.8) in die Form pA(λ) = (−1)n(λ− λ1)(λ− λ2) · . . . · (λ− λn) (10.12) zerlegen (vgl. Satz 4.2). Werden die Linearfaktoren auf der rechten Seite von (10.12) ausmultipliziert, dann erhält man durch einen anschließenden Vergleich der resultierenden Koeffizienten mit den Koeffizienten in der Darstellung (10.8), dass zwischen der Spur, der Determinante und den Eigenwerten von A der folgende interessante Zusammenhang besteht: spur(A) = λ1 + . . .+ λn (10.13) det(A) = λ1 · . . . · λn (10.14) Sind also die Eigenwerte einer n×n-Matrix A bekannt, dann können mit (10.13) und (10.14) ihre Spur und Determinante berechnet werden. 242 Kapitel 1010.1 Eigenwerttheorie Der folgende Satz fasst weitere wichtige Eigenschaften von Eigenwerten zusammen: Satz 10.8 (Eigenschaften von Eigenwerten) Es sei A eine n×n-Matrix und λ1, . . . , λn seien ihre (nicht notwendigerweise verschiedenen) Eigenwerte. Dann gilt: a) λm1 , . . . , λ m n sind Eigenwerte von A m für m ∈ N0. b) Die Matrix A ist invertierbar ⇐⇒ λi = 0 für alle i = 1, . . . , n. c) A invertierbar ⇒ 1 λ1 , . . . , 1 λn sind die Eigenwerte von A−1. d) A und AT besitzen die gleichen Eigenwerte. e) A symmetrisch ⇒ λ1, . . . , λn ∈ R. f) A orthogonal ⇒ |λi | = 1 für alle i = 1, . . . , n. Beweis: Zu a): Es gilt A xi = λixi für i = 1, . . . , n. Daraus folgt durch Iteration Am xi = A · · ·A︸ ︷︷ ︸ m-mal xi = λi A · · ·A︸ ︷︷ ︸ (m− 1)-mal xi = . . . = λmi xi für alle i = 1, . . . , n und m ∈ N0. Das heißt, λm1 , . . . , λmn sind die Eigenwerte von Am. Zu b): Aus det(A) = λ1 · · · λn (vgl. (10.14)) folgt, dass det(A) = 0 genau dann gilt, wenn λi = 0 für alle i = 1, . . . , n erfüllt ist. Die Bedingung det(A) = 0 ist jedoch äquivalent dazu, dass A invertierbar ist (vgl. Satz 8.67). Zu c): Es gilt A xi = λixi für i = 1, . . . , n. Da A gemäß Annahme invertierbar ist, folgt aus Aussage b) λi = 0 für alle i = 1, . . . , n und damit insbesondere A xi = λixi ⇐⇒ xi = λiA−1 xi ⇐⇒ A−1xi = 1 λi xi . Das heißt, 1 λ1 , . . . , 1 λn sind die Eigenwerte von A−1. Zu d): Aus det(B) = det(BT ) für eine beliebige n× n-Matrix (vgl. Folgerung 8.63) folgt pA(λ) = det(A − λE) = det ( (A − λE)T ) = det ( AT − λET ) = det ( AT − λE ) = pAT (λ). Die Matrizen A und AT besitzen somit das gleiche charakteristische Polynom und damit auch die gleichen Eigenwerte. Zu e): Es gilt A xi = λixi mit xi = 0 für i = 1, . . . , n und 〈xi ,A xi〉 ist stets eine reelle Zahl (vgl. Definition 7.7). Daraus folgt 〈xi ,A xi〉 = 〈xi ,A xi〉. Für eine symmetrische Matrix gilt ferner AT = A (vgl. Definition 8.49). Daraus folgt zusammen mit 〈A xi , xi〉 = 〈 xi ,AT xi 〉 (vgl. Satz 8.22) λi · 〈xi , xi〉 = 〈λixi , xi〉 = 〈A xi , xi〉 = 〈 xi ,AT xi 〉 = 〈xi ,A xi〉 = 〈xi ,A xi〉 = 〈xi , λixi〉 = 〈xi , xi〉 · λi = 〈xi , xi〉 · λi (10.15) für i = 1, . . . , n. Aus xi = 0 folgt 〈xi , xi〉 = ‖xi‖2 > 0 und die beiden Seiten der Gleichung (10.15) können deshalb durch 〈xi , xi〉 dividiert werden. Man erhält dann λi = λi und damit insbesondere λi ∈ R. f): Es gilt A xi = λixi mit xi = 0 für i = 1, . . . , n und aus der Annahme, dass A eine orthogonale Matrix ist, folgt ‖A x‖ = ‖x‖ (vgl. Satz 8.54b)). Dies impliziert ‖xi‖ = ‖A xi‖ = ‖λixi‖ = |λi | · ‖xi‖. (10.16) Wegen ‖xi‖ > 0 können beide Seiten von (10.16) durch ‖xi‖ dividiert werden. Man erhält dann |λi | = 1 für i = 1, . . . , n. Satz 10.8f) bedeutet insbesondere, dass orthogonale n× n- Matrizen Spiegelungen oder Drehungen im Rn beschreiben, bei denen die Länge der Vektoren erhalten bleibt. Eigenschaften von Eigenvektoren Im folgenden Satz sind drei wichtige Eigenschaften von Eigenvektoren zusammengefasst: Satz 10.9 (Eigenschaften von Eigenvektoren) Es sei A eine n× n-Matrix. Dann gilt: a) Am besitzt für m ∈ N die gleichen Eigenvektoren wie A. b) Sind x1, . . . , xk Eigenvektoren von A zu demselben Eigenwert λ, dann ist auch jede Linearkombination∑k i=1 rixi = 0 mit r1, . . . , rk ∈ R ein Eigenvektor von A zum Eigenwert λ. c) Eigenvektoren x1, . . . , xk zu verschiedenen Eigenwerten λ1, . . . , λk von A sind linear unabhängig. Im Falle einer symmetrischen Matrix A sind sie sogar orthogonal. Beweis: Zu a): Siehe Beweis von Satz 10.8a). Zu b): Es gilt Axi = λxi für i = 1, . . . , k. Daraus folgt A ( k∑ i=1 rixi ) = k∑ i=1 riA xi = k∑ i=1 riλxi = λ k∑ i=1 rixi . 243 Kapitel 10 Eigenwerttheorie und Quadratische Formen Das heißt, ∑n i=1 rixi = 0 ist ebenfalls ein Eigenvektor von A zum Eigenwert λ. Zu c): Der Beweis erfolgt durch vollständige Induktion. Es sei {x1, . . . , xk} eine Menge von Eigenvektoren zu verschiedenen Eigenwerten λ1, . . . , λk . Induktionsanfang: Es sei k = 1. Der Eigenvektor x1 ist linear unabhängig, da x1 = 0 gilt. Induktionsschritt: Es wird angenommen, dass die Menge {x1, . . . , xk−1} linear unabhängig ist und r1x1 + . . .+ rkxk = 0 (10.17) für r1, . . . , rk ∈ R gilt. Anwendung von A auf (10.17) bzw. Multiplikation von (10.17) mit λk liefert die beiden Gleichungen r1λ1x1 + . . .+ rkλkxk = 0 bzw. λkr1x1 + . . .+ λkrkxk = 0. Durch Subtraktion dieser beiden Gleichungen erhält man (λ1 − λk)r1x1 + . . .+ (λk−1 − λk)rk−1xk−1 = 0. Da jedoch gemäß Induktionsannahme die Menge {x1, . . . , xk−1} linear unabhängig ist, folgt (λ1 − λk)r1 = . . . = (λk−1 − λk)rk−1 = 0. Aus der Verschiedenheit der Eigenwerte λ1, . . . , λk folgt weiter r1 = . . . = rk−1 = 0. Zusammen mit (10.17) impliziert dies rkxk = 0, also rk = 0. Bei (10.17) handelt es sich somit um die triviale Darstellung des Nullvektors, weshalb die Menge {x1, . . . , xk} linear unabhängig ist. Die Matrix A sei nun zusätzlich symmetrisch. Das heißt, es gelte A = AT . Weiter seien x1 und x2 zwei Eigenvektoren von A zu zwei verschiedenen Eigenwerten λ1 und λ2. Daraus folgt zusammen mit 〈A x1, x2〉 = 〈 x1,AT x2 〉 (vgl. Satz 8.22) λ1 〈x1, x2〉 = 〈λ1x1, x2〉 = 〈A x1, x2〉 = 〈 x1,AT x2 〉 = 〈x1,A x2〉 = 〈x1, λ2x2〉 = λ2 〈x1, x2〉 . Folglich gilt (λ1−λ2) 〈x1, x2〉 = 0 mit λ1 = λ2 und man erhält somit 〈x1, x2〉 = 0. Das heißt, die beiden Eigenvektoren x1 und x2 sind orthogonal. Beispiel 10.10 (Eigenschaften von Eigenwerten und Eigenvektoren) In Beispiel 10.6b) wurde gezeigt, dass die 3 × 3-Matrix A = ⎛ ⎝ 0 2 −1 2 −1 1 2 −1 3 ⎞ ⎠ die Eigenvektoren a ⎛ ⎝ 1 2 0 −1 ⎞ ⎠ und b ⎛ ⎝ 3 2−2 −1 ⎞ ⎠ (10.18) mit a, b ∈ R \ {0} zu den Eigenwerten λ1,2 = 2 bzw. λ3 = −2 besitzt. Mit Satz 10.8a) und Satz 10.9a) folgt somit, dass die beiden Vektoren (10.18) Eigenvektoren der Matrixpotenz A5 zu den Eigenwerten λ1,2 = 25 = 32 bzw. λ3 = (−2)5 = −32 sind. Da ferner alle drei Eigenwerte von A ungleich Null sind, folgt mit Satz 10.8b) und c), dass A invertierbar ist und ihre Inverse A−1 die Eigenwerte λ1,2 = 12 und λ3 = − 12 besitzt. Das folgende Beispiel ist in der mathematischen Literatur als Satz vom Fußball bekannt. Der Satz vom Fußball ist eines der wenigen mathematischen Resultate, deren Aussage schwieriger zu verstehen als zu beweisen ist. Beispiel 10.11 (Satz vom Fußball) Der Satz vom Fußball lautet wie folgt: Bei jedem Fußballspiel, bei dem nur ein Fußball benutzt wird, gibt es zwei Punkte auf der Oberfläche des Balls, die sich zu Beginn der ersten und der zweiten Halbzeit, wenn der Ball jeweils genau auf den Anstoßpunkt gelegt wird, an genau der gleichen Stelle im umgebenden Raum befinden. Obwohl diese Aussage relativ unanschaulich ist, lässt sie sich mit dem bereits Gezeigten relativ leicht nachweisen. Dabei ist vor allem die Feststellung wichtig, dass der Ball zwischen dem Anstoß zu Beginn der ersten und dem Anstoß zu Beginn der zweiten Halbzeit (mehrfach) gedreht und verschoben wird. Da jedoch der Ball zu Beginn der zweiten Halbzeit wieder genau auf den Anstoßpunkt gelegt wird, sind für die Betrachtung nur die nacheinander ausgeführten n Drehungen des Balls um verschiedene Winkel und Drehachsen von Bedeutung: Gemäß den Erläuterungen auf Seite 214 werden die n Drehungen im dreidimensionalen euklidischen Raum R 3 durch orthogonale 3 × 3-Matrizen A1, . . . ,An mit 244 Kapitel 1010.2 Power-Methode det(Ai ) = 1 für i = 1, . . . , n beschrieben. Mit Satz 8.54e) und Satz 8.68 folgt weiter, dass auch die aus den n nacheinander ausgeführten Einzeldrehungen resultierende Gesamtdrehung D := A1 · . . . · An eine orthogonale 3×3-Matrix mit der Determinante 1 ist. Zusammen mit (10.14) erhält man daher det(D) = λ1λ2λ3 = 1, (10.19) wobei λ1, λ2, λ3 die drei Eigenwerte von D sind. Ferner hat das charakteristische Polynom von D den Grad 3. Die Matrix D besitzt daher mindestens einen reellen Eigenwert (vgl. Folgerung 4.5). Dies impliziert zusammen mit (10.19) und |λ1| = |λ2| = |λ3| = 1 (vgl. Satz 10.8f)), dass mindestens einer der drei Eigenwerte von D gleich 1 sein muss. Dies wiederum bedeutet, dass es einen Vektor x ∈ R3 \ {0} mit der Eigenschaft D x = 1 · x gibt, also einen Vektor, der durch die Gesamtdrehung D auf sich selbst abgebildet wird. Die durch den Eigenvektor x festgelegte Gerade G = {μx : μ ∈ R} durchstößt somit die Oberfläche des Fußballs an zwei Stellen, die sich zu Beginn der ersten und zu Beginn der zweiten Halbzeit an der gleichen Stelle im umgebenden Raum befinden. 10.2 Power-Methode R. v. Mises Für das Lösen von Eigenwertproblemen A x = λx mit einer n× n-Matrix A großer Ordnung – d. h. mit einem n in der Grö- ßenordnung von mehreren hundert oder größer – ist der in Abschnitt 9.3 beschriebene Gauß- Algorithmus schnell nicht mehr zur Berechnung der Eigenwerte und der Eigenvektoren geeignet. In solchen Fällen sind iterative Verfahren zur numerischen Berechnung oftmals besser geeignet. Eines der bekanntesten iterativen Verfahren zur numerischen Berechnung von Eigenwerten und Eigenvektoren ist die Power-Methode, die häufig auch nach dem österreichischen Mathematiker Richard von Mises (1883–1953) als von-Mises-Iteration bezeichnet wird. Dieses Verfahren ist jedoch nur zur Berechnung des betragsgrößten Eigenwertes einer n × n-Matrix A und des dazugehörigen Eigenvektors geeignet. Die Bezeichnung Power-Methode ist dadurch motiviert, dass zur Durchführung dieses Verfahrens eine Reihe von Matrixpotenzen Ak zu berechnen sind, was auch den wesentlichen Teil des Berechnungsaufwands ausmacht. Aus diesem Grund ist die Power-Methode vor allem sehr gut für Matrizen geeignet, bei denen viele Einträge gleich Null sind. O. Perron Zur Erläuterung der Funktionsweise dieses Verfahrens wird im Folgenden ein Eigenwertproblem A x = λx mit einer n× n-Matrix A betrachtet. Dabei wird angenommen, dass die n Eigenwerte von A ihrem Betrag nach geordnet sind und λ1 einen echt größeren Betrag besitzt als die anderen Eigenwerte. Das heißt, es gelte |λ1|> |λ2|≥· · ·≥|λn|. (10.20) Eine hinreichende, aber nicht notwendige Bedingung hierfür liefert zum Beispiel der nach den beiden deutschen Mathematikern Oskar Perron (1880–1975) und Ferdinand Georg Frobenius (1849–1917) benannte Satz von Perron- Frobenius. Dieser Satz besagt unter anderem, dass die Bedingung (10.20) für alle n × n-Matrizen A = (aij )n,n mit ausschließlich positiven Einträgen aij erfüllt ist (siehe z. B. Gantmacher [19], Seite 398). Ferner wird angenommen, dass die Menge {x1, . . . , xn} der Eigenvektoren zu den n Eigenwerten λ1, . . . , λn linear unabhängig ist und damit eine Basis des Rn bildet. Die Durchführung der Power-Methode besteht nun darin, dass ausgehend von einem Startvektor x(0) ∈ Rn durch sukzessive Anwendung der Matrix A mit x(k) := A x(k−1) = Ak x(0) (10.21) weitere Vektoren berechnet werden. Bei „geeigneter“ Wahl des Startvektors x(0) nähern sich dann die Vektoren x(1), x(2), x(3), . . . einem Eigenvektor x der Matrix A zum Eigenwert λ1 beliebig nahe an. Das heißt, für ein hinreichend großes m gilt A x(m) ≈ λ1x(m). (10.22) 245 Kapitel 10 Eigenwerttheorie und Quadratische Formen Um dies einzusehen, wird der Startvektor x(0) als Linearkombination x(0) = μ1x1 + μ2x2 + . . .+ μnxn (10.23) der Eigenvektoren x1, . . . , xn dargestellt. Dabei wird angenommen, dass der Startvektor x(0) so gewählt ist, dass für den ersten Koeffizienten μ1 = 0 gilt. Häufig wird x(0) = (1, 0, . . . , 0)T oder x(0) = (1, 1, . . . , 1)T gewählt und man vertraut dann einfach darauf, dass μ1 ungleich Null ist. Anschließend berechnet man aus (10.23) die Näherungsvektoren x(1), x(2), x(3), . . . durch sukzessive Anwendung der Matrix A: x(1) = A x(0) = A(μ1x1 + . . .+ μnxn) = μ1λ1x1 + . . .+ μnλnxn x(2) = A x(1) = A(μ1λ1x1 + . . .+ μnλnxn) = μ1λ21x1 + . . .+ μnλ2nxn ... x(m) = A x(m−1) = A(μ1λm−11 x1 + . . .+ μnλm−1n xn) = μ1λm1 x1 + . . .+ μnλmn xn Aus der letzten Gleichung folgt 1 λm1 x(m) = μ1x1 + μ2 ( λ2 λ1 )m x2 + . . .+ μn ( λn λ1 )m xn und, da λ1 der betragsmäßig größte Eigenwert ist, dominiert für hinreichend große m der erste Summand und es gilt 1 λm1 x(m) ≈ μ1x1. Das heißt, man erhält A x(m) = x(m+1) ≈ λm+11 μ1x1 ≈ λ1x(m) und damit (10.22). Für den Erfolg der Power-Methode ist es wichtig, dass man einen Startvektor x(0) mit μ1 = 0 wählt. Da man jedoch in der Praxis den Eigenvektor x1 nicht kennt, muss man es dem Zufall überlassen, ob für den gewählten Startvektor tatsächlich μ1 = 0 gilt. Dies ist jedoch nicht so problematisch, wie es zuerst erscheinen mag. Denn durch die bei den meisten Rechnungen auftretenden Rundungsfehler ergibt sich dies in der Praxis meistens von selbst. Das folgende Beispiel skizziert die große Leistungsfähigkeit der Power-Methode am Beispiel des PageRank-Algorithmus von Google, bei dem ein Eigenvektor einer Matrix mit sage und schreibe 30 Milliarden Zeilen und Spalten (!!!) zu berechnen ist. Beispiel 10.12 (Der $25.000.000.000 Eigenvektor von Google) Im Jahre 1998 gründeten die beiden PhD-Studenten Larry Page (*1973) und Sergey Brin (*1973) der Standford University die Internetfirma Google Inc. Page und Brin entwickelten für ihre Suchmaschine mit dem PageRank-Algorithmus ein sehr leistungsfähiges Verfahren, das mit dem sogenannten PageRank einen Wert errechnet, der die Relevanz einer Webseite bezüglich des eingegebenen Suchbegriffs ausdrückt. Google war damit in der Lage, die bei einer Suchanfrage gefundenen Webseiten entsprechend ihrer Relevanz nacheinander anzuordnen, während es bei der Konkurrenz durchaus möglich war, dass die besten Treffer zu einer Suchanfrage erst nach einigen hundert oder gar tausend anderen Seiten aufgelistet wurden. Vor allem aufgrund dieser Eigenschaft entwickelte sich Google schnell zu der mit Abstand populärsten Internetsuchmaschine, so dass Google bei seinem Börsengang am 25.8.2004 bereits einen Wert von ca. $25.000.000.000 hatte und Page und Brin auf einen Schlag zu den wohlhabendsten Menschen zählten. Der vom PageRank-Algorithmus errechnete PageRank einer Webseite ist ein Wert zwischen 0 und 1, der umso höher ist, 1. je mehr Links von anderen Webseiten auf die Seite verweisen und 2. je größer die Bedeutung (d. h. der PageRank) dieser Webseiten ist. Mit Hilfe der ermittelten PageRanks ist Google in der Lage, bei einer Suchanfrage aus dem riesigen World Wide Web mit seinen aktuell ungefähr n = 30 Milliarden Webseiten (geschätzter Stand: Sommer 2012) die relevantesten Webseiten zu finden und entsprechend ihrer Relevanz der Reihe nach aufzulisten. Der PageRank-Algorithmus zur Berechnung des PageRanks basiert dabei im Wesentlichen auf den folgenden drei Annahmen: 246 Kapitel 1010.2 Power-Methode a) Die Bedeutung einer Webseite Pj ist durch ihren PageRank wj gegeben. b) Eine Webseite Pj enthält lj ∈ N Links zu anderen Webseiten. c) Die Menge aller Webseiten, die einen Link zur Webseite Pi enthalten, ist durch Bi gegeben. Enthält nun eine Webseite Pj einen Link zu einer anderen Seite Pi , dann übergibt sie den PageRank-Anteil wj lj an Pi und der gesamte PageRank wi von Pi ergibt sich als Summe der PageRank-Anteile aller Webseiten, die auf Pi verlinken: wi = ∑ Pj∈Bi wj lj (10.24) Auf diese Weise entsteht für jede der derzeit ungefähr 30 Milliarden Webseiten des World Wide Web eine lineare Gleichung der Form (10.24) und alle linearen Gleichungen zusammen ergeben ein quadratisches lineares Gleichungssystem der Ordnung n × n mit n = 30 Milliarden. Zur Berechnung der 30 Milliarden unbekannten PageRanks w := (w1, w2, . . . , wn)T wird die sogenannte Hyperlink-Matrix H = (hij )n,n mit den Einträgen hij := { 1 lj falls Pj ∈ Bi 0 sonst eingeführt. Die Hyperlink-Matrix H ist ebenfalls von der gewaltigen Ordnung n×n und jede Zeile und jede Spalte gehört zu genau einer Webseite. Genauer gilt: Die j -te Spalte von H enthält die PageRank-Anteile 1 lj , die von der WebseitePj an die anderen Webseiten übergeben werden. Die Einträge von H sind somit alle nichtnegativ und die Summe der Werte in einer Spalte ist gleich 1. Das heißt, die Hyperlink-Matrix H gehört zur Klasse der stochastischen Matrizen, die auch in vielen anderen Anwendungen eine wichtige Rolle spielen (siehe auch Beispiel 8.32b)). Mit Hilfe der Hyperlink-Matrix H und dem Vektor w lassen sich die 30 Milliarden linearen Gleichungen (10.24) als Eigenwertproblem H w = w (10.25) formulieren. Das Problem der Berechnung der PageRanks für die 30 Milliarden Webseiten ist somit äquivalent zur Berechnung eines Eigenvektors der Matrix H zum Eigenwert λ = 1. Das heißt, es ist ein stationärer Vektor der Matrix H zu berechnen (vgl. Beispiel 10.3). Die Existenz des Eigenwerts λ = 1 und eines stationären Vektors folgt direkt aus der Definition der Hyperlink-Matrix H. 1 3 5 7 2 4 6 8 Abb. 10.1: World Wide Web bestehend aus 8 Webseiten Zur Veranschaulichung des Vorgehens bei der Lösung des Eigenwertproblems (10.25) wird im Folgenden das in Abbildung 10.1 dargestellte vereinfachte World Wide Web bestehend aus 8 Webseiten betrachtet. Die Hyperlink- Matrix für dieses World Wide Web ist gegeben durch: H = ⎛ ⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 0 0 0 0 0 0 1/3 0 1/2 0 1/2 1/3 0 0 0 0 1/2 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1/2 1/3 0 0 1/3 0 0 0 0 1/3 1/3 0 0 1/2 0 0 0 0 1/3 0 0 1/2 0 0 0 0 1/3 1 1/3 0 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ (10.26) Mit der (auch von Google eingesetzten) Power-Methode w(k) := H w(k−1) (10.27) und dem Startwert w(0) := (1, 0, 0, 0, 0, 0, 0, 0)T erhält man in den ersten 60 Iterationen für die PageRanks die folgenden Näherungswerte: w(0) w(1) w(2) w(3) w(4) . . . w(60) 1 0 0 0 0,0278 . . . 0,06 0 0,5 0,25 0,1667 0,0833 . . . 0,0675 0 0,5 0 0 0 . . . 0,03 0 0 0,5 0,25 0,1667 . . . 0,0675 0 0 0,25 0,1667 0,1111 . . . 0,0975 0 0 0 0,25 0,1806 . . . 0,2025 0 0 0 0,0833 0,0972 . . . 0,18 0 0 0 0,0833 0,3333 . . . 0,295 247 Kapitel 10 Eigenwerttheorie und Quadratische Formen Nach 60 Iterationen erhält man somit den folgenden stationären Vektor w mit den Werten für die acht PageRanks w1, . . . , w8: w = ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜ ⎝ 0,0600 0,0675 0,0300 0,0675 0,0975 0,2025 0,1800 0,2950 ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟ ⎠ Das heißt, in diesem Beispiel ist die achte Webseite P8 mit einem PageRank von w8 = 0,2950 die bedeutendste Webseite. Da eine Webseite im echten World Wide Web im Durchschnitt nur zehn Links zu anderen Webseiten aufweist, sind pro Spalte der Hyperlink-Matrix H durchschnittlich nur etwa zehn Einträge von null verschieden. Google benötigt daher für die Berechnung des stationären Vektors w mit Hilfe der Power-Methode trotz der enormen Größenordnung von H nur wenige Tage, so dass Google diese Berechnung problemlos einmal pro Monat durchführen kann. Die Berechnung der PageRanks ist hier etwas vereinfacht dargestellt worden. Tatsächlich wird das vorgestellte Verfahren auf eine etwas modifizierte Hyperlink-Matrix H̃ angewendet, so dass auch sichergestellt ist, dass die Voraussetzung (10.20) für die Konvergenz der Power- Methode gegen den stationären Vektor w erfüllt ist. Dar- über hinaus werden von Google mittlerweile neben dem PageRank noch weitere Kriterien in die Sortierung von Webseiten miteinbezogen. Solche weiteren Faktoren sind zum Beispiel das Auftreten der Suchbegriffe im Dokumententitel oder in Überschriften, der Standort des Benutzers, die ausgewählte Sprache, personalisierte Informationen aus Webprotokollen usw. Google gibt an, dass insgesamt mehr als 200 Faktoren in die Sortierung von Webseiten einfließen. Viele Unternehmen haben jedoch ein starkes Interesse daran, im Ergebnis zu bestimmten Suchanfragen möglichst weit oben aufgeführt zu werden. Sie versuchen daher mit Hilfe von Methoden der Suchmaschinenoptimierung ihre Webseiten so zu gestalten, dass sie einen möglichst hohen PageRank erhalten und sie auch bei den anderen von Google verwendeten Kriterien gut abschneiden. Aus diesem Grund ist es nicht verwunderlich, dass mittlerweile eine ganze Branche entstanden ist, die sich mit der Optimierung von Suchmaschinen und Webseiten beschäftigt (siehe hierzu z. B. Langville- Meyer [40]). 10.3 Ähnliche Matrizen Für viele Anwendungen der Matrizentheorie ist es hilfreich, wenn die betrachtete quadratische Matrix A zu einer Matrix mit einer besonders einfachen Struktur, wie z. B. einer Diagonal- oder Dreiecksmatrix, „ähnlich“ ist. Der Begriff der Ähnlichlichkeit für zwei n× n-Matrizen A und B ist dabei wie folgt definiert: Definition 10.13 (Ähnlichkeit zweier quadratischer Matrizen) Zwei n×n-Matrizen A und B heißen ähnlich, wenn eine invertierbare n×n-Matrix T existiert mit der Eigenschaft B = T−1 A T. (10.28) Die Definition 10.13 für die Ähnlichkeit zweier n × n- Matrizen ist eine Äquivalenzrelation auf der Menge aller n×n Matrizen (vgl. Definition 6.11). Denn es gilt: a) Reflexivität: Eine n × n Matrix A ist gemäß Definition 10.13 zu sich selbst ähnlich. Denn mit der n × n-Einheitsmatrix E für die Matrix T ist die Bedingung (10.28) erfüllt. b) Symmetrie: Sind A und B ähnlich gemäß Definition 10.13, dann existiert eine invertierbare n × n Matrix T, so dass B = T−1 A T gilt. Mit S := T−1 folgt somit A = T B T−1 = S−1 B S. Das heißt, B und A sind ähnlich. c) Transitivität: Sind A und B sowie B und C gemäß Definition 10.13 ähnlich, dann existieren zwei invertierbare n×n- Matrizen T1,T2 mit B = T−11 A T1 und C = T−12 B T2. Für T := T1 T2 gilt somit C = T−12 B T2 = T−12 (T−11 A T1)T2 = (T−12 T−11 )A (T1 T2) = T−1 A T. Das heißt, A und C sind ähnlich. Alle zueinander ähnlichen n×n-Matrizen bilden eine Äquivalenzklasse und alle Äquivalenzklassen zusammen stellen eine Zerlegung der Menge aller n× n-Matrizen dar. 248 Kapitel 1010.4 Diagonalisierbarkeit Ähnliche Matrizen haben die folgenden gemeinsamen Eigenschaften: Satz 10.14 (Gemeinsame Eigenschaften ähnlicher Matrizen) Es seien A und B zwei ähnliche n × n-Matrizen. Dann gilt: a) pA(λ) = pB(λ) b) det(A) = det(B) c) spur(A) = spur(B) d) A und B haben die gleichen Eigenwerte. e) A invertierbar ⇐⇒ B invertierbar f) rang(A) = rang(B) Beweis: Zu a): Mit Satz 8.68 und Folgerung 8.70b) erhält man pB(λ) = det(B − λE) = det ( T−1 A T − λT−1 T ) = det ( T−1 (A − λE)T ) = det ( T−1 ) det(A − λE) det(T) = det(A − λE) = pA(λ). Zu b) und c): Nach Aussage a) gilt pA(λ) = pB(λ). Zusammen mit (10.7) impliziert dies die Behauptungen det(A) = det(B) und spur(A) = spur(B). Zu d): Aus pA(λ) = pB(λ) folgt unmittelbar, dass die Matrizen A und B die gleichen Eigenwerte besitzen. Zu e): Nach Aussage d) besitzen A und B die gleichen Eigenwerte. Zusammen mit Satz 10.8b) folgt daraus die Behauptung. Zu f): Es seien e1, . . . , en ∈ Rn die n Einheitsvektoren des Rn. Weiter gelte rang(A) = k ≤ n. Da die Matrix T in der Ähnlichkeitstransformation B = T−1 A T invertierbar ist, sind die Spaltenvektoren von T, d. h. die Vektoren T e1, . . . ,T en, ebenfalls linear unabhängig. Weiter sind wegen rang(A) = k von den n Vektoren A T e1, . . . ,A T en k Stück linear unabhängig. Da auch T−1 invertierbar ist, sind von den n Vektoren T−1 A T e1, . . . ,T−1 A T en = B e1, . . . ,B en ebenfalls k Stück linear unabhängig. Das heißt, es gilt rang(B) = k = rang(A). Bei der Betrachtung von Satz 10.14 ist zu beachten, dass aus der Übereinstimmung der Eigenwerte bei ähnlichen n× n-Matrizen nicht folgt, dass ähnliche n × n-Matrizen auch die gleichen Eigenvektoren besitzen. Im Allgemeinen besitzen ähnliche n×n-Matrizen unterschiedliche Eigenvektoren. Wie man zeigen kann, beschreiben ähnliche n× n-Matrizen die gleiche lineare Abbildung bezüglich unterschiedlicher Basen. Beispiel 10.15 (Ähnlichkeit von Matrizen) Gegeben seien die drei 2 × 2-Matrizen A = ( 2 2 2 −1 ) , T1 = ( 2 1 −2 1 ) und T2 = ( 2 4 1 −1 ) . Die Matrizen T1 und T2 sind invertierbar und ihre Inversen sind: T−11 = ( 1 4 − 14 1 2 1 2 ) bzw. T−12 = ( 1 6 2 3 1 6 − 13 ) Mit den Matrizen T1 und T2 erhält man die folgenden beiden zur Matrix A ähnlichen Matrizen: B1 = T−11 A T1 = ( 1 4 − 14 1 2 1 2 )( 2 2 2 −1 )( 2 1 −2 1 ) = ( − 32 34 3 52 ) B2 = T−12 A T2 = ( 1 6 2 3 1 6 − 13 )( 2 2 2 −1 )( 2 4 1 −1 ) = ( 3 7 0 −2 ) Die Matrizen A,B1 und B2 haben das gleiche charakteristische Polynom, die gleiche Determinante, die gleiche Spur, die gleichen Eigenwerte und den gleichen Rang. 10.4 Diagonalisierbarkeit Von besonders großer Bedeutung sind n×n-Matrizen A, die zu einer Diagonalmatrix ähnlich sind. Man spricht dann davon, dass die Matrix A diagonalisierbar ist: 249 Kapitel 10 Eigenwerttheorie und Quadratische Formen Definition 10.16 (Diagonalisierbarkeit) Eine n × n-Matrix A heißt diagonalisierbar, wenn sie zu einer n× n-Diagonalmatrix D ähnlich ist. Das heißt, wenn eine invertierbare n × n-Matrix X mit der Eigenschaft D = X−1 A X bzw. A = X D X−1 (10.29) existiert. Man sagt dann, dass X die Matrix A diagonalisiert und bezeichnet D als die zu A gehörige Diagonalmatrix. Ist eine n×n-Matrix A diagonalisierbar, dann folgt mit Satz 10.14d), dass sie die gleichen Eigenwerte wie die zugehörige Diagonalmatrix D besitzt. Da jedoch die Eigenwerte einer Diagonalmatrix durch ihre Einträge auf der Hauptdiagonalen gegeben sind (vgl. (10.11)), bedeutet dies, dass die n Eigenwerte λ1, . . . , λn von A mit den Einträgen auf der Hauptdiagonalen von D übereinstimmen. Beispiel 10.17 (Diagonalisierbarkeit) Betrachtet wird die 3 × 3-Matrix A = ⎛ ⎝ 3 2 0 −3 −2 0 −3 −3 1 ⎞ ⎠ . Mit Hilfe der Regel von Sarrus erhält man das charakteristische Polynom pA(λ) = det ⎛ ⎝ 3 − λ 2 0 −3 −2 − λ 0 −3 −3 1 − λ ⎞ ⎠ = (3 − λ)(−2 − λ)(1 − λ)+ 6(1 − λ) = −λ(λ− 1)2. Das heißt, die Eigenwerte von A sind λ1 = 0 und λ2,3 = 1 (zweifacher Eigenwert). Ferner ist die 3 × 3- Matrix X = ⎛ ⎝ −2 −1 0 3 1 0 3 0 1 ⎞ ⎠ invertierbar und sie diagonalisiert A: X−1 A X = ⎛ ⎝ 1 1 0 −3 −2 0 −3 −3 1 ⎞ ⎠ ⎛ ⎝ 3 2 0 −3 −2 0 −3 −3 1 ⎞ ⎠ ⎛ ⎝ −2 −1 0 3 1 0 3 0 1 ⎞ ⎠ = ⎛ ⎝ 0 0 0 0 1 0 0 0 1 ⎞ ⎠ = D Die Matrix A ist somit diagonalisierbar. Matrixpotenzen In vielen Anwendungen müssen Potenzen Ak mit k ∈ N0 einer n×n-Matrix A berechnet werden. Dies wurde bereits in Beispiel 8.32b) und bei der Erläuterung der Power-Methode in Abschnitt 10.2 deutlich. Diese Aufgabe vereinfacht sich erheblich, wenn die Matrix A diagonalisierbar ist. Denn in diesem Fall existiert eine invertierbare n × n-Matrix X, so dass A = X D X−1 gilt, und man erhält damit für die k-te Potenz Ak = (X D X−1) · . . . · (X D X−1) ︸ ︷︷ ︸ k-mal = X Dk X−1 (10.30) mit Dk = ⎛ ⎜ ⎝ λk1 . . . 0 ... . . . ... 0 . . . λkn ⎞ ⎟ ⎠ , (10.31) wobei λ1, . . . , λn die n Eigenwerte von A sind. Ist also eine diagonalisierende Matrix X bekannt, dann kann durch dieses Vorgehen jede Matrixpotenz Ak mit k ∈ N0 leicht berechnet werden. Zum Beispiel muss zur Berechnung von A1000 lediglich in der Diagonalmatrix (10.31) der Exponent k durch 1000 ersetzt werden und anschließend die resultierende Matrix von links mit X und von rechts mit X−1 multipliziert werden. Diese Methode ist viel effizienter als die Matrix A 1000-mal mit sich selbst zu multiplizieren. 250 Kapitel 1010.4 Diagonalisierbarkeit Beispiel 10.18 (Matrixpotenzen) a) Betrachtet wird die 3 × 3-Matrix A aus Beispiel 10.17. Da für die zugehörige Diagonalmatrix D = Dk für alle k ∈ N gilt, erhält man Ak = ⎛ ⎝ −2 −1 0 3 1 0 3 0 1 ⎞ ⎠ ⎛ ⎝ 0 0 0 0 1 0 0 0 1 ⎞ ⎠ ⎛ ⎝ 1 1 0 −3 −2 0 −3 −3 1 ⎞ ⎠ = A für alle k ∈ N. b) Zu berechnen sei A13 für die 3 × 3-Matrix A = ⎛ ⎝ 0 0 −2 1 2 1 1 0 3 ⎞ ⎠ . Diese Matrix besitzt die Eigenwerte λ1,2 = 2 (zweifacher Eigenwert) und λ3 = 1 und wird durch die 3 × 3-Matrix X = ⎛ ⎝ −1 0 −2 0 1 1 1 0 1 ⎞ ⎠ diagonalisiert. Man erhält somit A13 = X D13 X−1 = ⎛ ⎝ −1 0 −2 0 1 1 1 0 1 ⎞ ⎠ ⎛ ⎝ 213 0 0 0 213 0 0 0 113 ⎞ ⎠ · ⎛ ⎝ 1 0 2 1 1 1 −1 0 −1 ⎞ ⎠ = ⎛ ⎝ −8190 0 −16382 8191 8192 8191 8191 0 16383 ⎞ ⎠ . Für eine diagonalisierbare Matrix A mit der Diagonalmatrix D und den Eigenwerten λ1, . . . , λn kann die Matrixpotenz (10.30) auf nichtnegative reelle Exponenten r verallgemeinert werden. In diesem Fall definiert man Ar := X Dr X−1 (10.32) mit Dr := ⎛ ⎜ ⎝ λr1 . . . 0 ... . . . ... 0 . . . λrn ⎞ ⎟ ⎠ für alle r ∈ R+. Sind alle Eigenwerte von A ungleich Null, dann kann die Definition (10.32) sogar auf alle r ∈ R erweitert werden. Zum Beispiel gilt A1/m = X D1/m X−1 mit D1/m = ⎛ ⎜ ⎝ m √ λ1 . . . 0 ... . . . ... 0 . . . m √ λn ⎞ ⎟ ⎠ . Die Matrix A1/m wird als m-te Wurzel der Matrix A bezeichnet. Denn es gilt ( A1/m )m=(X D1/m X−1) · . . . · (X D1/m X−1) ︸ ︷︷ ︸ m-mal =X D X−1=A. (10.33) Das folgende Beispiel gibt einen ersten Einblick, in welchem Zusammenhang Potenzen und Wurzeln von Matrizen im Risikomanagement benötigt werden: Beispiel 10.19 (Rating) Bei der Messung des Kreditrisikos wird der Verlust quantifiziert, der durch eine Bonitätsveränderung von Schuldnern verursacht wird. Eines der bekanntesten Modelle zur Messung des Kreditrisikos ist CreditMetrics, das 1997 von J. P. Morgan vorgeschlagen wurde. Es basiert auf einer Untersuchung der Wahrscheinlichkeit, dass sich das Rating, also die Einschätzung der Bonität, eines Unternehmens innerhalb eines Jahres ändert. Diese Analyse erfolgt mit Hilfe von sogenannten 1-Jahres-Rating- Migrationsmatrizen. Sie geben die prozentuale Wahrscheinlichkeit der Bewegung einer Anleihe von einer Rating-Kategorie in eine andere innerhalb eines Jahres an. In der untenstehenden 1-Jahres-Rating-Migrationsmatrix A hat zum Beispiel eine Anleihe, die zu Beginn des Jahres ein Aaa-Rating besitzt, mit einer Wahrscheinlichkeit von 91,37% am Ende des Jahres immer noch ein Aaa-Rating. Dagegen sinkt das Rating der Anleihe mit einer Wahrscheinlichkeit von 0,02% auf Ba und die Wahrscheinlichkeit eines Ausfalls beträgt 0% usw. 251 Kapitel 10 Eigenwerttheorie und Quadratische Formen Anfangs- Rating am Jahresende rating Aaa Aa A Baa Ba B Caa Ca-C Ausfall Aaa 91,37% 7,59% 0,85% 0,17% 0,02% 0,00% 0,00% 0,00% 0,00% Aa 1,29% 90,84% 6,85% 0,73% 0,19% 0,04% 0,00% 0,00% 0,07% A 0,09% 3,10% 90,23% 5,62% 0,74% 0,11% 0,02% 0,01% 0,08% Baa 0,05% 0,34% 4,94% 87,79% 5,54% 0,84% 0,17% 0,02% 0,32% Ba 0,01% 0,09% 0,54% 6,62% 82,76% 7,80% 0,63% 0,06% 1,49% B 0,01% 0,06% 0,20% 0,73% 7,10% 81,24% 5,64% 0,57% 4,45% Caa 0,00% 0,03% 0,04% 0,24% 1,04% 9,59% 71,50% 3,97% 13,58% Ca-C 0,00% 0,00% 0,14% 0,00% 0,55% 3,76% 8,41% 64,19% 22,96% Ausfall 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% Interessiert man sich nun für Änderungen im Kreditrating in k Jahren, dann erhält man die zugehörige Rating- Migrationsmatrix durch Berechnung von Ak . Die Rating- Migrationsmatrix für kürzere Zeiträume als ein Jahr, z. B. für ein Vierteljahr, erhält man durch Ermittlung der vierten Wurzel A1/4. Diagonalisierbarkeitskriterien Der folgende Satz gibt Auskunft darüber, wann eine n× n- Matrix A diagonalisierbar ist: Satz 10.20 (Diagonalisierbarkeitskriterien) Es sei A eine n× n-Matrix. Dann gilt: a) Die Matrix A ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren x1, . . . , xn besitzt. Für die n× n-Matrix X := (x1, . . . , xn) gilt dann D = X−1 A X. b) Sind die n Eigenwerte von A verschieden, dann ist sie diagonalisierbar. c) Die Matrix A ist genau dann symmetrisch, wenn sie n normierte orthogonale Eigenvektoren x1, . . . , xn besitzt. Die n × n-Matrix X := (x1, . . . , xn) ist dann orthogonal und es gilt D = XT A X. Beweis: Zu a): Die Matrix A sei diagonalisierbar. Dann gibt es gemäß Definition 10.16 eine invertierbare n×n-Matrix X = (xij )n,n, so dass X−1 A X eine Diagonalmatrix D ist mit den Eigenwerten λ1, . . . , λn von A auf der Hauptdiagonalen. Aus X−1 A X = D folgt A X = X D. Es gilt somit A X = ⎛ ⎜ ⎝ x11 . . . x1n . . . . . . . . . xn1 . . . xnn ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ λ1 . . . 0 . . . . . . . . . 0 . . . λn ⎞ ⎟ ⎠ = ⎛ ⎜ ⎝ λ1x11 . . . λnx1n . . . . . . . . . λ1xn1 . . . λnxnn ⎞ ⎟ ⎠ = (λ1x1, . . . , λnxn ) , wobei x1, . . . , xn die n Spaltenvektoren von X bezeichnen. Das heißt, durch λ1x1, . . . , λnxn sind die n Spaltenvektoren von A X gegeben. Aber nach (8.25) sind A x1, . . . ,A xn die n Spaltenvektoren von A X. Folglich muss A xi = λixi für i = 1, . . . , n (10.34) gelten. Da die Matrix X ferner invertierbar ist, sind ihre Spaltenvektoren x1, . . . , xn ungleich dem Nullvektor. Somit folgt aus (10.34), dass die Vektoren x1, . . . , xn Eigenvektoren von A zu den Eigenwerten λ1, . . . , λn sind. Ferner folgt aus der Invertierbarkeit von X, dass die Vektoren x1, . . . , xn linear unabhängig sind. Also hat die Matrix A n linear unabhängige Eigenvektoren. Umgekehrt sei nun angenommen, dass die Matrix A n linear unabhängige Eigenvektoren x1, . . . , xn zu den Eigenwerten λ1, . . . , λn besitzt. Mit der Matrix X := (x1, . . . , xn) und (8.25) erhält man dann A X = (A x1, . . . ,A xn ) = (λ1x1, . . . , λnxn ) = ⎛ ⎜ ⎝ x11 . . . x1n . . . . . . . . . xn1 . . . xnn ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ λ1 . . . 0 . . . . . . . . . 0 . . . λn ⎞ ⎟ ⎠ = X D, (10.35) wobei D die n×n-Diagonalmatrix ist, auf deren Hauptdiagonalen die Eigenwerte λ1, . . . , λn von A stehen. Da die Spaltenvek- 252 Kapitel 1010.4 Diagonalisierbarkeit toren von X linear unabhängig sind, ist X invertierbar. Das heißt, man kann die Gleichung (10.35) umformen zu X−1 A X = D. Damit ist die Matrix D diagonalisierbar. Zu b): Sind die n Eigenwerte λ1, . . . , λn von A verschieden, dann sind die zugehörigen n Eigenvektoren x1, . . . , xn gemäß Satz 10.9c) linear unabhängig. Folglich ist A nach Aussage a) diagonalisierbar. Zu c): Es sei angenommen, dass A n normierte orthogonale Eigenvektoren x1, . . . , xn besitzt. Da orthogonale Vektoren auch linear unabhängig sind (vgl. Satz 7.37), folgt mit Aussage a) dieses Satzes, dass A diagonalisierbar und die n× n-Matrix X := (x1, . . . , xn)mit den normierten orthogonalen Eigenvektoren als Spaltenvektoren orthogonal ist. Es gilt somit XT X = X XT = E und X−1 = XT (vgl. Definition 8.52 und (8.39)) und man erhält AT = ( X D X−1 )T = ( X D XT )T = ( XT )T DT XT = X D XT = A. Das heißt, die Matrix A ist symmetrisch. Ist umgekehrt die Matrix A symmetrisch und wird zusätzlich angenommen, dass ihre n Eigenwerte λ1, . . . , λn verschieden sind, dann folgt mit Satz 10.9c) und Aussage a) dieses Satzes, dass A diagonalisierbar und die n×n-Matrix X := (x1, . . . , xn) mit den n normierten Eigenvektoren x1, . . . , xn als Spaltenvektoren orthogonal ist. Wegen X−1 = XT liefert dies D = XT A X. Für den Nachweis des allgemeinen Falles, d. h. wenn die n Eigenwerte λ1, . . . , λn von A nicht notwendigerweise verschieden sind, siehe z. B. Fischer [16], Seite 289. Beispiel 10.21 (Diagonalisierung von Dreiecksmatrizen) Die Eigenwerte einer Dreiecksmatrix stimmen mit den Einträgen auf der Hauptdiagonalen überein (vgl. (10.11)). Also sind die beiden Dreiecksmatrizen in Beispiel 10.7 mit jeweils verschiedenen Einträgen auf der Hauptdiagonalen nach Satz 10.20b) diagonalisierbar. Sind die n Eigenwerte einer n× n-Matrix A nicht alle verschieden, dann ist es möglich, dass die Matrix weniger als n linear unabhängige Eigenvektoren besitzt und damit gemäß Satz 10.20a) nicht diagonalisierbar ist (vgl. Beispiel 10.22b)). Es ist aber auch möglich, dass trotzdem n linear unabhängige Eigenvektoren existieren, A also diagonalisierbar ist (vgl. Beispiel 10.22c)). Wie man zeigen kann, beschreiben eine diagonalisierbare n× n-Matrix A und ihre Diagonalmatrix D die gleiche lineare Abbildung bezüglich unterschiedlicher Basen. Bei der Matrix A wird die lineare Abbildung bezüglich der kanonischen Basis e1, . . . , en und bei der Diagonalmatrix D bezüglich der Basis bestehend aus den Eigenvektoren x1, . . . , xn von A beschrieben. Im Falle einer symmetrischen Matrix A erhält man die Inverse der diagonalisierenden Matrix X ganz einfach durch Transposition von X und A = X D X−1 = X D XT wird als Hauptachsentransformation von A bezeichnet (siehe hierzu auch Satz 10.28). Es ist zu beachten, dass die Diagonalisierbarkeit nichts mit Invertierbarkeit gemein hat. Denn die Matrix A = ( 0 0 0 1 ) ist zum Beispiel symmetrisch und damit insbesondere auch diagonalisierbar (vgl. Satz 10.20c)), sie ist aber wegen det(A) = 0 nicht invertierbar (vgl. Satz 8.67). Bei der Diagonalisierung einer diagonalisierbaren n × n- Matrix A geht man in den folgenden drei Schritten vor: 1. Schritt: Berechnung der n (nicht notwendigerweise verschiedenen) Eigenwerte λ1, . . . , λn von A durch Ermittlung der Nullstellen des charakteristischen Polynoms pA(λ). 2. Schritt: Bestimmung von n linear unabhängigen Eigenvektoren x1, . . . , xn zu den Eigenwerten λ1, . . . , λn durch Lösen der n linearen Gleichungssysteme (A−λiE) xi = 0 für i = 1, . . . , n. Dabei bezeichnet λi für i = 1, . . . , n den Eigenwert zum normierten Eigenvektor xi . Sind die n Eigenwerte verschieden, dann ist bereits gewährleistet, dass die zugehörigen Eigenvektoren x1, . . . , xn linear unabhängig bzw. im Falle einer symmetrischen Matrix A die normierten Vektoren x1‖x1‖ , . . . , xn ‖xn‖ sogar orthonormal sind. Falls nicht alle Eigenwerte verschieden sind, muss sichergestellt werden, dass die Eigenvektoren zum gleichen Eigenwert so gewählt werden, dass sie linear unabhängig sind. Im Falle einer symmetrischen Matrix A werden dann anschließend die linear unabhängigen Eigenvektoren zum gleichen Eigenwert noch mittels dem Orthonormalisierungsverfahren von Schmidt (vgl. Abschnitt 7.11) orthonormalisiert. 3. Schritt: Bildung der Matrix X = (x1, . . . , xn)mit den linear unabhängigen – bzw. im Falle einer symmetrischen Matrix A sogar orthonormalen – Eigenvektoren x1, . . . , xn als Spaltenvektoren. Die Matrix X ist dann eine diagonalisierende Matrix von A und D = X−1 A X – bzw. D = XT A X im Falle einer symmetrischen Matrix A – liefert die Diagonalmatrix mit den Eigenwerten λ1, . . . , λn auf der Hauptdiagonalen. 253 Kapitel 10 Eigenwerttheorie und Quadratische Formen Das konkrete Vorgehen beim Diagonalisieren einer Matrix wird im folgenden Beispiel demonstriert: Beispiel 10.22 (Diagonalisierung von Matrizen) a) Betrachtet wird die symmetrische 3 × 3-Matrix A = ⎛ ⎝ 1 0 1 0 1 1 1 1 2 ⎞ ⎠ . Gemäß Satz 10.20c) ist A diagonalisierbar mit orthogonaler diagonalisierender Matrix X. 1. Schritt: Das charakteristische Polynom von A ist gegeben durch pA(λ) = det ⎛ ⎝ 1 − λ 0 1 0 1 − λ 1 1 1 2 − λ ⎞ ⎠ = (1 − λ)2(2 − λ)− 2(1 − λ) = λ(λ− 3)(1 − λ). Die drei Eigenwerte von A sind somit gegeben durch λ1 = 0, λ2 = 3 und λ3 = 1. 2. Schritt: Zur Bestimmung der Eigenvektoren x1, x2 und x3 zu den Eigenwerten λ1 = 0, λ2 = 3 und λ3 = 1 sind die drei linearen Gleichungssysteme A x1 = 0, (A − 3E) x2 = 0 und (A − E) x3 = 0 zu lösen. Das lineare Gleichungssystem A x1 = 0 ist gegeben durch x1 + x3 = 0 x2 + x3 = 0 x1 + x2 + 2x3 = 0 und man erhält x3 = −a, x2 = a und x1 = a für ein beliebiges a ∈ R \ {0}. Das heißt, x1 = (a, a,−a)T ist ein Eigenvektor von A zum Eigenwert λ1 = 0. Das zweite lineare Gleichungssystem (A − 3E) x2 = 0 bzw. −2x1 + x3 = 0 − 2x2 + x3 = 0 x1 + x2 − x3 = 0 liefert x3 = 2b, x2 = b und x1 = b für ein beliebiges b ∈ R \ {0}. Als Eigenvektor von A zum Eigenwert λ2 = 3 erhält man somit x2 = (b, b, 2b)T . Das dritte lineare Gleichungssystem (A − E)x3 = 0 lautet ausgeschrieben x3 = 0 x3 = 0 x1 + x2 + x3 = 0 und man erhält x3 = 0, x2 = −c und x1 = c für ein beliebiges c ∈ R \ {0}. Das heißt, der Eigenvektor zum Eigenwert λ3 = 1 lautet somit x3 = (c,−c, 0)T . Da die Matrix A symmetrisch ist und die drei Eigenwerte λ1, λ2, λ3 verschieden sind, folgt mit Satz 10.9c), dass die drei Eigenvektoren x1, x2 und x3 bereits paarweise orthogonal sind. Das heißt, um die orthogonale diagonalisierende Matrix X bilden zu können, müssen die drei Eigenvektoren nur noch normiert werden. Für die Norm der Eigenvektoren gilt: ‖x1‖ = √ 3a2 = √3|a|, ‖x2‖ = √ 6b2 = √6|b| und ‖x3‖ = √ 2c2 = √2|c| Wählt man also für die drei Parameter die Werte a = ± 1√ 3 , b = ± 1√ 6 und c = ± 1√ 2 , dann sind die Eigenvektoren x1, x2 und x3 normiert, d. h. sie besitzen die Länge Eins. Es gibt somit 23 = 8 verschiedene Möglichkeiten, die zu einer orthogonalen diagonalisierenden Matrix X = (x1, x2, x3) führen. Zum Beispiel erhält man für a = 1√ 3 , b = 1√ 6 und c = 1√ 2 die normierten Eigenvektoren x1 = ⎛ ⎜ ⎜ ⎝ 1√ 3 1√ 3 − 1√ 3 ⎞ ⎟⎟ ⎠ , x2 = ⎛ ⎜ ⎜ ⎝ 1√ 6 1√ 6 2√ 6 ⎞ ⎟⎟ ⎠ und x3 = ⎛ ⎜ ⎝ 1√ 2 − 1√ 2 0 ⎞ ⎟ ⎠ (10.36) und damit die orthogonale diagonalisierende Matrix X = (x1, x2, x3) = ⎛ ⎜⎜ ⎝ 1√ 3 1√ 6 1√ 2 1√ 3 1√ 6 − 1√ 2 − 1√ 3 2√ 6 0 ⎞ ⎟⎟ ⎠ (10.37) mit der Eigenschaft XT A X = ⎛ ⎝ 0 0 0 0 3 0 0 0 1 ⎞ ⎠ . 254 Kapitel 1010.5 Trigonalisierbarkeit b) In Beispiel 10.6b) wurde gezeigt, dass die 3 × 3- Matrix A = ⎛ ⎝ 0 2 −1 2 −1 1 2 −1 3 ⎞ ⎠ nur die zwei verschiedenen Eigenwerte λ1,2 = 2 und λ3 = −2 besitzt. Da ferner nur zwei linear unabhängige Eigenvektoren x1 und x2 zu diesen Eigenwerten existieren, ist die Matrix nach Satz 10.20a) nicht diagonalisierbar. c) In Beispiel 10.6c) wurde nachgewiesen, dass die 3× 3-Matrix A = ⎛ ⎝ 0 0 −2 1 2 1 1 0 3 ⎞ ⎠ ebenfalls nur zwei verschiedene Eigenwerte λ1 = 1 und λ2,3 = 2 besitzt, aber dennoch drei linear unabhängige Eigenvektoren x1 = ⎛ ⎝ −2 1 1 ⎞ ⎠ , x2 = ⎛ ⎝ −1 0 1 ⎞ ⎠ und x3 = ⎛ ⎝ 0 1 0 ⎞ ⎠ existieren. Die Matrix ist somit nach Satz 10.20a) diagonalisierbar und die diagonalisierende Matrix ist gegeben durch X = (x1, x2, x3) = ⎛ ⎝ −2 −1 0 1 0 1 1 1 0 ⎞ ⎠ . 10.5 Trigonalisierbarkeit Im letzten Abschnitt wurde deutlich, dass eine n×n-Matrix A, deren n Eigenwerte nicht alle verschieden sind, unter Umständen nicht diagonalisierbar ist. Nach Satz 10.20a) ist dies genau dann der Fall, wenn A weniger als n linear unabhängige Eigenvektoren besitzt (vgl. Beispiel 10.22b)). Wenn eine Matrix A nicht diagonalisierbar ist, dann bedeutet dies, dass sie nicht zu einer Diagonalmatrix D ähnlich ist. In diesem Abschnitt wird kurz der Frage nachgegangen, ob eine nicht diagonalisierbare Matrix wenigstens zu einer Dreiecksmatrix ähnlich ist. Man spricht dann davon, dass A trigonalisierbar ist: Definition 10.23 (Trigonalisierbarkeit) Eine n× n-Matrix A heißt trigonalisierbar, wenn sie zu einer n×n-Dreiecksmatrix D ähnlich ist. Das heißt, wenn eine invertierbare n× n-Matrix X mit der Eigenschaft D = X−1 A X bzw. A = X D X−1 (10.38) existiert. Man sagt dann, dass X die Matrix A trigonalisiert und bezeichnet D als die zu A gehörende Dreiecksmatrix. Ist eine n× n-Matrix A trigonalisierbar, dann folgt aus Satz 10.14d), dass sie die gleichen Eigenwerte wie die zugehörige Dreiecksmatrix D besitzt. Dies bedeutet jedoch, dass die nEigenwerte λ1, . . . , λn von A mit den Einträgen auf der Hauptdiagonalen von D übereinstimmen (vgl. (10.11)). C. Jordan Der folgende Satz besagt, dass jede n×n-Matrix A trigonalisierbar ist. Genauer gilt, dass jede n× n-Matrix A zu einer Jordan- Matrix ähnlich ist. Bei einer Jordan-Matrix handelt es sich um eine nach dem französischen Mathematiker Camille Jordan (1838–1922) benannte Dreiecksmatrix von der speziellen Form J := ⎛ ⎜⎜ ⎜ ⎝ J1 0 . . . 0 0 J2 . . . 0 ... . . . ... 0 0 . . . Jk ⎞ ⎟⎟ ⎟ ⎠ . Dabei ist Ji eine ni × ni-Matrix der Gestalt Ji := ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ λi 1 0 . . . 0 0 0 λi 1 . . . 0 0 ... 0 λi . . . ... ... ... . . . 1 ... 0 0 0 . . . λi 1 0 0 0 . . . 0 λi ⎞ ⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ und λi ein Eigenwert von A. Die Matrizen J1, . . . , Jk hei- ßen Jordan-Kästchen und es gilt n1 + . . . + nk = n. Bei einer Jordan-Matrix J sind die Einträge auf der Diagonalen unmittelbar oberhalb der Hauptdiagonalen entweder 0 oder 255 Kapitel 10 Eigenwerttheorie und Quadratische Formen 1. Bei einer Diagonalmatrix der Ordnung n × n handelt es sich um eine Jordan-Matrix mit k = n, also mit ni = 1 für alle i = 1, . . . , k. Satz 10.24 (Trigonalisierbarkeit) Zu jeder n×n-Matrix A existiert eine invertierbare Matrix X, so dass J = X−1 A X gilt, wobei J eine Jordan-Matrix der Ordnung n× n ist. Beweis: Siehe z. B. Muthsam [48], Seiten 296–297. Jede n× n-Matrix A ist somit zu einer Jordan-Matrix ähnlich. Man sagt auch, dass A auf Jordan-Normalform transformiert werden kann. Im Falle, dass alle n Eigenwerte von A verschieden sind, gilt Ji = λi für i = 1, . . . , n und die Jordan-Matrix geht in eine Diagonalmatrix über. Die Bestimmung der trigonalisierenden Matrix X erfordert oftmals einen erheblichen Rechenaufwand. Im folgenden Beispiel wird deshalb auf die explizite Berechnung von X verzichtet und die trigonalisierende Matrix stattdessen einfach angegeben. Beispiel 10.25 (Trigonalisierbarkeit) Die 5 × 5-Matrix A = ⎛ ⎜ ⎜⎜ ⎜ ⎝ 3 1 0 1 −2 1 3 −1 0 1 −1 −1 4 3 −3 1 1 −1 2 1 −2 −2 2 2 1 ⎞ ⎟ ⎟⎟ ⎟ ⎠ besitzt den zweifachen Eigenwert 2 und den dreifachen Eigenwert 3. Mit der trigonalisierenden Matrix X = ⎛ ⎜ ⎜⎜ ⎜ ⎝ −1 5 2 0 −1 1 0 0 1 1 0 7 2 0 0 0 −1 0 1 1 0 2 0 0 1 ⎞ ⎟ ⎟⎟ ⎟ ⎠ erhält man die Jordan-Matrix J = X−1 A X = ⎛ ⎜⎜⎜ ⎜ ⎝ 2 0 0 0 0 0 2 0 0 0 0 0 3 1 0 0 0 0 3 0 0 0 0 0 3 ⎞ ⎟ ⎟⎟⎟ ⎠ . 10.6 Quadratische Formen In den bisherigen Ausführungen zur linearen Algebra wurden vor allem lineare Gleichungen a1x1 + a2x2 + . . .+ anxn = b betrachtet. Die linke Seite dieser Gleichung, d. h. l(x1, . . . , xn) := a1x1 + a2x2 + . . .+ anxn, (10.39) ist eine reellwertige Funktion l : Rn −→ R mit den n Unbekannten x1, . . . , xn und wird häufig als Linearform bezeichnet. Linearformen weisen eine besonders einfache Struktur auf, da sie weder Produkte noch Potenzen ihrer Variablen enthalten. Im Folgenden werden nun reellwertige Funktionen mit n Variablen x1, . . . , xn betrachtet, deren Zuordnungsvorschrift eine Summe von Quadraten und Produkten der n Variablen x1, . . . , xn ist. Das heißt, es werden nichtlineare Abbildungen der Gestalt q(x1, . . . , xn) : = n∑ i=1 n∑ j=1 aij xixj (10.40) = a11x1x1 + a12x1x2 + . . .+ a1nx1xn + a21x2x1 + a22x2x2 + . . .+ a2nx2xn ... ... ... + an1xnx1 + an2xnx2 + . . .+ annxnxn betrachtet. Werden die n2 Koeffizienten aij zu einer n× n- Matrix A = (aij )n,n und die n Unbekannten xi zu einem n-dimensionalen Vektor x = (x1, . . . , xn)T zusammengefasst, dann lässt sich der Ausdruck (10.40) auch in der äquivalenten, aber deutlich kompakteren Form q(x) = xT A x = (x1, . . . , xn) ⎛ ⎜ ⎝ a11 . . . a1n ... . . . ... an1 . . . ann ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ x1 ... xn ⎞ ⎟ ⎠ (10.41) schreiben. Reellwertige Funktionen q : Rn −→ R mit einer Zuordnungsvorschrift der Form (10.40) bzw. (10.41) werden als quadratische Formen bezeichnet. Die im Folgenden angestellten Überlegungen und Resultate im Zusammenhang mit quadratischen Formen sind zum Beispiel bei der Untersuchung von Wachstums- und Schrumpfungsprozessen sowie in der Optimierungstheorie von Bedeutung. Ohne Beschränkung der Allgemeinheit kann bei der Betrachtung von quadratischen Formen angenommen werden, dass 256 Kapitel 1010.6 Quadratische Formen die Matrix A in der Darstellung (10.41) symmetrisch ist, also A = AT gilt. Denn angenommen, A sei eine beliebige n×n- Matrix, dann ist B := 12 ( A + AT ) zum einen eine symmetrische n× n-Matrix. Denn für die Einträge von B gilt bij = 1 2 (aij + aji) = 1 2 (aji + aij ) = bji , also auch B = BT . Zum anderen führt die symmetrische Matrix B zur gleichen quadratischen Form wie A. Denn aus xT A x ∈ R folgt xT A x = (xT A x)T und man erhält somit xT A x = xT A + A 2 x = 1 2 xT A x + 1 2 xT A x = 1 2 xT A x + 1 2 (xT A x)T = 1 2 xT A x + 1 2 xT AT x = xT A + A T 2 x = xT B x. Folglich kann jede quadratische Form zu einer n×n-Matrix A durch eine quadratische Form zu einer symmetrischen n×n- Matrix B ersetzt werden (vgl. Beispiel 10.27a)). Dieser Sachverhalt erlaubt es, quadratische Formen nur für symmetrische Matrizen zu definieren, was die folgenden Betrachtungen vereinfacht: Definition 10.26 (Quadratische Form) Es sei A = (aij )n,n eine symmetrische n×n-Matrix. Dann wird die reellwertige Funktion q : Rn −→ R, x %→ q(x) := xT A x = n∑ i=1 aiix 2 i + n∑ i=1 n∑ j=1 j =i aij xixj als die zu A gehörende quadratische Form bezeichnet. Die Summanden aiix2i und aij xixj heißen quadratische bzw. gemischte Terme von q. Die Koeffizienten aii der quadratischen Terme aiix2i stehen auf der Hauptdiagonalen der n × n-Matrix A, und die Koeffizienten der gemischten Terme aij xixj sind außerhalb der Hauptdiagonalen von A zu finden. Da die Matrix A als symmetrisch vorausgesetzt wird, gilt aij = aji und die beiden gemischten Terme aij xixj und ajixj xi können daher zu 2aij xixj zusammengefasst werden. Das heißt, es gilt q(x) = xT A x = n∑ i=1 aiix 2 i + 2 n−1∑ i=1 n∑ j=i+1 aij xixj (vgl. Beispiel 10.27). Für eine quadratische Form q gilt offensichtlich q(0) = 0. Solche Funktionen werden als homogen bezeichnet. Beispiel 10.27 (Quadratische Formen) a) Im Folgenden wird ein Unternehmen betrachtet, welches zwei Produkte vertreibt. Dazu bezeichnen die Variablen x1 den Preis für eine Einheit des Produkts A und x2 den Preis für eine Einheit des Produkts B sowie die reellwertigen Funktionen f1(x1, x2) := −2x1 + 6x2 die Nachfragemenge nach Produkt A und f2(x1, x2) := 8x1 − 4x2 die Nachfragemenge nach Produkt B. Dabei ist zu beachten, dass die Funktionen f1 und f2 nur für x = (x1, x2)T ∈ R2 mit f1(x1, x2) ≥ 0 und f2(x1, x2) ≥ 0 eine sinnvolle ökonomische Interpretation besitzen. Der Gesamtumsatz des Unternehmens ist somit gegeben durch die quadratische Form q(x1, x2) = x1f1(x1, x2)+ x2f2(x1, x2) = −2x21 + 14x1x2 − 4x22 . Der Gesamtumsatz lässt sich auch in der Form q(x1, x2) = (x1, x2) ( f1(x1, x2) f2(x1, x2) ) = (x1, x2) (−2x1 + 6x2 8x1 − 4x2 ) = (x1, x2) (−2 6 8 −4 ) ︸ ︷︷ ︸ =:A ( x1 x2 ) = xT A x schreiben. Mit der symmetrischen Matrix B := A + A T 2 = (−2 7 7 −4 ) 257 Kapitel 10 Eigenwerttheorie und Quadratische Formen erhält man für die quadratische Form die Darstellung (vgl. Abbildung 10.2) q(x1, x2) = xT B x = (x1, x2) (−2 7 7 −4 )( x1 x2 ) = −2x21 + 14x1x2 − 4x22 . b) Die quadratische Form q : R3 −→ R, x %→ q(x) := x21 + 7x22 − 3x23 + 4x1x2 − 2x1x3 + 6x2x3 lässt sich mit Hilfe der symmetrischen 3 × 3-Matrix A = ⎛ ⎝ 1 2 −1 2 7 3 −1 3 −3 ⎞ ⎠ als q(x) = xT A x schreiben. Denn es gilt (x1, x2, x3) ⎛ ⎝ 1 2 −1 2 7 3 −1 3 −3 ⎞ ⎠ ⎛ ⎝ x1 x2 x3 ⎞ ⎠ = x21 + 7x22 − 3x23 + 4x1x2 − 2x1x3 + 6x2x3. − 4 − 2 0 2 4 − 5 0 5 − 500 0 x 1 x 2 q(x 1 , x 2) = − 2x 21 + 14 x 1x 2 − 4x 2 2 Abb. 10.2: Quadratische Form q : R2 −→ R, (x1, x2) %→ q(x1, x2) = −2x21 + 14x1x2 − 4x22 Ist eine quadratische Form von der einfachen Gestalt q(x) = xT A x = μ1x21 + . . .+ μnx2n für gewisse Koeffizienten μ1, . . . , μn ∈ R, dann sagt man, dass q in Normalform ist. Der folgende Satz besagt, dass jede quadratische Form durch eine orthogonale Koordinatentransformation auf Normalform gebracht werden kann und die Koeffizienten μ1, . . . , μn durch die Eigenwerte von A gegeben sind: Satz 10.28 (Hauptachsentransformation) Es sei A eine symmetrische n×n-Matrix mit den n reellen Eigenwerten λ1, . . . , λn zu den n normierten und orthogonalen Eigenvektoren x1, . . . , xn ∈ Rn von A. Besitzt ein Vektor x ∈ Rn bezüglich der Orthonormalbasis {x1, . . . , xn} den Koordinatenvektor y = (y1, . . . , yn)T , dann gilt für die zu A gehörende quadratische Form q(x) = xT A x = n∑ i=1 λiy 2 i . (10.42) Beweis: Gemäß Satz 10.20c) besitzt die symmetrische n× n- Matrix A n normierte orthogonale Eigenvektoren x1, . . . , xn zu den reellen Eigenwerten λ1, . . . , λn (vgl. Satz 10.8e)) und für die orthogonale n × n-Matrix X := (x1, . . . , xn) gilt D = XT A X bzw. A = X D XT . Dabei ist D die Diagonalmatrix mit den Eigenwerten λ1, . . . , λn auf der Hauptdiagonalen. Für y := XT x gilt x = X y, d. h. y = (y1, . . . , yn)T ist der Koordinatenvektor von x bezüglich der Orthonormalbasis {x1, . . . , xn} und man erhält q(x) = xT A x = xT X D XT x = yT D y = (y1, . . . , yn) ⎛ ⎜ ⎜⎜ ⎜ ⎝ λ1 0 . . . 0 0 λ2 . . . . . . . . . 0 0 . . . 0 λn ⎞ ⎟ ⎟⎟ ⎟ ⎠ ⎛ ⎜ ⎝ y1 . . . yn ⎞ ⎟ ⎠ = n∑ i=1 λiy 2 i . Die durch den Ursprung 0 und die normierten orthogonalen Eigenvektoren x1, . . . , xn festgelegten Geraden werden als Hauptachsen der Matrix A bzw. der quadratischen Form q(x) = xT A x bezeichnet (vgl. Abbildung 10.3). Beispiel 10.29 (Hauptachsentransformation) Zur symmetrischen 3 × 3-Matrix A = ⎛ ⎝ 1 0 1 0 1 1 1 1 2 ⎞ ⎠ aus Beispiel 10.22a) gehört die quadratische Form q(x) = xT A x = x21 + x22 + 2x23 + 2x1x3 + 2x2x3. 258 Kapitel 1010.7 Definitheitseigenschaften x1 x2 1 1 x1x2 y1y2 Hauptachsen Abb. 10.3: Hauptachsentransformation im R2 Die Matrix A besitzt die drei Eigenwerte λ1 = 0, λ2 = 3 und λ3 = 1 sowie die normierten und orthogonalen Eigenvektoren x1, x2 und x3 (vgl. (10.36)). Aus Satz 10.28 folgt somit, dass die quadratische Form die Normalform q(x) = 0y21 + 3y22 + y23 = 3y22 + y23 besitzt. Dabei sind y = (y1, y2, y3)T die Koordinaten von x = (x1, x2, x3)T bzgl. der Orthonormalbasis {x1, x2, x3}, und für die orthogonale Matrix X = (x1, x2, x3) gilt y = XT x. 10.7 Definitheitseigenschaften In diesem Abschnitt werden für symmetrische Matrizen A und die zugehörigen quadratischen Formen q(x) = xT A x verschiedene Definitheitseigenschaften eingeführt, die in Kapitel 24 bei der Formulierung von hinreichenden Bedingungen für (lokale und globale) Extrema reellwertiger Funktionen in n Variablen eine wichtige Rolle spielen. Man unterscheidet die folgenden Definitheitseigenschaften: Definition 10.30 (Definitheitseigenschaften) Eine symmetrische n × n-Matrix A und die zugehörige quadratische Form q(x) = xT A x heißen a) positiv definit, wenn xT A x > 0 für alle x ∈ Rn\{0}, b) negativ definit, wenn xT A x < 0 für alle x ∈ Rn\{0}, c) positiv semidefinit, wenn xT A x ≥ 0 für alle x ∈ Rn, d) negativ semidefinit, wenn xT A x ≤ 0 für alle x ∈ Rn gilt, und e) indefinit in allen anderen Fällen, also wenn x, y ∈ R n \ {0} mit xT A x > 0 und yT A y < 0 existieren. Aus dieser Definition folgt unmittelbar, dass eine positiv (negativ) definite Matrix auch positiv (negativ) semidefinit ist. Ferner gelten die folgenden Äquivalenzen: A negativ definit ⇐⇒ −A positiv definit A negativ semidefinit ⇐⇒ −A positiv semidefinit A indefinit ⇐⇒ −A indefinit Im folgenden Beispiel wird demonstriert, wie Matrizen geringer Ordnung ohne weitere Hilfsmittel auf ihre Definitheitseigenschaften untersucht werden können: Beispiel 10.31 (Definitheitseigenschaften symmetrischer Matrizen) a) Zu der symmetrischen 2 × 2-Matrix A = ( 3 −1 −1 2 ) gehört die quadratische Form q(x) = xT A x = (x1, x2) ( 3 −1 −1 2 )( x1 x2 ) = 3x21 − 2x1x2 + 2x22 = 2x21 + (x1 − x2)2 + x22 für alle x ∈ R2. Offensichtlich gilt q(x1, x2) ≥ 0 für alle x ∈ R2. Aus xT A x = 0 folgt ferner x1 = x2 = 0, also x = 0. Es gilt somit xT A x > 0 für alle x ∈ R2\{0}. Die quadratische Form q und die symmetrische Matrix A sind somit positiv definit. 259 Kapitel 10 Eigenwerttheorie und Quadratische Formen b) Die zur symmetrischen 2 × 2-Matrix A = ( 2 2 2 2 ) gehörende quadratische Form ist gegeben durch q(x) = xT A x = (x1, x2) ( 2 2 2 2 )( x1 x2 ) = 2x21 + 4x1x2 + 2x22 = 2(x1 + x2)2 für alle x ∈ R2. Offensichtlich gilt q(x1, x2) ≥ 0 für alle x ∈ R2 und q(x) = 0 zum Beispiel für x1 = −x2 = 0. Die quadratische Form q und die symmetrische Matrix A sind somit positiv semidefinit. c) Die zur symmetrischen 2 × 2-Matrix A = (−2 7 7 −4 ) gehörende quadratische Form q(x) = xT A x ist indefinit. Denn zum Beispiel gilt für x := (1, 1)T und y := (1, 10)T q(x) = xT A x = (1, 1) (−2 7 7 −4 )( 1 1 ) = −2 + 14 − 4 = 8 > 0 bzw. q(y) = yT A y = (1, 10) (−2 7 7 −4 )( 1 10 ) = −2 + 140 − 400 = −262 < 0. Definitheitskriterien basierend auf Hauptdiagonaleinträgen Wie bereits das obige Beispiel erahnen lässt, ist die Untersuchung einer symmetrischen n × n-Matrix A auf ihre Definitheitseigenschaften ausschließlich anhand der Definition 10.30 für n ≥ 3 nicht praktikabel. Es werden daher Kriterien benötigt, die für symmetrische Matrizen beliebiger Ordnung eine einfache Bestimmung ihrer Definitheitseigenschaften erlauben. Der folgende Satz liefert solche einfachen Kriterien. Diese Kriterien besitzen den großen Vorteil, dass sie ohne zusätzlichen Aufwand direkt an den Einträgen auf der Hauptdiagonalen der Matrix abgelesen werden können. Der Nachteil ist, dass die ersten vier Kriterien a) bis d) für symmetrische Matrizen, die keine Diagonalmatrizen sind, lediglich notwendige, aber keine hinreichenden Bedingungen für die verschiedenen Definitheitseigenschaften liefern: Satz 10.32 (Definitheitskriterien basierend auf Hauptdiagonaleinträgen) Es sei A = (aij )n,n eine symmetrische n×n Matrix. Dann gilt: a) A positiv definit ⇒ aii > 0 für alle i = 1, . . . , n b) A negativ definit ⇒ aii < 0 für alle i = 1, . . . , n c) A positiv semidefinit ⇒ aii ≥ 0 für alle i = 1, . . . , n d) A negativ semidefinit ⇒ aii ≤ 0 für alle i = 1, . . . , n e) A besitzt positive und negative Einträge auf der Hauptdiagonalen ⇒ A indefinit Ist A eine Diagonalmatrix, dann gelten auch die Umkehrungen der Aussagen a) bis e). Beweis: Zu a): Da A positiv definit ist, folgt mit dem i-ten Einheitsvektor ei ∈ Rn aii = eTi A ei > 0 für alle i = 1, . . . , n. Zu b), c) und d): Die Beweise verlaufen analog zu Aussage a). Zu e): Es gelte aii > 0 und ajj < 0. Dann folgt mit dem i-ten und dem j -ten Einheitsvektor eTi A ei = aii > 0 bzw. eTj A ej = ajj < 0. Das heißt, die Matrix A ist indefinit. Ist A eine Diagonalmatrix, dann folgt xT A x = n∑ i=1 aiix 2 i . Aus aii > 0 für alle i = 1, . . . , n folgt somit xT A x > 0 für alle x ∈ Rn \{0}. Die Matrix A ist also positiv definit. Analog zeigt man, dass im Falle einer Diagonalmatrix auch die Umkehrungen der Aussagen b), c), d) und e) gelten. Im folgenden Beispiel wird gezeigt, wie diese Kriterien angewendet werden: Beispiel 10.33 (Definitheitskriterien basierend auf Hauptdiagonaleinträgen) a) Die Diagonalmatrix A = ⎛ ⎜⎜ ⎝ −1 0 0 0 0 2 0 0 0 0 17 0 0 0 0 11 ⎞ ⎟⎟ ⎠ 260 Kapitel 1010.7 Definitheitseigenschaften besitzt positive und negative Einträge auf der Hauptdiagonalen. Die Matrix A und die zugehörige quadratische Form q(x) = xT A x sind somit nach Satz 10.32e) indefinit. b) Die symmetrische 5 × 5-Matrix B = ⎛ ⎜⎜⎜⎜ ⎝ −1 1 −1 0 12 1 −2 12 1 −5−1 12 −3 12 0 0 1 12 −2 0 1 2 −5 0 0 −4 ⎞ ⎟⎟⎟⎟ ⎠ besitzt auf der Hauptdiagonalen nur negative Einträge. Für die Matrix B und die zugehörige quadratische Form q(x) = xT B x kann somit nach Satz 10.32a) und c) ausgeschlossen werden, dass sie positiv definit oder positiv semidefinit sind. Für B und q kommt nur in Frage, dass sie negativ definit, negativ semidefinit oder indefinit sind. Eine weitergehende Eingrenzung ist jedoch mit Satz 10.32 nicht möglich. Definitheitskriterien basierend auf Eigenwerten Das letzte Beispiel zeigt, dass die Kriterien von Satz 10.32 im Allgemeinen keine vollständige Antwort auf die Frage nach den Definitheitseigenschaften einer symmetrischen Matrix A und ihrer zugehörigen quadratischen Form q(x) = xT A x liefern. Dazu werden leistungsfähigere Kritierien benötigt. Der folgende Satz liefert notwendige und hinreichende Bedingungen für die verschiedenen Definitheitseigenschaften. Mit diesen Kriterien kann für jede symmetrische Matrix und ihre quadratische Form beantwortet werden, welche Definitheitseigenschaften sie besitzen. Der Nachteil dieser Kriterien ist jedoch, dass für ihre Anwendung zuerst die Eigenwerte der Matrix A berechnet werden müssen. Satz 10.34 (Definitheitskriterien basierend auf Eigenwerten) Es sei A eine symmetrische n×n-Matrix mit den reellen Eigenwerten λ1, . . . , λn. Dann gilt: a) A positiv definit ⇐⇒ λi > 0 für alle i = 1, . . . , n b) A negativ definit ⇐⇒ λi < 0 für alle i = 1, . . . , n c) A positiv semidefinit ⇐⇒ λi ≥ 0 für alle i = 1, . . . , n d) A negativ semidefinit ⇐⇒ λi ≤ 0 für alle i = 1, . . . , n e) A indefinit ⇐⇒ es gibt positive und negative Eigenwerte Beweis: Die Behauptungen a) bis e) folgen unmittelbar aus der Darstellung (10.42). Aus diesem Satz erhält man unmittelbar das folgende Resultat: Folgerung 10.35 (Definitheit impliziert Invertierbarkeit) Eine symmetrische positiv oder negativ definite n × n- Matrix A ist invertierbar. Beweis: Für die n Eigenwerte einer symmetrischen positiv oder negativ definiten n × n-Matrix A gilt λi = 0 für i = 1, . . . , n (vgl. Satz 10.34a) und b)) und damit auch det(A) =∏n i=1 λi = 0 (vgl. (10.14)). Daraus folgt zusammen mit Satz 8.67, dass A invertierbar ist. Im folgenden Beispiel wird der Nutzen von Satz 10.34 demonstriert: Beispiel 10.36 (Definitheitskriterien basierend auf Eigenwerten) a) Die symmetrische 2 × 2-Matrix A = (−2 1 1 −2 ) besitzt das charakteristische Polynom pA(λ) = det (−2 − λ 1 1 −2 − λ ) = (−2 − λ)2 − 1. Mit der Lösungsformel für quadratische Gleichungen (vgl. (4.8)) erhält man die beiden Eigenwerte λ1=−1 und λ2 = −3. Mit Satz 10.34b) folgt somit, dass die Matrix A und die zugehörige quadratische Form q(x) = xT A x negativ definit sind. 261 Kapitel 10 Eigenwerttheorie und Quadratische Formen b) Die symmetrische 2 × 2-Matrix B = ( 9 3 3 1 ) besitzt das charakteristische Polynom pB(λ) = det ( 9 − λ 3 3 1 − λ ) = (9 − λ)(1 − λ)− 9 = λ2 − 10λ. Die Eigenwerte sind somit gegeben durch λ1 = 0 und λ2 = 10. Mit Satz 10.34c) folgt daher, dass die Matrix B und die quadratische Form q(x) = xT B x positiv semidefinit sind. c) Die symmetrische 3 × 3-Matrix A = ⎛ ⎝ 0 0 −3 0 2 0 −3 0 6 ⎞ ⎠ besitzt das charakteristische Polynom pA(λ) = det ⎛ ⎝ −λ 0 −3 0 2 − λ 0 −3 0 6 − λ ⎞ ⎠ = −λ(2 − λ)(6 − λ)− 9(2 − λ) = (2 − λ)(−λ(6 − λ)− 9). Durch Anwendung der Lösungsformel für quadratische Gleichungen (vgl. (4.8)) auf den zweiten Faktor erhält man die drei Eigenwerte λ1 = 2, λ2 = 3 + √18 > 0 und λ3 = 3 − √ 18 < 0. Da die Eigenwerte verschiedene Vorzeichen haben, sind die Matrix A und die quadratische Form q(x) = xT A x nach Satz 10.34e) indefinit. d) Die symmetrische 3 × 3-Matrix B = ⎛ ⎝ 1 0 1 0 1 1 1 1 2 ⎞ ⎠ aus Beispiel 10.22a) besitzt die drei Eigenwerte λ1 = 0, λ2 = 3 und λ3 = 1. Nach Satz 10.34c) sind B und q(x) = xT B x damit positiv semidefinit. Definitheitskriterien basierend auf Hauptminoren J. J. Sylvester Die Kriterien in Satz 10.34 für die Definitheitseigenschaften einer symmetrischen n × n-Matrix A basieren auf den Eigenwerten von A. Sie sind besonders gut für Matrizen größerer Ordnung n × n (etwa n ≥ 7) geeignet. Denn es existieren eine Reihe guter numerischer Verfahren zur Berechnung von Eigenwerten (siehe z. B. Schwarz-Köckler, [62] und Werner [70]). Für kleinere Matrizen sind jedoch häufig die Kriterien des folgenden Satzes 10.38 besser geeignet. Diese Kriterien basieren nicht auf den Eigenwerten, sondern auf den Determinanten spezieller Untermatrizen der Matrix A, den sogenannten Hauptminoren (Hauptunterdeterminanten). A. Hurwitz Die Aussagen a) und b) des Satzes 10.38 werden in der Literatur häufig nach dem britischen Mathematiker James Joseph Sylvester (1814–1897) oder nach dem deutschen Mathematiker Adolf Hurwitz (1859–1919) als Sylvester-Kriterium bzw. Hurwitz-Kriterium bezeichnet. Zur Formulierung dieser Kriterien wird der Begriff des Hauptminors benötigt, der wie folgt definiert ist: Definition 10.37 (Hauptminor und Hauptunterdeterminante) Es seien A = (aij )n,n eine n×n-Matrix und Hk die linke obere k×k-Matrix, die durch Streichen der letzten n−k Zeilen und Spalten aus A entsteht. Dann heißt die Determinante von Hk , also det(Hk) = det ⎛ ⎜ ⎝ a11 . . . a1k ... . . . ... ak1 . . . akk ⎞ ⎟ ⎠ , k-ter Hauptminor oder k-te Hauptunterdeterminante von A. 262 Kapitel 1010.7 Definitheitseigenschaften Für die Hauptminoren von A = (aij )n,n gilt: det(H1) = det(a11) = a11 det(H2) = det ( a11 a12 a21 a22 ) = a11a22 − a12a21 det(H3) = det ⎛ ⎝ a11 a12 a13 a21 a22 a23 a31 a32 a33 ⎞ ⎠ ... det(Hn) = det(A) Mit Hilfe der Hauptminoren lassen sich nun für die Definitheitseigenschaften einer symmetrischen Matrix A die folgenden Kriterien nachweisen: Satz 10.38 (Definitheitskriterien basierend auf Hauptminoren) Es sei A eine symmetrische n×n-Matrix mit den Hauptminoren det(H1), . . . , det(Hn). Dann gilt: a) A positiv definit ⇐⇒ det(Hk) > 0 für alle k = 1, . . . , n b) A negativ definit ⇐⇒ (−1)k det(Hk) > 0 für alle k = 1, . . . , n c) A positiv semidefinit ⇒ det(Hk) ≥ 0 für alle k = 1, . . . , n d) A negativ semidefinit ⇒ (−1)k det(Hk) ≥ 0 für alle k = 1, . . . , n e) Weder det(Hk) ≥ 0 noch (−1)k det(Hk) ≥ 0 für alle k = 1, . . . , n ⇒ A indefinit Beweis: Siehe z. B. Muthsam [48], Seiten 261–262. Bei der Anwendung von Satz 10.38 ist zu beachten, dass die Aussagen c) und d) keine Äquivalenzen sind. Beispiel 10.39 (Definitheitskriterien basierend auf Hauptminoren) a) Die symmetrische 3 × 3-Matrix A = ⎛ ⎝ 1 2 3 2 1 3 3 3 1 ⎞ ⎠ besitzt die ersten beiden Hauptminoren det(H1) = det(1) = 1 und det(H2) = det ( 1 2 2 1 ) = −3. Die Matrix A ist somit nach Satz 10.38 nicht positiv (negativ) definit und auch nicht positiv (negativ) semidefinit. Sie ist also indefinit. b) Die Hauptminoren der symmetrischen 3× 3-Matrix B = ⎛ ⎝ 3 1 −4 1 5 −1 −4 −1 7 ⎞ ⎠ sind gegeben durch det(H1) = 3, det(H2) = det ( 3 1 1 5 ) = 14 und det(H3) = det ⎛ ⎝ 3 1 −4 1 5 −1 −4 −1 7 ⎞ ⎠ = 23. Die Matrix B ist somit nach Satz 10.38a) positiv definit. c) Für die Hauptminoren der symmetrischen 3 × 3- Matrix C = ⎛ ⎝ 1 0 2 0 1 1 2 1 5 ⎞ ⎠ erhält man det(H1) = 1, det(H2) = det ( 1 0 0 1 ) = 1 und det(H3) = det ⎛ ⎝ 1 0 2 0 1 1 2 1 5 ⎞ ⎠ = 0. Mit Hilfe von Satz 10.38 kann somit ausgeschlossen werden, dass C positiv definit, negativ definit oder negativ semidefinit ist. Er liefert jedoch keine Aussage darüber, ob die Matrix positiv semidefinit oder indefinit ist. Um auch diese Frage beantworten zu können, müssen die Eigenwerte von C berechnet und die Kriterien von Satz 10.34 zu Rate gezogen werden. 263 Kapitel 10 Eigenwerttheorie und Quadratische Formen Das charakteristische Polynom von C ist gegeben durch pC(λ) = det ⎛ ⎝ 1 − λ 0 2 0 1 − λ 1 2 1 5 − λ ⎞ ⎠ = (1 − λ)2(5 − λ)− 4(1 − λ)− 1(1 − λ) = (1 − λ)λ(−6 + λ). Die Eigenwerte von C sind also λ1 = 1, λ2 = 0 und λ3 = 6 und die Matrix C nach Satz 10.34c) damit positiv semidefinit. Der Satz 10.38c) und d) liefert für (positive und negative) Semidefinitheit lediglich notwendige Bedingungen. Für den wichtigen Spezialfall von symmetrischen 2×2-Matrizen lassen sich jedoch diese Aussagen verschärfen, so dass man auch für Semidefinitheit notwendige und hinreichende Bedingungen erhält. Dieses Ergebnis wird in Kapitel 24 bei der Optimierung von reellwertigen Funktionen mit zwei Variablen hilfreich sein. Folgerung 10.40 (Definitheitskriterien für 2× 2-Matrizen) Es sei A = ( a11 a12 a21 a22 ) eine symmetrische 2 × 2-Matrix. Dann gilt: a) A positiv definit ⇐⇒ a11 > 0 und a11a22 − a212 > 0 b) A negativ definit ⇐⇒ a11 < 0 und a11a22 − a212 > 0 c) A positiv semidefinit ⇐⇒ a11, a22 ≥ 0 und a11a22 − a212 ≥ 0 d) A negativ semidefinit ⇐⇒ a11, a22 ≤ 0 und a11a22 − a212 ≥ 0 e) A indefinit ⇐⇒ a11a22 − a212 < 0 Beweis: Zu a): Nach Satz 10.38a) ist A genau dann positiv definit, wenn det(H1) = a11 > 0 und det(H2) = det(A) = a11a22 − a212 > 0 gilt. Zu b): Zeigt man analog zur Aussage a). Zu c): Das charakteristische Polynom von A ist gegeben durch pA(λ) = (a11 − λ)(a22 − λ)− a212 = λ2 − λ(a11 + a22)+ a11a22 − a212. Mit der Lösungsformel für quadratische Gleichungen (vgl. (4.8)) erhält man für die beiden Eigenwerte λ1,2 = 1 2 ( a11 + a22 ± √ (a11 + a22)2 − 4(a11a22 − a212) ) = 1 2 ( a11 + a22 ± √ (a11 − a22)2 + 4a212 ) . Daraus folgt zusammen mit Satz 10.34c): A ist positiv semidefinit ⇐⇒ λ1, λ2 ≥ 0 ⇐⇒ a11 + a22 ± √ (a11 − a22)2 + 4a212 ≥ 0 ⇐⇒ (a11 + a22)2 ≥ (a11 − a22)2 + 4a212 und a11, a22 ≥ 0 ⇐⇒ 2a11a22 ≥ −2a11a22 + 4a212 und a11, a22 ≥ 0 ⇐⇒ 4(a11a22 − a212) ≥ 0 und a11, a22 ≥ 0 ⇐⇒ a11a22 ≥ a212, und a11, a22 ≥ 0 Zu d): Zeigt man analog zur Aussage c). Zu e): Dies folgt aus den Aussagen a) – d) und der Tatsache, dass eine Matrix genau dann indefinit ist, wenn sie weder positiv (semi)definit noch negativ (semi)definit ist. Die Anwendung dieses Resultats wird im folgenden Beispiel demonstriert: Beispiel 10.41 (Definitheitskriterien für 2× 2-Matrizen) a) Für die 2 × 2-Matrix A = (aij )2,2 = ( 2 −3 −3 5 ) gilt a11 = 2 > 0 und a11a22 − a212 = 1 > 0. Nach Folgerung 10.40a) ist die Matrix A positiv definit. b) Für die 2 × 2-Matrix B = (bij )2,2 = (−6 4 4 2 ) gilt b11 = −6 < 0 und b11b22 − b212 = −28 < 0. Nach Folgerung 10.40e) ist die Matrix B indefinit. 264

Chapter Preview

References

Zusammenfassung

"uneingeschränkt zu empfehlen, [...] insbesondere als Einstiegslektüre im Bachelor-Studium". In: Studium, 2013.

So zentral die Rolle der Mathematik in der Ökonomie ist, so schwer tun sich die Studierenden mit mathematischen Methoden und Konzepten. Umso wichtiger ist es, die Studierenden bei ihrem aktuellen Wissensstand abzuholen und vorsichtig an den Stoff heranzuführen. Diesem Ziel verschreibt sich dieses Lehrbuch. Es führt mit vielen interessanten Beispielen aus der Ökonomie, kurzen Anekdoten und einem modernen mehrfarbigen Design in die zentralen mathematischen Methoden für ein erfolgreiches Wirtschaftsstudium ein, ohne dabei auf mathematische Klarheit sowie die notwendige Formalität und Stringenz zu verzichten. Auch nach dem Studium ist dieses Buch ein wertvoller Begleiter bei der mathematischen Lösung wirtschaftswissenschaftlicher Problemstellungen.

Aus dem Inhalt:

* Mathematische Grundlagen

* Lineare Algebra

* Matrizentheorie

* Folgen und Reihen

* Reellwertige Funktionen in einer und mehreren Variablen

* Differential- und Integralrechnung

* Optimierung mit und ohne Nebenbedingungen

* Numerische Verfahren

Dozenten finden auf der Website zum Buch unter www.vahlen.de zusätzliche Materialien zum Download.

"Indem Sie den Lehrstoff schrittweise aufbereiten und den Leser bei seinem aktuellen Wissenstand abholen, gelingt es ihnen [den Autoren], auch komplexe Zusammenhänge leicht nachvollziehbar zu vermitteln. Geschickt bauen sie immer wieder kurze Anekdoten, historische Ereignisse und überraschende Erkenntnisse in den Text ein". In: Studium, 2013.

Prof. Dr. Michael Merz ist Inhaber des Lehrstuhls für Mathematik und Statistik in den Wirtschaftswissenschaften an der Universität Hamburg. Prof. Dr. Mario V. Wüthrich forscht und lehrt am Department für Mathematik der ETH Zürich.