Content

7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen in:

Norbert Hirschauer, Oliver Mußhoff

Modernes Agrarmanagement, page 390 - 417

Betriebswirtschaftliche Analyse- und Planungsverfahren

3. Edition 2013, ISBN print: 978-3-8006-4743-9, ISBN online: 978-3-8006-4457-5, https://doi.org/10.15358/9783800644575_390

Bibliographic information
7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 381 Bei Strategie 3 fällt auf, dass sich zwar die Kosten der kombinierten Strategien (Qualitätsmanagement undVersicherung), aber nicht die jeweils im Vergleich zum Status quo erzielten Risikoreduzierungen addieren.Dies liegt daran, dass es beim Produkthaftungsrisiko B zu einer Überschneidung kommt: Sowohl Strategie 1als auch Strategie 2 führen jeweils für sich genommen zu einer Verringerung des Produkthaftungsrisikosvon 36 auf 6 Punkte. Ihre Kombination bringt bei diesem Einzelrisiko dann nur noch eine Risikoreduzierungum weitere fünf Punkte. Anders ausgedrückt: Hat man eine der beiden Strategien bereits implementiert,sind mit der zusätzlichen Implementierung der anderen Strategie höhere Grenzkosten je Punkt Risikoab-nahme verbunden.Die Auswahlentscheidung zwischen den verschiedenen Strategien basiert auf einem paarweisen Vergleichder jeweiligen Strategien. Dies entspricht dem Grenzwertprinzip. Man identifiziert die Veränderungenbeim Risiko und bei den Kosten, die ursächlich durch den Übergang von der einen zur anderen Strategieausgelöst werden. Tab. 7-14 verdeutlicht den Sachverhalt. Tab. 7-14: Grenzkosten je Punkt RisikoabnahmeÜbergang von … Risikoabnahme(in Punkten) Kostenzunahme(in €) Grenzkosten je PunktRisikoabnahme S0Æ S1 54 (= 100 − 46) 4 000 74 (= 4 000/54) S0Æ S2 58 (= 100 − 42) 4 800 83 (= 4 800/58) S1Æ S3 33 (= 46 − 13) 4 800 145 (= 4 800/33) S2Æ S3 29 (= 42 − 13) 4 000 138 (= 4 000/29)Auf der Grundlage der in Tab. 7-14 zusammengefassten Ergebnisse seiner subjektiven Risikoeinschätzungmuss der Direktvermarkter nun entscheiden, welche Zahlungsbereitschaft er für wie viel Risikoreduzie-rung hat. Wenn er bspw. eine maximale Zahlungsbereitschaft von 75 € je Punkt Risikoabnahme hat, wirder S1 wählen und lediglich sein internes Qualitätsmanagement verbessern. Der zusätzliche Abschluss einerVersicherung (d.h. der Übergang S1Æ S3) würde sich bei Grenzkosten von 145 € je Punkt Risikoabnahmefür ihn nicht lohnen. Hat er dagegen eine maximale Zahlungsbereitschaft von 85 € je Punkt Risikoabnah-me, wird er S2 wählen und die Produkt- und Umwelthaftungsversicherung abschließen. Wenn er dieseVersicherung bereits abgeschlossen hat, lohnt es sich umgekehrt für ihn nicht, zusätzlich in ein verbesser-tes Qualitätsmanagement zu investieren. Die Grenzkosten für den Übergang S2Æ S3 betragen ja 138 € jePunkt Risikoabnahme.Ende des Beispiels 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer RisikoanalysenUm Risiken in Entscheidungsmodellen verarbeiten zu können, müssen sie quantifiziert werden. Andersgesagt: Für alle Zufallsvariablen, die einen relevanten Einfluss auf die Zielgröße haben, muss die (Wahr-scheinlichkeits)Verteilung bestimmt werden oder bekannt sein. Der vorliegende Abschnitt beschreibt diewahrscheinlichkeitstheoretischen Grundlagen, die man in diesem Zusammenhang kennen sollte. InPunkt 7.4.1 gehen wir zunächst darauf ein, welche Arten von Zufallsvariablen es gibt und wie sie grund-sätzlich dargestellt werden können. In Punkt 7.4.2 werden ausgewählte Maßzahlen zur Charakterisierungvon Zufallsvariablen beschrieben. In Punkt 7.4.3 weisen wir auf verbreitete Fehler hin, die beim Umgangmit Wahrscheinlichkeiten auftreten können. In Punkt 7.4.4 beschreiben wir verschiedene Typen vonVerteilungen. 382 7 Querschnittsaufgabe Risikomanagement 7.4.1 Ausprägungs- und Darstellungsformen von Zufallsvariablen a) Stetige und diskrete ZufallsvariablenBevor wir uns mit der Wahrscheinlichkeit des Auftretens verschiedener Umweltzustände beschäftigen, istes wichtig zu verstehen, welche grundsätzlichen Ausprägungsformen stochastische Variablen anneh-men können (vgl. Tab. 7-15). Tab. 7-15: Systematik und Beispiele für Ausprägungsformen stochastischer VariablenZustandsdiskret ZustandsstetigZeitdiskret Erscheinen oder Nicht-Erscheinen einesMitarbeiters zum Arbeitsbeginn Ertrag imWinterweizenanbau zumErntezeitpunktZeitstetig Ausbruch oder Nicht-Ausbruch einerbestimmten Tierseuche Temperaturverlauf über einengewissen Zeitraum Zustandsdiskret bedeutet, dass die Zufallsvariable nur eine begrenzte Anzahl konkreter Zustände an-nehmen kann. Zeitdiskret meint dagegen, dass sie nur zu bestimmten Zeitpunkten einen Zustand anneh-men kann. Ein Beispiel für eine zustands- und zeitdiskrete Zufallsvariable ist die stochastische Größe, obein Mitarbeiter morgens zur Arbeit kommt oder nicht. Während es hier zwischen Zustand 1 „Mitarbeiterkommt“ und Zustand 2 „Mitarbeiter kommt nicht“ keine Ausprägung gibt, kann eine zustandsstetige Zu-fallsvariable zumindest innerhalb eines bestimmten Wertebereichs unendlich viele Werte annehmen. EinBeispiel hierfür ist der Ertrag im Winterweizenanbau. Sowohl zustandsdiskrete als auch zustandsstetigeVariablen können auch zeitstetig sein. Statt zu einer begrenzten Anzahl von Zeitpunkten (z.B. jeden Mor-gen, jährlich zum Erntezeitpunkt) sind bei zeitstetigen Variablen unendlich viele Ausprägungszeitpunktemöglich. Der Ausbruch oder der Nichtausbruch einer Tierseuche im Zeitablauf stellt bspw. eine zeitstetige,aber zustandsdiskrete Zufallsvariable dar. Ein Beispiel für eine zeit- und zustandsstetige Variable ist dieTemperatur, bei der es unendlich viele Ausprägungen und Ausprägungszeitpunkte gibt.Bei der Unterscheidung zwischen zeitdiskret und zeitstetig sowie zustandsdiskret und zustandsstetig istzu berücksichtigen, ob man sich auf den tatsächlichen Charakter der stochastischen Variable bezieht oderauf die Messung. Messwerte sind immer zeit- und zustandsdiskret. Wie ist das gemeint? Aus theoreti-schen Überlegungen ist bspw. bekannt, dass die Zufallsvariable „Temperatur“ zeitstetig ist. Klar ist aberauch, dass man immer nur eine endliche Anzahl von Beobachtungswerten zu diskreten Zeitpunktenerfasst, selbst wenn man die Temperatur stündlich erfasst und damit sehr vieleMessungen einer eigentlich zeitstetigen Zufallsvariable vorliegen. Bei zeitstetigen Zufallsvariablen kann der zugrunde liegendeSachverhalt durch Messen immer nur approximativ abgebildet werden, da die Grundgesamtheit unendlichgroß ist. Anders gesagt: Die Messwerte stellen nur eine Stichprobe dar, die die Grundgesamtheit umsobesser approximiert, je kleiner der zeitliche Abstand zwischen einzelnen Messungen (und damit je höherdie Anzahl der Messungen) ist. Bei Messungen von zeitdiskreten Variablen (z.B. die Weizenerträgelandwirtschaftlicher Unternehmen in einem bestimmten Jahr) kann man dagegen im Prinzip alle Ausprä-gungen feststellen. Bei einer großen Grundgesamtheit ist der Aufwand für eine vollständige Erfassungaber in aller Regel zu groß. Deswegen greift man häufig auf die Messung einer repräsentativen Stichprobezurück, von der dann auf die Grundgesamtheit zurückgeschlossen wird.Auch bei der Messung einer eigentlich zustandsstetigen Zufallsvariable ist nur eine zustandsdiskreteErfassung möglich. Dies ist darin begründet, dass Werte immer nur mit einer bestimmten Genauigkeitgemessen werden können. Wenn man bspw. die eigentlich zustandsstetige Tagesniederschlagsmenge inMillimeter auf eine Nachkommastelle genau misst, hat man zustandsdiskrete Messwerte. Anders gesagt:Anstelle der eigentlich zustandsstetigen Ausprägung werden durch die Messung Klassen mit der Breitevon 0,1 mm geschaffen. Aus pragmatischen Gründen könnte man eine noch „gröbere“ Klassenbildung 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 383 vornehmen und Klassen mit einer Breite von 1 mm schaffen. Zudem lassen sich Messwerte von eigentlichzustandsstetigen metrischen Variablen zu ordinalen Variablen machen. Ein Beispiel ist, wenn man dieNiederschläge einer bestimmten Periode nicht mehr in Millimeter, sondern nach Festlegung von bestimm-ten Klassengrenzen als gering, mittel und hoch angibt. Diese Vorgehensweise lag auch der Erstellung derin Abb. 7-1 angezeigten Ergebnismatrix zugrunde. Zu beachten ist, dass mit einer Ausweitung der Klas-sengrenzen oder dem Übergang zu einem niedrigeren Skalenniveau (vgl. Punkt 2.5.1) der Informations-verlust immer weiter zunimmt. b) Darstellungsformen von VerteilungsinformationenDie bei der Darstellung von Verteilungsinformationen verwendete Terminologie der Wahrscheinlichkeitstheorie ist nicht selbsterklärend. Deshalb haben wir in Tab. 7-16 eine Matrix mit wichtigen Fach-begriffen und ihrer üblichen Verwendung zusammengestellt. Tab. 7-16: Fachtermini für die Darstellungsformen von VerteilungsinformationenZustandsdiskrete Zufallsvariable Zustandsstetige Zufallsvariable Stichpro be a) Relative Häufigkeitsverteilung;relative Häufigkeitsfunktion(frequency function) Diese Kombination existiert nicht: auch bei einemnoch so großen Stichprobenumfang hat man nureine begrenzte Anzahl von diskreten Beobach-tungswertenb) Relative Häufigkeitssumme;aufsummierte relative Häufigkeiten;kumulierte relative Häufigkeitsverteilung(cumulative frequency function) Grundg esamthe it a) Wahrscheinlichkeitsverteilung;Wahrscheinlichkeitsfunktion(probability function) a) (Wahrscheinlichkeits)Dichtefunktion(density function)b) Verteilungsfunktion(distribution function);Summenverteilung;kumulierte Wahrscheinlichkeitsfunktion(cumulative probability function) b) Verteilungsfunktion(distribution function);Summenverteilung;kumulierte Dichtefunktion(cumulative density function)Bevor wir auf die Begriffe im Einzelnen eingehen, ist Folgendes festzuhalten: Erstens, es gibt sowohl fürzustandsdiskrete als auch für zustandsstetige Zufallsvariablen zwei alternative Darstellungsformen derVerteilungsinformation. Die entsprechenden Begriffe sind in der Matrix jeweils mit a) und b) gekenn-zeichnet. Zweitens, die Vielzahl der Begriffe in den einzelnen Matrixfeldern zeigt, dass viele Synonymeverwendet werden. Drittens, das leere Feld oben rechts verdeutlicht, dass es sich bei Stichproben immerum eine möglicherweise große, aber begrenzte Zahl diskreter Messwerte handelt. Viertens, der hier fürzustandsdiskrete Zufallsvariablen einer Grundgesamtheit verwendete Begriff „Wahrscheinlichkeitsvertei-lung“ wird in Anlehnung an die Alltagssprache auch als Überbegriff für Verteilungen einer Grundgesamt-heit verwendet. Dies erfolgt unabhängig von der Darstellungsform der Verteilungsinformation und demCharakter der Zufallsvariable.Für zustandsdiskrete Sachverhalte lässt sich die Bedeutung der einzelnen Begriffe am leichtesten amBeispiel des perfekt symmetrischen Würfels darstellen. Ein Würfel trägt bei wiederholtem Werfen quaDesign unendlich viele diskrete Ausprägungen in sich. Wir unterstellen in Tab. 7-17, dass durch sechs-maliges Würfeln sechs Beobachtungswerte für die Augenzahl vorliegen. Anders gesagt: Wir verfügen übereine sehr kleine Stichprobe aus der Grundgesamtheit eines perfekten Würfels.Die absolute Häufigkeit ܪ௝ = ܪ( ௝ܺ) der Zufallszahl ܺ für die Ausprägung ݆ gibt an, wie oft die einzelnenAugenzahlen in der Stichprobe enthalten sind. Die relative Häufigkeit ℎ௝ = ℎ( ௝ܺ) zeigt, in wie viel Pro- 384 7 Querschnittsaufgabe Risikomanagement zent der Fälle bzw. des Stichprobenumfangs die jeweilige Augenzahl beobachtet wurde. Im Beispielergab sich bei sechsmaligem Würfeln bei 2/6 aller Würfe eine Eins. Die relativen Häufigkeiten für alleBeobachtungswerte bezeichnet man zusammen als relative Häufigkeitsverteilung. Um die sog. relative Häufigkeitssumme zu bekommen, addiert man die relativen Häufigkeiten der von unten nach obengeordneten Ausprägungen bis zum jeweiligen Wert auf. Im Beispiel liegt die Häufigkeitssumme, mit dereine Augenzahl von kleiner oder gleich drei erreicht wurde, bei 4/6. Die im Mittel erreichte Augenzahlbeträgt ̅ݔ = 2,83. Tab. 7-17: Verteilungsinformation bei einem perfekt symmetrischen WürfelAugenzahlausprägungen ( ௝ܺ) 1 2 3 4 5 6 Stichprobe bei sechsmaligemWürfelnAbsolute Häufigkeit (ܪ௝ = ܪ( ௝ܺ)) 2 0 2 1 1 0Relative Häufigkeit (ℎ௝ = ℎ( ௝ܺ)) 2/6 0/6 2/6 1/6 1/6 0/6Relative Häufigkeitssumme (ℎ௝ kumuliert) 2/6 2/6 4/6 5/6 6/6 6/6Arithmetischer Mittelwert ̅ݔ 2,83(= 2/6 ∙ 1 + 0/6 ∙ 2 + 2/6 ∙ 3 + 1/6 ∙ 4 + 1/6 ∙ 5 + 0/6 ∙ 6) GrundgesamtheitWahrscheinlichkeit ( ௝ܲ = ܲ( ௝ܺ)) 1/6 1/6 1/6 1/6 1/6 1/6Verteilungsfunktion ( ௝ܲ kumuliert) 1/6 2/6 3/6 4/6 5/6 6/6Erwartungswert ܧ(ܺ) 3,50(= 1/6 ∙ 1 + 1/6 ∙ 2 + 1/6 ∙ 3 + 1/6 ∙ 4 + 1/6 ∙ 5 + 1/6 ∙ 6)Der Vergleich des oberen und des unteren Teils von Tab. 7-17 zeigt den Zusammenhang zwischen dem,was man aus einer Stichprobe an Verteilungsinformationen erhalten kann, und der tatsächlichen Vertei-lung einer Grundgesamtheit. Im unteren Teil von Tab. 7-17 gehen wir davon aus, dass wir die tatsäch-licheWahrscheinlichkeitsverteilung qua Design kennen. Man würde also trotz der gerade beobachtetenWurfergebnisse bspw. annehmen, dass die Wahrscheinlichkeit für jede Augenzahl 1/6 beträgt( ଵܲ = ଶܲ = ⋯ = ଺ܲ = 1/6). Summiert man diese Wahrscheinlichkeiten für die von unten nach obengeordneten Augenzahlen auf, erhält man die sog. Verteilungsfunktion. Bei Entscheidungen in einem zu-künftigen Glücksspiel würden wir auch davon ausgehen, dass die erwartete Augenzahl bei wiederholtemWürfeln bei ܧ(ܺ) = 3,5 liegt. Dieser Erwartungswert beinhaltet eine entscheidungsrelevante Information,obwohl er als Augenzahl gar nicht auftreten kann. Er ist der Maximalbetrag, den ein rationaler und risiko-neutraler Entscheider für die Teilnahme an einem Glücksspiel bezahlen würde, bei dem man die geworfe-ne Augenzahl in Euro ausbezahlt bekommt.Zum (fast) gleichen Ergebnis wie durch die Designüberlegung würden wir auch durch häufig wiederholtesWürfeln und eine nachfolgende statistische Analyse der Ergebnisse kommen. Wirft man bspw. 6 000 maleinen perfekt symmetrischen Würfel, erhält man zwar aller Voraussicht nach nicht jede Augenzahl genau1 000 mal. Die relative Häufigkeit für jede Augenzahl liegt aber ziemlich genau bei 1/6. Dies liegt am Gesetz der großen Zahl oder - anders ausgedrückt - daran, dass die Stichprobe groß genug ist, um dieVerteilung der Grundgesamtheit zu repräsentieren. In diesem Fall kann man die relative Häufigkeitsver-teilung und den arithmetischen Mittelwert der beobachteten Stichprobe als Proxy für die tatsächlicheWahrscheinlichkeitsverteilung bzw. den Erwartungswert der Grundgesamtheit verwenden.Die Wahrscheinlichkeits- und Verteilungsfunktion ist in Abb. 7-16 für das Beispiel des symmetrischenWürfels (zustandsdiskrete Zufallsvariable) grafisch verdeutlicht. Die Wahrscheinlichkeitsfunktioneiner Zufallsvariable ܺ, die wir bisher mit ܲ(ܺ) bezeichnet haben, wird i.d.R. einfach mit dem Kürzel ݂(ܺ)gekennzeichnet. Dagegen wird die entsprechende Verteilungsfunktion oftmals mit dem Symbol ܨ(ܺ) 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 385 versehen. DieWahrscheinlichkeitsverteilung zeigt, mit welcher Wahrscheinlichkeit jede der möglichenAusprägungen einer zustandsdiskreten Zufallsvariable auftritt. Bei einem Würfel wird jede Augenzahl je-weils mit einer Wahrscheinlichkeit von 1/6 realisiert. Die Verteilungsfunktion gibt für jede Ausprägungan, wie hoch die Wahrscheinlichkeit ist, darüber oder darunter zu liegen. Beispielsweise kann man imWürfelbeispiel sagen, dass die Wahrscheinlichkeit, eine Augenzahl von kleiner oder gleich zwei zu wür-feln, 2/6 beträgt. Abb. 7-16: Wahrscheinlichkeits- und Verteilungsfunktion für die zustandsdiskrete Zufallsvariable „Augenzahl eines Würfels“ Die Augenzahl beim Werfen eines Würfels ist eine zustandsdiskrete Zufallsvariable. Die Augenzahl kannja nur die endliche Menge von sechs ganzzahligen Ausprägungen annehmen. Schauen wir uns nun eine zustandsstetige Zufallsvariable an. Angenommen, Sie fahren jeden Morgen mit öffentlichen Ver-kehrsmitteln, wie z.B. der U-Bahn, zur Universität. Die U-Bahn verkehrt regelmäßig im 6-Minuten-Takt.Es ist allerdings zufällig, wann Sie innerhalb des 6-Minuten-Intervalls auf dem Bahnsteig ankommen.Mit anderen Worten: Alle Ankunftszeiten sind gleich wahrscheinlich. Im günstigsten Fall müssen Sie garnicht warten und können sofort in die U-Bahn einsteigen. Im schlimmsten Fall verpassen Sie die U-Bahngerade und müssen 6 Minuten auf die nächste warten. Nun kann man schätzen, wie groß die Wahr-scheinlichkeit ist, dass die Wartezeit kleiner oder größer als ein bestimmter Wert ist. Beispielsweisemüssen Sie in 50% der Fälle mit weniger als 3 Minuten Wartezeit rechnen. Ganz analog können Sie wei-tere Werte der Verteilungsfunktion ܨ(ܺ) bestimmen, die in der rechten Hälfte von Abb. 7-17 grafischveranschaulicht ist. Eine Verteilungsfunktion gibt die Wahrscheinlichkeit dafür an, dass die Zufallsvari-able ܺ Werte annimmt, die eine bestimmte Ausprägung ௝ܺ nicht übersteigen. Man schreibt deshalbauch: ܨ(ܺ) = ܲ(ܺ ≤ ௝ܺ).Wir haben bei der Darstellung der Verteilungsinformation für die zustandsstetige Zufallsvariablebewusst mit der Verteilungsfunktion begonnen, da sie die Risikoinformationen auch für Nicht-Fachleuteverständlich macht. Das intuitive Verständnis der Dichtefunktion ݂(ܺ), die in der linken Hälfte vonAbb. 7-17 dargestellt ist, ist nicht ganz so leicht, obwohl sich der Zusammenhang zwischen Dichte- undVerteilungsfunktion mathematisch einfach ausdrücken lässt: Die Dichtefunktion ist die erste Ableitungder Verteilungsfunktion. Umgekehrt ist die Verteilungsfunktion das Integral der Dichtefunktion. Gra-fisch gesehen wird bei der Dichtefunktion die kumulierte Wahrscheinlichkeit, d.h. die Wahrscheinlich-keit, dass Werte unterhalb eines bestimmten Wertes auftreten, durch die Fläche unter der Funktion biszum Abszissenwert ausgedrückt. Bei der Verteilungsfunktion findet man diesen Wert direkt als Funkti-onswert auf der Ordinate. Da die Summe der Wahrscheinlichkeit aller möglichen Ereignisse (hier also ݂(ܺ) 1/6 1/62/6 3/64/6 5/61 ܨ(ܺ) 4 ܺ ܺ1 2 3 5 6 41 2 3 5 60 0 386 7 Querschnittsaufgabe Risikomanagement einer Wartezeit auf die U-Bahn zwischen 0 und 6 Minuten) 100% beträgt, ist auch die Fläche unterhalbder Dichtefunktion gleich Eins. Abb. 7-17: Dichte- und Verteilungsfunktion für die zustandsstetige Zufallsvariable „Wartezeit am Bahnsteig“ Der Unterschied zwischen Dichte- und Wahrscheinlichkeitsfunktion besteht darin, dass der Wertder Dichtefunktion an einer bestimmten Stelle (also z.B. bei einer Wartezeit von genau 3 Minuten) nichtals die Wahrscheinlichkeit interpretiert werden darf, mit der der jeweilige Wert eintritt. Dies liegt da-ran, dass wir eine zustandsstetige Zufallsvariable betrachten, die eine unendliche Zahl möglicher Aus-prägungen hat. Dies mag vordergründig kontraintuitiv erscheinen, weil man möglicherweise spontan aneine bestimmte Stichprobe mit einer endlichen Zahl diskreter Messwerte (also bspw. eine über100 Tage auf eine Sekunde genau gemessene Wartezeit) denkt. Der Sachverhalt wird aber deutlich,wenn man sich klar macht, dass es eben nicht um eine Stichprobe, sondern um die Grundgesamtheiteiner stetigen Variablen (wie bspw. der Wartezeit) geht, die eine unendliche Zahl möglicher Ausprä-gungen hat.Die „Ähnlichkeit“ zwischen Dichte- und Wahrscheinlichkeitsfunktion hängt direkt mit dem geradebeschriebenen Unterschied zwischen diskreten und stetigen Verteilungen zusammen: Ein beliebigesbestimmtes Integral der Dichtefunktion entspricht genau der Wahrscheinlichkeit, dass die Ausprägungender Zufallsvariablen in dem entsprechenden Wertebereich liegen. Mit anderen Worten: Jede Dichte-funktion lässt sich durch Klassenbildung in eine Wahrscheinlichkeitsfunktion überführen. So könnte manin unserem Fall alternativ zur Dichtefunktion auch angeben, dass die diskrete Wahrscheinlichkeit einerWartezeit zwischen 0 und 1 Sekunde, 1 und 2 Sekunden etc. jeweils 1/360 beträgt. Bei jeder Art vonMessung wird eine solche Klassenbildung notwendigerweise vorgenommen. Das heißt, auf der Grundlageeiner relativen Häufigkeitsverteilung diskreter Stichprobenmesswerte muss auf stetige Sachverhalte ge-schlossen werden. 7.4.2 Maßzahlen zur Charakterisierung von ZufallsvariablenUm eine leichte Charakterisierung und Verarbeitung von Zufallsvariablen zu ermöglichen, versuchtman, die relevanten Verteilungsinformationen in möglichst wenige Maßzahlen zu verdichten. Dabeikommen verschiedene Lage- und Streuungsparameter zum Einsatz. Außerdem wird mit Hilfe der Kor-relation der Zusammenhang zwischen verschiedenen Zufallsvariablen quantifiziert. Die bei verschiede-nen Verteilungen und für verschiedene Zwecke zum Einsatz kommenden Parameter, die wir im Folgen-den beschreiben, sind in Tab. 7-18 dargestellt. Bei manchen Verteilungen braucht man nur einen Teilder genannten Parameter, um die Verteilung eindeutig zu spezifizieren. So reicht bei der Gleichvertei- ܺ1/6 6 1/6 2/63/6 4/65/6 1 60 0 ݂(ܺ) ܨ(ܺ) 3 ܺ 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 387 lung (vgl. Abb. 7-21) die Angabe der Spannweite für eine eindeutige Charakterisierung aus. Bei einerBinomialverteilung (vgl. Abb. 7-20) reicht die Kenntnis der beiden möglichen Ausprägungswerte sowiedie Angabe einer Eintrittswahrscheinlichkeit. Bei der Normalverteilung reicht die Angabe von Erwar-tungswert und Varianz. Tab. 7-18: Übersicht der Maßzahlen zur Charakterisierung von ZufallsvariablenKategorie MaßzahlLageparameter Æ Erwartungswert ÆMedian ÆModusStreuungsparameter Æ Varianz (Standardabweichung) Æ Variationskoeffizient ÆMittlere absolute Abweichung Æ SpannweitePartial-Moment-Maße Æ Lower-Partial-Moment-Maße (z.B. Shortfallwahrscheinlichkeit) Æ Semivarianz Æ Quantile Æ Value-at-RiskDrittes und viertes Moment einerVerteilung Æ SchiefeÆWölbungMessgrößen für den Zusammenhangzwischen Zufallsvariablen Æ KovarianzÆ Korrelationskoeffizient LageparameterDen Erwartungswert (expected value) haben wir bereits kennen gelernt. Beispielsweise haben wir- wenngleich ohne formelhafte Darstellung - für die Augenzahl beim Würfeln den Erwartungswert von 3,5berechnet. Der Erwartungswert einer Zufallsvariable ist der wichtigste Lageparameter und wird auch alserstes Moment einer Verteilung bezeichnet. Grafisch gesehen charakterisiert er die Lage der Wahrschein-lichkeits- oder Dichtefunktion einer Zufallsvariable auf der „x-Achse“.Der Erwartungswert für die Grundgesamtheit einer zustandsdiskreten Zufallsvariablen, wie z.B. dieAugenzahl beim Würfeln, bei der die Verteilung qua Design bekannt ist, kann als Summe aller mit ihrenEintrittswahrscheinlichkeiten ௝ܲ gewichtetenmöglichen Ausprägungen ௝ܺ berechnet werden:ܧ(ܺ) = ߤ(ܺ) =෍ ௝ܺ ∙ ௝ܲ௃௝ୀଵ ,mit ෍ ௝ܲ௃௝ୀଵ = 1 (7-1)Der Erwartungswert einer Grundgesamtheit wird häufig mit dem Symbol ߤ bezeichnet. Für eine voll-ständig bekannte endliche Grundgesamtheit einer Zufallsvariable (z.B. Körpergröße der Einwohner einerKleinstadt) kann man den Erwartungswert auch berechnen, indem man alle tatsächlichen Werte ݔ௜ auf-summiert und durch die Anzahl der Werte ݊ teilt:ߤ(ܺ) = 1݊ ∙෍ݔ௜௡௜ୀଵ (7-2)Bei einer linearen Transformation der Werte ݔ௞;௜ einer Zufallsvariable ܺ௞ in Werte ݔ௟;௜ = ܽ + ܾ ∙ ݔ௞;௜ einerZufallsvariable ܺ௟ gilt:ߤ( ௟ܺ) = ܽ + ܾ ∙ ߤ(ܺ௞) (7-3)Diese Transformation ist bspw. relevant, wenn der Erwartungswert des Gewinns unter Berücksichtigungvon Fixkosten ausgehend vom Erwartungswert des Gesamtdeckungsbeitrags ermittelt werden soll. 388 7 Querschnittsaufgabe Risikomanagement Bei ökonomischen Größen sind i.d.R. weder die Verteilungen qua Design noch die Grundgesamtheit be-kannt. Deshalb muss man Verteilungsinformationen regelmäßig aus einem vorgegebenen Datenmaterial,d.h. aus einer möglichst repräsentativen Stichprobe mit einer endlichen Anzahl diskreter Messwerte (Rea-lisationen), extrahieren. In der Praxis verwendet man deshalb häufig den arithmetischen Mittelwert ̅ݔ(arithmetic mean) der Stichprobe als erwartungstreuen Schätzer (Proxy) für den Erwartungswert ߤ derGrundgesamtheit. Zur Berechnung des arithmetischen Mittels der Stichprobe einer zustandsdiskretenZufallsvariable sind in Gleichung (7-1) lediglich die Wahrscheinlichkeiten ௝ܲ durch die relativen Häufig-keiten ℎ௝ zu ersetzen:̅ݔ =෍ ௝ܺ ∙ ℎ௝௃௝ୀଵ ,mit ෍ℎ௝௃௝ୀଵ = 1 (7-4)Zum gleichen Ergebnis kommt man, wenn man analog zu Gleichung (7-2) alle Realisationen ݔ௜ einer Stich-probe aufsummiert und durch die Anzahl der Stichprobenwerte ݊ teilt:̅ݔ = 1݊ ∙෍ݔ௜௡௜ୀଵ (7-5)Für den Spezialfall, dass jeder Wert in einer Stichprobe nur einmal auftritt, sieht man sofort den Zusam-menhang zwischen den Gleichungen (7-4) und (7-5): Im Spezialfall gilt 1/݊ = ℎ௝. Die in Gleichung (7-5)angezeigte Berechnungsweise gilt ebenfalls für das arithmetische Mittel einer Stichprobe einer zustands-stetigen Zufallsvariable.Neben dem Erwartungswert und dem arithmetischen Mittel gibt es eine Reihe weiterer statistischer Pa-rameter, die ebenfalls als Mittelwerte bezeichnet und zur Charakterisierung der Lage von Verteilungen aufder „x-Achse“ herangezogen werden. Der Median oder Zentralwert (median) „halbiert“ die nach ihrerGröße geordneten Realisationen einer Zufallsvariable. Mit anderen Worten: 50% der Werte liegen unterdem Median und 50% der Werte über dem Median. Damit ist der Median der Wert einer Zufallsvariable,bei dem die Verteilungsfunktion den Wert von 50% annimmt. Ein weiterer Mittelwert ist derModus oderModalwert (mode). Er bezeichnet den Wert mit der höchsten Eintrittswahrscheinlichkeit bzw. die Stelle,an der die Dichtefunktion ihr Maximum erreicht.Bei der Interpretation der verschiedenen Mittelwerte ist Folgendes zu beachten: Erstens, der Erwar-tungswert stellt nicht immer den wahrscheinlichsten Wert dar. Unter Umständen kann er überhauptnicht realisiert werden. Dies ist z.B. beim Werfen eines Würfels der Fall, bei dem der Erwartungswert3,5 beträgt. Zweitens, in einigen Fällen gibt es keinen Modus, da alle Ausprägungen gleich wahrschein-lich sind. Auch dies ist beim Würfeln der Fall. Drittens, bei symmetrischen eingipfligen Verteilungen,wie z.B. der Normalverteilung (siehe Punkt 7.4.4), fallen arithmetisches Mittel, Median und Modus zu-sammen. StreuungsparameterStreuungsparameter werden auch als Dispersionsmaße bezeichnet. Darunter versteht man statistischeKennziffern, die Auskunft darüber geben, wie weit auseinander die Realisationen einer Zufallsvariable lie-gen. Das wichtigste Streuungsmaß ist die Varianz (variance), die auch als zweites Moment einer Vertei-lung bezeichnet wird. Die Varianz drückt die Abweichung einer Zufallsvariable von ihrem Erwartungswertaus. Bei der Berechnung werden die Abweichungen vom Erwartungswert quadriert, damit sich negativeund positive Abweichungen nicht gegenseitig aufheben. Die Summe der einfachen Abweichungen wäre jabei einer symmetrischen Verteilung immer gleich Null. Die Varianz der Grundgesamtheit einer zu-standsdiskreten Zufallsvariable ist als Summe der mit ihren Eintrittswahrscheinlichkeiten ௝ܲ gewichtetenAbweichungsquadrate dermöglichen Ausprägungen ௝ܺ vom Erwartungswert ߤ zu berechnen: 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 389 ܸ(ܺ) = ߪଶ(ܺ) = ܧ ቂ൫ܺ − ܧ(ܺ)൯ଶቃ = ܧ(ܺଶ) − [ܧ(ܺ)]ଶ=෍( ௝ܺ − ߤ)ଶ ∙ ௝ܲ௃௝ୀଵ ,mit ෍ ௝ܲ௃௝ୀଵ = 1 (7-6)Die Varianz einer Grundgesamtheit wird häufig mit ߪଶ abgekürzt. Für den perfekt symmetrischen Würfelergibt sich ein Erwartungswert von 3,5. Bei diesem Erwartungswert beträgt die Varianz 2,9167(= (1 − 3,5)ଶ ∙ 1/6 + (2 − 3,5)ଶ ∙ 1/6+. . . +(6 − 3,5)ଶ ∙ 1/6).Für eine vollständig bekannte endliche Grundgesamtheit einer Zufallsvariable kann die Varianz auch be-rechnet werden, indem man die durchschnittliche quadratische Abweichung aller tatsächlichen Werte ݔ௜vom Erwartungswert berechnet:ߪଶ(ܺ) = 1݊ ∙෍(ݔ௜ − ߤ)ଶ௡௜ୀଵ (7-7)Bei einer linearen Transformation der Werte ݔ௞;௜ einer Zufallsvariable ܺ௞ in Werte ݔ௟;௜ = ܽ + ܾ ∙ ݔ௞;௜ einerZufallsvariable ܺ௟ gilt:ߪଶ ( ௟ܺ) = ܾଶ ∙ ߪଶ (ܺ௞) (7-8)Ebenso wie der Erwartungswert muss die Varianz ökonomischer Größen in aller Regel aus einer Stich-probe geschätzt werden. Die korrigierte Stichprobenvarianz, die auch als empirische Varianz oder ein-fach als Stichprobenvarianz bezeichnet wird, stellt die erwartungstreue Schätzung für die Varianz einerGrundgesamtheit dar. Die korrigierte Stichprobenvarianz ݏଶ ist auf der Grundlage einer Stichprobe, dieaus ݊ beobachteten Realisationen ݔ௜ besteht, wie folgt zu berechnen:ݏଶ = 1݊ − 1 ∙෍(ݔ௜ − ̅ݔ)ଶ௡௜ୀଵ (7-9)Der Nachteil der Varianz besteht darin, dass ihre Bedeutung intuitiv schwer nachzuvollziehen ist, weil sieeine andere Einheit (z.B. Euro zum Quadrat oder Meter zum Quadrat) aufweist als die Zufallsvariableselbst. Deshalb nutzt man als weiteres Streuungsmaß auch oft die Quadratwurzel der Varianz, die man als Standardabweichung (standard deviation) bezeichnet.Der Variationskoeffizient (coefficient of variation) bezieht die Standardabweichung auf den Erwar-tungswert bzw. arithmetischen Mittelwert:ܸܭ = ߪߤ (in Grundgesamtheit) (7-10)ܸܭ = ݏ̅ݔ (in Stichprobe) (7-11)Der Variationskoeffizient ist ein relatives Streuungsmaß, das die Standardabweichung im Verhältnis zumMittelwert ausdrückt. Damit wird die Vergleichbarkeit der Streuung von Zufallsvariablen ermöglicht,deren Erwartungswerte ein ganz unterschiedliches Niveau annehmen.Im Gegensatz zur Varianz werden bei der Berechnung der mittleren absoluten Abweichung (meanabsolute deviation; ܯܣܦ), die gelegentlich auch als lineare Streuung bezeichnet wird, nicht die quadrier-ten Abweichungen vom arithmetischen Mittelwert betrachtet, sondern die absoluten Abweichungen dereinzelnenen Beobachtungswerte von ihremMittelwert:ܯܣܦ = 1݊ ∙෍|ݔ௜ − ̅ݔ|௡௜ୀଵ (7-12) 390 7 Querschnittsaufgabe Risikomanagement Gelegentlich wird neben den bisher genannten Dispersionsmaßen auch die sog. Variationsbreite oder Spannweite (range) zur Charakterisierung der Streuung verwendet. Die Spannweite ܹܵ entspricht derDistanz zwischen der größten Realisation ݔ௜௠௔௫ und der kleinsten Realisation ݔ௜௠௜௡ einer Zufallsvariable:ܹܵ = ݔ௜௠௔௫ − ݔ௜௠௜௡ (7-13)Das Problem bei der Spannweite besteht darin, dass sie nur eine sehr rudimentäre Auskunft über dieStreuung einer Zufallsvariable vermittelt. Anders gesagt: Durch einzelne Ausreißer kann die Spannweitesehr groß werden, auch wenn die meisten Realisationen der Zufallsvariable ganz eng um den Erwar-tungswert herum liegen. Partial-Moment-MaßeNeben der Varianz, die sich auf die ganze Verteilung bezieht, gibt es auch Streuungsmaße, die gezielt nureinen bestimmten Bereich einer Verteilung beschreiben und die man deshalb unter dem Begriff „Partial-Moment-Maße“ subsumiert. Da Entscheider häufig besonderes Interesse an negativen Abweichungen voneinem bestimmten Zielwert ݔ∗ haben, kommt den sog. Lower-Partial-Moment-Maßen (ܮܲܯ-Maßen)besondere Bedeutung zu. Das ܮܲܯ-Maß der Ordnung Null (ܮܲܯ଴) ist wie folgt zu berechnen:ܮܲܯ଴ = 1݊ ∙෍max(ݔ∗ − ݔ௜; 0)଴௡௜ୀଵ (7-14)= 1݊ ∙෍൝௡௜ୀଵ 1,wenn ݔ௜ < ݔ∗0, andernfallsDabei wird definiert: 0଴ = 0. Das ܮܲܯ-Maß der Ordnung Null gibt die sog. Shortfall- oder Ausfallwahr-scheinlichkeit an, mit der der Zielwert unterschritten wird. Dabei wird nur die Zahl der „Unterschrei-tungsfälle“ betrachtet und das Ausmaß der Unterschreitung des Zielwertes außer Acht gelassen. Letztereswird bei ܮܲܯ-Maßen höherer Ordnung berücksichtigt. ܮܲܯ-Maße der Ordnung ݀ ≥ 1 sind allgemein wiefolgt definiert:ܮܲܯௗ = 1ݒ ∙෍max(ݔ∗ − ݔ௜; 0)ௗ௡௜ୀଵ ,mit ݀ ≥ 1 und ݒ =෍max(ݔ∗ − ݔ௜; 0)଴௡௜ୀଵ (7-15)Dabei kennzeichnet ݊ weiterhin die Anzahl der Stichprobenwerte. Zu beachten ist, dass die Mittelwertbil-dung nur über die hier mit ݒ bezeichnete Anzahl der Werte erfolgt, die unterhalb der Zielgröße ݔ∗ liegen.So liefert bspw. das ܮܲܯ-Maß erster Ordnung (ܮܲܯଵ) die mittlere Höhe der Unterschreitung des Zielwer-tes (expected shortfall). Über das ܮܲܯ-Maß zweiter Ordnung (ܮܲܯଶ) wird die Varianz der Unterschrei-tung des Zielwertes beschrieben.Auch die sog. Semivarianz (ܸܵ; semi-variance) stellt ein Partial-Moment-Maß dar. Es gibt sie in zwei Aus-formungen, nämlich als Downside-Risikomaß und als Upside-Risikomaß. Das Downside-Risikomaß ist einSonderfall des ܮܲܯ-Maßes zweiter Ordnung, bei dem gilt: ݔ∗ = ̅ݔ. Bildlich gesprochen wird nur die links-seitige Streuung einer Zufallsvariable von ihrem arithmetischen Mittel ̅ݔ berücksichtigt:ܵ ௗܸ௢௪௡ = 1ݒ ∙෍max(̅ݔ − ݔ௜; 0)ଶ௡௜ୀଵ ,mit ݒ =෍max(̅ݔ − ݔ௜; 0)଴௡௜ୀଵ (Downside-Risikomaß) (7-16)ݒ bezeichnet die Anzahl der Werte, die unterhalb des arithmetischen Mittels liegen. Bei der Ausformungder Semivarianz als Upside-Risikomaß wird dagegen nur die rechtsseitige Streuung berücksichtigt:ܵ ௨ܸ௣ = 1ݓ ∙෍max(ݔ௜ − ̅ݔ; 0)ଶ௡௜ୀଵ ,mit ݓ =෍max(ݔ௜ − ̅ݔ; 0)଴௡௜ୀଵ (Upside-Risikomaß) (7-17) 3 1 13 23 82 _M uß ho ff - Bg 13 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 391 ݓ bezeichnet die Anzahl der Werte, die oberhalb des arithmetischen Mittels liegen. Die Berücksichtigung dernegativen (positiven) Abweichungen über ein Downside-Risikomaß (Upside-Risikomaß) ist insbesonderefür asymmetrische Verteilungen relevant. Downside- und Upside-Risikomaße liefern in diesem Fall zusätzli-che Informationen bzgl. des „relevanten Risikos“, das nicht über die Varianz abgebildet werden kann.Auch die sog. Quantile (quantiles) liefern Informationen zu einem ausgewählten Teilbereich einer Vertei-lung. Sie spiegeln direkt die Informationen der Verteilungsfunktion wider. Ein Quantil bezeichnet dieWahrscheinlichkeit (z.B. 5% oder 25%), dass ein gewisser Wert einer Zufallsvariable (Quantilwert) nichtüberschritten oder nicht unterschritten wird. Ein perfekt symmetrischer Würfel hat bspw. einen Quantil-wert von 2 (3, 4) für das untere 33,33%- (50%-, 66,67%-) Quantil. Dies bedeutet, dass mit einer Wahr-scheinlichkeit von 33,33% (50%, 66,67%) Augenzahlen kleiner oder gleich 2 (3, 4) gewürfelt werden.Umgekehrt lässt sich sagen, dass mit einer Wahrscheinlichkeit von 33,33% (50%, 66,67%) Augenzahlengrößer oder gleich 5 (4, 3) eintreten. Bei Stichproben wird der Zusammenhang häufig wie folgt ausge-drückt: Ordnet man die beobachteten Realisationen einer Zufallsvariable aufsteigend nach ihrer Größeund unterteilt sie in ݉ gleich große Gruppen, so ergeben sich ݉ − 1 Intervallgrenzen. Die Intervallgrenzenbezeichnen die Quantilwerte. Je nachdem, wie groß ݉ gewählt wird, spricht man von Quartilen (݉ = 4),Dezilen (݉ = 10) oder Perzentilen (݉ = 100). Der uns bereits bekannte Median stellt also mit ݉ = 2ebenfalls einen speziellen Quantilwert dar, nämlich den Quantilwert für das 50%-Perzentil.Es besteht eine inverse Beziehung zwischen Quantilen und dem ࡸࡼࡹ-Maß der Ordnung Null: Beimܮܲܯ-Maß der Ordnung Null wird der Zielwert vorgegeben und die Wahrscheinlichkeit gesucht, mit der erunterschritten wird. Bei Quantilen wird die Wahrscheinlichkeit vorgegeben und der dazu gehörige Wertder Zufallsvariablen gesucht, der mit dieser Wahrscheinlichkeit unterschritten wird.Während Quantile bildlich gesprochen auf die Fläche der Dichtefunktion bis zu einem bestimmtenWert für die Zufallsvariable fokussieren, bezieht sich der sog. Value-at-Risk (VaR) auf die Differenzzwischen einem kritischen Wert und einem links davon liegenden Wert. Der VaR wird oftmals relativzum Erwartungswert einer Zufallsvariable gemessen. Man spricht dann vom relativen VaR. Hier be-zeichnet VaR den „Verlust“ im Sinne einer Unterschreitung des Erwartungswertes einer zufallsbehaf-teten Zielgröße, der mit einer bestimmten Irrtumswahrscheinlichkeit nicht überschritten wird. Gele-gentlich wird der VaR auch relativ zum Nullpunkt der Zufallsvariablen gemessen. Man spricht in die-sem Zusammenhang vom absoluten VaR. Wenn die Zufallsvariable den Gewinn eines Unternehmensdarstellt, könnte man sagen, dass der absolute VaR den Verlust (negativen Gewinn) beschreibt, denein Unternehmen innerhalb eines definierten Zeitraums mit einer bestimmten Wahrscheinlichkeitnicht überschreitet. Der VaR wird im Rahmen sog. Safety-First-Ansätze oftmals als eigenständiger Pa-rameter genutzt, mit dem das sog. Downside-Risiko gemessen wird. Safety-First-Ansätzen zufolgesollte z.B. die Betriebsorganisation mit der geringsten Ausfallwahrscheinlichkeit - verstanden alsWahrscheinlichkeit, einen Gewinn unterhalb eines Zielniveaus zu erreichen - gewählt werden.Abb. 7-18 fasst den Zusammenhang zwischen dem Lower-Partial-Moment- sowie dem Quantil- und demVaR-Konzept für einen Erwartungswert von 100 und ein 5%-Quantil mit einem Quantilwert von 30 zu-sammen. Das Beispiel verdeutlicht, dass sich ܮܲܯ଴, Quantile und relatives VaR ineinander überführen las-sen. Die Aussage „Bei einem Zielwert von 30 liegt der ܮܲܯ଴ bei 5%“ ist gleichbedeutend mit der Aussage„Der Quantilwert des 5%-Quantils ist 30“. Dies kann alternativ auch formuliert werden, indem man sagt:„Bei einem Erwartungswert von 100 liegt der 95%-VaR bei 70“.In einer konkreten Anwendung des Quantilkonzepts könnte es bspw. um das Risiko der Zahlungs-unfähigkeit gehen, das sich bei vorgegebenen Kapitaldienstverpflichtungen und Privatentnahmenergibt. Die in diesem Zusammenhang interessierende Frage ist, mit welcher Wahrscheinlichkeit derBrutto-Cash-Flow (Quantilwert) unterschritten wird, der zur Erfüllung der Zahlungsanforderungenmindestens erforderlich ist. Wenn aus Sicht des Entscheiders diese Wahrscheinlichkeit - und damit dieWahrscheinlichkeit eines Liquiditätsproblems - zu hoch ist, kann er versuchen, die Verteilung des 4 1 13 23 82 _M uß ho ff - Bg 14 392 7 Querschnittsaufgabe Risikomanagement Brutto-Cash-Flows zu verändern. Dies könnte z.B. durch den Erwerb von Versicherungen erfolgen.Außerdem könnte er versuchen, die Zahlungsanforderungen zu reduzieren oder in die Zukunft zu ver-lagern, indem er z.B. mit der Bank eine Tilgungsaussetzung o.ä. verabredet. Abb. 7-18: Zusammenhang zwischen Lower-Partial-Moment-, Quantil- und VaR-Konzept Abschließend sei auf Folgendes hingewiesen: Abb. 7-18 suggeriert von der Form her zunächst eine Nor-malverteilung (vgl. Punkt 7.4.4). Bei einer Normalverteilung benötigt man die Partial-Moment-Maße inForm des VaR-Konzepts oder der aussagegleichen Quantil- und LPM-Konzepte eigentlich nicht. Sie stellendann ja nur einen Auszug der Wahrscheinlichkeitsinformation dar, die in Gänze durch die Parameter ߤund ߪ beschrieben werden kann. Neben der leichteren Kommunizierbarkeit mit Nichtstatistikern habendiese partiellen Konzepte deshalb vor allem den Vorteil, in denjenigen Fällen aussagekräftige Informatio-nen zu liefern, in denen es sich z.B. um asymmetrische Verteilungen handelt. Drittes und viertes Moment einer VerteilungDie wichtigsten Parameter zur Charakterisierung einer Verteilung sind der Erwartungswert und dieVarianz. Im Folgenden werden der Vollständigkeit halber zwei Momente höherer Ordnung kurz angespro-chen, nämlich die Schiefe und die Wölbung.Die Schiefe (skewness) stellt das dritte Moment einer Verteilung dar. Sie wird wie folgt berechnet: ܵ݇݁ݓ = ܧ ቂ൫ܺ − ܧ(ܺ)൯ଷቃߪଷ (7-18)Die Schiefe gibt an, wie groß die Asymmetrie einer Verteilung ist. Symmetrische Verteilungen haben einenSchiefewert von Null. Positive Schiefewerte kennzeichnen eine rechtsschiefe Verteilung, die manchmalauch als linkssteil bezeichnet wird. Negative Schiefewerte bezeichnen dagegen linksschiefe Verteilungen,die auch als rechtssteil bezeichnet werden (siehe auch Abb. 7-22).DieWölbung (kurtosis) ist als viertesMoment einMaß für die „Steilgipfligkeit“ (Spitzigkeit) einer Verteilung: ܭݑݎݐ = ܧ ቂ൫ܺ − ܧ(ܺ)൯ସቃߪସ (7-19)Je höher der Wölbungswert ist, desto steilgipfliger ist die Verteilung und desto mehr resultiert die Streu-ung aus weit vom Erwartungswert entfernt liegenden extremenWerten. Je geringer der Wölbungswert ist,desto flachgipfliger ist die Verteilung und desto mehr resultiert die Streuung aus nahe beim Erwartungs-wert liegendenWerten. ݂(ܺ) ܺ5% 30 VaR 100 Lower-Partial-Moment-Konzept:Zielwert ݔ∗ = 30 ⇒ ܮܲܯ଴ = 5% (= Shortfallwahrscheinlichkeit) Quantilkonzept:5%-Quantil (= Shortfallwahrscheinlichkeit) ⇒ Quantilwert = 30 Value-at-Risk-Konzept:95%-Wahrscheinlichkeit bei ߤ = 100 ⇒ relatives 95%-VaR = 70 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 393 Messgrößen für den Zusammenhang zwischen ZufallsvariablenDie Kovarianz misst den linearen Zusammenhang zwischen zwei Zufallsvariablen (z.B. Ertrag und Preis)oder - vereinfacht ausgedrückt - die Tendenz, dass die paarweise beobachteten Ausprägungen „in die glei-che Richtung gehen“. Die Kovarianz ܥ݋ݒ(ܺ௞; ௟ܺ) = ߪ௞;௟ zwischen den Zufallsvariablen ܺ௞ und ௟ܺ entsprichtdem Erwartungswert der Abweichungsprodukte der beiden Zufallsvariablen:ܥ݋ݒ(ܺ௞; ௟ܺ) = ߪ௞;௟= ܧൣ൫ܺ௞ − ܧ(ܺ௞)൯ ∙ ൫ ௟ܺ − ܧ( ௟ܺ)൯൧ = ܧ(ܺ௞ ∙ ௟ܺ) − ܧ(ܺ௞) ∙ ܧ( ௟ܺ) (7-20)=෍෍(ܺ௞;௜ − ߤ௞) ∙ ( ௟ܺ;௝ − ߤ௟) ∙௃௝ୀଵூ௜ୀଵ ௜ܲ;௝Ebenso wie die Varianz muss die Kovarianz in aller Regel aus einer Stichprobe geschätzt werden. Für die-se „Stichproben-Kovarianz“ wird das Symbol ܥ݋ݒ(ݔ௞; ݔ௟) oder ݏ௞;௟ verwendet. Sie ist als erwartungstreuerSchätzer für die Kovarianz einer Grundgesamtheit wie folgt aus einer Stichprobe zweier Zufallsvariablenmit den paarweise beobachteten Ausprägungen ݔ௞;௜ und ݔ௟;௜ zu berechnen:ܥ݋ݒ(ݔ௞; ݔ௟) = ݏ௞;௟ = 1݊ − 1 ∙෍(ݔ௞;௜ − ̅ݔ௞ ) ∙ (ݔ௟;௜ − ̅ݔ௟)௡௜ୀଵ (7-21)In einem Tabellenkalkulationsprogramm ist zur „manuellen“ Berechnung der Kovarianz wie folgt vor-zugehen: (1) Man hält alle paarweisen Ausprägungen der beiden Zufallsvariablen in zwei nebeneinanderliegenden Spalten fest. (2) Man berechnet den Mittelwert jeder Spalte. (3) Für jede Zufallsvariable berech-net man in jeweils einer weiteren Spalte die Differenz (Abweichung) zwischen ihrer jeweiligen Ausprä-gung und ihrem Mittelwert. (4) In einer fünften Spalte bestimmt man paarweise die Abweichungsproduk-te. (5) Abschließend berechnet man mit dem Faktor 1/(݊ − 1) den „Mittelwert“ der Abweichungsproduk-te, der der Kovarianz entspricht.Der Vergleich von Gleichung (7-20) mit Gleichung (7-6) zeigt, dass die Kovarianz eine Verallgemeinerungder Varianz darstellt. Es gilt:ܥ݋ݒ(ܺ௞; ܺ௞) = ߪ௞;௞ = ܸ(ܺ௞) = ܧൣ൫ܺ௞ − ܧ(ܺ௞)൯ ∙ ൫ܺ௞ − ܧ(ܺ௞)൯൧ = ߪ௞ଶ (7-22)Da die Kovarianz vom Maßstab der Zufallsvariablen abhängt, nutzt man an ihrer Stelle oftmals den maß-stabslosen Korrelationskoeffizienten. Er entspricht dem Quotienten aus der Kovarianz und dem Pro-dukt der Standardabweichungen der Zufallsvariablen ܺ௞ und ௟ܺ:ߩ௞;௟ = ߪ௞;௟ߪ௞ ∙ ߪ௟ = ݏ௞;௟ݏ௞ ∙ ݏ௟ , mit ߪ௞, ߪ௟, ݏ௞, ݏ௟ > 0 (7-23)Der Korrelationskoeffizient wird auf einer Skala von minus Eins bis plus Eins gemessen. Bei ߩ௞;௟ = 0 be-steht kein Zusammenhang zwischen den beiden Zufallsvariablen ܺ௞ und ௟ܺ. Wenn sich dagegen zwei sto-chastische Variablen genau gleichgerichtet bewegen, sind sie perfekt positiv korreliert (ߩ௞;௟ = +1). Wennsich zwei stochastische Variablen tendenziell entgegengesetzt bewegen, sind sie negativ korreliert(−1 ≤ ߩ௞;௟ < 0). Die Korrelation einer Zufallsvariable mit sich selbst ist immer gleich Eins. 7.4.3 Häufig gemachte Fehler beim Umgang mit WahrscheinlichkeitsverteilungenWir haben bereits in Abschnitt 2.5 darauf hingewiesen, dass es von der Art der Entscheidungssituationabhängt, ob intuitives und auf erlernten Mustern basierendes Verhalten oder theoretisch unterstützteEntscheidungen mehr Aussicht auf Erfolg haben. Mit anderen Worten: Es gibt durchaus auch Fälle, in de-nen das Wissen und Können eines Unternehmensleiters so implizit (d.h. so unbewusst und unmittelbarmit dem praktischen Handeln verknüpft) sind, dass sie gar nicht als Regel verbalisiert, kommuniziert undintersubjektiv überprüft werden können. In diesem Sinne ist der Unternehmensleiter manchmal in einer 394 7 Querschnittsaufgabe Risikomanagement Situation, die der eines Schwimmers gleicht. Das heißt, dass er möglicherweise durch Erfahrung, Übungund Training ein hohes Maß an Können und Fertigkeiten erworben hat, sein Handeln aber nicht auf analy-tisch-theoretische Konzepte stützt. In vielen Situationen bergen jedoch das „Herumtappen“ in eigenen Er-fahrungen und intuitive Herangehensweisen die Gefahr von Fehlentscheidungen. Ein Beispiel haben wirmit den Investitions- und Finanzierungsentscheidungen bereits kennen gelernt. Hier sollte man sich aufkeinen Fall auf „Bauchentscheidungen“ verlassen, sondern aussagekräftige Entscheidungskalküle berech-nen, welche die relative Größe „Zins“ konsistent berücksichtigen (vgl. Abschnitt 6.8). Ein weiteres Beispielergibt sich, wenn bei Entscheidungen relative Häufigkeiten bzw. Wahrscheinlichkeiten berücksichtigtwerden müssen. Auch hier machen die meisten Menschen Fehler, wenn sie sich in ihrem praktischenHandeln auf ihren vermeintlich gesunden Menschenverstand verlassen und ohne Analyse intuitive Ent-scheidungen fällen. Einige herausragende und häufige Fehlentscheidungen, welche die praktische Bedeu-tung der Theorie (hier: der Wahrscheinlichkeitstheorie) verdeutlichen, werden im Folgenden angespro-chen. a) Vernachlässigung des Bayes-TheoremsViele Menschen werden bei der Bestimmung sog. A-posteriori-Wahrscheinlichkeiten Fehler machen,da sie mangels wahrscheinlichkeitstheoretischer Vorbildung das Bayes-Theorem weder kennen nochberücksichtigen. Es handelt sich dabei um einen verbreiteten Fall begrenzter Rationalität, und zwar einen,der nicht durch fehlende Informationen, sondern durch mangelnde theoretische Kenntnisse und eineunzureichende Informationsverarbeitungskapazität verursacht wird. Wir illustrieren die Quintessenz desBayes-Theorems und die Vorgehensweise bei der Berechnung von A-posteriori-Wahrscheinlichkeiten an-hand eines Beispiels aus der Medizin. Neben seiner Anschaulichkeit haben wir dieses Beispiel gewählt, umzu zeigen, dass der vermeintlich gesunde Menschenverstand zu höchst ungesunden Folgen führen kann.Sie besprechen mit Ihrem Arzt Dr. O. Überleg, der ein Namensvetter des uns bereits bekannten Onno ist,das Ergebnis Ihres Krebstestes. Dieser ist leider positiv. Der Arzt erläutert Ihnen, dass es sich dabei umeinen sehr sicheren Test handele, der in 99% der Fälle positiv ausfalle, wenn eine Krebserkrankung vor-liegt. Wenn man keinen Krebs habe, falle der Test dagegen nur in 10% der Fälle positiv aus. Ihr Arzt führtweiter aus, dass Sie sich deshalb ein wichtiges Körperteil amputieren lassen sollten, da sie andernfalls beider diagnostizierten Krebsart nur noch eine Lebenserwartung von einem halben Jahr haben. Bei der Ope-ration haben Sie allerdings nur eine 50%ige Überlebenschance. Das Untersuchungsergebnis erschreckt Sienatürlich. So ganz wollen Sie sich aber auf den Rat des Mediziners nicht verlassen. Sie haben nämlich un-längst gelesen, dass diese oft unzureichend in Wahrscheinlichkeitsrechnung ausgebildet sind und ausUntersuchungsergebnissen häufig falsche Schlussfolgerungen ziehen.Bevor Sie sich zur Amputation entscheiden, und bevor Sie Ihre Verwandten mit der Nachricht beunruhi-gen, wollen Sie sich das Ganze in Ruhe überlegen. Zunächst recherchieren Sie im Internet, ob die Angabendes Arztes zutreffen. Dies ist leider der Fall: Der durchgeführte Test hat nur eine Falsch-Negativ-Rate von1%, d.h. er fällt tatsächlich in 99% der Fälle positiv aus, wenn eine Krebserkrankung vorliegt. Auch dieFalsch-Positiv-Rate entspricht mit 10% den Angaben des Arztes. Der diagnostizierte Krebs ist zudem inder Tat so aggressiv, dass Erkrankte ohne Operation nur noch eine sehr geringe Lebenserwartung haben.Sie finden außerdem die Information, dass 3% der Bevölkerung an dem diagnostizierten Krebs leiden.Trotz der Bestätigung der Angaben des Arztes sind Sie weiterhin skeptisch, was den Rat des Medizinersangeht. Abends, bei einem Glas Wein, schreiben Sie deshalb alle Informationen auf, die Ihnen bekanntsind. Sie wollen herausfinden, wie hoch die Wahrscheinlichkeit ist, dass Sie Krebs haben; das ist Ihnennämlich nach wie vor nicht klar. Nachdem Sie in einem Lehrbuch der Wahrscheinlichkeitstheorie nachge-schlagen haben, können Sie die Frage zwar als Anwendungsfall des Bayes-Theorems identifizieren. Da Siemit der formelhaften Sprache der Wahrscheinlichkeitstheorie aber nicht gut vertraut sind, nützen Ihnendie weiterführenden Erläuterungen nicht viel. Sie nehmen deshalb ein Blatt Papier und zeichnen den 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 395 Sachverhalt in Form eines Zustands- bzw. Ereignisbaums auf, in den Sie ausgehend von einer angenom-menen Population von 10 Mio. Menschen neben den Wahrscheinlichkeiten auch die absoluten Häufig-keiten der verschiedenen Teilpopulationen einzeichnen (vgl. Abb. 7-19). In diesem Baum bezeichnen Sieder Übersichtlichkeit halber (und Ihrem Lehrbuch der Wahrscheinlichkeitstheorie folgend) die Zustände„krank“ und „nicht krank“ mit ܣ bzw. ܣ̅. Die Zustände „positiv getestet“ und „nicht positiv getestet“bezeichnen Sie mit ܤ bzw. ܤത. Abb. 7-19: Ereignisbaum für kranke/nicht kranke und positiv/nicht positiv getestete Personen Mit Hilfe des Ereignisbaums stellen Sie fest, dass gemäß den vorliegenden Informationen von 10 Mio.Menschen insgesamt 1 267 000 Menschen (= 297 000 + 970 000) positiv getestet werden. Davon sindaber nur 297 000 krank. Das Missverständnis des Arztes bestand darin, dass er „vorwärts gedacht“ hat.Dabei hätte er „rückwärts denken“ müssen. Er hat nämlich die bedingte Wahrscheinlichkeit, positiv getestet zu werden, wenn man krank ist, mit der bedingten Wahrscheinlichkeit verwechselt, dass man krank ist, wenn man positiv getestet wurde. Erstere beträgt in unserem Beispiel 99%(= 297 000/300 000), letztere aber nur 23,44% (= 297 000/1 267 000). Bei dieser Wahrscheinlichkeitwürde man sich sicherlich nicht für eine Operation mit einer 50%igen Überlebenschance entscheiden.In der Terminologie der Wahrscheinlichkeitstheorie geht es bei der vorliegenden Fragestellung um dieBestimmung der A-posteriori-Wahrscheinlichkeit (posterior probability), d.h. der Wahrscheinlichkeitܲ(ܣ|ܤ), dass man krank ist, wenn man positiv getestet wurde. Gemäß dem Bayes-Theorem braucht manhierfür erstens die A-priori-Wahrscheinlichkeit (prior probability oder base rate) ܲ(ܣ), dass man alsMitglied der Gesamtpopulation krank ist. Diese wurde von Dr. O. Überleg gar nicht berücksichtigt. Zweitensbenötigt man die A-priori-Wahrscheinlichkeit ܲ(ܤ), dass man als Mitglied der Gesamtpopulation positivgetestet werden würde. Diese beträgt im vorliegenden Fall 12,67% und muss erst aus den vorhandenenInformationen berechnet werden. Drittens benötigt man die bedingte Wahrscheinlichkeit (ܲ(ܤ|ܣ);conditional probability), dass man als Kranker einen positiven Befund hat. Diese Wahrscheinlichkeit inHöhe von 99%wurde von Dr. O. Überleg fälschlicherweise als Wahrscheinlichkeit interpretiert, dass man beieinem positiven Befund krank ist.Gemäß dem Bayes-Theorem gilt für die Wahrscheinlichkeit, dass man krank ist, wenn man positiv ge-testet wurde:ܲ(ܣ|ܤ) = ܲ(ܣ ∩ ܤ)ܲ(ܤ) = ܲ(ܤ|ܣ) ∙ ܲ(ܣ)ܲ(ܤ) = ܲ(ܤ|ܣ) ∙ ܲ(ܣ)ܲ(ܤ|ܣ) ∙ ܲ(ܣ) + ܲ(ܤ|̅ܣ) ∙ ܲ(̅ܣ) = 0,02970,1267 = 0,2344 (7-24)Die mit dem Bayes-Theorem (7-24) gefundene A-posteriori-Wahrscheinlichkeit ܲ(ܣ|ܤ) = 23,44% ent-spricht dem Ergebnis, das wir bereits mit Hilfe der absoluten Häufigkeiten aus Abb. 7-19 gefunden haben.Dies verwundert nicht. Die absoluten Häufigkeiten für die beiden Teilpopulationen „positiv getestet und ܤ: richtig-positivgetestet (absolut:297 000 Personen) ܤത: falsch-negativgetestet (absolut:3 000 Personen) ̅ܣ: nicht krank(absolut: 9 700 000 Personen)ܣ: krank(absolut: 300 000 Personen) Population(absolut: 10 000 000 Personen)ܲ(ܣ) = 0,03 ܲ(̅ܣ) = 0,97 ܤ: falsch-positivgetestet (absolut:970 000 Personen) ܤത: richtig-negativgetestet (absolut:8 730 000 Personen) ܲ(ܤ|ܣ) = 0,99 ܲ(ܤത|ܣ) = 0,01 ܲ(ܤ|̅ܣ) = 0,10 ܲ(ܤത|̅ܣ) = 0,90 396 7 Querschnittsaufgabe Risikomanagement krank“ (= 297 000) sowie „insgesamt positiv getestet“ (= 1 267 000) ergeben sich direkt aus dem Bayes-Theorem, indemman den Zähler und den Nenner mit der Gesamtpopulation erweitert.Eine weitere Möglichkeit, den analysierten Sachverhalt darzustellen, liefert eine Wahrscheinlichkeitstabelle (vgl. Tab. 7-19), aus der sich alle erforderlichen Informationen anschaulich ableitenlassen. Tab. 7-19: Wahrscheinlichkeitstabelle für kranke/nicht kranke und positiv/nicht positiv getestete Personen a)ܤ (positiv getestet) ܤത (nicht positiv getestet) Summeܣ(krank) ܲ(ܣ ∩ ܤ) = 0,0297= 0,99 ∙ 0,03= ܲ(ܤ|ܣ) ∙ ܲ(ܣ) ܲ(ܣ ∩ ܤത) = 0,0003= 0,01 ∙ 0,03= ܲ(ܤത|ܣ) ∙ ܲ(ܣ)(Falsch-Negativ-Wahrscheinlichkeit) b) 0,03 ̅ܣ(nicht krank) ܲ(̅ܣ ∩ ܤ) = 0,0970= 0,10 ∙ 0,97= ܲ(ܤ|̅ܣ) ∙ ܲ(̅ܣ)(Falsch-Positiv-Wahrscheinlichkeit) b) ܲ(̅ܣ ∩ ܤത) = 0,8730= 0,90 ∙ 0,97= ܲ(ܤത|̅ܣ) ∙ ܲ(̅ܣ) 0,97Summe 0,1267= ܲ(ܤ|ܣ) ∙ ܲ(ܣ) + ܲ(ܤ|̅ܣ) ∙ ܲ(̅ܣ) 0,8733= ܲ(ܤത|ܣ) ∙ ܲ(ܣ) + ܲ(ܤത|̅ܣ) ∙ ܲ(̅ܣ) 1,00a) A-priori-Wahrscheinlichkeiten sind unterstrichen, vorgegebeneWahrscheinlichkeiten grau unterlegt.b) Schließt man aus einem positiven Testergebnis, dass jemand krank ist, begeht man mit der Falsch-Positiv-Wahrscheinlichkeit einen ߙ-Fehler („Einschlussfehler“). Schließt man aus einem negativenTestergebnis, dass jemand nicht krank ist, begeht man mit der Falsch-Negativ-Wahrscheinlichkeit ei-nen ߚ-Fehler („Ausschlussfehler“).Auch wenn man das Bayes-Theorem vom Grundsatz her verstanden hat, ist es oft nicht auf den erstenBlick offensichtlich, welche Wirkung eine Änderung bestimmter Wahrscheinlichkeiten mit sich bringt. Eine vordergründig erstaunliche Wirkung hat bspw. eine höhere Zuverlässigkeit des Tests in Formeiner Erhöhung der Richtig-Positiv-Rate ܲ(ܤ|ܣ) von 99% auf 99,99%. Dies entspricht einer Verringerungder Wahrscheinlichkeit falsch-negativer Testergebnisse von ܲ(ܤത|ܣ) = 1% auf 0,01%, erhöht aber c.p. dieA-posteriori-Wahrscheinlichkeit ܲ(ܣ|ܤ) nur geringfügig, und zwar von 23,44% auf 23,62%. Demgegen-über hätte es eine starke Wirkung, wenn die A-priori-Wahrscheinlichkeit ܲ(ܣ), d.h. die Krankheitsrate inder Gesamtpopulation, nicht 3%, sondern nur 0,5% betragen würde. In diesem Fall läge die Wahrschein-lichkeit, nach einem positiven Testergebnis, Krebs zu haben, c.p. sogar nur bei knapp 5%. Der Vollständig-keit halber sei angemerkt, dass die Wahrscheinlichkeit, krank zu sein, nicht immer überschätzt wird, wennman die Wahrscheinlichkeit ܲ(ܤ|ܣ) eines positiven Befunds bei Krankheit mit der Wahrscheinlichkeitܲ(ܣ|ܤ) des Krankseins bei einem positiven Befund verwechselt. Sie kann auch unterschätzt werden. Wür-de bspw. die Wahrscheinlichkeit für ein falsch-positives Testergebnis ܲ(ܤ|̅ܣ) nicht 10%, sondern 0,01%betragen, läge die A-posteriori-Wahrscheinlichkeit ܲ(ܣ|ܤ) anstelle von 23,44% c.p. bei 99,67%. Wie wirwissen wäre Dr. O. Überleg dagegen davon ausgegangen, dass die Wahrscheinlichkeit einer Krebserkran-kung im Falle eines positiven Befunds bei 99% liegt.Neben dem hier verwendeten medizinischen Anschauungsbeispiel gibt es eine Vielzahl ökonomischer Situationen, in denen es durch die Vernachlässigung des Bayes-Theorems zu Fehlentscheidungen kommen kann. Der oben geschilderte Fall kann von seiner grundsätzlichen Problemstruktur her als Pro-totyp für Entscheidungssituationen verstanden werden, bei denen es darum geht, das Vorhandensein ei-nes unsicheren Qualitätsmerkmals auf der Grundlage eines Testergebnisses oder eines Signals einzu-schätzen. Man denke hier bspw. an Personaleinstellungsentscheidungen, Kreditvergabeentscheidungen,die Beurteilung der Qualität zugekaufter Inputs o.ä. Mit Blick auf Personaleinstellungsentscheidungenkönnte gelten: Von 10 Millionen potenziellen Arbeitnehmern sind 3% nicht für Ihren Betrieb geeignet. 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 397 Von diesen 3% tragen 99% auch bei Vorstellungsgesprächen zerrissene Jeans. Mit anderen Worten: DieWahrscheinlichkeit, dass jemand, der für Ihren Betrieb nicht geeignet ist, mit zerrissenen Jeans in ein Vor-stellungsgespräch kommt, liegt bei 99%. Von den für Ihren Betrieb geeigneten Bewerbern werden 10%zerrissene Jeans tragen. Damit beträgt die Wahrscheinlichkeit, dass jemand, der mit zerrissenen Jeans inein Vorstellungsgespräch kommt, nicht zu Ihrem Betrieb passt, 23,44% und nicht wie vordergründig viel-leicht zu erwarten 99%. b) Weitere verbreitete Fehler bei der Bestimmung vonWahrscheinlichkeiten Missachtung der Multiplikationsregel: Bei der Multiplikationsregel handelt es sich um eine der ein-fachsten Regeln der Wahrscheinlichkeitsrechnung. Dennoch wird sie bei der Einschätzung der Wahr-scheinlichkeit von Ereignissen häufig vernachlässigt. Stellen Sie sich vor, Sie sollen die Frage beantworten,welche der beiden folgenden Situationen wahrscheinlicher ist: (1) Es regnet den ganzen Sommer nicht.(2) Es regnet den ganzen Sommer nicht und die Kartoffelpreise steigen. Möglicherweise denkt man spon-tan, die zweite Situation sei wahrscheinlicher als die erste. Dies liegt daran, dass die Beschreibung derzweiten Situation einen Ursache-Wirkungszusammenhang impliziert, der Ihnen plausibel erscheint: Wennes sehr trocken ist, werden wenig Kartoffeln geerntet und aufgrund des geringen Angebotes steigen in al-ler Regel die Preise. Dennoch lautet die richtige Antwort, dass die Wahrscheinlichkeit der zweiten Situati-on maximal so groß sein kann wie die Wahrscheinlichkeit der ersten. Betrachten wir der Anschaulichkeithalber wieder absolute Häufigkeiten und unterstellen, dass es in 10 von 100 Fällen (= Beobachtungen) zuTrockenheit kommt. Dann kann es maximal in 10 Fällen zu Trockenheit und hohen Preisen kommen.Bereits eine Ausnahme, in der es zwar den ganzen Sommer nicht regnet, die Preise aber dennoch geringsind, führt dazu, dass die zweite Situation in weniger als 10 Fällen eintritt. Bezeichnet man das Ereignis„es regnet den ganzen Sommer nicht“ mit ܣ und das Ereignis „die Kartoffelpreise steigen“ mit ܤ, so lässtsich die Wahrscheinlichkeit ܲ(ܣ ∩ ܤ), d.h. die Wahrscheinlichkeit der Situation (2), wie folgt über dieMultiplikationsregel berechnen:ܲ(ܣ ∩ ܤ) = ܲ(ܣ, ܤ) = ܲ(ܤ|ܣ) ∙ ܲ(ܣ) ≤ ܲ(ܣ) (7-25)Wenn man bei der Beantwortung der obigen Frage tatsächlich zu einem Fehlurteil gekommen ist, hat mandie bedingte Wahrscheinlichkeit ܲ(ܤ|ܣ) mit der gemeinsamen Wahrscheinlichkeit ܲ(ܣ, ܤ) verwechselt.Wir haben die Multiplikationsregel, ohne den Begriff eingeführt zu haben, bereits bei der Beschreibungdes Bayes-Theorems verwendet. Die Berechnung der gemeinsamen Wahrscheinlichkeiten in der Matrixvon Tab. 7-19 erfolgte mit Hilfe der Multiplikationsregel. Missachtung der Additionsregel: Stellen Sie sich vor, Sie wollen als Landwirt die Wahrscheinlichkeit be-stimmen, dass Ihre Ernte durch Dürre (= Ereignis A) oder durch einen Schädling (= Ereignis B) vernichtetwird. Bis auf den (hier nicht vorliegenden) Sonderfall, dass sich die beiden Ereignisse gegenseitig aus-schließen, ist es falsch, die Wahrscheinlichkeiten ܲ(ܣ) und ܲ(ܤ) einfach aufzusummieren! Um den Fehlerzu verdeutlichen, den man bei einer einfachen Summation der beiden Wahrscheinlichkeiten macht, könn-te man betonen, dass es um die Wahrscheinlichkeit geht, dass entweder Ereignis A oder Ereignis B oderbeide gemeinsam eintreten. Das heißt, die gemeinsame Wahrscheinlichkeit des Auftretens der Dürre unddes Schädlings muss zur Vermeidung einer Doppelzählung von der Summe der beiden Wahrscheinlichkei-ten subtrahiert werden. Bei Nutzung einer Wahrscheinlichkeitstabelle (vgl. z.B. Tab. 7-19) wird der Sach-verhalt sofort klar. Die Additionsregel ist die formale Darstellung der richtigen Vorgehensweise zurBerechnung der Wahrscheinlichkeit ܲ(ܣ ∪ ܤ), mit der ein Ereignis A oder B eintritt. Es gilt:ܲ(ܣ ∪ ܤ) = ܲ(ܣ) + ܲ(ܤ) − ܲ(ܣ ∩ ܤ) ≤ ܲ(ܣ) + ܲ(ܤ) (7-26) Verfügbarkeitsheuristik: Ein häufig beobachteter Fehler bei der Einschätzung vonWahrscheinlichkeitenentsteht dadurch, dass die Ereignisse, an die man sich am ehesten erinnert und die einem am schnellsten„in den Sinn kommen“, nicht notwendigerweise die Ereignisse sind, die am häufigsten auftreten. Neben 398 7 Querschnittsaufgabe Risikomanagement häufigen Ereignissen erinnert man sich bspw. auch leicht an besonders auffällige Ereignisse, sei es weil esnoch nicht lange her ist, dass sie eingetreten sind, oder weil sie aus irgendeinem anderen Grund alsbemerkenswert (lustig, traurig etc.) wahrgenommen wurden. Dies gilt auch dann, wenn die Häufigkeit desEintretens dieser bemerkenswerten Ereignisse relativ gering ist. Dennoch tendieren Menschen dazu, diementale Verfügbarkeit (availability) von Ereignissen als Heuristik für subjektive Wahrscheinlichkeits-schätzungen zu verwenden. Beispiele sind die Überschätzung des Unfallrisikos auf Zugreisen kurz nacheinem großen Zugunglück oder die Überzeugung, die Regenwahrscheinlichkeit sei hoch, wenn mankeinen Regenponcho dabei hat. Bei Verwendung einer derartigen „Verfügbarkeitsheuristik“ wird dieWahrscheinlichkeit auffälliger Ereignisse, die einem schnell in den Sinn kommen, überschätzt. Deshalbsollte man nur dann auf subjektive Wahrscheinlichkeitsschätzungen zurückgreifen, wenn keine Daten zurVerfügung stehen, die man statistisch auswerten kann. Casinogänger-Syndrom: Das Casinogänger-Syndrom bezeichnet ein ähnliches Fehlurteil wie die Verfüg-barkeitsheuristik. Es fokussiert aber insbesondere darauf, dass sich Menschen bei ihren subjektiven Wahr-scheinlichkeitsschätzungen auf ungenügend große Stichproben oder sogar Einzelfälle stützen. Die namens-gebende Geschichte zu diesem Fehlurteil ist schnell erzählt: Ein Casinogänger wird zwar gelegentlich er-folgreich sein, im Durchschnitt der Fälle „steht aber die Wahrscheinlichkeit gegen ihn“. Wenn er also20 Jahre lang jede Woche ins Casino geht, wird er insgesamt weniger Geld aus dem Casino heraustragen alser mit hineinnimmt. Es ist ja allgemein bekannt, dass der Staat und der Casinobetreiber einen gewissenProzentsatz des Spieleinsatzes abschöpfen. Ein (spielsüchtiger) Spieler wird aber dennoch aus einem Erfolgableiten, dass er gut gespielt habe und auch das nächste Mal wieder gute Chancen habe, zu gewinnen. Men-schen, die das Casinogänger-Syndrom nicht haben, werden dagegen aus einem erfolgreichen Abend im Ca-sino nicht die Schlussfolgerung ziehen, dass Spielen im Casino eine sinnvolle Handlung ist, um Geld zu ver-dienen.Erstaunlicherweise ist das Casinogänger-Syndrom aber weit verbreitet, wenn es um die Beurteilung regu-lärer unternehmerischer Entscheidungen geht. Es wird häufig geäußert, dass der im Nachhinein beobachte-te Erfolg einer Entscheidung unter Risiko zeige, ob es sich um eine gute (weise, sinnvolle) Entscheidungoder gar um gutes Risikomanagement gehandelt habe. Genau das ist aber bei einem Einzelereignis falsch!Bei Unsicherheit kann man aus dem ex post Erfolg oder Misserfolg einer Handlung keine Schlussfolgerungbzgl. der Qualität der ex ante getroffenen Entscheidung oder der „Weisheit“ zukünftiger Handlungenziehen. Wie wir bereits wissen, kann man aus einer Beobachtung, dass „der dümmste Bauer die dickstenKartoffeln geerntet hat“ eben nicht folgern, dass es sinnvoll ist, so zu handeln wie der dümmste Bauer. Esmüsste ja vielmehr richtig heißen: „Auch der dümmste Bauer kann ausnahmsweise mal die dicksten Kartof-feln ernten“. Im Durchschnitt der Fälle werden aber „dumme“ Entscheidungen auch hinterher zu schlech-ten Ergebnissen führen (vgl. Abschnitt 7.1). Allerdings haben weitere Beobachtungen i.d.R. einen Informa-tionsgehalt, der eine (wenngleich oftmals geringfügige) Aktualisierung der bislang unterstellten Wahr-scheinlichkeiten erfordert. Wie mit dem Bayes-Theorem gezeigt werden kann, hängt das Ausmaß der Aktu-alisierung (update) von den A-priori-Wahrscheinlichkeiten ab. So ändert weder ein Erfolg noch ein Nicht-Erfolg im Casino nennenswert die Einschätzung, dass der Casinogang mit einer gegen 100% gehendenWahrscheinlichkeit keine erfolgversprechende Strategie ist. Anders sieht es beim Erfolg unternehmerischerHandlungen aus. Wegen der geringeren Zuverlässigkeit von Aussagen, welche Strategien erfolgreicher sindals andere, führen hier neue Beobachtungen zu einem stärkeren Update der Wahrscheinlichkeiten. 7.4.4 Ausgewählte VerteilungenNeben der Beschreibung von Zufallsvariablen über die relative Häufigkeitsverteilung einer Stichprobe, dieman auch als empirische Verteilung bezeichnet, gibt es hierfür eine Vielzahl von Verteilungen, die man alsparametrische Verteilungen bezeichnet. Parametrische Verteilungen lassen sich durch wenige Parameter 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 399 eindeutig charakterisieren. Im Folgenden beschreiben wir die Binomial-, Gleich-, Dreiecks- und Normal-verteilung, durch die eine Vielzahl stochastischer Sachverhalte abgebildet werden können. Die Binomialverteilung als spezielle diskrete VerteilungEine diskrete Verteilung haben wir anhand des Würfelbeispiels (vgl. Abb. 7-16) kennen gelernt. Die ein-fachste Form der diskreten Verteilung stellt die Binomialverteilung dar, bei der es nur zwei möglicheAusprägungen gibt. Zur eindeutigen Charakterisierung einer Binomialverteilung reichen die beidenAusprägungen sowie die Wahrscheinlichkeit für das Eintreten einer der beiden Ausprägungen aus. Bei-spiele für Binomialverteilungen sind das Geschlecht eines Kalbes bei der Geburt mit seinen Ausprägungen„Bullenkalb“ oder „Kuhkalb“ sowie der bereits angesprochene Münzwurf mit seinen Ausprägungen „Kopf“oder „Zahl“.Schauen wir uns den Münzwurf genauer an. Mit einer Wahrscheinlichkeit von ଵܲ = 50% tritt „Kopf“ ein.Damit ist auch schon bekannt, dass mit 1 − ଵܲ = ଶܲ = 50% „Zahl“ eintritt. Wir haben es in diesem Beispielmit dem Sonderfall gleicher Wahrscheinlichkeiten zu tun. Abb. 7-20 verdeutlicht die Wahrscheinlichkeits-und Verteilungsfunktion der Binomialverteilung bezogen auf den Münzwurf. Dabei wurde unterstellt, dasses bei „Kopf“ zu einer Zahlung von 0 und bei „Zahl“ zu einer Zahlung von 1 kommt. Abb. 7-20: Wahrscheinlichkeits- und Verteilungsfunktion einer Binomialverteilung Grundsätzlich sind der Erwartungswert und die Varianz der Binomialverteilung von metrischen Zufalls-variablen gemäß den bereits bekannten Gleichungen (7-1) bzw. (7-6) zu berechnen. Dort ist als Zahl fürdie möglichen Ausprägungen ܬ = 2 einzusetzen. Bei Vorliegen einer Stichprobe sind die Gleichungen (7-4)oder (7-5) und (7-9) zu verwenden.Ein wichtiger Anwendungsfall für die Berechnung des Erwartungswertes einer binomialverteilten Zu-fallsvariable ergibt sich mit Blick auf die erwartete Verzinsung von Kapital, wenn eine bestimmte Kreditausfallwahrscheinlichkeit besteht. Betrachten wir dazu einen Kredit mit einer Laufzeit von einemJahr, der zu einem Zinssatz ݅ von 10% p.a. ausgereicht wurde (vereinbarte Verzinsung). Mit der Wahr-scheinlichkeit ଵܲ von 95% wird der Kredit vereinbarungsgemäß zurückgezahlt. Die Wahrscheinlichkeitfür einen Totalausfall der Rückzahlung des Kredits liege bei 5%. Die erwartete Verzinsung ܧ(݅) liegtnicht etwa - wie vordergründig vielleicht naheliegend - bei 9,5%. Vielmehr ergibt sich gemäß Glei-chung (7-4):1 + ܧ(݅) = (1 + ݅) ∙ ଵܲ + 0 ∙ (1 − ଵܲ) = 1,10 ∙ 95% + 0 ∙ (5%) = 1,045 (7-27)Die erwartete Verzinsung beträgt bei einer Ausfallwahrscheinlichkeit von 5% also nur 4,5% und liegt da-mit ummehr als die Hälfte unterhalb der vereinbarten Verzinsung. ݂(ܺ) ܺ ܨ(ܺ) ܺ 0,5 1 0,5 0 1 0 100 400 7 Querschnittsaufgabe Risikomanagement Ein etwas anderer Sachverhalt ergibt sich, wenn sich die Binomialverteilung auf eine Zufallsvariablebezieht, die ein nominales Messniveau aufweist. Ein Beispiel ist der Münzwurf, bei dem man den beidennominalen Ausprägungen „Kopf“ und „Zahl“ keinen Zahlenwert zuweist. Ein Erwartungswert und eineVarianz nach Gleichung (7-4) und (7-9) lassen sich aufgrund des nominalen Messniveaus grundsätzlichnicht berechnen. Interessant ist aber die Frage, wie hoch der Erwartungswert des Auftretens einer bestimmten Ausprägung ࢄ = ࢄ࢐ bei ࢔-maliger Wiederholung eines Zufallsexperiments ist, das genauzwei mögliche Ausprägungen hat. Ein solches Experiment bezeichnet man als Bernoulli-Experiment. Fürden Erwartungswert und die Varianz eines Bernoulli-Experiments gilt:ܧ൫ܺ = ௝ܺ, ݊൯ = ݊ ∙ ௝ܲ (7-28)ܸ൫ܺ = ௝ܺ, ݊൯ = ݊ ∙ ௝ܲ ∙ (1 − ௝ܲ) (7-29)Bei einem zwanzigmaligen Münzwurf gilt für den Erwartungswert des Auftretens von „Kopf“:ܧ(ܺ = ܭ݋݌݂, 20) = 20 ∙ 0,5 = 10. Für die Varianz gilt: ܸ(ܺ = ܭ݋݌݂, 20) = 20 ∙ 0,5 ∙ 0,5 = 5.Die Wahrscheinlichkeit, bei einem Münzwurf ݇-mal hintereinander ܺ = ܭ݋݌݂ zu erzielen, kann wie folgtberechnet werden:ܹܽℎݎݏܿℎ݈݁݅݊݅ܿℎ݇݁݅ݐ (k-mal Kopf hintereinander) = ൫ ௄ܲ௢௣௙൯௞ (7-30)Dreimal hintereinander „Kopf“ zu werfen, hat eine Wahrscheinlichkeit von 12,5%.Eine ebenfalls interessante Frage ist, wie hoch die Wahrscheinlichkeit ist, dass bei einem ݊-maligen Münz-wurf genau ݇-mal ܺ = ܭ݋݌݂ eintrifft. Da die Reihenfolge hierbei unbedeutend ist, lässt sich das Ergebnis mitHilfe des aus der Kombinatorik bekannten Binomialkoeffizienten berechnen, der die Anzahl der möglichenKombinationen angibt. Für ݊ = 10 und ݇ = 4 gilt:ܹܽℎݎݏܿℎ݈݁݅݊݅ܿℎ݇݁݅ݐ (ܺ = ݇) = ቀ݊݇ቁ ∙ ൫ ௄ܲ௢௣௙൯௞ ∙ ൫1 − ௄ܲ௢௣௙൯௡ି௞ (7-31)= ݊!݇! ∙ (݊ − ݇)! ∙ ൫ ௄ܲ௢௣௙൯௞ ∙ ൫1 − ௄ܲ௢௣௙൯௡ି௞= 10!4! ∙ 6! ∙ 0,5ସ ∙ 0,5଺= 210 ∙ 0,062500 ∙ 0,015625 = 0,205078Eine zum Münzwurfexperiment analoge Frage ist, mit welcher Wahrscheinlichkeit eine von zwei mög-lichen Ausprägungen genau ݇-mal auftritt, wenn eine Stichprobe mit dem Umfang ݊ aus einer binomialverteilten Grundgesamtheit gezogen wird. So ließe sich bspw. fragen, wie hoch die Wahrscheinlichkeit ist,dass von 100 zugekauften Tieren kein einziges Tier krank ist, wenn die Wahrscheinlichkeit der Krankheitim Herkunftsgebiet der Tiere ௞ܲ௥௔௡௞ = 1% beträgt. Die mit Hilfe des Binomialkoeffizienten berechneteWahrscheinlichkeit, dass genau null Tiere krank sind, beträgt 36,60%. Für die Berechnung vonBinomialkoeffizienten für ݇ = 0 muss man definitionsgemäß 0! = 1 setzen. Die Wahrscheinlichkeit, dass genau ein Tier krank ist, beträgt 36,97%. Hieraus lässt sich dann auch die Wahrscheinlichkeit berechnen,dass höchstens ein Tier krank ist. Sie beträgt 73,58% (= 36,60% + 36,97%).Die diskrete Wahrscheinlichkeitsverteilung für das ݇-malige Auftreten des Ereignisses ଵܺ bei der ݊-maligen Wiederholung eines Bernoulli-Experiments mit den Wahrscheinlichkeiten ܲ( ଵܺ) = ܲ undܲ(ܺଶ) = 1 − ܲ wird ganz allgemein als Binomialverteilung bezeichnet und wie folgt gekennzeichnet:ܤ௡,௉. Gelegentlich findet man auch die ausführliche Formulierung: ܤ௡,௉(݇), mit ݇ ∈ ሼ0,… , ݊ሽ. Die inAbb. 7-20 dargestellte Binomialverteilung bildet damit den Sonderfall der einmaligen Durchführung desZufallsexperiments ab (݊ = 1). Die Binomialverteilung, d.h. die Wahrscheinlichkeiten ܲ( ଵܺ = ݇) für݇ ∈ ሼ0,… , ݊ሽ, lässt sich mit Hilfe des oben dargestellten Binomialkoeffizienten berechnen.Arbeitssparender lässt sie sich aber auch über entsprechende Funktionen in Tabellenkalkulations-programmen bestimmen (vgl. Tab. 7-30). 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 401 Die GleichverteilungDie Gleichverteilung, die auch als Rechtecksverteilung bezeichnet wird, ist eine stetige Verteilung, diewir am Beispiel der Wartezeit am Bahnsteig (vgl. Abb. 7-17) bereits kennen gelernt haben. Wir wollenihre Eigenschaften im Folgenden ausführlicher darstellen. Zur eindeutigen Charakterisierung einer Gleichverteilung benötigt man zwei Parameter, nämlich die untere Grenze ܺ௠௜௡ und die obere Grenzeܺ௠௔௫ der Zufallsvariable. Abb. 7-21 veranschaulicht die Dichte- und Verteilungsfunktion der Gleichver-teilung. Abb. 7-21: Dichte- und Verteilungsfunktion einer Gleichverteilung Die Dichtefunktion ݂(ܺ) und die Verteilungsfunktion ܨ(ܺ) lassen sich wie folgt darstellen: ݂(ܺ) = ۖەۖ۔ ۓ0 , wenn ܺ < ܺ௠௜௡ (7-32)1ܺ௠௔௫ − ܺ௠௜௡ , wenn ܺ௠௜௡ ≤ ܺ ≤ ܺ௠௔௫0 , wenn ܺ௠௔௫ < ܺ ܨ(ܺ) = ۖەۖ۔ ۓ0 , wenn ܺ < ܺ௠௜௡ (7-33)ܺ − ܺ௠௜௡ܺ௠௔௫ − ܺ௠௜௡ , wenn ܺ௠௜௡ ≤ ܺ ≤ ܺ௠௔௫1 , wenn ܺ௠௔௫ < ܺGrundsätzlich lassen sich der Erwartungswert und die Varianz bei Vorliegen einer Stichprobe gemäßden Gleichungen (7-5) und (7-9) bestimmen. Sind allerdings die Parameter ܺ௠௜௡ und ܺ௠௔௫, die dieGleichverteilung eindeutig definieren, bekannt, so sind Erwartungswert und Varianz auch wie folgt zuberechnen:ܧ(ܺ) = ܺ௠௜௡ + ܺ௠௔௫2 (7-34)ܸ(ܺ) = (ܺ௠௔௫ − ܺ௠௜௡)ଶ12 (7-35)Die Gleichverteilung ist nicht nur zur Abbildung realer Sachverhalte wichtig. Sie ist insbesondere auchdeshalb von Bedeutung, weil sich aus gleichverteilten Zufallszahlen über entsprechende Transformatio-nen Zufallszahlen anderer Verteilungen erzeugen lassen (vgl. Punkt 7.5.5). ݂(ܺ) ܺ ܺ ܨ(ܺ) ܺ௠௔௫ 1 ܺ௠௜௡ ܺ௠௔௫ܺ௠௜௡0 402 7 Querschnittsaufgabe Risikomanagement Die DreiecksverteilungZur Charakterisierung einer Dreiecksverteilung sind drei Parameter erforderlich: der kleinste Wertܺ௠௜௡, der größte Wert ܺ௠௔௫ und der Modus ܺ௠௢ௗ. Abb. 7-22 veranschaulicht die Dichte- und Verteilungs-funktion der Dreiecksverteilung. Beim Modalwert hat die Verteilungsfunktion ihren Wendepunkt. Abb. 7-22: Dichte- und Verteilungsfunktion einer Dreiecksverteilung Für die Dichtefunktion ݂(ܺ) und die Verteilungsfunktion ܨ(ܺ) gilt: ݂(ܺ) = ۖۖۖە ۖۖ۔ ۖۓ0 , wenn ܺ < ܺ௠௜௡ (7-36)2 ∙ (ܺ − ܺ௠௜௡)(ܺ௠௔௫ − ܺ௠௜௡) ∙ (ܺ௠௢ௗ − ܺ௠௜௡) , wenn ܺ௠௜௡ ≤ ܺ ≤ ܺ௠௢ௗ2 ∙ (ܺ௠௔௫ − ܺ)(ܺ௠௔௫ − ܺ௠௜௡) ∙ (ܺ௠௔௫ − ܺ௠௢ௗ) , wenn ܺ௠௢ௗ < ܺ ≤ ܺ௠௔௫0 , wenn ܺ௠௔௫ < ܺ ܨ(ܺ) = ۖۖۖە ۖۖ۔ ۖۓ0 , wenn ܺ < ܺ௠௜௡ (7-37)(ܺ − ܺ௠௜௡)ଶ(ܺ௠௔௫ − ܺ௠௜௡) ∙ (ܺ௠௢ௗ − ܺ௠௜௡) , wenn ܺ௠௜௡ ≤ ܺ ≤ ܺ௠௢ௗ(ܺ௠௔௫ − ܺ)ଶ(ܺ௠௔௫ − ܺ௠௜௡) ∙ (ܺ௠௔௫ − ܺ௠௢ௗ) , wenn ܺ௠௢ௗ < ܺ ≤ ܺ௠௔௫1 , wenn ܺ௠௔௫ < ܺ Aus einer Stichprobe lassen sich der Erwartungswert und die Varianz gemäß den Gleichungen (7-5) und(7-9) bestimmen. Kennt man die Parameter ܺ௠௜௡, ܺ௠௔௫ und ܺ௠௢ௗ, die die Dreiecksverteilung eindeutigdefinieren, sind Erwartungswert und Varianz auch wie folgt zu berechnen:ܧ(ܺ) = ܺ௠௜௡ + ܺ௠௢ௗ + ܺ௠௔௫3 (7-38)ܸ(ܺ) = (ܺ௠௔௫ − ܺ௠௜௡)ଶ − (ܺ௠௢ௗ − ܺ௠௜௡) ∙ (ܺ௠௔௫ − ܺ௠௢ௗ)18 (7-39) ܺܺ௠௜௡ ܺ௠௔௫ܺ௠௢ௗSymmetrisch Rechtsschief Linksschief ܺܺ௠௜௡ ܺ௠௔௫ܺ௠௢ௗ 1 ݂(ܺ) ܨ(ܺ) 0 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 403 Die Dreiecksverteilung ist insbesondere deshalb bedeutsam, weil sie über Befragungen vergleichsweiseleicht zu spezifizieren ist. Außerdem ist sie relativ flexibel, da sich in Abhängigkeit von der Lage des Mo-dus in Relation zum kleinsten und größten Wert eine symmetrische, rechtsschiefe oder linksschiefe Drei-ecksverteilung darstellen lässt. Dies bedingt aber gleichzeitig, dass eine Dreiecksverteilung durch ihrenErwartungswert und ihre Varianz nicht eindeutig charakterisierbar ist. Mit anderen Worten: Unterschied-lich schiefe Dreiecksverteilungen können einen gleichen Erwartungswert und eine gleicheVarianz aufweisen. Beispielsweise hat eine Dreiecksverteilung, die durch die Parameter ܺ௠௜௡ = −5,ܺ௠௔௫ = 5 und ܺ௠௢ௗ = 0 beschrieben werden kann, genauso einen Erwartungswert von Null und eine Va-rianz von 4,17 wie eine Dreiecksverteilung, für die gilt: ܺ௠௜௡ = −5,77 und ܺ௠௔௫ = ܺ௠௢ௗ = 2,89. Die NormalverteilungZur eindeutigen Charakterisierung einer Normalverteilung sind zwei Parameter erforderlich, nämlich derErwartungswert und die Varianz. Eine normalverteilte Zufallsvariable ܺ mit einem Erwartungswert ߤ undeiner Varianz ߪଶ wird oftmals als ܺ:ܰ(ߤ; ߪଶ) gekennzeichnet. Gelegentlich wird in der Kurzschreibweise aufdie Standardabweichung zurückgegriffen: ܺ: ܰ(ߤ; ߪ). Die Normalverteilung hat die Form der Gauß‘schen Glo-ckenkurve, weist also eine symmetrische, eingipflige Dichtefunktion auf (vgl. Abb. 7-23), die links- und rechts-seitig offen ist (−∞ ≤ ܺ ≤ ∞). Führt man linksseitig eine Untergrenze und/oder rechtsseitig eine Obergrenzeein, sprichtman von einer beschränkten oder gestutztenNormalverteilung.Grafisch gesprochen ist die Normalverteilung durch die Wahl des Erwartungswertes auf der „x-Achse“verschiebbar. Durch die Standardabweichung ist sie in der Breite beeinflussbar. An der Stelle ܺ = ߤ liegtdas Maximum der Dichtefunktion. An den Stellen ߤ − ߪ und ߤ + ߪ befinden sich ihre Wendepunkte.Für die Dichtefunktion ݂(ܺ) und die Verteilungsfunktion ܨ(ܺ) einer Normalverteilung gilt:݂(ܺ) = 1√2 ∙ ߨ ∙ ߪ ∙ ݁൤ିభమ∙ቀ೉షഋ഑ ቁమ൨ (7-40)ܨ(ܺ) = 1√2 ∙ ߨ ∙ ߪ ∙ න ݁൤ିభమ∙ቀ೉షഋ഑ ቁమ൨݀ܺ௑ିஶ (7-41)Der Erwartungswert und die Varianz einer Normalverteilung lassen sich aus einer Stichprobe gemäß denGleichungen (7-5) und (7-9) schätzen. Abb. 7-23: Dichte- und Verteilungsfunktion einer Normalverteilung ݂(ܺ) ܺߤ ܨ(ܺ) ܺReferenzverteilung Verteilung mit c.p. höheremErwartungswert Verteilung mit c.p.geringerer Varianz 1 0,5 ߤߤ + ߪߤ − ߪ 0 404 7 Querschnittsaufgabe Risikomanagement Bei einer Normalverteilung ist die Schiefe immer Null und die Wölbung weist einen Wert von 3 auf. Außer-dem gilt zwischen der Standardabweichung ߪ und der mittleren absoluten Abweichungܯܣܦ Folgendes:ܯܣܦ = ඥ2/ߨ ∙ ߪ (7-42)Der Normalverteilung kommt eine besondere Bedeutung zu, weil die Summe von mehreren Zufallsvariab-len beliebiger Verteilungen nach dem zentralen Grenzwertsatz (Central Limit Theorem) gegen eineNormalverteilung konvergiert. Genauer gesagt: Die Normalverteilung approximiert die Summe von ݊ Zu-fallsvariablen für ݊ → ∞. Intuition hierfür liefert ein Bernoulli-Experiment „݊-mal wiederholtes Werfeneiner idealen Münze“. Bei einer idealen Münze gelten für jeden Einzelwurf die Eintrittswahrscheinlichkei-ten ܲ = ܲ(ܭ݋݌݂) = 1 − ܲ = ܲ(ܼܽℎ݈) = 0,5. Wir bezeichnen die Anzahl von „Kopf“ beim wiederholtenWurf als Zufallsvariable ܺ und unterstellen, dass „Kopf“ mit einer Zahlung von 1 € und „Zahl“ mit einerZahlung von 0 € verbunden sei. Nun lässt sich bspw. fragen, wie hoch bei einer 10-maligen Wiederholungdie Wahrscheinlichkeit ist, einen Gesamtbetrag zwischen 4 € und 6 € zu erhalten.Die Wahrscheinlichkeit eines Betrags von weniger als 4 € lässt sich ausgehend von Gleichung (7-31) wiefolgt berechnen:ܲ(ܺ < 4) = ܲ(ܺ = 0) + ܲ(ܺ = 1) + ܲ(ܺ = 2) + ܲ(ܺ = 3)= ቆቀ100 ቁ + ቀ101 ቁ + ቀ102 ቁ + ቀ103 ቁቇ ∙ 0,5ଵ଴ = 0,1719 (7-43)Analog lässt sich die Wahrscheinlichkeit errechnen, einen Betrag vonmehr als 6 € zu erhalten:ܲ(ܺ > 6) = ܲ(ܺ = 10) + ܲ(ܺ = 9) + ܲ(ܺ = 8) + ܲ(ܺ = 7)= ቆቀ1010ቁ + ቀ109 ቁ + ቀ108 ቁ + ቀ107 ቁቇ ∙ 0,5ଵ଴ = 0,1719 (7-44)Die Wahrscheinlichkeit, einen Gesamtbetrag zwischen 4 € und 6 € zu erhalten, liegt damit bei 0,6563(= 1 − 0,1719 − 0,1719).Schauen wir nun, welches Ergebnis wir bekommen, wenn wir gemäß dem zentralen Grenzwertsatz dieNormalverteilung zur Approximation nutzen. Hierzu brauchen wir zunächst den Erwartungswert und dieVarianz für die Anzahl von „Kopf“ bei 10-maliger Wiederholung des Münzwurfexperiments. Ausgehendvon den Gleichungen (7-28) und (7-29) gilt:ܧ(ܺ = ܭ݋݌݂ = 1 €, 10) = 10 ∙ 0,5 = 5 (7-45)ܸ(ܺ = ܭ݋݌݂ = 1 €, 10) = 10 ∙ 0,5 ∙ 0,5 = 2,5 (7-46)Damit wissen wir, dass die Normalverteilung ܰ: (5; 2,5) für die Approximation zu nutzen ist. Da es sich beider Normalverteilung um eine stetige Verteilung handelt, liefert der Wert der Verteilungsfunktion an derStelle ܺ = 3,5 (Mitte zwischen 3 und 4) die beste Approximation für die in (7-43) exakt berechnete Wahr-scheinlichkeitssumme ܲ(ܺ = 0) + ܲ(ܺ = 1) + ܲ(ܺ = 2) + ܲ(ܺ = 3). Es gilt:ܨ(ܺ = 3,5) = 0,1714 (7-47)Die Approximation der Wahrscheinlichkeit von Zahlungen über 6 € ist analog an Stelle ܺ = 6,5 vorzu-nehmen. Es gilt:1 − ܨ(ܺ = 6,5) = 0,1714 (7-48)Damit ergibt sich für die Wahrscheinlichkeit eines Betrags zwischen 4 € und 6 € ein genauer Wert von0,6563 und ein approximierter Wert von 0,6572. Die Approximation ist also schon ziemlich gut:ܲ(4 ≤ ܺ ≤ 6) = 0,6563 ≈ ܨ(ܺ = 6,5) − ܨ(ܺ = 3,5) = 0,6572 (7-49)Allgemein gilt, dass die Güte der Approximation mit steigender Anzahl der Wiederholungen ݊ steigt. Beizwei gleichwahrscheinlichen Ausprägungen ܲ = 1 − ܲ = 0,5 approximiert die stetige Normalverteilung 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 405 die symmetrisch-diskrete Binomialverteilung bereits bei einer geringen Anzahl ݊ von Wiederholungen.Bei großen ݊ approximiert sie aber auch die Summe nicht-symmetrischer Verteilungen. In Abb. 7-24 istdies für eine Binomialverteilung mit ܲ = 0,3 verdeutlicht. Abb. 7-24: Die Annäherung der Binomialverteilung durch die Normalverteilung a) a) Binomialverteilung mit ܲ = 0,3.Neben der Approximation der Summe von Zufallsverteilungen weist die Normalverteilung günstige ma-thematische Eigenschaften auf. So ist es bspw. möglich, analytisch die gemeinsame Verteilung mehrerernormalverteilter Zufallsvariablen zu ermitteln (vgl. Punkt 7.5.3b). Die StandardnormalverteilungEin Blick auf Gleichung (7-41) zeigt, dass die Verteilungsfunktion der Normalverteilung ein komplexesIntegral ist. Deshalb erscheint es zunächst sehr aufwändig, die Wahrscheinlichkeit für Ergebnisse auf ei-nem konkreten Intervall zu berechnen, so wie sie bspw. für die oben dargestellte Approximation benötigtwurden. Man müsste das Integral jeweils neu lösen. Praktisch gesehen gibt es aber zwei einfache Möglich-keiten, dies zu umgehen: erstens die Nutzung von Tabellenwerken für die standardisierte Normalvertei-lung (Standardnormalverteilung), in denen die entsprechenden Wahrscheinlichkeiten ausgewiesensind; zweitens der Rückgriff auf Tabellenkalkulationsprogramme (vgl. Punkt 7.5.5), die die entsprechen-den Werte ohne großen Aufwand direkt ausgeben.Die standardisierte Normalverteilung hat einen Erwartungswert ߤ = 0 und eine Varianz ߪଶ = 1. Mankönnte auch formulieren: ܺ:ܰ(0; 1). Auf diese Standardnormalverteilung lassen sich alle Normalvertei-lungen transformieren. Dazu wird die betrachtete Normalverteilung zunächst so verschoben, dass dasMaximum ihrer Dichtefunktion im Nullpunkt liegt. Außerdem wird sie so gestreckt oder gestaucht, dassdie Standardabweichung 1 beträgt. Die Werte einer normalverteilten Zufallsvariable kann man durch fol-gende Formel in Werte einer standardnormalverteilten Zufallsvariable transformieren:ܿ௜ = ݔ௜ − ߤߪ ⇔ ݔ௜ = ܿ௜ ∙ ߪ + ߤ (7-50)Hier kennzeichnet ߤ den Erwartungswert, ߪ die Standardabweichung und ݔ௜ eine beliebige Realisation dernormalverteilten Zufallsvariablen. Das Symbol ܿ௜ bezeichnet die äquivalente Ausprägung der standard-normalverteilten Zufallsvariablen. Weil anstelle von ܿ௜ häufig das Symbol „z“ genutzt wird, ist die Trans-formation in der Literatur auch unter der Kurzbezeichnung „z-Transformation“ geläufig.Tab. 7-20 beschreibt die Verteilungsfunktion der Standardnormalverteilung „rechts von der Mitte“: imWertebereich von 0,00 bis 2,99 wird für Intervallabstände von 0,01 die kumulierte Dichte ausgewiesen. 0,49 n = 2݂(ܺ) ܺ0 ݂(ܺ) ܺ02 n = 10 n = 20݂(ܺ) ܺ010 20 0,27 0,19 00 0 406 7 Querschnittsaufgabe Risikomanagement Tab. 7-20: Verteilungsfunktion der Standardnormalverteilung im Intervall −∞ bis ܿ௜ a)ܿ௜ 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359 0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879 0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224 0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549 0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133 0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389 1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621 1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830 1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015 1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441 1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767 2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817 2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857 2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890 2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952 2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964 2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974 2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981 2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986a) In der ersten Spalte finden sich die Ziffern vor dem Komma sowie die erste Nachkommastelle der je-weiligen Ausprägung. Der ersten Zeile ist die zweite Nachkommastelle zu entnehmen.Auf der Grundlage von Tab. 7-20 können folgende Auswertungen vorgenommen werden: • Man kann die Wahrscheinlichkeit bestimmen, mit der eine standardnormalverteilte Zufallsvariableeinen vorgegebenen Quantilwert unter- oder überschreitet. So beträgt bspw. das LPM-Maß der Ord-nung Null bzw. die Wahrscheinlichkeit, dass der Wert ܿ௜ = 2,00 unterschritten wird, 97,72%. Dies istgleichbedeutend mit der Aussage, dass mit 2,28%iger Wahrscheinlichkeit (= 1 − 0,9772) der Wertܿ௜ = 2,00 überschritten wird (vgl. Abb. 7-25, obere Hälfte). • Man kann die Quantilwerte bestimmen, die sich für eine standardnormalverteilte Zufallsvariable beivorgegebenen Wahrscheinlichkeiten ergeben. Zum Beispiel liegt der Quantilwert für das 84,13%-Quantil bei ܿ௜ = 1,00 (= ߪ). Aufgrund der Symmetrie liegt der Quantilwert für das 15,87%-Quantil(= 1 − 0,8413) bei ܿ௜ = −1,00 (= −ߪ). Es sind also 84,13% aller Realisationen kleiner als 1 und15,87% aller Realisationen kleiner als -1. Anders gesagt: 68,26% (= 1 − 2 ∙ 0,1587) liegen im Intervallߤ ± ߪ (vgl. Abb. 7-25, untere Hälfte). 7.4 Wahrscheinlichkeitstheoretische Grundlagen quantitativer Risikoanalysen 407 Abb. 7-25: Grafische Darstellung der Dichtefunktion (links) und der Verteilungsfunktion (rechts) einer standardnormalverteilten Zufallsvariablen Die Informationen aus dem Tabellenwerk für die Standardnormalverteilung (vgl. Tab. 7-20) können fürjede Normalverteilung genutzt werden. Hierzu sind unter Rückgriff auf Gleichung (7-50) die Werte derjeweils betrachteten Verteilung in die Werte der Standardnormalverteilung zu transformieren (und viceversa). Damit lassen sich bspw. folgende Fragen beantworten: • Wie hoch ist die Wahrscheinlichkeit, mit der eine normalverteilte Zufallsvariable mit einem Erwar-tungswert ߤ = 100 und einer Standardabweichung ߪ = 20 einen Wert in Höhe von 130 unterschrei-tet? Die normalverteilte Zufallsvariable könnte der Cash-Flow eines schlechten Unternehmens sein.Der Wert in Höhe von 130 könnte den eingegangenen Kapitaldienstverpflichtungen entsprechen. Manbestimmt unter Rückgriff auf Gleichung (7-50) zunächst die zu ݔ௜ = 130 äquivalente standardnormal-verteilte Zufallsvariable ܿ௜ = 1,50. Dann entnimmt man der Tab. 7-20 die kumulierte Dichte für dieseAusprägung: ܨ(1,50) = 0,9332. Die standardnormalverteilte Zufallsvariable ist mit 93,32%igerWahrscheinlichkeit kleiner als 1,50. Die entsprechende normalverteilte Zufallsvariable ist mit93,32%iger Wahrscheinlichkeit (im Beispiel: Insolvenzwahrscheinlichkeit) kleiner als 130. • Wie hoch ist die Wahrscheinlichkeit, dass diese Zufallsvariable den Wert ݔ௜ = 70 unterschreitet? Manbestimmt unter Rückgriff auf Gleichung (7-50) zunächst ܿ௜ = −1,50 und entnimmt der Tab. 7-20 diekumulierte Dichte ܨ(1,50) = 0,9332. Die gesuchte Wahrscheinlichkeit beträgt 6,68% (= 1 − 0,9332). • Wie hoch ist der Wert für das 75%-Quantil einer Normalverteilung mit Erwartungswert ߤ = 100 undStandardabweichung ߪ = 20? Man sucht in der Tab. 7-20 die kumulierte Dichte von 75% auf und kannܿ௜ = 0,67 ablesen. Transformiert man diesen Wert gemäß Gleichung (7-50) in den Wert der betrachte-ten Normalverteilung ergibt sich für das 75%-Quantil ein Quantilwert von 113,4 (= 0,67 ∙ 20 + 100).Bei der normalverteilten Zufallsvariablen mit einem Erwartungswert von ߤ = 100 und einer Standard-abweichung von ߪ = 20 unterschreiten also 75% der Realisationen denWert ݔ௜ = 113,4. 0,1587 ܿ ܿ ܨ(ܿ) 1 1 0,5 0,8413 0,5 0,9772 ܨ(ܿ) ܿ ܿ ݂(ܿ) 97,72% 2,28% 1 68,26% ݂(ܿ) 15,87%15,87% 0-1 10-1 0 20 2 408 7 Querschnittsaufgabe Risikomanagement • Wie hoch ist der Wert für das 25%-Quantil dieser Verteilung? Man sucht in der Tab. 7-20 die Wahr-scheinlichkeit von 75% auf und liest ܿ௜ = 0,67 ab. Da nicht das 75%-Quantil, sondern das 25%-Quantilgesucht ist, beträgt der relevante Wert der Standardnormalverteilung −0,67. Transformiert man die-sen Wert gemäß Gleichung (7-50) in den Wert der betrachteten Normalverteilung, ergibt sich für das25%-Quantil der Normalverteilung ein Quantilwert von 86,6 (= −0,67 ∙ 20 + 100). 7.5 Quantitative RisikoanalyseIm Folgenden erläutern wir in Punkt 7.5.1 zunächst die grundsätzliche Herangehensweise der Risikoanalyse.In Punkt 7.5.2 gehen wir darauf ein, wie man durch statistische Analysen Verteilungsinformationen aus ei-nem vorgegebenen Datenmaterial „extrahiert“. Diese Ausführungen sind bewusst auf ein Minimum be-schränkt. Sie sollen ein Verständnis dafür schaffen, wie man grundsätzlich an die statistische Quantifizierungvon Risiko herangeht, ersetzen aber kein statistisches Lehrbuch. In den folgenden, entscheidungstheoretischausgerichteten Abschnitten dieses Kapitels nehmen wir an, dass die Verteilungen bekannt sind. Anders ge-sagt: Wir gehen in den Modellrechnungen davon aus, dass die Verteilungsparameter der modellrelevantenZufallsvariablen bereits zuverlässig geschätzt wurden. In Punkt 7.5.3 zeigen wir, wie man ausgehend vonden Verteilungsinformationen einzelner Zufallsvariablen (z.B. der Einzeldeckungsbeiträge verschiedenerProduktionsverfahren) die Verteilung einer aggregierten Zielgröße (z.B. des Gesamtdeckungsbeitrags) be-stimmen kann. In Punkt 7.5.5 wird schließlich auf die Nutzung von Tabellenkalkulationsprogrammen bei derRisikoanalyse eingegangen. 7.5.1 Grundsätzliche VorgehensweiseGegenstand jeglicher modellbasierten Risikoanalysen ist es, die Wahrscheinlichkeitsverteilung der rele-vanten Zielgröße (vgl. Punkt 7.2.1d) zu bestimmen, die sich bei unterschiedlichen Risikomanagementstra-tegien ergibt. Dabei gehen die Verteilungen der einzelnen Risikofaktoren (Zufallsvariablen) und ihre Kor-relationen als Informationsinput in ein stochastisches Modell ein. Das stochastische Modell bildet formalab, wie sich die Zielgröße (z.B. Gesamtdeckungsbeitrag) aus den einzelnen Zufallsvariablen (z.B. Kosten,Erträge, Preise) und den Entscheidungsvariablen (z.B. Umfänge der Produktionsverfahren) ergibt. Eshandelt sich um ein stochastisches Modell, da als Informationsoutput nicht nur der Erwartungswert derZielgröße berechnet wird, sondern ihre Wahrscheinlichkeitsverteilung, die man auch als Risikoprofil be-zeichnet. Zur Berechnung des Risikoprofils stehen verschiedene Methoden zur Verfügung: die historischeSimulation, die Varianz-Kovarianz-Methode und die stochastische Simulation. Abb. 7-26 verdeutlicht die Grundstruktur eines Modells zur Risikoanalyse. Abb. 7-26: Grundsätzlicher Aufbau eines stochastischen Modells StochastischesModell Verteilung derZielgröße(Risikoprofil) Korrela tionenz wischen den Zufallsv ariablen VerteilungZufallsvariable ܺଵVerteilungZufallsvariable ܺଶ:VerteilungZufallsvariable ܺ௞ Informationsinput Informationsoutput

Chapter Preview

References

Zusammenfassung

Gemäß dem Motto „Nichts ist praktischer als eine gute Theorie“ geht es im vorliegenden Lehrbuch darum, Studierenden und Praktikern beim Erwerb analytischer Fähigkeiten und einer problemlösungsorientierten Methodenkompetenz zu helfen.

Für die Unternehmen der Agrar- und Ernährungswirtschaft haben sich die wirtschaftlichen Rahmenbedingungen in den letzten Jahren stark verändert. Insbesondere der Wettbewerbsdruck und das unternehmerische Risiko sind infolge der Liberalisierung der Agrarmärkte und des Klimawandels angestiegen. Hinzu kommen ein laufender Anpassungsdruck an veränderte Verbraucherwünsche, neue gesellschaftliche Anforderungen sowie eine zunehmende Verflechtung zwischen den verschiedenen Stufen der Wertschöpfungskette. Das vorliegende Lehrbuch trägt diesen Entwicklungen durch die Fokussierung auf die praktische unternehmerische Entscheidungsunterstützung unter Risiko Rechnung.

Dieses Buch schafft zum einen das theoretisch-konzeptionelle Verständnis für die grundlegenden ökonomischen Strukturen der wichtigsten unternehmerischen Entscheidungsanlässe. Zum anderen vermittelt es das handwerkliche Können im Umgang mit betriebswirtschaftlichen Analyse- und Planungsinstrumenten, über das Manager in einer unsicheren Unternehmensumwelt verfügen müssen, um erfolgreiche Entscheidungen fällen zu können.

Aus dem Inhalt:

• Grundlagen und Ziele unternehmerischen Entscheidens

• Kontrolle und Analyse

• Produktionstheorie

• Produktionsprogrammplanung

• Investitionsplanung und Finanzierung

• Querschnittsaufgabe Risikomanagement

• Bewertung und Taxation

• Corporate Social Responsibility

Über die Autoren:

Prof. Dr. Oliver Mußhoff leitet den Arbeitsbereich für Landwirtschaftliche Betriebslehre am Department für Agrarökonomie und Rurale Entwicklung der Georg-August-Universität Göttingen.

Prof. Dr. Norbert Hirschauer ist Inhaber der Professur für Unternehmensführung im Agribusiness am Institut für Agrar- und Ernährungswissenschaften der Martin-Luther-Universität Halle-Wittenberg.

(Logo Vahlens Online Materialien)

Für Dozenten steht auf der Website ein auf das Buch abgestimmter Foliensatz mit den Abbildungen und Tabellen des Buches zur Verfügung. Für Studierende sind Übungsaufgaben formuliert.