Content

7.5 Quantitative Risikoanalyse in:

Norbert Hirschauer, Oliver Mußhoff

Modernes Agrarmanagement, page 417 - 440

Betriebswirtschaftliche Analyse- und Planungsverfahren

3. Edition 2013, ISBN print: 978-3-8006-4743-9, ISBN online: 978-3-8006-4457-5, https://doi.org/10.15358/9783800644575_417

Bibliographic information
408 7 Querschnittsaufgabe Risikomanagement • Wie hoch ist der Wert für das 25%-Quantil dieser Verteilung? Man sucht in der Tab. 7-20 die Wahr-scheinlichkeit von 75% auf und liest ܿ௜ = 0,67 ab. Da nicht das 75%-Quantil, sondern das 25%-Quantilgesucht ist, beträgt der relevante Wert der Standardnormalverteilung −0,67. Transformiert man die-sen Wert gemäß Gleichung (7-50) in den Wert der betrachteten Normalverteilung, ergibt sich für das25%-Quantil der Normalverteilung ein Quantilwert von 86,6 (= −0,67 ∙ 20 + 100). 7.5 Quantitative RisikoanalyseIm Folgenden erläutern wir in Punkt 7.5.1 zunächst die grundsätzliche Herangehensweise der Risikoanalyse.In Punkt 7.5.2 gehen wir darauf ein, wie man durch statistische Analysen Verteilungsinformationen aus ei-nem vorgegebenen Datenmaterial „extrahiert“. Diese Ausführungen sind bewusst auf ein Minimum be-schränkt. Sie sollen ein Verständnis dafür schaffen, wie man grundsätzlich an die statistische Quantifizierungvon Risiko herangeht, ersetzen aber kein statistisches Lehrbuch. In den folgenden, entscheidungstheoretischausgerichteten Abschnitten dieses Kapitels nehmen wir an, dass die Verteilungen bekannt sind. Anders ge-sagt: Wir gehen in den Modellrechnungen davon aus, dass die Verteilungsparameter der modellrelevantenZufallsvariablen bereits zuverlässig geschätzt wurden. In Punkt 7.5.3 zeigen wir, wie man ausgehend vonden Verteilungsinformationen einzelner Zufallsvariablen (z.B. der Einzeldeckungsbeiträge verschiedenerProduktionsverfahren) die Verteilung einer aggregierten Zielgröße (z.B. des Gesamtdeckungsbeitrags) be-stimmen kann. In Punkt 7.5.5 wird schließlich auf die Nutzung von Tabellenkalkulationsprogrammen bei derRisikoanalyse eingegangen. 7.5.1 Grundsätzliche VorgehensweiseGegenstand jeglicher modellbasierten Risikoanalysen ist es, die Wahrscheinlichkeitsverteilung der rele-vanten Zielgröße (vgl. Punkt 7.2.1d) zu bestimmen, die sich bei unterschiedlichen Risikomanagementstra-tegien ergibt. Dabei gehen die Verteilungen der einzelnen Risikofaktoren (Zufallsvariablen) und ihre Kor-relationen als Informationsinput in ein stochastisches Modell ein. Das stochastische Modell bildet formalab, wie sich die Zielgröße (z.B. Gesamtdeckungsbeitrag) aus den einzelnen Zufallsvariablen (z.B. Kosten,Erträge, Preise) und den Entscheidungsvariablen (z.B. Umfänge der Produktionsverfahren) ergibt. Eshandelt sich um ein stochastisches Modell, da als Informationsoutput nicht nur der Erwartungswert derZielgröße berechnet wird, sondern ihre Wahrscheinlichkeitsverteilung, die man auch als Risikoprofil be-zeichnet. Zur Berechnung des Risikoprofils stehen verschiedene Methoden zur Verfügung: die historischeSimulation, die Varianz-Kovarianz-Methode und die stochastische Simulation. Abb. 7-26 verdeutlicht die Grundstruktur eines Modells zur Risikoanalyse. Abb. 7-26: Grundsätzlicher Aufbau eines stochastischen Modells StochastischesModell Verteilung derZielgröße(Risikoprofil) Korrela tionenz wischen den Zufallsv ariablen VerteilungZufallsvariable ܺଵVerteilungZufallsvariable ܺଶ:VerteilungZufallsvariable ܺ௞ Informationsinput Informationsoutput 7.5 Quantitative Risikoanalyse 409 Statt des Risikoprofils der relevanten Zielgröße spricht man auch vom Risikoprofil der analysiertenEntscheidung, da man neben dem Erwartungswert die Information bekommt, mit welcher Wahrschein-lichkeit der Kapitalwert (der Gesamtdeckungsbeitrag, der Gewinn etc.) unterhalb oder oberhalb be-stimmter Werte liegt. Eine eindeutige Handlungsempfehlung ist mit Hilfe eines Risikoprofils in aller Re-gel nicht möglich. Zwar werden die Auswirkungen der betrachteten Entscheidung auf den Erwartungs-wert und die Streuung abgebildet, die subjektive Bewertung des Risikos in Form der von individuellenEntscheidern geforderten Risikoprämie ist aber noch nicht in das Modell eingeflossen. Bis auf eindeutigdominierte Fälle (vgl. Abschnitt 2.2) ist für eine zieladäquate Entscheidungsunterstützung deshalb zu-sätzlich ein Entscheidungsmodell erforderlich, in dem die individuelle Risikoeinstellung berücksichtigtund der Nutzen unterschiedlich riskanter Alternativen bestimmt wird (modellendogene Handlungs-empfehlung). Ist die Risikoeinstellung nicht bekannt, stellt das Risikoprofil lediglich eine erste Hilfestel-lung für Entscheidungen dar, die ohne modellbasierte Handlungsempfehlung getroffen werden müssen.Dies bedeutet, dass der Entscheider auf der Grundlage des Risikoprofils „außerhalb des Modells“ (mo-dellexogen) bestimmt, ob er die ermittelte Verteilung bei der gegenwärtigen Betriebsorganisation ak-zeptiert oder ob er (zusätzliche) risikoreduzierende Maßnahmen ergreifen will.Zum Verständnis der allgemein gehaltenen Darstellung in Abb. 7-26 sei Folgendes betont: Erstens, die Artdes grundsätzlichen Planungsanlasses bestimmt, wie das stochastische Modell strukturiert ist und welchesdie relevante und adäquate Zielgröße des Modells ist, mit der die Entscheidung beurteilt wird. Beispielefür Planungsanlässe sind die Festlegung des Produktionsprogramms oder Investitionsfragen. Die entspre-chenden Zielgrößen sind der Gesamtdeckungsbeitrag des Produktionsprogramms bzw. der Kapitalwert beiInvestitionsentscheidungen. Zweitens, beim jeweiligen Planungsanlass gibt es konkrete Handlungsalterna-tiven, die jeweils zu unterschiedlichen Risikoprofilen der relevanten Zielgröße führen. Betrachtet man die-se Handlungsalternativen gezielt mit Blick auf die Risikowirkung, spricht man von Risikomanagementstra-tegien. So kann man z.B. unterschiedlich stark diversifizierte Produktionsprogramme umsetzen oder zu-sätzlich Versicherungen abschließen. Wählt man bspw. die Variante mit Versicherung, dann ist die Streu-ung der Zielgröße und der Erwartungswert kleiner als in einer Situation ohne Versicherung (vgl.Abb. 7-27). Durch eine Risikoanalyse, die einen Mit-Ohne-Vergleich beinhaltet, kann man also den Tradeoff zwischen dem Erwartungswert und der Streuung der Zielgröße veranschaulichen. Man könnte auchumgekehrt formulieren: Ein Vergleich verschieden riskanter Risikomanagementstrategien gibt Auskunftdarüber, wie hoch die Entlohnung (d.h. die Erhöhung des Erwartungswertes der Zielgröße) für die Über-nahme von mehr Risiko (d.h. die Erhöhung der Streuung der Zielgröße) ist. Abb. 7-27: Risikoprofil mit und ohne Risikomanagementinstrument݂(ܩܦܤ) ܩܦܤ ܨ(ܩܦܤ) ܩܦܤ Verteilung ohne Risiko-managementinstrument Verteilung mit Risiko-managementinstrument 1 0,5 ߤ௢௛௡௘ ߤ௢௛௡௘ߤ௠௜௧ ߤ௠௜௧0 410 7 Querschnittsaufgabe Risikomanagement 7.5.2 Identifizierung adäquater VerteilungsannahmenDie zentrale Voraussetzung jeder Risikoanalyse ist die Schätzung adäquater Verteilungen. Dabei geht eskurz gesagt darum, die plausibelsten Planannahmen bzgl. der zukünftigen Verteilungen unsicherer Einflussgrößen (Preise, Erträge etc.) zu treffen. Neben der Gewinnung von subjektiven Wahrscheinlich-keiten über qualitative Prognoseverfahren (z.B. durch Expertenbefragungen) greift man hierfür in allerRegel auf datenbasierte Verfahren zurück. Datenbasierte Verfahren führen zu sog. objektiven Verteilungs-informationen. „Objektiv“ bedeutet in diesem Zusammenhang, dass intersubjektiv nachvollziehbar ist, auswelchem Datenmaterial und durch welche Analyseschritte die Verteilungsannahmen der Zufallsvariablenabgeleitet worden sind. Hierfür gibt es grundsätzlich unterschiedliche methodische Ansätze, die im Fol-genden kurz erläutert werden. Schätzung „statischer“ Verteilungen vs. ZeitreihenanalysenBei der „naiven“ Schätzung statischer Verteilungen wird die Häufigkeitsverteilung einer Stichprobe sta-tistisch analysiert. Dabei unterstellt man a priori zeitinvariante Verteilungen. Man geht also davon aus,dass sich die Momente der Verteilung einer Zufallsvariable im Zeitablauf nicht ändern. Dies kann in man-chen Fällen eine plausible Annahme sein. Ein Beispiel ist, wenn eine Versicherung den Erwartungswertund die Streuung von Brandschäden für die nächste Periode aus Querschnittsdaten der aktuellen Periodeableitet. Bei der Schätzung statischer Verteilungen unterstellt man von vornherein, dass der arithmetischeMittelwert der beobachteten Werte den Erwartungswert der Verteilung bildet, d.h. alleBeobachtungswerte werden gleich gewichtet. Für die Identifizierung der plausibelsten statischen Ver-teilung gibt es verschiedene statistische Tests, wie z.B. den Chi-Quadrat-, den Kolmogorov-Smirnov- undden Anderson-Darling-Test. Man prüft mit diesen Tests, ob der Unterschied zwischen (1) der (empiri-schen) Verteilung der Beobachtungswerte und (2) einer bestimmten parametrischen (theoretischen)Verteilung, wie z.B. der Normalverteilung oder der Dreiecksverteilung, bei vorgegebener Signifikanzhinreichend klein ist. Führt man sie für verschiedene Verteilungen durch, kann die am besten zu einerempirischen Verteilung passende theoretische Verteilung bestimmt werden. Insbesondere der Chi-Quadrat-Test ist nicht für kleine Stichprobengrößen geeignet. Zur Durchführung der statistischen Testskann man kommerziell erhältliche Software nutzen (z.B. das MS-EXCEL-Add-In @RISK von Palisade). Da-rüber hinaus ist zu beachten, dass die Ergebnisse der statistischen Analyse um inhaltliche Überlegungenergänzt werden müssen. Beispielsweise können Preise nicht negativ werden, so dass es sinnvoll sein kann,von vornherein Verteilungen auszuschließen, die einen Vorzeichenwechsel zulassen.Eine naive statistische Schätzung statischer Verteilungen ist immer dann inadäquat, wenn es sich bei denBeobachtungswerten um eine Zeitreihe mit einem systematischen zeitlichen Entwicklungsmuster, wie z.B.einem langfristigen Trend, saisonalen Schwankungen o.ä., handelt. Ein einfaches Beispiel ist eine langjäh-rige Ertragszeitreihe für Weizen. Beim Weizen ist es durch den Züchtungsfortschritt in den letzten Jahr-zehnten zu einer kontinuierlichen Erhöhung des Ertragsniveaus gekommen. Wenn man dies im Rahmender Schätzung einer statischen Verteilung vernachlässigt und einfach den Mittelwert der Beobachtungs-werte der letzten Jahrzehnte mit dem zukünftig zu erwartenden Weizenertrag gleichsetzt, trifft man eineunsinnige Planannahme. Hier setzen sog. Zeitreihenanalysen an. Sie berücksichtigen, dass man es mögli-cherweise mit zeitvarianten Verteilungen zu tun hat. Das heißt, sie sind ergebnisoffen mit Blick auf einedynamische Entwicklung von Zufallsvariablen über der Zeit und beschreiben die Verteilungen der Folge-perioden allgemein als Funktion der in den Vorperioden beobachteten Werte. Den solchermaßen spezifi-zierten funktionalen Zusammenhang bezeichnet man als stochastischen Prozess oder Zeitreihenmodell.Abb. 7-28 verdeutlicht den Unterschied zwischen den beiden Vorgehensweisen anhand eines Beispiels miteiner stilisierten Zeitreihe von Weizenertragsdaten, die neben der aktuellen Beobachtung in ݐ = 0 vier zu-rückliegende Beobachtungswerte umfasst. Der Einfachheit halber nehmen wir zunächst auf der linken Sei-te der Abbildung an, dass die Erträge um einen konstanten Betrag pro Jahr angestiegen sind. Bei einer sta- 7.5 Quantitative Risikoanalyse 411 tischen Herangehensweise werden alle beobachteten Werte gleich gewichtet und der Mittelwert der beo-bachteten Daten als Erwartungswert interpretiert. Sämtliche Abweichungen vom Mittelwert werden alsStreuung verstanden. Infolgedessen kommt es zu der mit A bezeichneten Schätzung der Ertragsverteilungfür das nächste Jahr. Offensichtlich liefert eine derartige Schätzung weder eine sinnvolle Annahme für denzu erwartenden Ertrag noch für die Ertragsstreuung; es sei denn, man hat anderweitige, d.h. außerhalbder Zeitreihe liegende Informationen darüber, dass gerade diese Verteilung zutrifft.Grundsätzlich anders wird bei der Schätzung stochastischer Prozesse vorgegangen. Hier wird nach demZeitreihenmodell gesucht, das den Folgewert bestmöglich als Funktion der vorher beobachteten Wertebeschreibt. Infolgedessen kommt es zu der mit B bezeichneten Schätzung für das nächste Jahr. Da im vor-liegenden Fall in der Vergangenheit ohne jegliche Streuung ein konstanter Anstieg pro Jahr beobachtetwurde, besteht das adäquate Zeitreihenmodell nur aus einer systematisch erklärbaren Komponente:Wert in der Folgeperiode = systematische Komponente = Wert der Vorperiode + Konstante (7-51) Abb. 7-28: Schätzung statischer Verteilungen vs. Schätzung stochastischer Prozesse Etwas realitätsnaher sieht es auf der rechten Seite der Abb. 7-28 aus. Auch hier weisen die Ertragsdatenüber der Zeit eine steigende Tendenz (Trend) auf. Allerdings kommt es in einzelnen Jahren auch zuAbweichungen von diesem allgemeinen Trend. Wir haben die Zeitreihe aus didaktischen Gründen so kon-struiert, dass es im Jahr ݐ = −3 zu einer negativen Abweichung und im Jahr ݐ = −1 zu einer betragsmäßiggleich hohen positiven Abweichung vom Trend kommt. Bei dieser Datenkonstellation bleiben bei beidenVerfahren die jeweiligen Prognosewerte unverändert. Bei der Schätzung statischer Verteilungen ergebensich weiterhin unsinnige Werte, und zwar sowohl für den zu erwartenden Ertrag als auch für seine Va-rianz. Bei der Verwendung stochastischer Prozesse wird hingegen weiterhin der „richtige“ Erwartungs-wert geschätzt. Zudem wird nur die Abweichung von der systematischen Komponente, die den über dieGerade ausgedrückten erklärbaren Teil der Datenvariation darstellt, als Streuung interpretiert. Dement-sprechend geringer ist die geschätzte Varianz. Das adäquate Zeitreihenmodell für den rechts dargestelltenFall hat nun die allgemeine Grundstruktur aller stochastischen Prozesse:Wert in der Folgeperiode = systematische Komponente + Zufallskomponente (7-52) Weizenertrag Zeit Beobachtete Werte 10-1-2-3-4 Vorhersage durch Schätzungstatischer Verteilungen Vorhersage durch Schätzungstochastischer Prozesse Weizenertrag Zeit10-1-2-3-4 A B A B a) Variable ohne Streuung, mit Trend b) Variable mit Streuung, mit Trend 412 7 Querschnittsaufgabe Risikomanagement Mit der systematischen Komponente wird - ganz allgemein gesprochen - der Variationsanteil einer Zeit-reihe erfasst, der eine statistisch identifizierbare Struktur, d.h. ein systematisch erklärbares zeitlichesEntwicklungsmuster aufweist. Die Abweichungen der Zeitreihe vom erklärbaren Teil werden durch dieZufallskomponente erfasst. Diese Zufallskomponente stellt oftmals eine Normalverteilung dar, die einenErwartungswert von Null hat und deren Varianz vom Ausmaß der unerklärten Abweichungen abhängt. Der arithmetische Brownsche Prozess als Beispiel für ein ZeitreihenmodellEs gibt sowohl lineare als auch nicht-lineare stochastische Prozesse. In vielen Fällen begrenzt man sich beider Analyse aber aus pragmatischen Gründen auf lineare stochastische Prozesse, deren unterschiedli-che Ausformungen auch unter dem Überbegriff AutoRegressive-Integrierte-Moving-Average-Modelle(ARIMA) zusammengefasst werden. Zur Identifizierung des am besten zu einer Zeitreihe passenden (line-aren) stochastischen Prozesses gibt es statistische Verfahren (z.B. die Box-Jenkins-Testprozedur). Obwohlwir hier nicht auf statistische Details eingehen können, beschreiben wir im Folgenden einen ausgewähltenlinearen stochastischen Prozess, nämlich den arithmetischen Brownschen Prozess. Dies erfolgt mit demZiel, etwas Intuition für die allgemeine Funktionsweise von stochastischen Prozessen zu schaffen.Der arithmetische Brownsche Prozess (ABP) ist ein spezieller ARIMA-Prozess. Er besitzt die Markov-Eigenschaft, d.h. die Wahrscheinlichkeitsverteilung für den zukünftigen Wert der Zufallsvariable hängtausschließlich vom letzten Beobachtungswert ab. Die Wertänderungen dieses Prozesses sind normalver-teilt, mit einer Standardabweichung, die mit der Quadratwurzel der Zeit anwächst („Square-Root-Regel“).Weil ein ABP beliebig „driften“ kann, stellt er einen sog. nicht-stationären stochastischen Prozess dar.Außerdem ist zu beachten, dass bei einem ABP auch negative Werte für die stochastische Variable möglichsind. Deshalb ist er für die Beschreibung der Wertentwicklung von Preisen ungeeignet. Für Cash-Flowskann der ABP aber plausibel sein.Es gibt - wie für viele stochastische Prozesse - drei Darstellungsformen des ABP: (1) Die zustands- undzeitstetige Version, die insbesondere für algebraische Berechnungen relevant ist, (2) die zustandsstetigeund zeitdiskrete Version, die die Grundlage einer stochastischen Simulation des Prozesses bildet (vgl.Punkt 7.5.3c), und (3) die zustands- und zeitdiskrete Version, die für Entscheidungsbäume von Bedeutungist (vgl. Abschnitt 7.7).Die zustands- und zeitstetige Version des ABP stellt eine stochastische Differenzialgleichung dar, diewie folgt aussieht:݀ܺ௧ = ܺ௧ − ܺ௧ିௗ௧ = ߙ ∙ ݀ݐ + ߪ ∙ √݀ݐ ∙ ߝ௧ (7-53)Die Drift ߙ bestimmt die systematische Komponente des Prozesses, die einer absoluten Änderung der sto-chastischen Variable ܺ entspricht. Die erwartete Wertänderung ߙ ∙ ݀ݐ innerhalb eines Zeitintervalls ݀ݐ istunabhängig vom Niveau der stochastischen Variable. Sie wird von einem Zufallsterm überlagert, der demProdukt aus der Standardabweichung ߪ, der Quadratwurzel der Zeit und einer standardnormalverteiltenStörvariable ߝ௧ entspricht. Das Symbol ݐ kennzeichnet den Betrachtungszeitpunkt.Die zustandsstetige und zeitdiskrete Version des ABP ist wie folgt definiert:Δܺ௧ = ܺ௧ − ܺ௧ି∆௧ = ߙ ∙ ∆ݐ + ߪ ∙ √∆ݐ ∙ ߝ௧⇔ ܺ௧ = ܺ௧ି∆௧ + ߙ ∙ ∆ݐ + ߪ ∙ √∆ݐ ∙ ߝ௧ (7-54)Da der Erwartungswert einer standardnormalverteilten Zufallszahl Null ist, lässt sich die Verteilung derZufallsvariable ܺ௧ wie folgt beschreiben: ܺ௧: ܰ൫ܺ௧ି∆௧ + ߙ ∙ ∆ݐ; ߪ ∙ √∆ݐ൯. Es handelt sich also um eineNormalverteilung mit einem Erwartungswert ܧ(ܺ௧) = ܺ௧ି∆௧ + ߙ ∙ ∆ݐ und einer Standardabweichungߪ ∙ √∆ݐ.Ausgangspunkt der zustands- und zeitdiskreten Version des ABP ist weiterhin die Diskretisierung derZeit. Das heißt, der gesamte Betrachtungszeitraum ܶ, über den die Zufallsvariable beschrieben werden 7.5 Quantitative Risikoanalyse 413 soll, wird in kleine Zeitintervalle mit einer Länge ∆ݐ unterteilt. Zur Annahme, dass sich der Wert der sto-chastischen Variable nur am Ende einer Periode ändert (zeitdiskret), kommt nun die Annahme hinzu, dassdie Zufallsvariable nur bestimmte (zustandsdiskrete) Werte annehmen kann. Im einfachsten Fall wird un-terstellt, dass - ausgehend von ܺ௧ି∆௧ - im Zeitpunkt ݐ nur zwei Werte möglich sind: ܺ௧ି∆௧ steigt um einenbestimmten absoluten Betrag ℎ (high) auf ܺ௧௛ oder fällt um einen Betrag ݈ (low) auf ܺ௧௟ . Man spricht indiesem Zusammenhang auch von einem additiven binomialen Prozess.Die beiden Werte, um welche die Zufallsvariable steigt bzw. fällt, müssen zusammen mit der Eintritts-wahrscheinlichkeit so bestimmt werden, dass der binomiale ABP den stetigen (kontinuierlichen) ABPmöglichst gut approximiert. Der ABP impliziert eine vollständig durch den Erwartungswert und die Stan-dardabweichung charakterisierbare Normalverteilung für die Zufallsvariable. Deshalb genügt es, den bi-nomialen Prozess so zu definieren, dass Erwartungswert und Standardabweichung gegen die entspre-chenden Werte des kontinuierlichen Modells konvergieren. Bei einem ABP werden die beiden Werte fürdas Absinken oder Ansteigen so festgelegt, dass die Zufallsvariable pro definiertem Zeitintervall um eineStandardabweichung steigt oder fällt. Der für den Anstieg zu verwendende Betrag ℎ ist wie folgt zu be-rechnen:ℎ = ߪ ∙ √∆ݐ (7-55)Der für das Absinken der Unsicherheitsvariable zu verwendende Betrag ݈ ergibt sich gemäß:݈ = −ߪ ∙ √∆ݐ = −ℎ (7-56)Die entsprechenden Wahrscheinlichkeiten ܲ௛ und ܲ௟ , mit denen die aus einem Anstieg bzw. Abstieg her-vorgegangenen Werte zu gewichten sind, um den Erwartungswert und die Streuung der stetigen Formu-lierung des ABP sicherzustellen, sind folgendermaßen zu bestimmen:ܲ௛ = 12 ∙ ቀ1 + ߙߪ ∙ √∆ݐቁ (7-57)ܲ௟ = 1 − ܲ௛ (7-58) Abb. 7-29: Darstellung eines binomialen ABP a) a) ∆ݐ = 1, ߙ = 10 und ߪ = 50.Für die zustands- und zeitdiskrete binomiale Version des ABP ergibt sich für zwei Perioden (d.h. in einemDreizeitpunktmodell) die in Abb. 7-29 dargestellte Struktur. Eine solche Modellierung der Wertentwick-lung wird als Baum bezeichnet. Bemerkenswert ist, dass der Ausgangswert einer stochastischen Variable ଵܺ௛ = ܺ଴ + ℎ = 150 ଵܺ௟ = ܺ଴ + ݈ = 50 ܺଶ௛௛ = ଵܺ௛ + ℎ = 200 ܺଶ௛௟ = ଵܺ௛ + ݈ = ܺ଴ = 100ܺଶ௟௛ = ଵܺ௟ + ℎ = ܺ଴ = 100 ܺଶ௟௟ = ଵܺ௟ + ݈ = 0 ܲ௟ = 40% ܲ௛ = 60%ܺ଴ = 100 ݐ = 0 ݐ = 1 ݐ = 2 ܲ௟ = 40% ܲ௛ = 60% ܲ௟ = 40% ܲ௛ = 60% 414 7 Querschnittsaufgabe Risikomanagement bei jedem geraden Zeitschritt wiederkehrt. Mit anderen Worten: Eine Aufwärtsbewegung gefolgt voneiner Abwärtsbewegung führt zum gleichen Wertniveau, wie eine Abwärtsbewegung mit anschließenderAufwärtsbewegung. Man spricht in diesem Zusammenhang auch von einem rekombinierenden oderschließenden Baum. Für eine „gute“ Approximation der eigentlich zustands- und zeitstetigen Version desABP muss das Zeitintervall ∆ݐ sehr klein sein. Die verschiedenen Verfahren im VergleichAbb. 7-30 verdeutlicht, welche grundsätzlichen Unterschiede bei der a priori Annahme einer statischenVerteilung und einer ergebnisoffenen Zeitreihenanalyse auftreten können. Die Annahme einer statischenVerteilung impliziert, dass für jeden zukünftigen Zeitpunkt die gleiche Dichtefunktion gilt, deren Erwar-tungswert dem Mittelwert der vergangenen Beobachtungswerte entspricht. Bei stochastischen Prozessenist dagegen die (zeitvariante) Dichtefunktion der Zufallsvariable zu zukünftigen Zeitpunkten immer funk-tional vom gegenwärtigen Beobachtungswert (und evtl. von weiter in der Vergangenheit liegendenBeobachtungswerten unterschiedlicher Gewichtung) abhängig. Gleichzeitig sind der Erwartungswert unddie Standardabweichung der Zufallsvariable vom geschätzten stochastischen Prozess und von der Längedes Prognosezeitraums abhängig. Typischerweise steigt die Standardabweichung mit zunehmendem Pro-gnosezeitraum an. Abb. 7-30: Implizite Annahmen unterschiedlicher Prognosemodelle (stilisiert) Der Vollständigkeit halber sei erwähnt, dass auch mit sog. Trendverfahren versucht wird, zeitvarianteVerteilungen zu berücksichtigen. Im Unterschied zu umfassenden Zeitreihenmodellen wird hierbei dieEntwicklung der Zufallsvariable mit Hilfe einer Regression als Funktion der Zeit beschrieben. Diesschränkt die Chance, das tatsächliche Entwicklungsmuster aufzudecken, gegenüber umfassenden Zeit-reihenmodellen ein.Sowohl die naive Schätzung statischer Verteilungen als auch die Zeitreihenanalyse lassen sich unter demOberbegriff univariate Analyseverfahren einordnen. Dies bedeutet, dass die Entwicklung der Zufalls-variable als „autonom“ angesehen und aus sich selbst heraus erklärt wird. Mit Blick auf Ursache-Wirkungsbeziehungen sind univariate Verfahren damit als Black-Box-Modelle einzuordnen. Im Gegensatzdazu sucht man bei multivariaten Kausalmodellen mit Hilfe einer multiplen Regression nach den zu-grunde liegenden Ursache-Wirkungsbeziehungen. Auch wenn bei diesen ökonometrischen Analysen häu- Ausprägung derZufallsvariable Zeit Dichte 0123.. . A priori Annahme einerstatischen Verteilung Ergebnisoffene Schätzung einesstochastischen Prozesses Vergangene Beobachtungswerte -1 -2 7.5 Quantitative Risikoanalyse 415 fig gar kein Zeitindex genutzt wird, impliziert die Nutzung von Kausalmodellen für Prognosezwecke, dassman die zukünftige Verteilung einer Zufallsvariable aus einer zeitlich vorlaufenden Ursache ableitet. Bei-spielsweise könnte man versuchen, die Zufallsvariable „Schweinepreis“ als Funktion der in der Vor-periode produzierten Schweinefleischmenge und des in der Vorperiode beobachteten Rindfleischpreisesauszudrücken. Kausalmodelle können für Prognosen verwendet werden. Die Identifizierung von Ursache-Wirkungszusammenhängen kann aber auch jenseits der Prognose einen wichtigen Wissenszuwachs dar-stellen. Time-AggregationEin Problem ergibt sich, wenn die Zeitintervalle, für die die Daten vorliegen, anders sind als das Zeitinter-vall, für das statistische Kennzahlen zu Prognosezwecken benötigt werden. Wenn z.B. monatliche Datenvorliegen, aber statistische Kennzahlen (Drift und Standardabweichung) für einen Planungshorizont voneinem Jahr benötigt werden, bestehen grundsätzlich zwei Möglichkeiten, um diese zu bestimmen: Entwe-der man rechnet kurzfristigere Verteilungen hoch (bzw. im umgekehrten Fall längerfristige herunter)oder man misst die Daten von vorn herein über die Zeiträume, die es zu prognostizieren gilt. Die zuletztgenannte Vorgehensweise bedeutet, dass man trotz Vorliegen höher frequentierter (z.B. monatlicher) Da-ten die Verteilungsparameter entsprechend des gewünschten Prognoseintervalls (z.B. jährlich) bestimmt.Sie ist deshalb nur anwendbar, wenn das Zeitintervall zwischen einzelnen Beobachtungswerten kürzer alsdas Prognoseintervall ist.Oftmals wird die erstgenannte Vorgehensweise gewählt. Das heißt, man transformiert bspw. die Vertei-lung einer monatlich gemessenen Unsicherheitsvariable in eine Verteilung für die entsprechende Jahres-größe. Dieses Vorgehen wird in der Ökonometrie als „Time-Aggregation“ oder „Time-Scaling“ bezeichnet.Um die Standardabweichung unterschiedlich langer Zeitintervalle vergleichbar zu machen, kann folgendeFormel verwendet werden:ߪ௘௙௙ = ߪ√∆ݐ ⇔ ߪ = ߪ௘௙௙ ∙ √∆ݐ (7-59)Dabei kennzeichnet ߪ௘௙௙ die auf ein Jahr bezogene (effektive) Standardabweichung. ߪ entspricht der aufdie Länge einer Periode ∆ݐ (in Jahren) bezogenen Standardabweichung. Wenn also bspw. eine auf Vier-monatsbasis gemessene Unsicherheitsvariable eine Standardabweichung von ߪ = 0,20 aufweist, dann be-trägt die jährliche Standardabweichung ߪ௘௙௙ = 0,35 (= 0,20/ඥ4/12).Die fehlerfreie Umrechnung gemäß Gleichung (7-59) ist an die Bedingung geknüpft, dass es sich bei denDaten, auf die sich die Standardabweichung bezieht, um unabhängig und identisch normalverteilte Datenhandelt. Man spricht in diesem Zusammenhang auch von der i.i.d.-Eigenschaft (independent andidentically normally distributed). Nur bei i.i.d. verteilten Daten sind die Verteilungen verschiedener Zeitin-tervalle additiv, d.h. die Standardabweichung nimmt mit der Quadratwurzel der Zeit zu („Square-Root-Regel“). 7.5.3 Bestimmung der Verteilung eines PortfoliowertesUnternehmerische Wahlhandlungen können häufig als Entscheidungen zwischen verschiedenen Mischun-gen von Aktivitäten verstanden werden, die in unterschiedlichem Maß zum Einkommen und zum Risikobeitragen. Diese Mischung bezeichnet man in Anlehnung an den Wortgebrauch in der Finanzwelt auch als Portfolio, da die Festlegung und Optimierung eines Wertpapierportfolios (= Mischung von Aktien undanderen Finanztiteln) eine ganz ähnliche Problemstruktur aufweist. Sowohl bei einem Wertpapierport-folio als auch bei einem Portfolio unternehmerischer Aktivitäten ergibt sich die Verteilung der (aggregier-ten) Zielgröße aus den Verteilungen mehrerer additiv verknüpfter (disaggregierter) Zufallsvariablen. Manbezeichnet deshalb die Zielgröße auch einfach als Portfoliowert und die einzelnen Zufallsvariablen als 416 7 Querschnittsaufgabe Risikomanagement Portfoliokomponenten. Beispielsweise wird die Streuung des Gesamtdeckungsbeitrags (= Portfoliowert)durch den Umfang der Produktionsaktivitäten und ihrer unterschiedlich hohen und riskanten Einzel-deckungsbeiträge (= Portfoliokomponenten) bestimmt. Einzelne Risikomanagementinstrumente stellenggf. weitere Portfoliokomponenten dar.Zur Darstellung des unternehmerischen Risikos kann man auf unterschiedliche Verfahren zur Bestimmung des Risikoprofils (vgl. Punkt 7.5.1) zurückgreifen. Bei nicht-parametrischen Verteilungen stelltman das Risikoprofil durch die kumulierte relative Häufigkeitsfunktion oder - auszugsweise - durch eineAuflistung ausgewählter Quantile der entscheidungsrelevanten Zufallsvariablen dar. Bei parametrischenVerteilungen ist eine auszugsweise Darstellung eines Risikoprofils über Quantile ebenfalls machbar. Hierist aber oftmals auch eine vollständige Beschreibung des Risikoprofils mit Hilfe von Verteilungsparame-tern möglich. Die Verteilung eines Portfoliowertes ܼ kann auf der Grundlage von Verteilungsinformatio-nen für die disaggregierten Zufallsvariablen ܺ௞ (݇ = 1, 2, … , ܭ) bestimmt werden. Verfahrenstechnischunterscheidet man bei der Bestimmung der Verteilung einer aggregierten Zufallsvariable zwischen analy-tischen und numerischen Verfahren einerseits sowie zwischen nicht-parametrischen und parametrischenVerfahren andererseits (vgl. Tab. 7-21). Tab. 7-21: Verfahren zur Bestimmung des Risikoprofils eines PortfoliosNicht-parametrisch ParametrischAnalytisch – Varianz-Kovarianz-Methode Anwendungsvoraussetzung:Normalverteilung für alle additiv verknüpf-ten UnsicherheitsvariablenNumerisch Historische Simulation Anwendungsvoraussetzung:Beobachtungswerte für alle Unsicherheits-variablen Stochastische Simulation Anwendungsvoraussetzung:Beliebige parametrische Verteilungen füralle UnsicherheitsvariablenNicht-parametrische Verfahren beruhen auf den relativen Häufigkeitsverteilungen der in der Stichprobebeobachteten Werte der einzelnen Zufallsvariablen, die auch als empirische Verteilungen bezeichnet wer-den. Da empirische Verteilungen nicht eindeutig durch Verteilungsparameter, wie z.B. den Erwartungs-wert und die Standardabweichung, charakterisiert werden können, spricht man - etwas verwirrend - auchvon verteilungsfreien Verfahren. Parametrische Verfahren beruhen dagegen auf geschätzten Verteilungen,deren Eigenschaften eindeutig über ihre Parameter beschrieben werden können. Die Varianz-Kovarianz-Methode, die auch als analytische Methode bezeichnet wird, basiert auf einer geschlossenen Formel. ImGegensatz dazu handelt es sich bei den numerischen Verfahren um Simulationen. Letzteres bedeutet ein-fach ausgedrückt, dass man wiederholt ausprobiert, welche Werte die interessierende Zielgröße bei un-terschiedlichen Realisationen der einzelnen Zufallsvariablen annimmt. Insgesamt gibt es damit dreigrundsätzliche Herangehensweisen, die Verteilung einer aggregierten Zufallsvariable zu bestimmen:(1) die historische Simulation, die auf nicht-parametrischen Verteilungen aufbaut, (2) die Varianz-Kovarianz-Methode, die Normalverteilungen voraussetzt, sowie (3) die stochastische Simulation, die pa-rametrische Verteilungen unterschiedlicher Art verarbeiten kann. a) Historische SimulationDie historische Simulation stellt ein numerisches, nicht-parametrisches Verfahren dar. Ihre Grundidee be-steht darin, aus empirischen Verteilungen das Risikoprofil des Portfoliowertes zu bestimmen. Man be-rechnet also direkt die Werte der Zielgröße aus den empirisch beobachteten Werten der disaggregiertenVariablen und stellt diese nicht-parametrisch, d.h. in Form einer kumulierten relativen Häufigkeitsvertei-lung, dar. Dies kann man auch als quasi-ex-ante Gedankenexperiment verstehen und als Was-Wäre-Gewesen-Wenn-Analyse bezeichnen: Es wird danach gefragt, welche Werte die interessierende Zielgröße 7.5 Quantitative Risikoanalyse 417 (z.B. der Deckungsbeitrag der Schweinemast) angesichts der bekannten Werte der disaggregierten Zu-fallsvariablen in der Vergangenheit angenommen hätte, wenn man eine bestimmte Entscheidung (z.B. dieAufnahme der Schweinemast) gefällt hätte. Konkret ergeben sich bei der historischen Simulation folgende Ablaufschritte:1. Identifizierung der mit Risiko behafteten Portfoliokomponenten (disaggregierten Zufallsvariablen),2. Beschaffung geeigneter Daten (Zeitreihen) für die disaggregierten Zufallsvariablen,3. Berechnung der aggregierten Zielgröße anhand der beobachteten Realisationen der disaggregiertenZufallsvariablen zu den unterschiedlichen zurückliegenden Zeitpunkten und4. Erstellung des Risikoprofils des Portfolios in Form einer kumulierten relativen Häufigkeitsverteilungder aggregierten Zielgröße.Die historische Simulation ist sehr einfach anzuwenden. Allerdings setzt diese Methode eine zeitinvarianteVerteilung für die einzelnen Portfoliokomponenten voraus. Beispiel 7-5Historische Simulation - Deckungsbeitragsverteilung SchweinemastDer Leiter eines spezialisierten Schweinemastbetriebs fragt sich, wie hoch das Deckungsbeitragsrisiko derSchweineerzeugung bei einer Umtriebszeit von 4 Monaten ist. Es wird unterstellt, dass alle 4 MonateFerkel und Fertigfutter zu aktuellen Marktpreisen zugekauft werden und Mastschweine zur Schlachtreifegelangen. Mit dem Zukauf von 25 kg schweren Ferkeln und 265 kg Mastschweinealleinfutter werdenjeweils 90 kg Schlachtgewicht erzeugt.Der Deckungsbeitrag je Schwein ist unter Vernachlässigung weiterer variabler Kosten wie folgt definiert:ܦܤௌ௖= ݑௌ௖ ∙ ݌ௌ௖ + ݑி௘ ∙ ݌ி௘ + ݑி௨ ∙ ݌ி௨,mit ݑௌ௖ > 0 und ݑி௘, ݑி௨ < 0 (7-60)= 90 ∙ ݌ௌ௖ − 25 ∙ ݌ி௘ − 265 ∙ ݌ி௨Wir haben in Gleichung (7-60) von den Vorzeichen her eine ungewöhnliche Schreibweise gewählt, um zuverdeutlichen, dass der Deckungsbeitrag der Schweinemast als unsicherer Portfoliowert verstanden wer-den kann, der sich aus additiv verknüpften Zufallsvariablen ergibt. Dabei kennzeichnet ݌ௌ௖ den Mast-schweinepreis in €/kg Schlachtgewicht, ݌ி௘ den Ferkelpreis in €/kg und ݌ி௨ den Futterpreis in €/kg. DasSchlachtgewicht ݑௌ௖, das Ferkelgewicht ݑி௘ und der Futterverbrauch je Schwein ݑி௨ können als Portfolio-gewichte interpretiert werden. Damit die Gleichung von der Sache her richtig ist, muss gelten: ݑௌ௖ > 0 so-wie ݑி௘, ݑி௨ < 0.In den Spalten 3 bis 5 der Tab. 7-22 sind die zwischen Dezember 1994 und Dezember 2007 beobachtetenPreise für Schweine, Ferkel und Futter dargestellt. Für alle drei Zufallsvariablen standen damit40 Beobachtungwerte zur Verfügung. In Spalte 6 ist der Deckungsbeitrag historisch simuliert, der sichgemäß Gleichung (7-60) zu den vergangenen Zeitpunkten ergeben hätte, wenn man Schweinemast betrie-ben hätte. Aus didaktischen Gründen wird das zeitliche Auseinanderfallen der Zahlungen für Inputs undOutputs bei der Berechnung des Deckungsbeitrags nicht berücksichtigt.Auf der rechten Seite der Tabelle ist das Risikoprofil der Schweinemast dargestellt. Hierfür wurden die40 Deckungsbeiträge, die auf der Grundlage der beobachteten Preise für die Portfoliokomponentenberechnet wurden, ihrer Größe nach aufsteigend geordnet (Spalte 7). Weist man daneben die kumulierteHäufigkeit aus (Spalte 8), hat man bereits die Quantile und damit das Risikoprofil der Deckungsbeitrags-verteilung. Wenn man in den betrachteten 40 Viermonatsperioden Schweine gemästet hätte, hätte manbspw. nur in zehn von 40 Fällen einen Deckungsbeitrag von weniger als 19,07 €/Mastschwein erzielt.Anders ausgedrückt: Der Quantilwert für das 25%-Quantil beträgt gemäß historischer Simulation19,07 €/Mastschwein. 418 7 Querschnittsaufgabe Risikomanagement Tab. 7-22: Historische Simulation zur Bestimmung der Deckungsbeitragsverteilung a)Spalte 1 Spalte 2 Spalte 3 Spalte 4 Spalte 5 Spalte 6 Spalte 7 Spalte 8Nr. Zeit B e o b a c h t u n g s w e r t e Deckungs-beitrag(€/Schwein) Quantilwert(€/Schwein) b) QuantilSchweine-preis (€/kg) Ferkelpreis(€/kg) Futterpreis(€/kg)1 12/94 1,320 1,932 0,201 17,20 7,39 2,5%2 04/95 1,368 1,983 0,196 21,68 7,63 5,0%3 08/95 1,367 2,547 0,195 7,63 15,36 7,5%4 12/95 1,386 2,087 0,191 21,88 15,37 10,0%5 04/96 1,460 2,173 0,185 28,07 15,80 12,5%6 08/96 1,816 2,393 0,196 51,76 16,46 15,0%7 12/96 1,562 1,994 0,198 38,22 16,47 17,5%8 04/97 1,593 2,367 0,199 31,38 16,82 20,0%9 08/97 1,850 2,746 0,193 46,73 17,20 22,5%10 12/97 1,591 2,122 0,193 39,12 19,07 25,0%11 04/98 1,346 2,137 0,192 16,82 21,53 27,5%12 08/98 1,181 1,396 0,185 22,44 21,68 30,0%13 12/98 0,914 0,900 0,168 15,37 21,88 32,5%14 04/99 0,913 1,191 0,170 7,39 22,44 35,0%15 08/99 1,173 1,314 0,169 28,06 25,01 37,5%16 12/99 1,121 1,288 0,165 25,07 25,07 40,0%17 04/00 1,183 1,810 0,171 15,80 25,35 42,5%18 08/00 1,433 1,882 0,177 35,03 26,69 45,0%19 12/00 1,488 1,754 0,177 43,10 28,06 47,5%20 04/01 1,790 2,662 0,186 45,18 28,07 50,0%21 08/01 1,655 2,373 0,187 40,13 29,22 52,5%22 12/01 1,435 1,824 0,183 34,99 29,84 55,0%23 04/02 1,348 2,230 0,185 16,47 30,86 57,5%24 08/02 1,320 1,755 0,182 26,69 31,38 60,0%25 12/02 1,243 1,467 0,167 30,86 33,62 62,5%26 04/03 1,195 1,873 0,167 16,46 34,99 65,0%27 08/03 1,225 1,438 0,168 29,84 35,03 67,5%28 12/03 1,200 1,425 0,178 25,35 35,29 70,0%29 04/04 1,243 1,777 0,196 15,36 36,58 72,5%30 08/04 1,423 1,739 0,192 33,62 37,03 75,0%31 12/04 1,473 1,922 0,163 41,40 38,22 77,5%32 04/05 1,373 2,245 0,160 25,01 39,12 80,0%33 08/05 1,415 1,940 0,159 36,58 40,13 82,5%34 12/05 1,400 1,749 0,159 40,19 40,19 85,0%35 04/06 1,398 2,163 0,160 29,22 41,40 87,5%36 08/06 1,585 2,088 0,164 47,03 43,10 90,0%37 12/06 1,420 1,797 0,173 37,03 45,18 92,5%38 04/07 1,250 1,745 0,188 19,07 46,73 95,0%39 08/07 1,383 1,412 0,203 35,29 47,03 97,5%40 12/07 1,330 1,192 0,258 21,53 51,76 100,0%a) Zur Erzeugung von 90 kg Schlachtgewicht sind 25 kg schwere Ferkel und 265 kg Mastschweineallein-futter erforderlich.b) Die Spalte 7 ergibt sich durch eine aufsteigende Ordnung der in der Spalte 6 berechneten Deckungsbei-träge. Die mittels historischer Simulation bestimmte Deckungsbeitragsverteilung hat einen Erwar-tungswert in Höhe von 29,0010 €/Mastschwein und eine Standardabweichung von 11,2070 €/Mast-schwein.Ende des Beispiels 7.5 Quantitative Risikoanalyse 419 b) Varianz-Kovarianz-MethodeBei der Varianz-Kovarianz-Methode leitet man die Verteilung der Zielgröße auf algebraischem Weg aus den Parametern der unterstellten Einzelverteilungen her. Für die Anwendung der Varianz-Kovarianz-Methode müssen die Erwartungswerte, Varianzen und Kovarianzen der Portfoliokomponen-ten bekannt sein oder aus historischen Daten geschätzt werden. Im Unterschied zur historischen Simu-lation arbeitet man also nicht mit empirischen Verteilungen, sondern schätzt parametrische Verteilun-gen für die disaggregierten Zufallsvariablen. Als Vorteil der Varianz-Kovarianz-Methode wird der gerin-ge Rechenaufwand genannt. Allerdings ist die Varianz-Kovarianz-Methode nur anwendbar, wenn es sichbei den Verteilungen der unsicheren Portfoliokomponenten um additiv verknüpfte Normalverteilungen handelt.18 Nur in wenigen, kaum praxisrelevanten Spezialfällen ist die Varianz-Kovarianz-Methodeauch bei Vorliegen nicht-normalverteilter und/oder nicht-additiv verknüpfter Portfoliokomponentengangbar.Der Erwartungswert für die Zielgröße, die sich aus ܭ additiv verknüpften Zufallsvariablen ܺ௞ ergibt,entspricht der Summe der mit dem Portfoliogewicht ݑ௞ multiplizierten Erwartungswerte der einzelnenPortfoliobestandteile:ܧ(ܼ) =෍ܧ(ܺ௞) ∙௄௞ୀଵ ݑ௞ (7-61)Wenn die relevante Zielgröße dem Gesamtdeckungsbeitrag eines Marktfruchtbetriebs entspricht(ܼ = ܩܦܤ), der ܭ = 2 Produktionsverfahren (z.B. Weizen und Kartoffeln) umsetzen kann, dann stellender Weizendeckungsbeitrag ( ଵܺ = ܦܤௐ௘) und der Kartoffeldeckungsbeitrag (ܺଶ = ܦܤ௄௔) die beiden addi-tiv verknüpften Zufallsvariablen dar. Die Anbauumfänge der beiden Produktionsverfahren entsprechenden Portfoliogewichten ݑଵ = ݑௐ௘ und ݑଶ = ݑ௄௔. Der erwartete Gesamtdeckungsbeitrag wäre dementspre-chend wie folgt zu berechnen:ܧ(ܩܦܤ) = ܧ(ܦܤௐ௘) ∙ ݑௐ௘ + ܧ(ܦܤ௄௔) ∙ ݑ௄௔ (7-62)Für die Varianz der Zielgröße ܼ bei ܭ additiv verknüpften normalverteilten Zufallsvariablen gilt allgemein:ܸ(ܼ) =෍෍ݑ௞ ∙ ݑ௟ ∙ ߪ௞;௟௄௟ୀଵ௄௞ୀଵ (7-63)=෍(ݑ௞ ∙ ߪ௞)ଶ +௄௞ୀଵ 2 ∙෍෍ݑ௞ ∙ ݑ௟ ∙ ߪ௞;௟௄௟ழ௞௄௞ୀଵ= ෍(ݑ௞ ∙ ߪ௞)ଶ +௄௞ୀଵ 2 ∙෍෍ݑ௞ ∙ ݑ௟ ∙ ߪ௞ ∙ ߪ௟௄௟ழ௞௄௞ୀଵ ∙ ߩ௞;௟Dabei kennzeichnet ߪ௞ die Standardabweichung, ߪ௞;௟ die Kovarianz und ߩ௞;௟ die Korrelation der Zufalls-variablen. Für den Fall des oben beschriebenen Marktfruchtbetriebs mit den Anbauumfängen ݑଵ = ݑௐ௘und ݑଶ = ݑ௄௔ ist die Varianz des Gesamtdeckungsbeitrages folgendermaßen zu berechnen:ܸ(ܩܦܤ) = (ݑௐ௘ ∙ ߪௐ௘)ଶ + (ݑ௄௔ ∙ ߪ௄௔)ଶ + 2 ∙ ݑௐ௘ ∙ ݑ௄௔ ∙ ߪௐ௘ ∙ ߪ௄௔ ∙ ߩ௄௔;ௐ௘ (7-64) 18 Bei vielen Zufallsvariablen ist aus theoretischen Erwägungen die (rechts- und linksoffene) Normalver-teilung ausgeschlossen. So können bspw. Preise nicht negativ werden. In diesem Fall lohnt es sich, zuprüfen, ob den logarithmierten relativen Wertänderungen der Zufallsvariable eine Normalverteilungzugrunde liegt. Die eigentliche Zufallsvariable ist dann lognormalverteilt. Ein Vorzeichenwechsel istdamit ausgeschlossen. 420 7 Querschnittsaufgabe Risikomanagement Ein Blick auf Gleichung (7-63) zeigt, dass die Varianz der Summe mehrerer Zufallsvariablen der Summeder mit den quadrierten Portfolioanteilen gewichteten Einzelvarianzen entspricht, wenn die Korrelationzwischen den Variablen Null ist. Wird die Korrelation vernachlässigt und implizit ein Korrelationskoeffi-zient von Null unterstellt, kommt es zu einer Über- oder Unterschätzung des Risikos der Zielgröße. Wie inPunkt 7.2.1d) schon angesprochen, gibt es bzgl. der Korrelation zwischen verschiedenen Größen dreiwichtige Konstellationen, die zu einer Risikoreduzierung (einem natürlichen Hedge) führen: erstens einepositive Korrelation zwischen Output- und Inputgrößen (z.B. Mastschweinepreise und Ferkelkosten),zweitens eine negative Korrelation zwischen Größen auf der Outputseite (z.B. Kartoffelerträge und-preise) und drittens eine negative Korrelation zwischen Größen auf der Inputseite.Zusammengefasst ergeben sich bei Anwendung der Varianz-Kovarianz-Methode folgende Ablaufschritte:1. Identifizierung der mit Risiko behafteten Portfoliokomponenten (disaggregierten Zufallsvariablen),2. Beschaffung geeigneter Daten (Zeitreihen) für die statistische Analyse der disaggregierten Zufalls-variablen,3. statistische Tests auf Normalverteilung und Schätzung der Verteilungsparameter der disaggregiertenZufallsvariablen sowie Bestimmung der Korrelationen und4. Berechnung des Risikoprofils des Portfolios in Form des Erwartungswertes und der Standardabwei-chung der normalverteilten aggregierten Zielgröße unter Rückgriff auf die Gleichung (7-61) und dieGleichung (7-63). Beispiel 7-6Varianz-Kovarianz-Methode - Deckungsbeitragsverteilung SchweinemastWir betrachten wieder die Frage nach dem Deckungsbeitragsrisiko in der Schweinemast (vgl. Bei-spiel 7-5). Um das Deckungsbeitragsrisiko mit Hilfe der Varianz-Kovarianz-Methode zu berechnen, wer-den - wie bei der historischen Simulation - die durchschnittlichen Schweine-, Ferkel- und Futterpreiseauf Viermonatsbasis verwendet, wie sie im Zeitraum von Dezember 1994 bis Dezember 2007 beobach-tet wurden (vgl. Tab. 7-22, linke Seite). Tab. 7-23 liefert einen Überblick der Erwartungswerte, derStandardabweichungen und der Korrelationen der Preise. Wir unterstellen für die Preise eine Normal-verteilung, die die Anwendungsvoraussetzung der Varianz-Kovarianz-Methode darstellt und aufgrundstatistischer Tests nicht abzulehnen ist. Das heißt, wir haben von den in Fußnote 18 angestellten Über-legungen zur Nichtnegativität von Preisen sowie von möglichen Zeitreiheneffekten (z.B. Trends) abs-trahiert, um die Darstellung so einfach wie möglich zu halten. Tab. 7-23: Erwartungswerte, Standardabweichungen und Korrelationen der PortfoliokomponentenMastschweine (ܵܿ) Ferkel (ܨ݁) Futter (ܨݑ)Portfoliogewicht ݑ (kg/Mastschwein) 90 -25 -265Erwarteter Preis ܧ(݌) (€/kg) 1,3791 1,8708 0,1824Standardabweichung ߪ(݌) (€/kg) 0,2050 0,4214 0,0182Matrix für die Korrelation ߩMastschweine 1,0000 0,8059 0,2499Ferkel 1,0000 0,0852Futter 1,0000Tab. 7-23 zeigt, dass insbesondere die Mastschweine- und Ferkelpreise mit einem hohen Maß an Unsi-cherheit behaftet sind. Außerdem ist ersichtlich, dass die Mastschweine- und Ferkelpreise mitߩௌ௖;ி௘ = 0,8059 stark positiv korreliert sind. Weniger ausgeprägt ist die positive Korrelation zwischen den 7.5 Quantitative Risikoanalyse 421 Mastschweine- und Futterpreisen (ߩௌ௖;ி௨ = 0,2499). Dadurch, dass die positiv mit dem Mastschweine-preis korrelierten Ferkel- und Futterpreise mit einem negativen Gewicht in das Portfolio eingehen, wirdder Deckungsbeitrag stabilisiert. Wir wissen bereits, dass man eine solche positive Korrelation zwischenOutput- und Inputgrößen auch als natürlichen Hedge bezeichnet, da hier die Risikoreduzierung aus sichheraus entsteht und nicht das Ergebnis gezielter Risikomanagementmaßnahmen ist.Da angenommen wurde, dass die Portfoliokomponenten normalverteilt sind, ist klar, dass auch derDeckungsbeitrag eine Normalverteilung aufweist. Unter Verwendung der in Tab. 7-23 angezeigten Ver-teilungsparameter sowie der in Gleichung (7-60) dargelegten Gewichte der Portfoliokomponenten kannder Erwartungswert des Deckungsbeitrags in der Schweinemast (in €/Mastschwein) berechnet wer-den:ܧ(ܦܤௌ௖)= ݑௌ௖ ∙ ܧ(݌ௌ௖) + ݑி௘ ∙ ܧ(݌ி௘) + ݑி௨ ∙ ܧ(݌ி௨) = 29,0010 (7-65)Für die Varianz des Deckungsbeitrags in der Schweinemast gilt gemäß Gleichung (7-63):ܸ(ܦܤௌ௖) = (ݑௌ௖ ∙ ߪௌ௖)ଶ + (ݑி௘ ∙ ߪி௘)ଶ + (ݑி௨ ∙ ߪி௨)ଶ (7-66)+2 ∙ ݑௌ௖ ∙ ݑி௘ ∙ ߪௌ௖ ∙ ߪி௘ ∙ ߩௌ௖;ி௘+2 ∙ ݑி௘ ∙ ݑி௨ ∙ ߪி௘ ∙ ߪி௨ ∙ ߩி௘;ி௨+2 ∙ ݑௌ௖ ∙ ݑி௨ ∙ ߪௌ௖ ∙ ߪி௨ ∙ ߩௌ௖;ி௨= 125,5978Die Standardabweichung ߪ(ܦܤௌ௖) beträgt 11,2070 €/Mastschwein (= ඥ125,5978). Hätte man die Korre-lationen zwischen den Portfoliokomponenten vernachlässigt, hätte man fälschlicherweise eine Standard-abweichung von 21,7898 €/Mastschwein (= √474,7944) errechnet.Um die Bedeutung dieser Streuungsinformation in Form eines Risikoprofils zu veranschaulichen, sehenwir uns einige Quantile der Verteilung an (vgl. Tab. 7-24). Zur Berechnung der Quantile muss man ledig-lich Quantilwerte der Standardnormalverteilung (vgl. Tab. 7-20) gemäß Gleichung (7-50) transformieren.Beispielsweise beträgt der Wert für das 25%-Quantil der Standardnormalverteilung −0,67. Für das 25%-Quantil der Normalverteilung mit einem Erwartungswert von 29,0010 € und einer Standardabweichungvon 11,2070 € ergibt sich ein Wert von 21,44 € (= −0,67 ∙ 11,2070 + 29,0010). Der Deckungsbeitrag derSchweinemast liegt also mit 75%iger Wahrscheinlichkeit über 21,44 €/Mastschwein (Spalte 2). Oder an-ders formuliert: Die Wahrscheinlichkeit, dass der Deckungsbeitrag um mehr als 7,56 €/Mastschwein(= 29 − 21,44) unter den Erwartungswert sinkt (Spalte 3), beträgt 25%. Tab. 7-24: Analytisch berechnete Quantile der Deckungsbeitragsverteilung a)Spalte 1 Spalte 2 Spalte 3Quantilwert der Standard-normalverteilung Quantilwert der Deckungs-beitragsverteilung(€/Mastschwein) Value-at-Risk(€/Mastschwein)5%-Quantil −1,64 10,57 18,4310%-Quantil −1,28 14,64 14,3625%-Quantil −0,67 21,44 7,56a) Die Deckungsbeiträge weisen einen Erwartungswert von 29,0010 €/Mastschwein und eine Standard-abweichung von 11,2070 €/Mastschwein auf.Da bei der Varianz-Kovarianz-Methode und der historischen Simulation die gleiche Datengrundlage ver-wendet wurde, sind die Quantilwerte miteinander vergleichbar. Es fällt auf, dass sich die gemäß histori-scher Simulation bestimmten Quantilwerte (vgl. Tab. 7-22) von denen der Varianz-Kovarianz-Methodeunterscheiden (vgl. Tab. 7-24). Dies ist dadurch zu erklären, dass bei der Varianz-Kovarianz-Methode eine 422 7 Querschnittsaufgabe Risikomanagement Normalverteilung für die Portfoliokomponenten unterstellt wurde. Demgegenüber arbeitet die historischeSimulation direkt mit der empirischen Verteilung. Der vergleichsweise geringe Unterschied zwischen denErgebnissen der Varianz-Kovarianz-Methode und der historischen Simulation deutet darauf hin, dass dieNormalverteilung im betrachteten Beispiel eine gute Approximation für die empirische Verteilung derPortfoliokomponenten darstellt.Ende des Beispiels c) Stochastische SimulationDie stochastische Simulation, die auch als Monte-Carlo-Simulation bezeichnet wird, ist sowohl ein para-metrisches als auch ein numerisches Verfahren. Was bedeutet das? Im Gegensatz zur Varianz-Kovarianz-Methode wird die Verteilung der Zielgröße numerisch-experimentell ermittelt. Anders als bei der histori-schen Simulation wird die Zielgröße aber nicht direkt aus Stichprobendaten berechnet. Vielmehr werdenaus den vorhandenen Daten zunächst parametrische Verteilungen für die einzelnen Zufallsvariablen ge-schätzt und Korrelationen berechnet. Aus diesen parametrischen Verteilungen und unter Berücksichti-gung der Korrelationen werden dann im Rahmen einer Zufallsziehung wiederholt Zufallszahlen erzeugt, d.h. Werte für die disaggregierten Zufallsvariablen computergestützt generiert (Was-Wäre-Wenn-Analyse). Man spricht in diesem Zusammenhang auch von Simulationsläufen. Diese Simulationsläufe wer-den sehr häufig wiederholt, um nach dem Gesetz der großen Zahl die Verteilungen möglichst gut abzubil-den. Für jeden Simulationslauf berechnet man die Zielgröße. Im Ergebnis hat man ebenso viele Werte fürdie Zielgröße wie Simulationsläufe. Die in den einzelnen Läufen berechneten Werte für die Zielgröße las-sen sich dann wieder aufsteigend anordnen.Konkret ergeben sich bei Nutzung der stochastischen Simulation zur Bestimmung des Risikoprofils fol-gende Ablaufschritte:1. Identifizierung der mit Risiko behafteten Portfoliokomponenten (disaggregierten Zufallsvariablen),2. Beschaffung geeigneter Daten (Zeitreihen) für die statistische Analyse der disaggregierten Zufalls-variablen,3. Schätzung der am besten zu den Daten passenden parametrischen Verteilungen für die disaggregier-ten Zufallsvariablen sowie Berechnung der Korrelationen,4. computergestützte Ziehung einer Zufallszahl für jede disaggregierte Zufallsvariable gemäß ihrergeschätzten Verteilung und unter Beachtung von Korrelationen,5. Berechnung der aggregierten Zielgröße anhand der gezogenen (simulierten) Werte der disaggregier-ten Zufallsvariablen,6. sehr häufige Wiederholung der Schritte 4 und 5 (mindestens 10 000 Simulationsläufe),7. Erstellung des Risikoprofils des Portfolios in Form einer kumulierten relativen Häufigkeitsverteilungder aggregierten Zielgröße und8. ggf. Schätzung einer parametrischen Verteilung für die aggregierte Zielgröße.Der Vorteil der stochastischen Simulation besteht darin, dass für die einzelnen Portfoliokomponentenjede beliebige parametrische Verteilung unterstellt werden kann. Im Gegensatz zur Varianz-Kovarianz-Methode können bei der stochastischen Simulation also die Verteilungen verarbeitet werden, die ambesten zu vergangenen Beobachtungswerten oder Expertenaussagen passen. Im Unterschied zur histo-rischen Simulation können bei der stochastischen Simulation auch über Expertenbefragungen gewon-nene Verteilungsinformationen verarbeitet werden. Die Durchführung einer stochastischen Simulationnimmt aber mehr Rechenzeit in Anspruch als die Varianz-Kovarianz-Methode. Außerdem ist die Erstel-lung eines entsprechenden Modells aufwändiger als bei der historischen Simulation. Die technische 4 1 13 23 82 _M uß ho ff - Bg 14 7.5 Quantitative Risikoanalyse 423 Umsetzung der stochastischen Simulation in Tabellenkalkulationsprogrammen wird in Punkt 7.5.5 kurzangesprochen. Beispiel 7-7Stochastische Simulation - Deckungsbeitragsverteilung SchweinemastWir betrachten wieder die Frage aus Beispiel 7-5, wie hoch das Risiko der Schweinemast ist. Für die Port-foliokomponenten werden Normalverteilungen mit den in Tab. 7-23 angezeigten Verteilungsparameternunterstellt. Die Normalverteilungsannahme ist keine Anwendungsvoraussetzung der stochastischen Simu-lation. Zum einen ist die Normalverteilung aber gemäß statistischen Tests nicht abzulehnen und zum an-deren ist so die direkte Vergleichbarkeit mit den Ergebnissen der Varianz-Kovarianz-Methode gewährleis-tet. Es werden jeweils 10 000 normalverteilte Zufallszahlen für die Portfoliokomponenten unter Beach-tung der Korrelationen generiert. In der rechten Hälfte von Abb. 7-31 ist die sich ergebende Verteilungs-funktion für den Deckungsbeitrag angezeigt. Man erhält sie, indem man die Deckungsbeitragswerte, die inden 10 000 Simulationsläufen berechnet wurden, aufsteigend anordnet und die Quantile ausweist. Dieentsprechende Dichtefunktion ist auf der linken Hälfte zu sehen. Abb. 7-31: Mittels stochastischer Simulation bestimmte Dichtefunktion (links) und Verteilungsfunktion (rechts) für den Deckungsbeitrag (€/Mastschwein) a) a) 10 000 Simulationsläufe. Tab. 7-25: Ergebnisse der verschiedenen Verfahren zur Bestimmung des Risikoprofils eines Portfolios (Deckungsbeitrag in €/Mastschwein)HistorischeSimulation Varianz-Kovarianz-Methode StochastischeSimulationErwartungswert 29,00 29,00 28,98Standardabweichung 11,21 11,21 11,215%-Quantil 7,63 10,57 10,6110%-Quantil 15,37 14,64 14,6525%-Quantil 19,07 21,44 21,43Tab. 7-25 verdeutlicht die Ergebnisse der stochastischen Simulation und stellt sie den Ergebnissen deranderen Verfahren zur Bestimmung des Risikoprofils eines Portfolios gegenüber (vgl. Beispiel 7-5 undBeispiel 7-6). Der vergleichende Blick zeigt, dass die Ergebnisse der Varianz-Kovarianz-Methode und derstochastischen Simulation nahezu identisch sind. Dies ist nicht überraschend, da beiden Verfahren die-selben Verteilungsannahmen zugrunde gelegt wurden. Geringfügige Unterschiede sind in der Zufalls- 20 40 60 80-20 0 0,050,1 0,150,2 ݂(ܦܤௌ௖) ܦܤௌ௖ 20 40 60 80-20 0 0,50,75 1 0,25 ܦܤௌ௖ ܨ(ܦܤௌ௖) 5 1 13 23 82 _M uß ho ff - Bg 15 424 7 Querschnittsaufgabe Risikomanagement zahlenziehung bei der stochastischen Simulation begründet. Anders gesagt: Trotz der hohen Anzahl von10 000 Zufallsziehungen ist das Gesetz der großen Zahl noch nicht erfüllt und die unterstellte Vertei-lung wird noch nicht vollständig abgebildet. Etwas anders sieht es beim Vergleich der Varianz-Kovarianz-Methode und der historischen Simulation aus. Da die Verteilungsparameter der bei der Va-rianz-Kovarianz-Methode genutzten Normalverteilung auf der Basis der empirischen Beobachtungengeschätzt wurden, sind der Erwartungswert und die Standardabweichung bei der Varianz-Kovarianz-Methode und der historischen Simulation identisch. Unterschiede ergeben sich bei den Quantilen, da dieempirische Verteilung eben nicht genau der Normalverteilung entspricht.Ende des Beispiels 7.5.4 Anwendung der Risikoanalyse auf BetriebsebeneUm zu verdeutlichen, wie die beschriebenen Methoden der Risikoanalyse praktisch angewendet werdenkönnen, betrachten wir die Frage, ob eine „Biogasanlage“ als neues Geschäftsfeld in ein landwirtschaft-liches Unternehmen integriert werden soll. Derartige Fragestellungen werden häufig nur unter Rentabi-litätsgesichtspunkten betrachtet. Dementsprechend werden lediglich einwertige Planungsrechnungen(vgl. Abschnitt 7.1) durchgeführt. Wenn Risikoaspekte überhaupt berücksichtigt werden, erfolgt dies oftin Form einer isolierten Betrachtung der Biogasanlage. Das heißt, es wird lediglich untersucht, zu wel-chen Gewinnschwankungen es bei der Bioenergieproduktion selbst kommt. Hierbei wird dann berück-sichtigt, dass zwar der Preis für den erzeugten Strom durch das Erneuerbare-Energien-Gesetz (EEG)festgelegt ist, es aber insbesondere durch schwankende Substratpreise zu Kostenrisiken kommt. Bei-spielsweise führten im Jahr 2007 hohe Getreide- und damit Substratpreise dazu, dass manche Biogasan-lagen nicht mehr kostendeckend arbeiteten. Einige Biogasanlagenbetreiber mussten daraufhin sogarInsolvenz anmelden.Aufgrund von Verbundwirkungen unterscheidet sich die Situation eines landwirtschaftlichen Unterneh-mers, der Bioenergie produziert, grundsätzlich von der eines nicht-landwirtschaftlichen Unternehmers,der ausschließlich Anlagenbetreiber ist. Für den Landwirt geht es nicht um die isolierten Schwankungendes Einkommensbeitrags der Bioenergieanlage. Diese stellt für ihn ja nur eine von mehreren Einkom-menskomponenten dar. Dem Landwirt geht es vielmehr darum, welches Einkommensrisiko sich durch dieProduktion von Bioenergie im Verbund mit der Produktion klassischer landwirtschaftlicher Erzeugnisseim Unternehmen ergibt.Vor diesem Hintergrund gehen wir im Folgenden der Frage nach, wie sich die Investition in eine Biogasan-lage im Jahr 2010 auf das Gesamtrisiko eines landwirtschaftlichen Unternehmens auswirkt. In einem ers-ten Schritt betrachten wir isoliert ein nicht-landwirtschaftliches Unternehmen, das annahmegemäß nuraus einer Biogasanlage mit einer Nutzungsdauer von 20 Jahren und einer Leistung von 590 kW elektrischeLeistung besteht. Im zweiten Schritt betrachten wir zunächst isoliert einen 200 ha großen Ackerbaube-trieb und untersuchen dann, wie sich das Risiko dieses Ackerbaubetriebs verändern würde, wenn die Be-triebsleitung komplett fremdfinanziert eine Investition in eine 590 kW Biogasanlage tätigen würde. ZurEinschätzung der Größenwirkungen untersuchen wir in einem dritten Schritt, wie sich dieselbe Biogasan-lage in einem fünfmal so großen Ackerbaubetrieb mit 1 000 ha auswirken würde. Beschreibung der geplanten Biogasanlage: Wir unterstellen, dass fundierte technische Betriebsdatenzu der betrachteten 590 kW Biogasanlage vorliegen, da die baugleiche Anlage von einem Referenzbetriebbereits seit dem Wirtschaftsjahr 2002/03 betrieben wird. Das Gesamtinvestitionsvolumen der Anlage be-läuft sich auf 1 669 000 €. Dies entspricht 2 830 € je kW installierter elektrischer Leistung. Erfolgsrele-vante Informationen zu der Biogasanlage (siehe Tab. 7-26) können wir den Betriebstagebüchern des Re-ferenzbetriebs über die Wirtschaftsjahre 2002/03 bis 2008/09 entnehmen. 7.5 Quantitative Risikoanalyse 425 Tab. 7-26: Erwartungswert und Standardabweichung des Cash-Flows der BiogasanlageDurchschnittlicher Stromertrag pro Jahr (kWh) 3 443 944Durchschnittliche Einspeisevergütung (€/kWh) 0,1893 Durchschnittlicher Stromerlös pro Jahr (€) 651 939Durchschnittlicher Wärmeertrag pro Jahr (kWh) 645 205Durchschnittlicher Wärmepreis (€/kWh) 0,0300 Durchschnittlicher Wärmeerlös pro Jahr (€) 19 356 Durchschnittliche Substratkosten pro Jahr (€) 456 986 Durchschnittliche sonstige variable Kosten pro Jahr (€) 103 913 Kapitaldienst pro Jahr (€) 122 808 Durchschnittlicher Cash-Flow pro Jahr (€) –12 412Bei einer Leistung von 590 kW produziert die Biogasanlage eine Strommenge von durchschnittlich3 443 944 kWh pro Jahr. Der Strom wird von einem großen Energieversorger abgenommen. Mit einerim Jahr 2010 errichteten Biogasanlage kann für die Strommenge ein durchschnittlicher Preis von18,93 Cent je kWh erzielt werden. In diesem Preis sind der NawaRo-, Gülle-, KWK- und der Emissions-minderungsbonus enthalten. Durchschnittlich kann mit einem jährlichen Stromerlös von 651 939 € ge-rechnet werden.Die Biogasanlage wird inkl. Wärmenutzung betrieben. Jährlich können 645 205 kWh Wärme verkauftwerden. Bei einem unterstellten Preis von 3 Cent je kWh abgegebener Wärme kann mit einem Wärmeer-lös von 19 356 € gerechnet werden.Täglich wird die Biogasanlage mit 56 t Frischmasse aus Schweinegülle und 8,5 t Getreideschrot „gefüt-tert“. Die Schweinegülle wird von anderen landwirtschaftlichen Betrieben frei Fermenter zur Verfügunggestellt. Das Getreideschrot besteht zu je 50% aus Gerste und Triticale und wird annahmegemäß zwei-mal pro Jahr (im Herbst und im Frühjahr) zu den jeweils aktuellen Marktpreisen zugekauft. Für dieSchätzung der durchschnittlichen Substratkosten werden die Getreidepreise zugrundegelegt, die gemäßBetriebsbuchführung in der Vergangenheit gezahlt wurden. Dementsprechend ist mit durchschnittli-chen jährlichen Substratkosten von 456 986 € zu rechnen. Der anfallende Gärrest wird auf 650 haAckerfläche ausgebracht. Da die Biogasanlage in einer Region mit hoher Tierhaltungsdichte angesiedeltist, entstehen für die Gärreste zwar Ausbringungskosten, Erlöse können aber nicht erzielt werden. In-klusive der Ausbringungskosten ergeben sich jährlich sonstige variable Kosten von insgesamt103 913 €.Um die Überlegungen zu vereinfachen, unterstellen wir, dass die Biogasanlage vollständig fremdfinanziertwird. Annahmegemäß ist ein Annuitätendarlehen über 1 669 000 € mit einer Laufzeit von 20 Jahren zueinem Zinssatz von 4% p.a. verfügbar. Der damit verbundene jährliche Kapitaldienst entspricht den Kapi-talkosten der Anlage und beträgt 122 808 €. Der durchschnittlich zu erwartende Cash-Flow einer im Jahr2010 errichteten Biogasanlage beläuft sich nach Abzug des Kapitaldienstes auf -12 412 €. Die isolierte An-lage ist bei diesen Annahmen also nicht rentabel. Beschreibung des Ackerbaubetriebs: Der Ackerbaubetrieb befindet sich in Ostwestfalen und setzt auf200 ha Ackerfläche, die im Durchschnitt ca. 60 Bodenpunkte aufweist, vier verschiedene Anbauaktivitätenum: Im Durchschnitt der Wirtschaftsjahre 2002/03 bis 2008/09 werden 75 ha mit Winterweizen, 50 hamit Wintergerste, 25 ha mit Triticale und 50 ha mit Winterraps bewirtschaftet. Die Deckungsbeiträge, diein den Wirtschaftsjahren 2002/03 bis 2008/09 erzielt wurden, werden aus der Betriebsbuchführung ab-geleitet. Auf dieser Grundlage werden Durchschnittswerte, die als Standardabweichung gemessenenStreuungen und die Korrelationen der Deckungsbeiträge der pflanzlichen Produktionsverfahren berech-net (vgl. Tab. 7-27). 426 7 Querschnittsaufgabe Risikomanagement Tab. 7-27: Erwartungswert, Standardabweichung und Korrelationen der Deckungsbeiträge der pflanzlichen Produktionsverfahren Winter-weizen Winter-gerste Triticale WinterrapsDurchschnittlicher Erlös pro Jahr (€/ha) 1 286 950 1 088 1 170Durchschnittliche variable Kosten (€/ha) 616 649 664 661Durchschnittlicher Deckungsbeitrag (€/ha) 670 301 424 509Standardabweichung des Deckungsbeitrags (€/ha) 333 323 402 283KorrelationsmatrixWinterweizen 1 0,89 0,93 0,67Wintergerste 1 0,96 0,83Triticale 1 0,74Winterraps 1Es wird unterstellt, dass der Landwirt die Anschaffungskosten der Biogasanlage in Höhe von 1 669 000 €über ein fristenkongruentes Annuitätendarlehen zu einem Zinssatz von 4% p.a. finanzieren kann, wenn ersich für diese Investition entscheidet. Wie für den Betreiber der isolierten Anlage entsteht dem Landwirtbei Investitionsdurchführung also ein Kapitaldienst in Höhe von 122 808 € pro Jahr. Was-wäre-wenn-Analyse: Um zu ermitteln, wie sich das Risiko einer Biogasanlage in verschiedenen be-trieblichen Situationen darstellt, wird eine „Was-wäre-wenn-Analyse“ (stochastische Simulation; vgl.Punkt 7.5.3c) durchgeführt. Im Einzelnen sollen dadurch die folgenden Fragen beantwortet werden:1. Wie hoch ist die Standardabweichung des betrieblichen Cash-Flows, wenn man die Biogasanlage iso-liert betrachtet?2. Wie hoch ist die Standardabweichung des betrieblichen Cash-Flows, wenn man den 200 ha Betriebmit und ohne Biogasanlage betrachtet?3. Wie hoch ist die Standardabweichung des betrieblichen Cash-Flows, wenn man einen fünfmal so gro-ßen 1 000 ha Betrieb mit und ohne Biogasanlage betrachtet?Zunächst werden aus den Zeitreihen der Cash-Flows der Biogasanlage und aus den Zeitreihen der De-ckungsbeiträge der verschiedenen Feldfrüchte Wahrscheinlichkeitsverteilungen und Korrelationen ge-schätzt. Anschließend wird auf der Grundlage dieser Informationen und unter der Annahme eines unver-änderten Anbauprogramms mit Hilfe der stochastischen Simulation die Wahrscheinlichkeitsverteilung fürden betrieblichen Cash-Flow in den verschiedenen Situationen bestimmt.In Tab. 7-28 sind der Erwartungswert und die Standardabweichung des gesamtbetrieblichen Cash-Flowsfür verschiedene betriebliche Ausgangssituationen angezeigt.Die zentralen Ergebnisse der Tab. 7-28 lassen sich wie folgt zusammenfassen:1. Eine isolierte Investition in die betrachtete 590 kW Biogasanlage ist nicht nur unrentabel, sondernauch mit außerordentlich hohen Einkommensschwankungen verbunden. Bei einem durchschnittlichzu erwartenden Cash-Flow von -12 412 € beträgt die Standardabweichung 210 913 €. Die Gefahr ei-nes negativen Ergebnisses beträgt 52,3%. Der Cash-Flow liegt mit einer 50%igen Wahrscheinlichkeitzwischen -154 513 € (25% der Werte sind niedriger) und 129 904 € (25% der Werte sind höher).2. Im Vergleich zur ausschließlich landwirtschaftlichen Produktion kommt es für den 200 ha großenAckerbaubetrieb durch die Investition in eine Biogasanlage zu einer deutlichen Steigerung des Risi-kos. Die Standardabweichung des gesamtbetrieblichen Cash-Flows steigt von 61 333 € ohne Biogas-anlage auf 161 757 € mit Biogasanlage. Die Verlustgefahr steigt von 4,9% auf 29,2%. 7.5 Quantitative Risikoanalyse 427 3. Gerade umgekehrt entwickelt sich das Risiko für den fünfmal so großen 1 000 ha Betrieb. Durch dieBiogasanlage sinkt hier die Standardabweichung von 306 666 € auf 168 297 €. Die Gefahr eines nega-tiven Cash-Flows sinkt von 4,9% auf 0,2%. Tab. 7-28: Erwartungswert und Standardabweichung des gesamtbetrieblichen Cash-Flows für verschiedene BetriebsorganisationenBetriebliche Ausgangs-situation ErwarteterbetrieblicherCash-Flow (€) Standardabwei-chung des betriebli-chen Cash-Flows (€) Gefahr einesnegativen Cash-Flows (%) Mittleres 50%-Intervalldes Cash-Flows (€)Ausschließlicher Betriebeiner Biogasanlage –12 412 210 913 52,3 –154 513 bis 129 904200 ha Ackerbaubetriebohne Biogasanlage 101 270 61 333 4,9 60 097 bis 143 225200 ha Ackerbaubetriebmit Biogasanlage 88 858 161 757 29,2 –21 089 bis 198 9421 000 ha Ackerbaubetriebohne Biogasanlage 506 352 306 666 4,9 300 483 bis 716 1271 000 ha Ackerbaubetriebmit Biogasanlage 493 940 168 297 0,2 379 281 bis 606 848Der Vergleich der Biogasanlage im kleinen und im großen landwirtschaftlichen Betrieb zeigt Folgendes: Inbeiden Betrieben kommt es durch die mit Verlust wirtschaftende Biogasanlage zu einer Reduzierung deserwarteten jährlichen Einkommens um 12 412 €. Für den kleinen landwirtschaftlichen Betrieb erhöht sichzudem das Risiko. Die Investition ist für ihn also nicht sinnvoll. Das große landwirtschaftliche Unternehmenbekommt dagegen für die Reduzierung des Einkommensniveaus eine deutliche Reduzierung der Einkom-mensschwankungen. Er muss also für sich die klassische Frage des Risikomanagements beantworten, ob erdas Risiko in der Ausgangssituation tragen will bzw. welche Kosten er für wie viel Risikoreduzierung auszu-geben bereit ist. Im vorliegenden Fall kostet die „Versicherungsmaßnahme“ der Diversifizierung über eineBiogasanlage jährlich 12 412 €. Dafür bekommt er eine Reduzierung der Standardabweichung von306 666 € auf 168 297 € bzw. eine Reduzierung der Verlustwahrscheinlichkeit von 4,9% auf 0,2%.Für den großen Ackerbaubetrieb ergibt sich also durch eine Investition in eine 590 kW Biogasanlage einebeträchtliche Risikoreduzierung. Gleichzeitig stellt die Investition - wie der Abschluss jeder Versicherung -ein erwartetes Verlustgeschäft dar. Im hier vorliegenden Fall muss aber berücksichtigt werden, dass eskein weiter Weg zu einer „schwarzen Null“ der Biogasanlage wäre. Eine Erhöhung der durchschnittlich er-zeugten Kilowattstunden um 8% auf 3 723 000 kW/Jahr würde die Anlage bereits an die Gewinnzonebringen. Diese nicht unrealistische Erhöhung könnte bspw. durch eine Verbesserung des elektrischenWirkungsgrads erreicht werden. Der Ackerbaubetrieb mit 1 000 ha würde in diesem Fall die Risikoredu-zierung ohne Kosten bekommen. Die Anlage wäre für ihn damit höchst interessant, obwohl sie für einenisolierten Anlagebetreiber weiterhin uninteressant bliebe. Grundlegende Wirkungsweise der Diversifizierung: Die Ursache für die unterschiedliche Risikowir-kung der Biogasanlage in den unterschiedlich großen Betrieben liegt in der Wirkungsweise der Diversifi-zierung. Mit der Diversifizierung versucht man gezielt den Effekt herbeizuführen, der sich bei einem na-türlichen Risikoausgleich (natürlichen Hedge) bereits ohne unternehmerisches Zutun ergibt. Im vorlie-genden Fall ergibt sich die Risikoreduzierung dadurch, dass schlechte Ergebnisse im Geschäftsfeld „Land-wirtschaft“ tendenziell mit guten Ergebnissen im Geschäftsfeld „Biogas“ zusammentreffen und umgekehrt:Sind die Getreidepreise niedrig, werden im Ackerbau nur geringe Deckungsbeiträge erzielt. Gleichzeitigläuft es bei der „Biogasanlage“ aufgrund geringer Substratkosten besonders gut. Das gilt natürlich auchumgekehrt. 428 7 Querschnittsaufgabe Risikomanagement 7.5.5 Nutzung von TabellenkalkulationsprogrammenBei der Durchführung quantitativer Risikoanalysen sind immer zwei Arbeitsschritte zu bewältigen:1. Aus den vorliegenden Daten ist mit Hilfe statistischer Analysen zu bestimmen, welche Wahrschein-lichkeitsverteilungen die relevanten Zufallsvariablen aufweisen und wie sie miteinander korreliertsind. Aus vorhandenen Daten sind also bspw. Erwartungswert und Standardabweichung der Kartof-felerträge und -preise sowie die Korrelation dieser beiden Zufallsgrößen zu bestimmen.2. Die Wahrscheinlichkeitsverteilungen und Korrelationen der Zufallsvariablen sind als Planannah-men in einem Risikomodell (stochastischen Betriebsmodell) zu verarbeiten, mit dessen Hilfe derErwartungswert und die Standardabweichung der relevanten unternehmerischen Größe berechnetwerden.Für eine professionelle Umsetzung der oben genannten Arbeitsschritte wird bei den meisten praktischenAnwendungen Spezialsoftware in Form geeigneter Statistik- und Simulationssoftware erforderlich sein.Eine erste Hilfestellung liefern aber auch Tabellenkalkulationsprogramme. Mit Blick auf den ersten Schrittsind deshalb in Tab. 7-29 einige Funktionen beschrieben, die die Berechnung gängiger statistischer Maß-zahlen mit Hilfe des Tabellenkalkulationsprogramms MS-EXCEL unterstützen. Tab. 7-29: MS-EXCEL-Funktionen zur Bestimmung der wichtigsten statistischen GrößenFunktionsname Beschreibung SyntaxDeutsch EnglischMITTELWERT AVERAGE Liefert denMittelwert einer Stichprobe bzw.den aus einer Stichprobe geschätztenErwartungswert der Grundgesamtheit =MITTELWERT(Wert1, Wert2, …)VARIANZ VAR Liefert die aus einer Stichprobe geschätzteVarianz der Grundgesamtheit =VARIANZ(Wert1, Wert2, …)VARIANZEN VARP Liefert die Varianz einer Grundgesamtheit =VARIANZEN(Wert1, Wert2, …)STABW STDEV Liefert die aus einer Stichprobe geschätzteStandardabweichung der Grundgesamtheit =STABW(Wert1, Wert2, …)STABWN STDEVP Liefert die Standardabweichung einerGrundgesamtheit =STABWN(Wert1, Wert2, …)KOVAR COVAR Liefert die Kovarianz zwischen zweiDatenreihen einer Grundgesamtheit =KOVAR(Reihe1Wert1,Reihe1Wert2, …; Reihe2Wert1,Reihe2Wert2, …)KORREL CORREL Liefert die Korrelation zwischen zweiDatenreihen =KORREL(Reihe1Wert1,Reihe1Wert2, …; Reihe2Wert1,Reihe2Wert2, …)Mit Blick auf den zweiten Schritt sind im Folgenden einige Funktionen beschrieben, die den Umgang mitWahrscheinlichkeitsverteilungen unterstützen. Die Funktion =BINOMVERT(݇; ݊; ܲ; 1)liefert die Wahrscheinlichkeit, dass bei ݊-maliger Wiederholung eines Bernoulli-Experiments (z.B. Münz-wurf) die mit der Wahrscheinlichkeit ܲ auftretende Ausprägung maximal ݇-mal auftaucht. Durch die anletzter Stelle angezeigte 1 wird die kumulierte Wahrscheinlichkeit berechnet. Steht hier eine Null, wird dieWahrscheinlichkeit berechnet, dass diese Ausprägung genau ݇-mal auftritt. BINOMVERT(3; 10; 0,5; 1) be-rechnet bspw. die aus Gleichung (7-43) bekannte Wahrscheinlichkeitssumme von 17,19%, dass bei zehn-maligemWurf einer idealen Münze maximal dreimal Kopf auftaucht.Zur Berechnung der kumulierten Dichte für eine konkrete Ausprägung einer normalverteilten Zufallsvari-able hatten wir uns zunächst mit Tabellenwerken für die Standardnormalverteilung beholfen (vgl. 7.5 Quantitative Risikoanalyse 429 Tab. 7-20). In MS-EXCEL lässt sich die kumulierte Dichte für eine standardnormalverteilte Zufallszahl einfach über folgende Funktion berechnen: =STANDNORMVERT(ݔ௜)Dabei kennzeichnet ݔ௜ eine beliebige Ausprägung. In MS-EXCEL ist auch eine Verallgemeinerung derSTANDNORMVERT-Funktion verfügbar. Die Funktion =NORMVERT(ݔ௜; ߤ; ߪ; 1)liefert die kumulierte Dichte, mit der eine normalverteilte Zufallsvariable mit einem Erwartungswert vonߤ und einer Standardabweichung von ߪ Werte bis maximal ݔ௜ annimmt. Durch die in der Funktion zuletztangezeigte 1 wird die kumulierte Dichte berechnet. Setzt man hier eine Null ein, dann ergibt sich der Wertder entsprechenden Dichtefunktion.Man kann einen Algorithmus konstruieren, der Zahlen liefert, die sich wie eine Stichprobe einer gleichver-teilten Zufallsvariable verhalten. Einen solchen Algorithmus nutzt MS-EXCEL bei der folgenden Funktion,die gleichverteilte Zufallszahlen zwischen ܺ௠௜௡ = 0 und ܺ௠௔௫ = 1 liefert: =ZUFALLSZAHL( )Gleichverteilte Zufallszahlen zwischen 0 und 1 bilden technisch gesehen den Ausgangspunkt für die Gene-rierung von Zufallszahlen aus anderen Verteilungen. Beispielsweise kann man eine gleichverteilte Zufalls-zahl zwischen beliebig gewählten Werten für ܺ௠௜௡ und ܺ௠௔௫ wie folgt erzeugen: =ZUFALLSZAHL( )*(ܺ௠௔௫-ܺ௠௜௡)+ܺ௠௜௡ Binomialverteilte Zufallszahlen können wie folgt simuliert werden: =WENN(ZUFALLSZAHL( )< ଵܲ; ଵܺ; ܺଶ)Die Zufallsvariable nimmt mit einer Wahrscheinlichkeit von ଵܲ den Wert ଵܺ und mit einer Wahrschein-lichkeit von (1 − ଵܲ) den Wert ܺଶ an. Die WENN-DANN-Bedingung sichert technisch ab, dass ଵܺ nur mitder vorgegebenenWahrscheinlichkeit ଵܲ eintritt. In allen anderen Fällen ergibt sich ܺଶ.Die Generierung standardnormalverteilter Zufallszahlen ist über die folgende Funktion möglich: =STANDNORMINV(ZUFALLSZAHL( ))Dabei wird durch eine gleichverteilte Zufallszahl zwischen 0 und 1 eine kumulierte Dichte zufällig vorge-geben und dann der dazugehörige Wert ܿ௜ der Standardnormalverteilung bestimmt. Die STANDNORMINV-Funktion ist die Umkehrfunktion der STANDNORMVERT-Funktion. Man könnte also auch sagen, dass einegleichverteilte Zufallszahl zwischen 0 und 1 in die inverse Verteilungsfunktion eingesetzt wird (Inversi-onsmethode).Die standardnormalverteilte Zufallsvariable hat einen Erwartungswert von 0 und eine Standardabwei-chung von 1. Um eine normalverteilte Zufallsvariable mit einem beliebig gewählten Erwartungswert ߤund einer beliebig gewählten Standardabweichung ߪ zu generieren, ist die standardnormalverteilte Zu-fallszahl ܿ௜ gemäß Gleichung (7-50) zu transformieren: =STANDNORMINV(ZUFALLSZAHL( ))*ߪ+ߤTab. 7-30 fasst die gängigen Funktionen zum Umgang mit Wahrscheinlichkeitsverteilungen zusammen.Die Ziehung einer dreiecksverteilten Zufallszahl erfordert eine aufwändigere Formulierung: =WENN(A1<=( ܺ௠௢ௗ- ܺ௠௜௡)/( ܺ௠௔௫-ܺ௠௜௡); ܺ௠௜௡+WURZEL(A1*( ܺ௠௔௫-ܺ௠௜௡)*( ܺ௠௢ௗ-ܺ௠௜௡));ܺ௠௔௫-WURZEL((1-A1)*( ܺ௠௔௫-ܺ௠௜௡)*(ܺ௠௔௫-ܺ௠௢ௗ)))In dieser Formel wird auf Zelle A1 quer verwiesen, in der eine gleichverteilte Zufallszahl zwischen 0 und 1erzeugt wird:A1: =ZUFALLSZAHL( )Diese etwas komplexe Formulierung lässt sich formal wie folgt darstellen: 430 7 Querschnittsaufgabe Risikomanagement ܺ௞ = ൞ܺ௠௜௡ + ඥ ௟ܺ ∙ (ܺ௠௔௫ − ܺ௠௜௡) ∙ (ܺ௠௢ௗ − ܺ௠௜௡) , wenn ௟ܺ ≤ ܺ௠௢ௗ − ܺ௠௜௡ܺ௠௔௫ − ܺ௠௜௡ܺ௠௔௫ − ඥ(1 − ௟ܺ) ∙ (ܺ௠௔௫ − ܺ௠௜௡) ∙ (ܺ௠௔௫ − ܺ௠௢ௗ) , andernfallsDabei kennzeichnet ܺ௞ die dreiecksverteilte Zufallszahl und ௟ܺ die gleichverteilte Zufallszahl zwischen 0und 1. Tab. 7-30: MS-EXCEL-Funktionen zum Umgang mit WahrscheinlichkeitsverteilungenFunktionsname Beschreibung SyntaxDeutsch EnglischBINOMVERT BINOMDIST Liefert die Wahrscheinlichkeit, dass bei݊-maliger Wiederholung eines Bernoulli-Experimentes die mit der Wahrscheinlich-keit ܲ auftretende Ausprägungmaximal݇-mal auftaucht =BINOMVERT(݇; ݊; ܲ; 1) Liefert die Wahrscheinlichkeit, dass bei݊-maliger Wiederholung eines Bernoulli-Experimentes die mit der Wahrscheinlich-keit ܲ auftretende Ausprägung genau݇-mal auftritt =BINOMVERT(݇; ݊; ܲ; 0) NORMVERT NORMDIST Liefert die kumulierte Wahrscheinlichkeiteiner normalverteilten Zufallsvariable mitErwartungswert ߤ und Standardabwei-chung ߪ an der Stelle ݔ௜;das Ergebnis entspricht dem ܮܲܯ଴ =NORMVERT(ݔ௜; ߤ; ߪ; 1) Liefert die Dichte einer normalverteiltenZufallsvariable mit Erwartungswert ߤ undStandardabweichung ߪ an der Stelle ݔ௜ =NORMVERT(ݔ௜; ߤ; ߪ; 0)NORMINV NORMINV Liefert für eine vorgegebene Wahrschein-lichkeit den Quantilwert einer normalver-teilten Zufallsvariable mit Erwartungswertߤ und Standardabweichung ߪ;Umkehroperation der NORMVERT-Funktion =NORMINV (Wahrschein-lichkeit; ߤ; ߪ) ZUFALLSZAHL RAND Liefert eine gleichverteilte Zufallszahlzwischen 0 und 1 =ZUFALLSZAHL( )Oftmals sind bei der Risikoanalyse Korrelationen zwischen den Zufallsvariablen zu berücksichtigen. Zweikorrelierte normalverteilte Zufallszahlen ܺ௞ und ௟ܺ können mit Hilfe einer dritten Zufallszahl ܺ௛௜௟௙ be-rechnet werden: Sind ܺ௞ und ܺ௛௜௟௙ stochastisch unabhängige Zufallszahlen, die aus der Standardnormal-verteilung gezogen werden, dann ist ௟ܺ = ߩ௞;௟ ∙ ܺ௞ + ට1 − ߩ௞;௟ଶ ∙ ܺ௛௜௟௙ (7-67)ebenfalls eine normalverteilte Zufallszahl, wobei ܺ௞ und ௟ܺ eine Korrelation von ߩ௞;௟ aufweisen. Sind mehrals zwei korrelierte Zufallszahlen zu generieren, kann man sich der sog. Cholesky-Zerlegung bedienen. DieUmsetzung der Cholesky-Zerlegung ist zu kompliziert, um sie an dieser Stelle ausführlich zu erklären. Zurtechnischen Umsetzung der Cholesky-Zerlegung ist das kostenlos downloadbare MS-EXCEL-Add-In „Mat-rix.xla“ nützlich. Es erlaubt die Multiplikation, Transformation etc. von Matrizen und Vektoren.Gibt man die beschriebenen Funktionen für die Generierung von Zufallszahlen in MS-EXCEL ein, ergibtsich zunächst nur ein Funktionswert und damit eine mögliche Zufallszahl. Zur Abbildung einer vorgegebenen Verteilung im Rahmen einer stochastischen Simulation muss das Gesetz der großen Zahlgenutzt werden, das erst bei sehr vielen Zufallszahlenziehungen gilt. Man kann mehrere Zufallszahlen aus 7.6 Entscheidungsfindung unter Unsicherheit 431 einer bestimmten Verteilung ziehen, indem man auf der Tastatur die Taste F9 drückt. Mit jedem Tasten-druck wird eine neue Zufallszahl generiert. Die erzeugten Zufallszahlen könnte man als Werte manuellaufzeichnen. Dies ist aber sehr aufwändig. Einfacher wird es durch die Programmierung von Makros, mitdenen man die wiederholte Erzeugung von Zufallszahlen und ihre anschließende Aufzeichnung automati-sieren kann. Alternativ zur Programmierung eines MS-EXCEL-Makros kann man auch kommerziell erhält-liche Hilfsprogramme, wie z.B. das MS-EXCEL-Add-In @RISK von Palisade, nutzen. 7.6 Entscheidungsfindung unter UnsicherheitIn Abschnitt 7.5 haben wir gezeigt, wie man die Unsicherheit einer Zielgröße quantifizieren kann. Im Fol-genden erläutern wir zunächst, warum die Berücksichtigung der Streuung auch für risikoneutrale Ent-scheider bedeutsam sein kann (Punkt 7.6.1). Anschließend werden Ansätze zur Berücksichtigung von Un-sicherheit behandelt, die zwar weder die Risikoeinstellung des Entscheiders noch Wahrscheinlichkeitenverarbeiten, aber aufgrund ihrer geringen rechentechnischen Anforderungen oft in der Praxis zur Anwen-dung kommen und deshalb als pragmatisch bezeichnet werden (Punkt 7.6.2). In Punkt 7.6.3 beschreibenwir die wichtigsten Entscheidungskalküle unter Risiko: das Konzept der stochastischen Dominanz, dasErwartungsnutzenprinzip und das Erwartungswert-Varianz-Kriterium. In Punkt 7.6.4 werden Ansätze an-gesprochen, die Entscheidungsunterstützung in Ungewissheitssituationen geben sollen. 7.6.1 Zur Notwendigkeit der Berücksichtigung von Unsicherheit bei RisikoneutralitätDie Notwendigkeit der Berücksichtigung von Risiko bei der Entscheidungsfindung ist offensichtlich,wenn ein Entscheider risikoavers ist. Es geht dann darum, den Tradeoff zwischen dem erwarteten Ein-kommen und dem Risiko zu bestimmen. Man muss bspw. die Frage beantworten, ob der individuelleNutzen einer Risikoreduzierung die Kosten des hierfür erforderlichen Risikomanagementinstrumentsdeckt. Für einen risikoneutralen Entscheider stellt sich diese Frage nicht. Er wählt - unabhängig vondem damit verbundenen Einkommensrisiko - die Handlungsalternative, die das Erwartungseinkommenmaximiert. Allerdings müssen auch risikoneutrale Entscheider vielfach statistische Sachverhalte be-rücksichtigen, da sie sonst nicht die richtigen Erwartungswerte von Zufallsvariablen finden. Bereits inPunkt 7.5.2 haben wir auf den Fehler hingewiesen, den man bspw. bei Vernachlässigung eines Trendsmachen würde.Obwohl es nicht auf den ersten Blick offensichtlich ist, kann auch die Vernachlässigung der Streuung zu einer fehlerhaften Erwartungswertbildung führen. Eine nicht-lineare funktionale Abhängigkeiteiner Erfolgsgröße (abhängigen Variable) von einer erfolgsbestimmenden Größe (unabhängigen Vari-able) führt unter Unsicherheit ganz allgemein dazu, dass man den Erwartungswert der abhängigen Un-sicherheitsgröße nicht einfach ausgehend vom Erwartungswert der unabhängigen Unsicherheitsgrößeberechnen kann. Hierfür gibt es viele praktische Beispiele. So kann man Überschüsse an Arbeit und anausschließlich innerbetrieblich verwertbarem Futter in aller Regel schlecht oder gar nicht verwerten,während eine Unterschreitung des erforderlichen Umfangs zu einer vollen Leistungsminderung führt.Diesen Sachverhalt kann man auch alternativ formulieren: Nicht-lineare funktionale Abhängigkeiten er-geben sich immer dann, wenn zwei multiplikativ verknüpfte erfolgsbestimmende Größen, wie z.B. dieArbeitsmenge und die Arbeitsproduktivität, miteinander korreliert sind. Auch die Kartoffelerlöse hän-gen nicht linear von den Kartoffelerträgen ab, weil diese eine (negative) Korrelation mit den Kartoffel-preisen aufweisen. Dieses Beispiel wird im Folgenden ausführlicher angesprochen. Ein anderes Beispielsind Lieferverträge, deren Ausgestaltung ebenfalls häufig zu einer negativen Korrelation zwischen Er-trägen und Preisen führen. Die Erlöswirkung dieser Korrelation, die wir im Folgenden aufgrund der Be-deutung von Lieferverträgen in der Landwirtschaft ebenfalls näher anschauen, bezeichnen wir als Er-lösasymmetrie.

Chapter Preview

References

Zusammenfassung

Gemäß dem Motto „Nichts ist praktischer als eine gute Theorie“ geht es im vorliegenden Lehrbuch darum, Studierenden und Praktikern beim Erwerb analytischer Fähigkeiten und einer problemlösungsorientierten Methodenkompetenz zu helfen.

Für die Unternehmen der Agrar- und Ernährungswirtschaft haben sich die wirtschaftlichen Rahmenbedingungen in den letzten Jahren stark verändert. Insbesondere der Wettbewerbsdruck und das unternehmerische Risiko sind infolge der Liberalisierung der Agrarmärkte und des Klimawandels angestiegen. Hinzu kommen ein laufender Anpassungsdruck an veränderte Verbraucherwünsche, neue gesellschaftliche Anforderungen sowie eine zunehmende Verflechtung zwischen den verschiedenen Stufen der Wertschöpfungskette. Das vorliegende Lehrbuch trägt diesen Entwicklungen durch die Fokussierung auf die praktische unternehmerische Entscheidungsunterstützung unter Risiko Rechnung.

Dieses Buch schafft zum einen das theoretisch-konzeptionelle Verständnis für die grundlegenden ökonomischen Strukturen der wichtigsten unternehmerischen Entscheidungsanlässe. Zum anderen vermittelt es das handwerkliche Können im Umgang mit betriebswirtschaftlichen Analyse- und Planungsinstrumenten, über das Manager in einer unsicheren Unternehmensumwelt verfügen müssen, um erfolgreiche Entscheidungen fällen zu können.

Aus dem Inhalt:

• Grundlagen und Ziele unternehmerischen Entscheidens

• Kontrolle und Analyse

• Produktionstheorie

• Produktionsprogrammplanung

• Investitionsplanung und Finanzierung

• Querschnittsaufgabe Risikomanagement

• Bewertung und Taxation

• Corporate Social Responsibility

Über die Autoren:

Prof. Dr. Oliver Mußhoff leitet den Arbeitsbereich für Landwirtschaftliche Betriebslehre am Department für Agrarökonomie und Rurale Entwicklung der Georg-August-Universität Göttingen.

Prof. Dr. Norbert Hirschauer ist Inhaber der Professur für Unternehmensführung im Agribusiness am Institut für Agrar- und Ernährungswissenschaften der Martin-Luther-Universität Halle-Wittenberg.

(Logo Vahlens Online Materialien)

Für Dozenten steht auf der Website ein auf das Buch abgestimmter Foliensatz mit den Abbildungen und Tabellen des Buches zur Verfügung. Für Studierende sind Übungsaufgaben formuliert.