Content

3. Kausale Prognosen in:

Louis Perridon, Manfred Steiner, Andreas W. Rathgeber

Finanzwirtschaft der Unternehmung, page 695 - 698

16. Edition 2012, ISBN print: 978-3-8006-3991-5, ISBN online: 978-3-8006-4900-6, https://doi.org/10.15358/9783800649006_695

Series: Vahlens Handbücher der Wirtschafts- und Sozialwissenschaften

Bibliographic information
F. Finanzplanung684 können diese nach einem Verfahren, das Gahse angibt,15 auch um die prognostizierte Trendkurve fortgeschrieben werden. Die korrigierten Prognosewerte sind das Produkt aus ursprünglichen auf der Trendkurve liegenden Werten und einem Zyklusfaktor. Vt (k) = zk · xt (k). Gahse ermittelt die Zyklusfaktoren durch exponentielle Glättung erster Ordnung. Alternativ könnten nach obigem Verfahren berechnete Indexwerte, für Zyklen entsprechend aufgestellt, als Zyklusfaktoren dienen. 3. Kausale Prognosen In den bisher dargestellten Verfahren wurde eine Größe rein zeitabhängig gesehen. Dagegen stellen kausale Prognosen eine Größe in Abhängigkeit von einer anderen dar, bspw. kann der Lagerbestand in Abhängigkeit vom Umsatz untersucht werden. Für zwei Größen y, x gilt allgemein: y = f (x). Für die Prognose von y aus x sind zwei Konstellationen denkbar: 1. Wurde x beobachtet, kann nach k Perioden regelmäßig mit der Beobachtung von y gerechnet werden (Time Lag): y (t + k) = f (x (t)). 2. y und x treten regelmäßig gleichzeitig auf, wobei x durch ein extrapolierendes Verfahren prognostiziert werden kann: y (t + k) = f (x (t + k)). Kausale Prognosen treten als deterministische oder stochastische Prognosen auf. 1. deterministische Prognosen Von den Größen y und x wird angenommen, dass sie in einem eindeutigen Ursache- Wirkungs-Zusammehang stehen. Die Prognose erfolgt damit unter der Hypothese sicherer Erwartungen und ist somit eindeutig möglich. 2. stochastische Prognosen Die Zusammenhänge zwischen den Größen sind nicht eindeutig determiniert, sondern nur durch eine Wahrscheinlichkeitsverteilung anzugeben. Die Prognose ist dann immer mit einer Unsicherheit belastet, die Prognosewerte werden ebenfalls durch Wahrscheinlichkeitsverteilungen beschrieben. Als kausale Prognoseverfahren finden häufig einfache und multiple Regressionsansätze Verwendung. Bei der linearen Einfachregression stehen zwei Größen y und x in folgendem linearen Zusammenhang: y = a + b · x wobei x die erklärende und y die erklärte Größe ist. Das Verfahren ist analog zur Methode der kleinsten quadratischen Abweichung (Vgl. F II 2. a) anzuwenden, jedoch wird hier eine allgemein erklärende Variable regressiert und nicht eine zeitabhängige Variable wie vorher. 15 Vgl. Gahse, Mathematische Vorhersageverfahren, 1971, S. 70 ff. II. Prognosemethoden im Rahmen der Finanzplanung 685 Neben der einfachen linearen gibt es noch eine Reihe von einfachen nicht linearen Regressionsansätzen, wie der Exponentialfunktion y = a · eb · x, der logarithmischen Funktion y = a · log(b + c · x), und der Parabel-Funktion y = a + b · x + c · x2. Charakteristisch für alle einfachen Regressionsansätze ist, dass die Größe y aus nur einer Größe x erklärt wird. Die Beschränkung auf eine erklärende Größe ist eine oft hinderliche Einschränkung. Die Einfachregression wurde deshalb zur multiplen Regression erweitert, bei der die erklärte Größe aus mehreren Größen erklärbar wird. Für die lineare multiple Regression lautet die Grundgleichung: y = a + b1x1 + b2x2 + … + bkxk. Auf die weitere Behandlung der multiplen Regression muss wegen der Komplexität des Gebietes verzichtet und auf einschlägige Fachliteratur verwiesen werden.16 Seit einigen Jahren gewinnen bei der stochastischen Prognose moderne Zeitreihen- Verfahren immer mehr an Bedeutung. Die traditionelle Ökonometrie basierte bislang primär auf der Regressionsanalyse. In Eingleichungsmodellen wird eine abhängige Variable durch eine unabhängige Variable (Einfachregression) oder durch mehrere unabhängige Variablen (multiple Regression) erklärt. Jedoch zeigt sich die Realität (z. B. eine Volkswirtschaft) viel komplexer als es multiple Regressionen erfassen können. So hängen die erklärenden Variablen wiederum selbst von anderen Einflussfaktoren ab. Die adäquate Modellierung ist daher ein Mehrgleichungssystem. Lange Zeit glaubte man, je größer das Modell ist, desto besser. Die Modellphilosophie der Zeitreihenanalyse ist eine andere. Box und Jenkins17 schlugen einfache Eingleichungsmodelle vor, die eine Zeitreihe aus sich selbst heraus darstellen. Diese dynamische Struktur von Gleichungen ist im Gegensatz zu den obigen statischen Modellen für die empirische Umsetzung von zentraler Bedeutung. Modelle nach Box und Jenkins sind auch als ARMA (autoregressive moving average) Modelle bekannt. Als erklärenden Variablen werden in einem ARMA-Modell nur die Zeitverzögerungen der abhängigen Variablen verwendet. Es gibt daher keine wirklichen exogenen Variablen im Modell. Man versucht die abhängige Größe nur aus sich selbst heraus zu erklären. Damit besitzt man ein sehr einfaches univariates Modell, das aber dynamische Effekte sehr flexibel und genau einfangen kann. Für die moderne Zeitreihenanalyse ist der Begriff „Stationarität“ zentral. Grob lässt sich die Stationarität von Zeitreihen wie folgt definieren: Eine Reihe ist dann (schwach) stationär, wenn sie um einen konstanten Mittelwert schwankt und eine konstante Varianz hat. Werden nicht-stationäre Zeitreihen aufeinander regressiert, können Scheinkorrelationen auftreten, d. h. es werden Zusammenhänge postuliert, die nicht in diesem Ausmaß vorhanden sind.18 Zudem konvergieren die Regressionskoeffizienten nicht gegen ihren wahren Wert. Zur Überprüfung solcher Zeitreihen auf Stationarität werden sog. Einheitswurzeltests verwendet. Der bekannteste Einheitswurzeltest ist der von Dickey und Fuller (1979). Weist eine Zeitreihe eine Einheitswurzel auf, dann spricht man von einer integrierten Zeitreihe. 16 Vgl. Gaensslen, Schubö, Statistische Analyse, 1976. 17 Vgl. Box, Jenkins, Time Series Analysis, 1976. 18 Vgl. Granger, Newbold, Spurious Regressions, 1974. F. Finanzplanung686 Eine erste Lösung dieses Problems war, die Variablen nicht mehr als Niveauwerte, sondern als Veränderungsraten in Regressionen zu verwenden. Doch hat diese Vorgehensweise einen wesentlichen Nachteil, sie verdeckt bei real abhängigen Prozessen die Kausalbeziehungen in den Niveauwerten. Engle und Granger (1987) haben zur Lösung dieses Dilemmas das Kointegrationskonzept entwickelt. Mit diesem kann untersucht werden, ob ein System aus mehreren nicht-stationären Variablen ein langfristiges Gleichgewicht besitzt, das auf der Grundlage plausibler Überlegungen begründbar ist. Von diesem Gleichgewichtspfad, an dem die Größen gekoppelt sind, können jedoch kurzfristige Abweichungen auftreten. Sind diese Abweichungen stationär, besteht die Neigung zu ihrer Rückbildung, die den langfristigen Zusammenhang wieder festigt. Liegt dieses Verhalten vor, dann ist davon auszugehen, dass die untersuchten Zeitreihen kointegriert sind. Mit dem sog. Granger-Repräsentationstheorem beweisen Engle und Granger (1987) die enge Beziehung zwischen Kointegration und Fehlerkorrekturmodell in der Form, dass jede Kointegrationsbeziehung durch ein Fehlerkorrekturmodell dargestellt werden kann und dass umgekehrt ein Fehlerkorrekturmodell eine Kointegrationsbeziehung impliziert. Das Konzept der Kointegration von Zeitreihen und darauf aufbauend die Fehlerkorrekturmodelle stellen eine wichtige Entwicklung dar und sind seit einigen Jahren Gegenstand intensiver Forschungsarbeiten. Theoretische und empirische Arbeiten auf diesem Gebiet sind heute in ihrer Fülle fast unüberschaubar.19 Heute ist das Engle-Granger-Verfahren von dem Verfahren von Johansen (1988), das zu der zweiten Generation von Kointegrationsmodellen gehört, weitgehend in der Praxis abgelöst worden. Eine weitere wichtige Errungenschaft in der Zeitreihenanalyse ist die bahnbrechende Arbeit von Engle (1982) zur Modellierung der Volatilität einer Zeitreihe. Bis dahin hat man meist angenommen, dass die Volatilität einer Variablen konstant ist. Erst empirische Untersuchungen von Finanzmarktrenditen haben aufgedeckt, dass diese Annahme in der Realität nicht richtig ist. Die Volatilität an Finanzmärkten zeigt sich volatil. Zwar scheint sich die Volatilität nur langsam zu verändern, denn es gibt typischerweise lange Phasen von relativ ruhigen Märkten mit geringer Volatilität, und auch Phasen mit starken Kursschwankungen weisen relativ große Persistenz auf. Bei der Modellierung dieses Phänomens tritt das Problem auf, dass die Volatilität einer Variablen nicht direkt beobachtbar ist. In der Statistik wird die Volatilität einer Variablen durch die Varianz oder Standardabweichung gemessen. Jedoch lässt sich mit einer unbekannten Größe keine einfache Kleinste-Quadrate-Methode schätzen. Engle behilft sich in der Art, dass er die Volatilität als Varianz der Normalverteilung spezifiziert und in einem regressionsähnlichen Ansatz die Varianz von den quadrierten Werten der zugrunde liegenden Variablen abhängig macht. Dieses Modell ist unter dem Kürzel ARCH bekannt und wird mit der Maximum-Likelihood-Methode geschätzt. Dabei steht AR wie bei dem ARMA-Modell für „autoregressive“, aber hier in einer etwas anderen Bedeutung. Die zu erklärende Variable Varianz zum gegenwärtigen Zeitpunkt ist nicht abhängig von eigenen zeitverzögernden Werten, sondern von zeitverzögernden Werten der ursprünglichen Zeitreihe, deren Varianz modelliert werden soll. Die Buchstaben CH stehen für „conditional heteroskedasticity“, also bedingte Heteroskedastizität, und bedeutet, dass die Varianz einer Variablen nicht konstant ist. 19 Aus diesem Grund wird hier auch nicht der Versuch unternommen, einen annähernd vollständigen Überblick zu geben. Auszugsweise seien erwähnt Stock, Asymptotic Properties, 1987; Engle, Yoo, Cointegrated Economic Time Series, 1991; Johansen, Likelihood-Based Inference, 1995; Harris, Cointegrated Analysis, 1995; Banerjee et al., Co-Integration, 2000; Maddala, Kim, Unit Roots, 2000 und Wagatha, Makroökonomische Schocks, 2004. III. Kapitalbedarfsplanung 687 Bollerslev (1986) erweitert das ARCH-Modell zum GARCH-Modell (Generalized ARCH), indem er gegenüber dem ursprünglichen ARCH-Modell auch Zeitverzögerungen der bedingten Heteroskedastizität einbindet. Als sehr nützliches und erfolgreiches Modell gilt das EGARCH-Modell (Exponential GARCH) von Nelson (1991), das durch eine etwas andere funktionale Form der Volatilitätsgleichung sicherstellt, dass Volatilitäten nie negativ werden können, und das asymmetrische Volatilitätseffekte zulässt, die oft auf Aktienmärkten zu beobachten sind. An vielen dieser Erweiterungen war Engle selbst beteiligt. Heute steht die Abkürzung ARCH als generischer Name für alle ARCH-Varianten, die entwickelt wurden. Hauptanwendungsgebiet von ARCH- Modellen sind die Finanzmärkte, da es keine ökonometrisch überzeugende Alternative gibt, variable Volatilitäten zu modellieren, zu quantifizieren und zu prognostizieren. Die ARCH-Modelle haben damit ein völlig neues und sehr weites Forschungsfeld eröffnet. Kointegrationsanalysen und ARCH-Modelle gehören mittlerweile zum Standardrepertoire der empirischen Wirtschaftsforschung. Gewürdigt wurde diese überaus große Bedeutung der beiden Konzepte für Wissenschaft und Wirtschaft im Jahr 2003 mit dem Nobelpreis für Robert F. Engle und Clive W. J. Granger. Eine Sammlung der wichtigsten Aufsätze findet sich für die Kointegration in Engle und Granger (1991) und für die ARCH-Modelle in Engle (1995). III. Kapitalbedarfsplanung 1. Prognoseplanung Im Rahmen der Prognoseplanung wird eine langfristige Vorschau über die finanzwirtschaftliche Entwicklung einer Unternehmung erstellt. Es werden die zukünftige Kapitalbindung und ein etwaiger Kapitalbedarf aufgezeigt. Ausgangspunkt der Planung ist die Prognose des Umsatzes bzw. der Gesamtleistung und des voraussichtlichen Unternehmenswachstums. Aus dem Planumsatz können dann die umsatzbedingten Bilanzveränderungen und Ergebnisentwicklungen ermittelt werden. Da ist zum einen das Betriebsergebnis, das ergänzt um das Finanzergebnis und a. o. Ergebnis zum Plangewinn führt. Zum anderen kann die Höhe bestimmter Bilanzbestände, wie etwa Verbindlichkeiten und Forderungen aus Lieferungen und Leistungen, als umsatzabhängig angesehen werden. Zur Erstellung der Planbilanz ist zusätzlich noch die Planung der umsatzunabhängigen (bestandbedingten) Bilanzveränderungen erforderlich. Aus der Planbilanz, die auch als Bewegungsbilanz (Kapitalflussrechnung) erstellt werden kann, lässt sich Umfang und Art der Kapitalbindung erkennen. Unter Berücksichtigung des Bilanzgewinns kann dann ein etwaiger Kapitalbedarf ermittelt werden (vgl. Abbildung F 16). Die Umsatzplanung kann als Zeitreihenanalyse, basierend auf dem Verfahren der exponentiellen Glättung oder der Methode der kleinsten Quadrate, durchgeführt werden. Daneben ist auch eine kausale Prognose in Form einer einfachen oder multiplen Regression möglich. Als Einflussgrößen kommen dabei u.a. in Betracht: gesamtwirtschaftliches Wachstum, Branchenwachstum, Marketingaufwand und Marktwachstum in Verbindung mit Marktanteil und Grad der Marktsättigung. Im Rahmen einer externen Kapitalbedarfsanalyse kann die Gesamtleistung der nächsten Periode hilfsweise in Abhängigkeit vom Bestand der Sachanlagen bzw. ihrer Verände-

Chapter Preview

References

Zusammenfassung

"...gehört zu den etablierten Standardwerken für den gesamten Bereich der Investition und Finanzierung." boerse.de-MAGAZIN

Dieses Lehrbuch und Nachschlagewerk ist das Standardwerk für den gesamten Bereich der Investition und Finanzierung nach deutschem Recht. Neben den wichtigen Methoden der klassischen Finanz- und Investitionstheorie werden auch neue Finanzinstrumente und Erkenntnisse im Bereich der Kapitalmärkte erläutert, sodass dem Leser ein fundierter Überblick über den aktuellsten Stand der Forschung ermöglicht wird.

Aus dem Inhalt

- Management der Vermögensstruktur - Investitionsrechnung und Disposition des Umlaufvermögens

- Wertpapiergeschäfte - Analyse von Aktien und Aktienindizes sowie Wertpapierprogrammentscheidungen und Risikomanagement mit Termingeschäften

- Alternativen der Kapitalaufbringung - Finanzierungsformen, Kapitalstruktur und Verschuldungspolitik

- Finanzanalyse - Kennzahlenanalyse und Kapitalflussrechnung

- Finanzplanung - Kapitalbedarf- und Liquiditätsplanung, Plananpassung und Kontrolle

Die Autoren

Dr. Dr. h.c. Louis Perridon und Dr. Manfred Steiner waren bis zu ihrer Emeritierung Professoren für Betriebswirtschaftslehre an der Universität Augsburg. Dr. Andreas Rathgeber ist Professor am Institut Materials Resource Management und am Kernkompetenzzentrum Finanz- und Informationsmanagement an der Universität Augsburg.