Content

6.1 Entscheidungsregeln; LPI-Modelle in:

Günter Bamberg, Adolf Gerhard Coenenberg, Michael Krapp

Betriebswirtschaftliche Entscheidungslehre, page 134 - 139

15. Edition 2012, ISBN print: 978-3-8006-4518-3, ISBN online: 978-3-8006-4519-0, https://doi.org/10.15358/9783800645190_134

Series: Vahlens Kurzlehrbücher

Bibliographic information
6. Entscheidungen bei variabler Informationsstruktur Zwischen den bereits behandelten Risikosituationen und den Ungewissheitssituationen sind eine Reihe von Mischformen denkbar. Hier sollen einige Entscheidungssituationen behandelt werden, die insofern Mischformen darstellen als a) die Wahrscheinlichkeiten selbst unsicher sind oder zur Bildung eines Nutzenerwartungswertes nicht ausreichen, b) die Möglichkeit in Betracht gezogen wird, das Risiko oder die Ungewissheit durch Informationsbeschaffungsmaßnahmen zu verringern. Der Fall a) lässt sich in die beiden Unterfälle aufgliedern: α) Die Wahrscheinlichkeiten lassen zwar die Bildung eines Nu enerwartungswertes zu, sind jedoch so unsicher, dass sich der Entscheidungsträger nicht voll auf den Nu enerwartungswert verlassen will. β) Aus den gegebenen Wahrscheinlichkeitsangaben lässt sich kein Nu enerwartungswert bilden. Was darunter zu verstehen ist, sei an dem bereits in Abschni 4.1 erwähnten Beispiel erläutert: z1 z2 z3 a1 u11 u12 u13 a2 u21 u22 u23 In dieser Entscheidungssituation sei nur bekannt, dass z3 mit der Wahrscheinlichkeit 0,4 eintri und auf {z1, z2} die Restwahrscheinlichkeit von 0,6 entfällt; diese partielle Information ist zu grob, um den Nu enerwartungswert von a1 oder a2 berechnen zu können (außer in dem Spezialfall u11 = u12 oder u21 = u22). DerAbschni 6.1 behandelt Entscheidungsregeln, die aufα) und β) zugeschnitten sind. Einige Probleme, die der Fall b) aufwirft, werden in den restlichen Abschni en behandelt. 6.1 Entscheidungsregeln; LPI-Modelle Da es nur auf das Prinzipielle ankommt, genügt es wieder, einen endlichen Zustands- und Aktionenraum und damit folgende Entscheidungsmatrix zu betrachten: U = u11 · · · u1n... . . . ... um1 · · · umn . 124 6. Entscheidungen bei variabler Informationsstruktur 6.1.1 Entscheidungsregeln bei unzuverlässiger Zustandsverteilung Liegen dem Entscheidungsträger Wahrscheinlichkeiten p1, p2, . . . , pn für das Eintreten der relevanten Umfeldzustände vor und erscheinen diese Wahrscheinlichkeiten einerseits noch so zuverlässig, dass eine Ignorierung nicht ratsam ist, aber andererseits so unzuverlässig, dass die alleinige Orientierung am Nu enerwartungswert ebenfalls nicht ratsam ist, so kommt die Hodges- Lehmann-Regel¹ als adäquate Entscheidungsregel in Betracht. Die Hodges- Lehmann-Regel benu t das Gütemaß Φ(ai) = λ · n∑ j=1 uijpj + (1 − λ) · min j uij zur Beurteilung der Aktion ai (i = 1, . . . ,m). Aktionen mit einem größeren Φ-Wert werden gegenüber anderen Aktionen präferiert. Der Parameter λ ist dabei vom Entscheidungsträger selbst zwischen 0 und 1 fes ulegen; für jedes λ ergibt sich eine andere Entscheidungsregel. λ wird als Vertrauensparameter bezeichnet, da wachsende λ-Werte einem wachsenden Vertrauen in die als a-priori-Verteilung bezeichnete Wahrscheinlichkeitsverteilung (p1, p2, . . . , pn) entsprechen. Für λ = 0 beurteilt die Hodges-Lehmann-Regel die verschiedenen Aktionen ai ausschließlich auf Grund des ungünstigsten Nu enwertes min j uij . Sie stimmt also in diesem Fall mit der Maximin-Regel überein. Für λ = 1 beurteilt die Hodges-Lehmann-Regel die verschiedenen Aktionen ai auf Grund des Nu enerwartungswertes n∑ j=1 uijpj . Die Hodges-Lehmann-Regel stimmt also in diesem Fall mit der Bayes-Regel bezüglich der a-priori-Verteilung (p1, . . . , pn) überein. Nach der Hodges- Lehmann-Regel ist demnach für λ = 0 jedeMaximin-Aktion und für λ = 1 jede Bayes-Aktion bezüglich der gegebenen a-priori-Verteilung optimal. Man kann also sagen, dass die Hodges-Lehmann-Regel einen Kompromiss zwischen der Maximin-Regel und der Bayes-Regel darstellt. In analoger Weise könnte man sich auch Kompromisse zwischen der Bayes-Regel und den anderen in Kapitel 5 betrachteten Entscheidungsregeln (wie zum Beispiel der Maximax-Regel) vorstellen. Ein weiterer Vorschlag² zur Kombination der Maximin-Regel mit der Bayes-Regel stammt ebenfalls von Hodges/Lehmann (1952): ¹ Nach Hodges/Lehmann (1952). ² Es handelt sich hier um eine Entscheidungsregel unter der Nebenbedingung einer bestimmten Risikogrenze. Risikobegrenzungen spielen für betriebliche Entscheidungen eine bedeutsame Rolle und werden deshalb in der betriebswirtschaftlichen Literatur vielfach als ein charakteristisches Merkmal rationaler Entscheidungsregeln betrachtet. Auf dem Prinzip der Risikobegrenzung beruht beispielsweise die von Koch (1970) entwickelte Theorie der Sekundäranpassung. 6.1 Entscheidungsregeln; LPI-Modelle 125 a) Der Entscheidungsträger gibt sich einen Nu en u0 vor, dessen Erreichung durch die auszuwählende Aktion auf jeden Fall gesichert sein muss. Dabei darf der garantierte Nu en u0 selbstverständlich nicht größer als max i min j uij vorgegebenwerden, denn dies ist der höchste Nu en, der durch eine Aktion (nämlich eine Maximin-Aktion) garantiert werden kann. b) Unter allenAktionen, die denNu en u0 garantieren,wird eine Bayes-Aktion bezüglich der a-priori-Verteilung (p1, p2, . . . , pn) ausgewählt. Eine so bestimmte Aktion, etwa ak, besi t demnach die Eigenschaften: min j ukj ≧ u0 und n∑ j=1 ukjpj ≧ n∑ j=1 uijpj für alle i, die min j uij ≧ u0 erfüllen. Die Vorgabe von u0 kannman als Sicherung eines Anspruchsniveaus auffassen. Wird u0 maximal, also u0 = max i min j uij vorgegeben, so sind nur geeignete Maximin-Aktionen optimal, nämlich diejenigen, die den a-priori-Nu enerwartungswert maximieren. Wird im anderen Extremfall u0 ≦ min i min j uij vorgegeben, also keine echte Nebenbedingung gefordert, so ist jede Bayes- Aktion bezüglich der a-priori-Verteilung (p1, . . . , pn) optimal. 6.1.2 Entscheidungsregeln bei partieller Information; LPI-Modelle Zu Beginn des Kapitels wurde die Problematik einer partiellen Information angesprochen und anhand des Zustandsraumes {z1, z2, z3}mit der Information P(z1) + P(z2) = 0,6 und P(z3) = 0,4 verdeutlicht. Eine weitere denkbare partielle Information ist beispielsweise durch P(z1) ≧ P(z2) ≧ P(z3) gegeben. In diesem Fall wäre an Stelle der Zustandsverteilung lediglich bekannt, dass z1 die größte, z2 die zweitgrößte und z3 die geringste Chance auf Realisation besi t. Eine nahe liegende Möglichkeit zur Ausnu ung partieller Informationen besteht darin, alle mit der partiellen Information verträglichen Zustandsverteilungen angemessen zu berücksichtigen. Genauer gesagt wird der Entscheidungssituationmit partieller Information eineUngewissheitssituation zugeordnet, indem die Aktionen beibehalten werden, sämtliche mit der 126 6. Entscheidungen bei variabler Informationsstruktur partiellen Information verträglichen Zustandsverteilungen p = (p1, . . . , pn) als neue Zustände aufgefasst werden und der Erwartungswert n∑ j=1 uijpj als Nu en g(ai, p) der Aktion ai und des „Zustands“ p betrachtet wird. Auf diese zugeordnete Ungewissheitssituation können im Prinzip alle Entscheidungsregeln aus Kapitel 5 angewandt werden. In obigen Beispielen besi en die zugeordneten Ungewissheitssituationen demnach die Zustandsräume {(p1, p2, p3) | p1 + p2 = 0, 6; p1 + p2 + p3 = 1; pj ≧ 0} bzw. {(p1, p2, p3) | p1 ≧ p2 ≧ p3; p1 + p2 + p3 = 1; pj ≧ 0} und jeweils die „Nu enfunktion“ g(ai, p) = ui1p1 + ui2p2 + ui3p3 . Es sind zwar beliebig geartete partielle Informationen denkbar; besonders anwendungsträchtig scheinen jedoch die linearen partiellen Informationen zu sein. Eine lineare partielle Information liegt dann vor, wenn alle Kenntnisse über die Zustandswahrscheinlichkeiten durch lineare Gleichungen oder lineare Ungleichungen beschrieben werden können. Die beiden bislang betrachteten partiellen Informationen sind offenbar von diesem Typ. Die tragfähigste Ausbaustufe aller Modelle mit partieller Information wurde dank der Monografie von Kofler/Menges (1976) bei den LPI-Modellen erreicht. Dabei handelt es sich umModelle mit linearer partieller Information, bei denen in der zugeordneten Ungewissheitssituation das Maximin-Prinzip angewandt wird. Im Folgenden soll über einige wichtige Eigenschaften der LPI-Modelle berichtet werden: a) Als Erstes kann festgestellt werden, dass die Menge aller mit der linearen partiellen Information verträglichen Zustandsverteilungen p ein Polyeder bildet. b) Ferner ist eine optimale Aktion a∗ eines LPI-Modells definitionsgemäß durch min p g(a∗, p) = max a min p g(a, p) bestimmt, wobei sich die Minimierung jeweils über alle Verteilungen p des Polyeders erstreckt. c) Da die „Nu enfunktion“ g(a, p) eine lineare Funktion von p ist, wird das Minimum jeweils an einer Ecke des Polyeders erreicht. d) In dem wichtigen Spezialfall, dass die lineare partielle Information aus einem System von Ungleichungen der Form pj ≧ pk besteht, kann das Aufsuchen der Ecken des Polyeders durch den nachfolgenden Sa 6.1 beträchtlich vereinfacht werden. 6.1 Entscheidungsregeln; LPI-Modelle 127 Für die Sa formulierung ist es zweckmäßig, die lineare partielle Information durch einen gerichteten Grafen darzustellen, dessen Knoten die (ursprünglichen) Zustände z1, . . . , zn sind und bei dem zwei Knoten zj und zk genau dann durch einen Pfeil verbunden werden, wenn die Ungleichung pj ≧ pk gegeben ist. Die Pfeilspi e zeige jeweils zu dem weniger wahrscheinlichen Zustand (hier also zu zk). Abbildung 6.1 veranschaulicht diesen Grafen anhand eines Beispiels mit n = 5 Zuständen und der linearen partiellen Information p1 ≧ p3, p2 ≧ p3 und p5 ≧ p4 . z1 z2 z3 z4 z5 Abb. 6.1: Veranschaulichung einer linearen partiellen Information Nun benötigen wir noch die Definition eines zulässigen und zusammenhängenden Trägers. Für eine gegebene Zustandsverteilung pwerde dieMenge aller Zustände, die bei p mit positiver Wahrscheinlichkeit vorkommen, als Träger T(p) von p bezeichnet. Ist pmit der linearen partiellen Information verträglich, so heißt T(p) ein zulässiger Träger. Im Beispiel der Abbildung 6.1 ist etwa p= ( 1 2 , 1 2 , 0, 0, 0 ) mit der linearen partiellen Information verträglich und {z1, z2} infolgedessen ein zulässiger Träger. Ein Träger heißt zusammenhängend, wenn der von ihm gebildete ungerichtete³ Teilgraf die Eigenschaft hat, dass je zwei seiner Zustände verbunden sind. Im Beispiel der Abbildung 6.1 sind etwa {z4, z5}, {z1, z2, z3}, nicht jedoch {z1, z2} oder {z2, z4} zusammenhängende Träger. Damit gilt das folgende von Bühler (1975) bewiesene Ergebnis: Sa 6.1: In einem LPI-Modell ist eine Zustandsverteilung p genau dann eine Eckpunktverteilung (das heißt eine Ecke des durch die lineare partielle Information bestimmten Polyeders), wenn a) der Träger T(p) zulässig und zusammenhängend ist und b) p eine Gleichverteilung auf dem Träger T(p) darstellt. Wir wollen diesen Sa auf das Beispiel der Abbildung 6.1 anwenden. Die zulässigen und zusammenhängenden Träger findet man am schnellsten, wenn man von den Zuständen, in die Pfeile münden, ausgeht. Gehört z3 zu einem Träger, so kann dieser wegen p1 ≧ p3 und p2 ≧ p3 nur dann zulässig sein, wenn auch z1 und z2 ebenfalls dazugehören. Muss dieser Träger auch noch ³ Das heißt, die Pfeilspi en werden als irrelevant erachtet. 128 6. Entscheidungen bei variabler Informationsstruktur zusammenhängend sein, so darf keiner der Zustände z4 oder z5 dazugehören. Mit solchen Überlegungen erkennt man rasch, dass {z1}, {z2}, {z5}, {z4, z5} und {z1, z2, z3} eine vollständige Liste zulässiger und zusammenhängender Träger ist. Demnach gibt es bei der linearen partiellen Information der Abbildung 6.1 genau 5 Eckpunktverteilungen p, die, als Spaltenvektoren geschrieben, lauten: 1 0 0 0 0 , 0 1 0 0 0 , 0 0 0 0 1 , 0 0 0 1 2 1 2 und 1 3 1 3 1 3 0 0 . Für die Berechnung einer optimalen Aktion sind jeweils nur diese 5 Eckpunktverteilungen durchzumustern (vgl. Aufgabe 6.2). Im obigen Beispiel der linearen partiellen Information p1 ≧ p2 ≧ p3 liefert Sa 6.1 übrigens die drei Eckpunktverteilungen 1 0 0 , 1 2 1 2 0 und 1 3 1 3 1 3 . 6.2 Informationsbeschaffungsaktionen bei vollkommenen Informationssystemen Im Abschni 2.2 wurden Informationssysteme behandelt und in Bezug auf die unterschiedlichen Möglichkeiten klassifiziert, die sich für einen Rückschluss von den Nachrichten y1, y2, . . . auf den wahren Umfeldzustand z ∈ Z ergeben. Die bisher außer Acht gelassenen Kosten der Informationsbeschaffung sollen nun explizit berücksichtigt werden. Wir beginnen die Diskussion mit dem einfachsten Fall, nämlich mit dem vollkommenen Informationssystem. Ein vollkommenes Informationssystem ist dadurch charakterisiert, dass aus einer empfangenenNachricht mit Sicherheit auf denwahren Zustand geschlossen werden kann. Solche Nachrichten können etwa aus • Gutachten von Experten, • Spionage bei der Konkurrenz, • statistischen Totalerhebungen aller potenziellen Kunden eines Produktes, • Datenbankabfragen resultieren. Wegen des sicheren Rückschlusses sind alle Informationsbeschaffungsaktionen gleichermaßenwirkungsvoll, so dass auf jeden Fall nur die (oder

Chapter Preview

References

Zusammenfassung

Vorteile

- Ein Lehr- und Lernbuch für einen einführenden Kurs in die Entscheidungstheorie

- Mit zahlreichen Aufgaben und Lösungen

Zum Werk

In Unternehmen werden und müssen Entscheidungen getroffen werden, deren Auswirkungen zum Teil große Konsequenzen auf die eigene Geschäftstätigkeit haben können.

Dieses Lehrbuch führt den Leser in die Entscheidungstheorie ein und stellt Entscheidungen bei Sicherheit, Risiko und Unsicherheit ausführlich dar. Es erläutert die Grundbegriffe der Spieltheorie ebenso wie die der dynamischen Programmierung.

Autoren

Prof. em. Dr. Dr. h.c. Günter Bamberg war Inhaber des Lehrstuhls für Statistik an der Universität Augsburg.

Prof. em. Dr. Dres. h.c. Adolf G. Coenenberg war Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insbesondere Wirtschaftsprüfung und Controlling, an der Universität Augsburg.

Prof. Dr. Michael Krapp ist Extraordinarius für Quantitative Methoden an der Universität Augsburg.

Zielgruppe

Studierende der Wirtschaftswissenschaften an Universitäten, Fachhochschulen und Berufsakademien.