Content

4. Daten auswerten in:

Franz-Rudolf Esch, Andreas Herrmann, Henrik Sattler

Marketing, page 139 - 175

Eine managementorientierte Einführung

4. Edition 2013, ISBN print: 978-3-8006-4691-3, ISBN online: 978-3-8006-4692-0, https://doi.org/10.15358/9783800646920_139

Bibliographic information
4. Daten auswerten Der Prozess der Datenauswertung lässt sich in mehrere Schritte untergliedern (Abbildung C.16). Am Beginn steht die Aufbereitung und Sichtung von Daten. 4.1 Daten aufbereiten und sichten „Höchste Weisheiten sind belanglose Daten, wenn man sie nicht zur Grundlage von Handlungen und Verhaltensweisen macht.“ Peter F. Drucker 122 C. Märkte analysieren Abbildung C.16: Prozess der Datenauswertung Kapitel_A-D 10.09.13 11:40 Seite 122 1234. Daten auswerten Um die gewonnenen Daten statistisch mittels einer geeigneten Software (z. B. SPSS) auswerten zu können, müssen diese zunächst kodiert (siehe hierzu Kapitel C. 3.2) und in eine Datenmatrix transformiert werden. Ein Beispiel für die Kodierung einer Likertskala ist in Abbildung C.17 für zwei Variablen wiedergegeben. Hierbei wurde die Kodierung schon im Vorfeld der Befragung vorgenommen. Die korrespondierende Datenmatrix findet sich in Abbildung C.18. Im nächsten Schritt muss die Datenmatrix auf fehlende, unlogische und nicht zulässige Eingaben überprüft werden. Es gibt zwei grundlegende Verfahrenskategorien, wie fehlende Werte, so genannte Missing Values, behandelt werden. Die erste Kategorie umfasst Abbildung C.17: Antworten zu Fragen auf einer kodierten Likertskala Abbildung C.18: Beispiel einer Datenmatrix emmitSemmitSnrefeiwnI„ :egarF uz llov thcin ragredneglof eiS nemmits Aussage zu: zu „Schokolade macht glücklich“ 1 2 3 4 5 Person 1 X X2 nosreP . . . Xn nosreP emmitSemmitSnrefeiwnI„ :egarF uz llov thcin ragredneglof eiS nemmits Aussage zu: zu „Schokolade hat viele Kalorien“ 1 2 3 4 5 X1 nosreP X2 nosreP . . . Xn nosreP Variable 1: Variable 2: . . . Variable z: Glück Kalorien . . . Person 1 5 4 . . . . . . Person 2 3 2 . . . . . . . . . . . . . . . . . . . . . Person n 4 3 . . . . . . Kapitel_A-D 10.09.13 11:40 Seite 123 Methoden, bei denen die fehlenden Werte als solche erhalten bleiben und die Datenanalyse auf Basis einer unvollständigen Datenmatrix vorgenommen wird. Die zweite Kategorie beinhaltet Verfahren, die eine Imputation der fehlenden Werte vornehmen, d. h. das Datenmaterial wird hier durch geeignete Schätzwerte für die fehlenden Werte vervollständigt (Schnell, 1991, S. 106; Zatloukal, 2002, S. 108): Innerhalb der so genannten Eliminierungsverfahren werden zwei Vorgehensweisen unterschieden. Entweder wird der gesamte Fall, bei dem Missing Values vorkommen, entfernt (listwise deletion, z. B. Entfernung sämtlicher Antworten einer Person) oder es wird nur die jeweilige Variable des Falls, die einen Missing Value aufweist, eliminiert (Lehmann/Gupta/Steckel, 1998, S. 346 f.). Die einfache Durchführung der Eliminierungsverfahren und ihre Implementation in den gängigen Softwarepaketen sprechen besonders für diese Methode. Der Vorteil der so genannten Imputationsverfahren liegt vor allem darin, dass der Stichprobenumfang nicht reduziert wird, es findet kein Informationsverlust statt. Auch hier werden zwei verschiedene Vorgehensweisen unterschieden. Bei den nicht-informativen Imputationsverfahren werden keine (oder nur sehr vereinfachte) Informationen aus dem vorhandenen Datensatz verwendet, um Werte zu generieren. Stattdessen werden Missing Values z. B. durch den Variablenmittelwert oder durch Expertenratings ersetzt. Informative Imputationsverfahren hingegen verwenden Informationen des vorliegenden Datensatzes. So werden z. B. Missing Values durch den Variablenwert des ähnlichsten, aber vollständigen Falles ersetzt (Nearest-Neighbor-Methode: z. B. Zatloukal, 2002). Bislang sind informative Imputationsverfahren aber nur sehr eingeschränkt in gängigen Statistik-Softwarepaketen integriert. Nachdem die Daten aufbereitet wurden, kann mit der eigentlichen Analyse begonnen werden. Datenanalyseverfahren lassen sich hinsichtlich verschiedener Kriterien klassifizieren. Am meisten verbreitet sind die Einteilungen nach der Anzahl der zu untersuchenden Variablen oder nach der Zielsetzung der Analyse: Wird nur eine Variable untersucht, so handelt es sich um ein univariates Verfahren. Die Untersuchung der Beziehung von zwei Variablen zueinander wird als bivariate Datenanalyse bezeichnet. Werden die Beziehungen von mehr als zwei Variablen untersucht, so liegen multivariate Analysen vor. Als erster Schritt einer Datenanalyse bieten sich Häufigkeitstabellen an, in denen die absoluten und relativen Häufigkeiten einer Variablen abgetragen werden. Durch eine grafische Darstellung der korrespondierenden Häufigkeitsverteilung werden Form und Lage der Verteilung sichtbar. Statistische Kennwerte geben Auskunft über spezielle Eigenschaften der Verteilung der Variablen. Hier interessieren vor allem Lageparameter, die die gesamte Verteilung repräsentieren, wie der Modus (am häufigsten besetzter Wert), der Median (Zentralwert oder auch mittlerer Wert) und das arithmetische Mittel (Mittelwert). Des Weiteren sind Streuungsparameter, die die Variabilität der einzelnen Werte beschreiben, wie die Varianz, die Standardabweichung (Quadratwurzel aus der Varianz) und die Spannweite, von Bedeutung. 124 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 124 1254. Daten auswerten Durch Betrachtung der Häufigkeitsverteilung einer Variablen und der dazugehörigen Verteilungsparameter, wie Mittelwert und Varianz, lassen sich wertvolle Erkenntnisse im Vorfeld weitergehender Datenanalysen gewinnen. In einem nächsten Schritt sind häufig inferenzstatistische Analysen nützlich. Im Bereich der univariaten Verfahren können der empirische Mittelwert der Stichprobe sowie die empirische Stichprobenverteilung mittels t- und χ2-Test gegen einen hypothetischen Mittelwert und eine hypothetisch vermutete Verteilung der Grundgesamtheit getestet werden (Bortz, 1999, S. 137 f.). Beispielsweise kann geprüft werden, ob die Variable „Schokolade macht glücklich“ normalverteilt ist. Als Prüfgröße dient in diesem Fall ein empirisch gemessener χ2-Wert. Mit einer bestimmten Irrtumswahrscheinlichkeit von z. B. 5% kann die Nullhypothese, dass keine Normalverteilung vorliegt, verworfen werden, sofern der empirisch gemessene χ2-Wert größer ist als der tabellierte theoretische χ2-Wert. Bei bivariaten Verfahren sind vor allem Vergleiche von Verteilungen oder zwischen Lageparametern von Interesse. Hierfür werden t-Tests für Parametertests und χ2-Tests für Verteilungstests herangezogen (Bortz, 1999, S. 137 f.). t-Test zur Zahlungsbereitschaft für Schokolade Angenommen es wurde die Zahlungsbereitschaft für Schokolade in zwei Stichproben A und B ermittelt, wobei Gruppe A nur weibliche Befragte und Gruppe B nur männliche Befragte enthält. Es soll nun die Nullhypothese überprüft werden, dass kein Unterschied zwischen den Mittelwerten der beiden Stichproben besteht (Angaben in Cent): Gruppe A: 58 56 53 55 55; MWA: 55; VarA: 2,8 Gruppe B: 50 51 49 48 50; MWB: 50; VarB: 1,2 temp = (MWA – MWB)/s · Wurzel (NA · NB/(NA + NB)); hier = 3,95 wobei: MWA bzw. MWB: Mittelwert der Zahlungsbereitschaft in Gruppe A bzw. B VarA bzw. VarB: Varianz der Zahlungsbereitschaft in Gruppe A bzw. B s2 = [(NA – 1) · VarA + (NB – 1) · VarB] / (NA + NB – 2) NA bzw. NB: Anzahl der Beobachtungen in Gruppe A bzw. B tkrit = 2,31; bei einer Vertrauenswahrscheinlichkeit von 95% und 8 Freiheitsgraden und einem zweiseitigen Test (d. h. 1– α/2 = 0,975). Da der empirische t-Wert den tabellarisch ermittelten kritischen t-Wert übersteigt, kann die Nullhypothese verworfen werden. Somit ist davon auszugehen, dass die Zahlungsbereitschaft von Frauen höher ist als die von Männern. Eine bivariate Analysemethode ist die Prüfung des Korrelationskoeffizienten r (nach Bravais-Pearson), der den linearen Zusammenhang zweier metrisch skalierter Variablen Kapitel_A-D 10.09.13 11:40 Seite 125 misst. Die Überprüfung, ob der gefundene Zusammenhang auch in der Grundgesamtheit statistisch signifikant ist, erfolgt ebenfalls mittels eines t-Tests. Der Korrelationskoeffi zient r liegt im Intervall zwischen –1 und +1, wobei –1 auf einen stark negativen linearen Zusammenhang und +1 auf einen stark positiven linearen Zusammenhang zwischen den Variablen hindeutet. Die Kontingenzanalyse (χ2-Test) ist eine bivariate Analysemethode für diskrete Variablen. Hierbei werden zwei Variablen auf ihre Unabhängigkeit in der Grundgesamtheit überprüft (Böhler, 2004, S. 191 ff.). Hierüber kann z. B. die Nullhypothese getestet werden, dass die Präferenz für Schokolade oder Chips und das Geschlecht der Befragten voneinander unabhängig sind. Ist der empirische χ2-Wert größer als der tabellarisch ermittelte kritische Wert, dann ist die Nullhypothese zu verwerfen, d. h. es ist nicht von einer Unabhängigkeit auszugehen. Wie bei allen statistischen Signifikanztests lässt der nachgewiesene Zusammenhang nicht zwingend auf eine Kausalität zwischen den beiden Variablen schließen. 4.2 Daten verdichten Eine erste Gruppe multivariater Analyseverfahren versucht, Daten zu verdichten. Hierzu zählen u. a. Faktorenanalysen. Eine Datenverdichtung ermöglicht es, eine große Menge von Variablen zu strukturieren und auf relevante Fragestellungen zu verdichten. Faktorenanalyse Mithilfe von Faktorenanalysen können eine Vielzahl teilweise miteinander zusammenhängender Variablen auf wenige voneinander unabhängige Faktoren verdichtet werden. Im Rahmen so genannter explorativer Faktorenanalysen sollen a priori unbekannte Zusammenhänge zwischen zwei oder mehreren Variablen aufgedeckt und zu Faktoren verdichtet werden. Die explorative Faktorenanalyse zählt daher zu den hypothesengenerierenden Verfahren. Bei so genannten konfirmatorischen Faktorenanalysen werden hingegen konkret vermutete Zusammenhänge zwischen Variablen überprüft. Die konfirmatorische Faktorenanalyse wird insbesondere zur Messung nicht direkt beobachtbarer, latenter Konstrukte eingesetzt (Homburg/Pflesser, 2000a, S. 415 ff.). Letztere stellen komplexe Größen dar, die nicht direkt gemessen werden können, sondern nur indirekt über Indikatorvariablen erfasst werden können. So könnte z. B. das Konstrukt Markentreue über die drei jeweils auf Rating-Skalen gemessenen Indikatorvariablen Wiederkaufabsicht, Wiederkaufhäufigkeit und Weiterempfehlungsabsicht gemessen werden. In diesem Fall wird a priori die Hypothese aufgestellt, dass die unterschiedlichen Aspekte der Markentreue über die drei genannten Indikatoren zu dem einen Faktor Markentreue verdichtet werden können. Da die konfirmatorische Faktorenanalyse als Spezialfall der Modellierung einer Kausalanalyse (siehe Kapitel C. 4.3) angesehen werden kann, werden 126 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 126 1274. Daten auswerten weitergehende Aspekte dort behandelt. Im Folgenden wird ausschließlich die explorative Faktorenanalyse betrachtet. Als Beispiel für die Vorgehensweise einer explorativen Faktorenanalyse soll eine Studentenbefragung zur Beurteilung der Vorlesungen von Professoren dienen. Als Beurteilungsdimensionen wurden 13 Variablen herangezogen, die verschiedene Aspekte der Vorlesungsqualität abbilden. Die 13 Variablen finden sich in Kurzform auf der linken Seite der Abbildung C.19. Sie wurden jeweils auf sechsstufigen Rating-Skalen gemessen. Die Variable Didaktik wurde z. B. folgendermaßen erhoben: „Inwiefern stimmen Sie folgender Aussage zu auf einer Skala von 1 = stimme gar nicht zu bis 6 = stimme voll zu: Die Vorlesung von Prof. X genügt didaktisch sehr hohen Anforderungen.“ Insgesamt lagen Antworten von 192 Studierenden zu sämtlichen 13 Variablen vor. Ordnet man die Variablen zeilenweise und die Studierenden (allgemein: Objekte) spaltenweise an, so führt dies zu einer Datenmatrix mit 13 · 192 = 2496 Datenpunkten. Im Vorhinein lagen keine konkreten Vorstellungen über Zusammenhänge zwischen den 13 Variablen vor. Bei einer Analyse der Korrelationsmatrix, welche die paarweisen Korrelationskoeffizienten zwischen den 13 Variablen in einer Matrix darstellt, ergaben sich allerdings hohe Korrelationen zwischen Teilen der Variablen (ein Ausschnitt der Korrelationsmatrix ist in Abbildung C.20 abgebildet). Dies war ein Hinweis, dass ggf. der Einsatz einer explorativen Faktorenanalyse von Nutzen sein könnte. In Ergänzung zur Korrela tionsmatrix lassen sich weitere Tests zur Eignung einer Faktorenanalyse einsetzen (z. B. Backhaus et al., 2011, S. 329 ff.). Die Verwendung einer explorativen Faktorenanalyse ist insbesondere aus zwei Gründen sinnvoll: Abbildung C.19: Beispiel für ein Ergebnis einer Faktorenanalyse Kapitel_A-D 10.09.13 11:40 Seite 127 Zum einen dient sie zur Datenreduktion bzw. einer anschaulicheren Dateninterpretation, im Anwendungsbeispiel führte sie zu einer Reduktion der 13 Variablen auf 5 Faktoren (Abbildung C.19). Zum anderen setzen viele multivariate Analyseverfahren voraus, dass die analysierten Variablen voneinander unabhängig sind. Besteht diese Unabhängigkeit nicht, so kann es zu schwerwiegenden Analysefehlern kommen (z. B. bei der Regressionsanalyse infolge so genannter Multikollinearität, siehe hierzu Kapitel C. 4.3). Die Grundannahme der Faktorenanalyse ist, dass sich die oben erläuterte (standardisierte) Datenmatrix Z als Linearkombination der Faktorladungen multipliziert mit den Faktorwerten darstellen lässt: Z = A · P. Hierin beschreibt A die Faktorladungsmatrix. In den Spalten dieser Matrix sind die Faktoren abgebildet (hier 5) und in den Zeilen die Variablen (hier 13). Die Faktorladung entspricht dem Korrelationskoeffizienten zwischen Faktor und Variable. P entspricht der Faktorwertematrix. In den Spalten dieser Matrix stehen die Objekte (hier die 192 Studierenden) und in den Zeilen die Faktoren (hier 5). Die Faktorenwerte geben die Ausprägungen der Faktoren im Hinblick auf die Objekte wieder, z. B. welche Ausprägung der Faktor „pädagogische Kompetenz“ aus Sicht eines bestimmten Studierenden hat. Unter der Annahme, dass die Faktoren untereinander unkorreliert – d. h. voneinander unabhängig – sind, lässt sich nun das so genannte Fundamentaltheorem der Faktorenanalyse herleiten (z. B. Backhaus et al., 2011, S. 344 f.): R = A · A’. Das Fundamentaltheorem der Faktorenanalyse besagt, dass sich die Korrelationsmatrix (R) der Ausgangsdatenmatrix durch die Faktorladungsmatrix abbilden lässt. Die Korrelationsmatrix R ergibt sich unmittelbar aus der Multiplikation der standardisierten Datenmatrix Z mit ihrer transponierten Z’, multipliziert mit Faktor 1 / (K–1), wobei K der Anzahl der Objekte entspricht (hier 192). Die Extraktion der Faktoren auf Basis der Korrelationsmatrix lässt sich grafisch veranschaulichen (siehe hierzu die linke Grafik in Abbildung C.21). Am Beispiel der Vorlesungsbeurteilung ist für die vier Variablen Nachvollziehbarkeit der Inhalte (Variable 10), Tempo (Variable 11), Medieneinsatz (Variable 12) und Verweise auf Beispiele (Variable 13) die Extraktion der zwei Faktoren „Stoffpräsentation“ und „Bildliche Darstellung“ erläutert. Aus Gründen der Übersichtlichkeit sind lediglich 4 Variablen in der Grafik wiedergegeben. In der Abbildung werden die Variablen als Vektoren dargestellt. Die Vektoren sind so angeordnet, dass der Cosinus des Winkels zwischen zwei Variablen dem dazugehöri- 128 C. Märkte analysieren 15° 85° 100° 70° 85°0,9659 0,0872 –0,1736 0,3420 0,0872 15° 0,9659 Abbildung C.20: Teilausschnitt einer Korrelationsmatrix Kapitel_A-D 10.09.13 11:40 Seite 128 1294. Daten auswerten gen Korrelationskoeffizienten entspricht. Beispielsweise ist der Korrelationskoeffizient zwischen der Variablen 10 und 11 in Höhe von 0,9659 gleich dem Cosinus von 15 Grad. In der unteren Halbmatrix der Abbildung C.20 sind die Korrelationskoeffizienten und in der oberen Halbmatrix die korrespondierenden Winkel wiedergegeben. Der erste Faktor ergibt sich aus der Resultante der vier Vektoren in Abbildung C.21 (linke Grafik). Der zweite Faktor wird rechtwinklig zum ersten angeordnet, da die Faktoren untereinander unkorreliert sind (der Cosinus von 90 Grad ist gleich 0, d. h. die Faktoren sind nicht korreliert). Die Faktorladungen sind nun unmittelbar gleich dem Cosinus des Winkels zwischen einem Faktor und einer Variablen. Um die Faktoren inhaltlich besser interpretieren zu können, ist es üblich, die Faktoren rechtwinklig zu rotieren, und zwar so, dass sich zwischen Variablen und Faktoren möglichst kleine Winkel und damit hohe Faktorladungen ergeben (siehe hierzu die rechte Grafik aus Abbildung C.21). Je kleiner der Winkel ist, desto höher ist die Faktorladung. Im Beispiel laden die Variablen 10 und 11 hoch auf den ersten Faktor und die Variablen 12 und 13 hoch auf den zweiten Faktor. Aufgabe des Marktforschers ist es, aus den jeweils hoch ladenden Variablen eine adäquate Bezeichnung für die Faktoren abzuleiten. Hierbei verbleibt immer ein subjektiver Ermessensspielraum. Die Anzahl der zu extrahierenden Faktoren sollte neben einer sinnvollen Interpretierbarkeit an der Varianzerklärung der Ursprungsvariablen ausgerichtet werden: 1. Für jeden Faktor kann gefordert werden, dass dieser mehr Varianz erklären sollte als eine Variable, da ein Faktor Informationen über mehrere Variablen in sich bündelt (so genanntes Kaiser-Kriterium). 2. Die Gesamtheit der Faktoren sollte einen hohen Anteil der Varianz sämtlicher Ausgangsvariablen erklären. Je mehr Faktoren extrahiert werden, desto mehr Varianz kann erklärt werden. Mit steigender Anzahl der Faktoren verliert die Faktorenanalyse allerdings ihre Fähigkeit zur Datenreduktion. In Anwendungsfällen begnügt man sich häufig mit 60 bis 80% Vari- Abbildung C.21: Grafische Extraktion von Faktoren Kapitel_A-D 10.09.13 11:40 Seite 129 anzerklärung. Im betrachteten Beispiel führt die Anwendung des Kaiser-Kriteriums zu einer Extraktion von 5 Faktoren aus den ursprünglich 13 Variablen, wobei die Faktoren 69% der Varianz erklären. Clusteranalyse Ziel einer Clusteranalyse ist es, Objekte (z. B. Kunden) so zu Gruppen (synonym Cluster) zusammenzufassen, dass die Objekte innerhalb der Gruppe bezüglich ausgewählter Variablen möglichst ähnlich sind, die Gruppen untereinander aber möglichst unterschiedlich sind. Die Clusteranalyse wird häufig zur Marktsegmentierung (siehe Kapitel D. 3.) herangezogen. So lassen sich z. B. weitgehend homogene Kundensegmente in Bezug auf ihre Produktpräferenzen identifizieren. Hierbei bilden die Produktpräferenzen die Clustervariablen, z. B. Nutzenwerte von Produkteigenschaften, die mittels einer Conjoint-Analyse (siehe Kapitel C. 4.4) individuell ermittelt wurden. Clusteranalysen können sich auch auf Wettbewerber (z. B. im Hinblick auf eingesetzte Preisstrategien und Innovationspotenziale), Handelsbetriebe (z. B. hinsichtlich Sortiment und Ladenausstattung) oder Persönlichkeitstypen (z. B. hinsichtlich Freizeit- und Einkaufsverhalten) beziehen. Hier soll die Clusteranalyse anhand des im vorangegangenen Abschnitt erläuterten Beispiels einer Studentenbefragung zur Beurteilung der Vorlesungen von Professoren erläutert werden. Die zu clusternden Objekte bilden die 192 befragten Studierenden. Analysiert werden sollte, ob sich Segmente von Studierenden mit homogenen Beurteilungen der Vorlesungen identifizieren lassen. Clustervariablen sind die mittels der Faktorenanalyse extrahierten 5 Faktoren „Pädagogische Kompetenz“, „Inhaltliche Kompetenz“, „Ausstrahlung“, „Stoffpräsentation“ und „Bildliche Darstellung“ (Abbildung C.23). Allgemein bietet sich die Vorschaltung einer Faktorenanalyse zur Extraktion unabhängiger Clustervariablen an, da sich hierdurch trennschärfere und besser interpretierbare Clus terlösungen ergeben. Sind die zu klassifizierenden Objekte und Clustervariablen ausgewählt, so muss vor Durchführung der Clusteranalyse zunächst ein Maß für die Ähnlichkeit bzw. Unähnlichkeit zwischen Objekten festgelegt werden. Auf Basis der gemessenen Ähnlichkeiten erfolgt eine Zuordnung der Objekte zu den Clustern. Je ähnlicher sich Objekte sind, desto höher ist die Wahrscheinlichkeit, dass sie in einem Cluster vereinigt werden. Die Wahl des Ähnlichkeitsmaßes hängt u. a. vom Skalenniveau ab. Bei metrischen Daten wird zumeist die euklidische Distanz verwendet. Hierbei wird zunächst für jedes Paar von Objekten (z. B. Student 1 im Vergleich zu Student 2) die quadrierte Differenz pro Variable bestimmt. Hat Student 1 z. B. beim Faktor Ausstrahlung eine 5 auf der sechsstufigen Skala und Student 2 eine 3 bei diesem Faktor angegeben, so beträgt die quadrierte Differenz (5–3)2 = 4. Anschließend wird die Summe der quadrierten Differenzen über alle Variablen (hier die 5 Faktoren) gebildet und hieraus die Quadratwurzel gezogen. Je höher die so berechnete euklidische Distanz ist, desto unähnlicher sind sich zwei Objekte. Bei nicht-metrischen 130 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 130 1314. Daten auswerten Variablen erfolgt häufig eine Transformation in binär kodierte Variablen (z. B. pädagogische Kompetenz vorhanden = 1 versus nicht vorhanden = 0). Für jedes Paar von Objekten wird dann bestimmt, wie häufig die Variablen bei beiden, bei einem der beiden oder bei keinem der beiden Objekte vorhanden sind. Auf Basis dieser Zählungen lassen sich dann verschiedenste Ähnlichkeitsmaße bestimmen (z. B. Büschken/von Thaden, 2000, S. 346 ff.). Sind die Ähnlichkeiten zwischen den Objekten bestimmt, so erfolgt die eigentliche Clus teranalyse mithilfe eines bestimmten Gruppierungsalgorithmus. Die größte praktische Bedeutung haben so genannte agglomerative hierarchische Verfahren: Vorgehensweise: Zunächst stellt jedes Objekt (hier jeder der 192 Studenten) ein eigenes Cluster dar. Im nächsten Schritt werden die beiden Cluster zusammengelegt, die die Abbildung C.22: Beispiel für ein Dendrogramm Kapitel_A-D 10.09.13 11:40 Seite 131 höchste Ähnlichkeit aufweisen. Im Beispiel ergeben sich 191 Cluster. Anschließend werden die Distanzen zwischen dem neuen und den übrigen Clustern bestimmt und wiederum die beiden ähnlichsten zu einem neuen Cluster zusammengefasst. Im Beispiel sind nun 190 Cluster vorhanden. Dieser Prozess wird sukzessive fortgesetzt, bis lediglich ein Cluster verbleibt. Ergebnis: Es ergibt sich eine hierarchisch aufgebaute Struktur alternativer Clusterbildungen, die sich in einem so genannten Dendrogramm darstellen lässt. Das Dendrogramm ist für eine Teilstichprobe der befragten Studierenden in Abbildung C.22 wiedergegeben. Hierin symbolisieren die unten angegebenen Zahlen einzelne Studierende. Auf der Vertikalen ist ein Maß für die Heterogenität der Clusterlösung auf der jeweiligen Hierarchiestufe abgetragen. Es misst über alle Cluster hinweg die Varianz innerhalb der Cluster bezüglich der Clustervariablen. Es stellt gleichzeitig ein Gütemaß der jeweiligen Clusterlösung dar. Je weniger Cluster gebildet werden, desto heterogener sind die gebildeten Cluster. Von daher erscheint es sinnvoll, viele Cluster zu bilden. Je mehr Cluster allerdings gebildet werden, desto schwieriger ist die Interpretation und der praktische Nutzen der gefundenen Clusterlösung sinkt. Hier muss der Marktforscher einen Trade-off bei der Ermittlung der Clusteranzahl vornehmen. Im Beispielfall ergab eine 2-Cluster-Lösung eine sinnvoll interpretierbare Lösung. Zudem betrug die Summe der Varianzen innerhalb der Cluster weniger als 50% der Gesamtvarianz, was auf eine vertretbar homogene Clusterlösung hindeutet. 132 C. Märkte analysieren Abbildung C.23: Ergebnis der 2-Cluster-Lösung Kapitel_A-D 10.09.13 11:40 Seite 132 1334. Daten auswerten Interpretation der Clusterlösung: Für die Interpretation ist es hilfreich, die Mittelwerte der hier fünf Clustervariablen pro Cluster zu vergleichen (Abbildung C.23). Es zeigen sich deutliche Unterschiede zwischen den beiden Clustern, insbesondere im Hinblick auf die ersten drei Faktoren. Das erste Segment von Studierenden nimmt sehr gute, das zweite Segment hingegen sehr schlechte Bewertungen vor. Von daher liegen die Bezeichnungen „die Begeisterten“ und „die Frustrierten“ nahe. 4.3 Datenzusammenhänge analysieren Um Zusammenhänge zwischen Daten zu analysieren, kann man Dependenzanalysen durchführen. Dependenzanalysen untersuchen, ob und in welchem Maße bestimmte unabhängige Variablen (z. B. Preis und Werbebudget) einen Einfluss auf abhängige Variablen (z. B. Absatz) ausüben. In diesem Abschnitt werden mit der Regressionsanalyse, logistischen Regression und Kausalanalyse drei gängige Verfahren der Dependenzanalyse betrachtet. Für die Wahl des Datenanalyseverfahrens ist das Skalenniveau der betrachteten Variablen ausschlaggebend. Regressionsanalysen Die Regressionsanalyse untersucht die lineare Beziehung zwischen einer abhängigen, metrisch skalierten Variablen (Y) und einer oder mehreren unabhängigen Variablen (X). In der Grundform sind die unabhängigen Variablen metrisch skaliert; es ist jedoch auch möglich, nicht-metrische, d. h. binäre oder kategorial ausgeprägte unabhängige Variablen in einer Regression zu verwenden. Somit erschließt sich der Regressionsanalyse ein sehr breites Anwendungsfeld. Fragestellungen aus der Marktforschung sind z. B. die Abhängigkeit des Absatzes von Preis-, Werbe- und Distributionsaktivitäten oder etwa die Analyse von Konsumentenpräferenzwerten als Funktion von Produkteigenschaften (z. B. Lehmann/Gupta/Steckel, 1998, S. 464 ff.; Skiera/Albers, 2000, S. 205 ff.). Mit der Regressionsanalyse kann statistisch getestet werden, ob die unabhängige(n) Variable(n) einen Effekt auf die abhängige Variable ausüben. Falls dies der Fall ist, können Richtung und Stärke des Einflusses untersucht werden. Das Konzept und die Vorgehensweise der Regressionsanalyse sollen im Folgenden an einem Beispiel erläutert werden (Abbildung C.24). Anhand eines illustrativen Datensatzes sollen mittels Regression die Determinanten des Absatzes (Y, in 1000 Stück) beschrieben werden. Als geeignete unabhängige Variablen wurden der Preis (P, in Euro), das Werbe budget (W, in 1000 Euro) und der Einsatz von Handzetteln als Werbemaßnahme (H, dummykodiert mit 0 = kein Einsatz und 1 = Einsatz) ausgewählt. Kapitel_A-D 10.09.13 11:40 Seite 133 Wird zunächst nur die bivariate Regression vom Absatz (Y) auf den Preis (P) betrachtet, lassen sich deren gemeinsame Wertepaare anhand eines Streuungsdiagramms darstellen (Abbildung C.25). Ziel der Regressionsanalyse ist es nun, eine Gerade an die Punktwolke anzupassen, welche die beobachteten Werte bestmöglich beschreibt. Diese Gerade wird durch folgende Funktion beschrieben: Ŷi = a + b · Pi für alle i ∈ I Mit Ŷi = geschätzte Absatzmenge bei Beobachtung i, I = Menge der Beobachtungen, a = Ordinatenabschnitt und b = Steigung Da die beobachteten Werte nicht exakt auf der Geraden liegen, sondern um diese streuen, ist es notwendig, die Abweichung jeder einzelnen Beobachtung von der Regressions geraden, d. h. dem geschätzten Wert, zu bestimmen. Dieser Fehlerterm wird auch als Residuum ei bezeichnet. Somit ergibt sich für die beobachteten Werte die Gleichung Yi = a + b · Pi + ei bzw. für das Residuum ei = Ŷi – Yi = Ŷi – a – b · Pi, mit Ŷi als geschätztem Wert für Y bei gegebenem Pi. Die Residuen können nun als Zielkriterium einer Schätzung der Koeffizienten a und b verwendet werden, die so gewählt werden, dass die Fehlerterme bzw. die Summe der quadrierten Residuen minimiert werden. Dies entspricht der Methode der kleinsten Quadrate (üblicherweise abgekürzt mit OLS, für Ordinary Least Squares). 134 C. Märkte analysieren Abbildung C.24: Rohdaten zur Schätzung eines Regressionsmodells Beobachtung Absatz Preis Werbebudget Handzettel i Y P W H 1 667 1,95 19 1 2 567 2,39 20 1 3 569 2,10 13 0 4 690 2,05 20 1 5 540 2,29 16 0 6 630 2,39 21 1 7 720 1,85 25 1 8 632 2,05 30 1 9 620 1,89 22 0 10 720 1,99 29 1 11 605 2,15 28 0 12 590 2,19 12 0 13 590 2,25 25 0 14 527 2,45 13 0 15 535 2,35 18 1 16 683 2,29 28 1 17 592 1,98 17 0 18 688 2,09 23 1 19 650 1,90 25 0 20 645 2,22 14 1 Kapitel_A-D 10.09.13 11:40 Seite 134 1354. Daten auswerten Die multiple Regression, d. h. die Schätzung des Modells mit mehreren unabhängigen Variablen, verläuft analog. Allerdings wird nunmehr keine Gerade geschätzt, sondern eine Linearkombination der Koeffizienten, die Y beschreiben soll. Für das Beispiel werden die Daten durch folgende Beziehung wiedergegeben: Yi = a + b · Pi + c · Wi + d · Hi + ei Für das multiple Regressionsmodell liefert die OLS-Schätzung die in Abbildung C.26 aufgeführten Ergebnisse. Werden die Koeffizienten in die Gleichung eingesetzt, ergeben sich die geschätzten Absatzmengen aus Ŷi = 925,92 – 180,45 · Pi + 2,42 · Wi + 59,6 · Hi. Die Konstante gibt demnach an, welcher Absatz zu erwarten wäre, sofern alle unabhängigen Variablen den Wert 0 aufweisen. Die Koeffizienten der erklärenden Variablen geben die direkte Wirkung an, die sie auf Y ausüben. Betrachtet man die Regressionskoeffizienten, wird deutlich, dass laut Schätzung der Preis einen negativen Einfluss und das Werbebudget sowie die Handzettelverteilung einen po- 50 0 55 0 60 0 65 0 70 0 75 0 1,8 2 2,2 2,4 2,6 A bs at z Preis • • • • • • • • • • • • •• • • • Abbildung C.25: Streuungsdiagramm der Regression von Absatz auf Preis Abbildung C.26: Schätzungsergebnisse der Regression Variablen Koeffizient Standardfehler t-Wert p-Wert Preis (P) –180,45 43,21 –4,18 0,0007 Werbebudget (W) 2,42 1,47 1,65 0,1193 Handzettel (H) 59,60 15,41 3,87 0,0014 Konstante 925,92 106,20 8,72 <0,0001 Kapitel_A-D 10.09.13 11:40 Seite 135 sitiven Einfluss auf den Absatz haben. Wird demnach der Preis um eine Einheit (Euro) erhöht, verringert sich der Absatz ceteris paribus um 180.450 Stück (180,45 · 1000). Werden Handzettel verteilt, hat dies hingegen eine Absatzsteigerung um 59.600 Stück zur Folge. Bevor allerdings mit der Interpretation der Ergebnisse begonnen werden kann, muss der Einfluss der Variablen auf Signifikanz überprüft werden. Zur Beurteilung der Signifikanz der Schätzer werden diese zunächst jeweils durch den Standardfehler der Schätzung geteilt, wodurch sich als Prüfgröße ein empirischer t-Wert ergibt. Der zugehörige p-Wert (d. h. die Irrtumswahrscheinlichkeit) kann dann in einer Tabelle der t-Verteilung nachgesehen oder mit einem Statistik-Programm ausgerechnet werden. Die zugehörigen Freiheitsgrade entsprechen der Anzahl der Fälle (hier: n = 20) abzüglich der Anzahl der zu schätzenden Koeffizienten (k = 4). Im Beispiel sind alle Koeffizienten bis auf den des Werbe budgets signifikant. Es kann somit nicht unterschieden werden, ob der geschätzte Regressionskoeffizient c für die Werbung (allgemein auch Schätzer genannt) auf systematische oder zufällige Effekte zurückzuführen ist. Der Signifikanztest prüft, ob sich die Schätzer signifikant von Null unterscheiden. Während der oben genannte Test die Signifikanz einzelner Koeffizienten prüft, ist es ebenfalls möglich, das gesamte Regressionsmodell auf Signifikanz zu überprüfen. Der Test basiert auf der durch das Regressionsmodell erklärten Varianz von Y und entspricht einem F-Test der Varianzanalyse bzw. ANOVA (analysis of variance, z. B. Herrmann/Seilheimer, 2000). Für das Beispiel ergeben sich die in Abbildung C.27 aufgeführten Werte. Zur Bestimmung des F-Werts werden die jeweiligen Abweichungsquadratsummen durch die Anzahl der Freiheitsgrade (df) geteilt, um so die mittlere Quadratsumme zu erhalten. Der Quotient aus der mittleren Quadratsumme, die durch das Regressionsmodell erklärt wird, und der nicht erklärten mittleren Quadratsumme ergibt den empirischen F-Wert. Die Freiheitsgrade entsprechen der Anzahl der Parameter minus 1 (im Beispiel: k – 1 = 3) sowie der Anzahl der Fälle abzüglich der Anzahl zu schätzender Parameter (n – k = 16). In diesem Fall wäre das gesamte Regressionsmodell mit einem empirischen F-Wert von 16,51 hoch signifikant (p < 0,0001). Aus den Quadratsummen der Varianzanalyse lässt sich außerdem ein zentrales Gütekriterium für das Modell ableiten. Das Bestimmtheitsmaß R2 basiert ebenfalls auf dem Vari- 136 C. Märkte analysieren Abbildung C.27: ANOVA des Regressionsmodells Quelle df Abweichungs- Mittel der F-Wert p-Wert quadratsumme Quadrate Regression 3 (Ŷi –Y – )2 = 51233,6 17 077,9 16,51 <0,0001 i Residuen 16 (Yi –Ŷi )2 = 16550,4 1034,4 i Gesamt 19 (Yi –Y – )2 = 67784,0 i Kapitel_A-D 10.09.13 11:40 Seite 136 1374. Daten auswerten anzzerlegungssatz und entspricht dem Anteil der durch das Regressionsmodell erklärten Abweichungsquadratsumme bezogen auf die gesamte Quadratsumme von Y. Zentrales Gütekriterium der Regression ist das Bestimmtheitsmaß, welches den Anteil der durch das Regressionsmodell erklärten Varianz an der Gesamtvarianz von Y angibt. Wird die gesamte Varianz der abhängigen Variablen durch die unabhängigen Variablen erklärt, ergibt sich somit ein Bestimmtheitsmaß von 1. Im Beispiel berechnet es sich, wie aus Abbildung C.27 ersichtlich, als R2 = 51233,6/67784,0 = 0,756. Die Unterschiede im Absatz lassen sich also zu 75,6% durch den Preis, das Marketingbudget und die Handzettelverteilung erklären. Da jedoch das Bestimmtheitsmaß mit jeder zusätzlich aufgenommenen Variablen zunimmt, unabhängig davon, ob die Variable für das Modell relevant ist oder nicht, wird häufig zusätzlich ein korrigiertes R2 angegeben. Dieses korrigiert den ursprünglichen Wert wie folgt: (1 – R2) · (k – 1) R2korr = R2 – –––––––––––––––––––––– (n – k) Insgesamt muss bei der linearen Regression beachtet werden, dass ihr Einsatz nur dann gerechtfertigt ist, sofern verschiedene Voraussetzungen erfüllt sind, die für das Modell bzw. die Schätzung gelten. Zu den Prämissen gehören (z. B. Lehmann/Gupta/Steckel, 1998, S. 482 ff.): Linearität, d. h. ein linear-additiver Zusammenhang zwischen den Variablen. Ein linearer Zusammenhang kann dabei auch approximativ für einen bestimmten Wertebereich gelten oder durch Transformation hergestellt werden. Homoskedastizität, d. h. die beobachteten Residuen dürfen nicht von den Prädiktorvariablen und von der Reihenfolge der Beobachtungen abhängen. Fehlende Autokorrelation bzw. Unkorreliertheit der Residuen, d. h. die Verteilung der Residuen muss zufällig sein. Die Residuen dürfen also nicht voneinander abhängen. Autokorrelation tritt vor allem bei Zeitreihenanalysen auf. Normalverteilung der Residuen. Diese Annahme ist u. a. für das Schätzen auf Signifikanz erforderlich. Problematisch für die Schätzung und Interpretation der Ergebnisse ist es weiterhin, wenn die unabhängigen Variablen untereinander hoch korreliert sind. Treten hohe Abhängigkeiten der Variablen, d. h. Multikollinearität auf, führt dies dazu, dass die Koeffizienten der korrelierten Variablen verzerrt werden und somit keine reliablen Aussagen möglich sind. Durch die Quadrierung der Residuen mit der Methode der kleinsten Quadrate haben weiterhin Ausreißer, d. h. Extremwerte, einen großen Einfluss auf die Schätzergebnisse. Treten diese Fälle auf, sind sie sorgfältig zu berücksichtigen und ggf. aus dem Datensatz zu eliminieren. Zur Überprüfung der Annahmen und zur Identifikation von möglichen Problemen können grafische Betrachtungen oder geeignete Testverfahren herangezogen werden (z. B. Lehmann/Gupta/Steckel, 1998, S. 482 ff.). Kapitel_A-D 10.09.13 11:40 Seite 137 Logistische Regression Die logistische Regression untersucht analog zur linearen Regression Beziehungen zwischen einer abhängigen Variablen (Y) und einer oder mehreren unabhängigen Variablen (X). Der Unterschied ist, dass die abhängige Variable bei der logistischen Regression binär ausgeprägt ist, d. h. lediglich zwei Werte annehmen kann (kodiert als 0 und 1). Die unabhängigen Variablen können, wie bei der linearen Regression, metrisch oder nicht-metrisch skaliert sein (z. B. Lehmann/Gupta/Steckel, 1998, S. 695 ff.; Krafft, 2000). Die logistische Regression dient dazu, eine binär ausgeprägte Variable durch eine oder mehrere unabhängige Variablen zu erklären bzw. zu prognostizieren. Anstelle logistischer Regressionen wurden bislang vielfach Diskriminanzanalysen eingesetzt. Aufgrund spezifischer statistischer Vorteile der logistischen Regression (Krafft, 2000) werden Diskriminanzanalysen mittlerweile jedoch kaum noch eingesetzt. Beispiele für die Anwendungen der logistischen Regression sind die Untersuchung der Determinanten für den Kauf oder Nicht-Kauf von Produkten, die Wahl zwischen Handelsvertretern und Reisenden oder die Wahl einer Hersteller- oder Handelsmarke. Mithilfe der logistischen Regression lässt sich beispielsweise analysieren, unter welchen Rahmenbedingungen (unabhängige Variablen wie z. B. Ausmaß der Reisetätigkeiten oder Anzahl der zu vertreibenden Produkte) die Wahl eines Handelsvertreters gegenüber dem Einsatz eines Reisenden (abhängige Variable) vorteilhaft ist. Die logistische Regression ist der linearen Regression ähnlich. Geht man zunächst vom linear-additiven Zusammenhang aus, gilt analog zur linearen Regression Ŷ = a + b · X. Diese Modellierung einer Variablen, die nur die Werte 0 oder 1 annehmen kann, ist allerdings nicht angemessen, da hier Y beliebige Werte annehmen könnte. Anstatt direkt die Werte der abhängigen Variablen Y zu schätzen, geht die logistische Regression dazu über, die Wahrscheinlichkeit des Eintritts von Y, p(Y) zu schätzen. Somit ergibt sich: p̂(Y) = a + b · X (1) Da die geschätzte Wahrscheinlichkeit p̂(Y) allerdings auch keine beliebigen Werte annehmen kann, sondern nur zwischen den Werten 0 und 1 definiert ist, muss eine weitere Modifikation vorgenommen werden: p̂(Y) ln ( –––––––––––––) = a + b · X (2)1 – p̂(Y) Der Term p̂(Y)/(1 – p̂(Y)), also die Wahrscheinlichkeit zur Gegenwahrscheinlichkeit, wird als odds bezeichnet. Die odds sind definiert für das Intervall [0,+ [. Die Logarithmierung der odds (log odds bzw. Logit) ergibt dann die gewünschte lineare Beziehung im erwünschten Wertebereich von ]– ,+ [. Die Wahrscheinlichkeit des Eintretens von Y als abhängige Variable ergibt sich nun durch Rücktransformation: 138 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 138 1394. Daten auswerten exp(a + b · X) 1 p̂(Y) = –––––––––––––––––––––––––– = ––––––––––––––––––––––––––––––––– (3) (1 + exp(a + b · X)) (1 + exp(–1 · (a + b · X))) Nach Transformation wird durch (3) die S-förmige logistische Funktion beschrieben, die auf das Intervall zwischen 0 und 1 definiert ist. Ein Beispiel für eine solche logistische Funktion ist in Abbildung C.28 aufgeführt. Während bei der linearen Regression die Schätzer der unabhängigen Variablen den direkten Einfluss auf die abhängige Variable angeben, ist die Interpretation der Schätzer bei der logistischen Regression schwieriger. Sie geben den Einfluss auf die log odds an (Gleichung (2)). Dieser Wert sowie das weitere Vorgehen bei der logistischen Regression sollen an einem Beispiel erläutert werden. Das Beispiel in Abbildung C.28 stellt eine Untersuchung der Teilnahme an fünf Wellen einer Online-Panelumfrage (Y, mit 0 = keine Teilnahme, 1 = Teilnahme) in Abhängigkeit von der Entlohnung der Panelmitglieder (E: Wert in Euro) sowie des Besitzes einer Internet- Flatrate (F, mit 0 = nicht vorhanden, 1 = vorhanden) dar. Der dazugehörige Datensatz umfasst 110 Werte. Wird zunächst nur der Einfluss des Entgelts (E) auf die Wahrscheinlichkeit der Teilnahme p(Y) betrachtet, ergibt sich das in Abbildung C.28 angegebene Streuungsdiagramm. Die Werte wurden dabei in horizontaler Richtung grafisch gestreckt. Das Strecken ist lediglich als Hilfsmittel zu verstehen, so dass alle Datenpunkte sichtbar werden. Die Grafik lässt vermuten, dass die Höhe des Entgelts (E) einen positiven Einfluss auf die Teilnahmewahrscheinlichkeit hat, da bei niedrigerer Entlohnung mehr Werte bei 0 liegen und umgekehrt. Um nun die in der Grafik dargestellte logistische Funktion zu schätzen, wird die Maximum-Likelihood-Schätzung (ML) eingesetzt. Sie wählt die Koeffizienten so, dass die Wahrscheinlichkeit der Beobachtung der empirischen Daten maximiert wird (Krafft, 2000, S. 242). Sie liefert für das multiple Modell das in Abbildung C.29 aufgeführte Ergebnis. 0 5 10 15 E 1 { 0,5 0 { p (Y) • • •• •• • • • • • • •• •• • ••••• •• •• •• • •••• • •• • •• •• • •• • • • •• • • •• •••• • • •• • • • ••• • Abbildung C.28: Logistischer Funktionsverlauf Kapitel_A-D 10.09.13 11:40 Seite 139 Die p-Werte des t-Tests (analog zur linearen Regression) weisen für alle Parameter signifikante Werte auf. Die Wahrscheinlichkeit der Teilnahme am Panel wird demnach laut (3) beschrieben durch: 1 p̂(Y) = ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– (1 + exp(–1 · (–9,175 + 1,335 · E + 0,743 · F))) Mit den Schätzwerten lassen sich nun die Wahrscheinlichkeiten der Teilnahme am Panel berechnen. Für einen Probanden, der keine Internet-Flatrate besitzt (F = 0) und für die Teilnahme 5 Euro (E = 5) bekommt, gilt: 1 p̂(Y|E = 5,F = 0) = ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– = 0,076 (1 + exp(–1 · (–9,175 + 1,335 · 5 + 0,743 · 0))) Dieser Wert entspricht den odds von 0,076/(1 – 0,076) = 0,082. Wird das Entgelt auf 6 Euro erhöht (c. p.), so ergibt sich analog eine vorhergesagte Wahrscheinlichkeit der Teilnahme von p̂(Y|E = 6, F = 0) = 0,238 bzw. ein odds von 0,238/(1 – 0,238) = 0,312. Wird der Quotient aus beiden odds gebildet, erhält man das so genannte odds ratio (OR). Das odds ratio gibt den Faktor an, um den sich die Chance der Teilnahme ändert, sofern die unabhängige Variable um eine Einheit erhöht wird und alle weiteren Variablen konstant gehalten werden. Für das Beispiel erhält man ein odds ratio von OR = 0,312 / 0,082 = 3,8. Eine Erhöhung des Entgelts für die Teilnahme um einen Euro steigert demnach die Chance, dass der Proband an der Umfrage teilnimmt um den Faktor 3,8. Dieser Wert entspricht exp(Koeffizient) und wird wegen der besseren Interpretation häufig in den Schätzergebnissen mit aufgeführt. Für Probanden, die eine Internet-Flatrate besitzen, kann eine um den Faktor 2,1 höhere Chance an allen Wellen des Panels teilzunehmen, angenommen werden (Abbildung C.30). Die Güte einer logistischen Regression kann zum einen anhand der Likelihood-Werte der Schätzung beurteilt werden. Ein Gütekriterium, das auf den Likelihood-Werten basiert, ist z. B. McFaddens R2 (Krafft, 2000, S. 246). Es kann näherungsweise analog zum Bestimmtheitsmaß der linearen Regressionsanalyse interpretiert werden. Ein weiteres Kri- 140 C. Märkte analysieren Abbildung C.29: Schätzergebnisse für die logistische Regression Variablen Koeffizient Exp Standard- t-Wert p-Wert (Koeffizient) fehler E 1,335 3,800 0,144 9,298 <0,001 F 0,743 2,102 0,290 2,562 0,012 Konstante 100,0<109,8–130,1571,9– Kapitel_A-D 10.09.13 11:40 Seite 140 1414. Daten auswerten terium zur Beurteilung der Güte stellt der Anteil der durch das Modell richtig klassifizierten Fälle dar. Werden Wahrscheinlichkeitswerte von p(Y) > 0,5 als Teilnahme und Werte darunter als Nicht-Teilnahme interpretiert, so lassen sich diese Vorhersagen mit den tatsächlichen Werten vergleichen. Es ergibt sich die in Abbildung C.30 dargestellte Klassifikationsmatrix (allgemein Krafft, 2000, S. 246 f.). Der Anteil insgesamt korrekt klassifizierter Fälle, der auch als hit ratio bezeichnet wird (Krafft, 2000, S. 247), entspricht im Beispiel demnach (49 + 31) / 110 = 0,727, also 72,7%. Kausalanalyse Wie die Regressionsanalyse ist auch die Kausalanalyse ein Verfahren zur empirischen Überprüfung von Ursache-Wirkungs-Zusammenhängen (Hildebrandt/Homburg, 1998). Im Vergleich zur Regressionsanalyse weist die Kausalanalyse jedoch insbesondere die folgenden Vorteile auf: Während die Regressionsanalyse eine fehlerfreie Messung der Variablen unterstellt, erlaubt die Kausalanalyse die explizite Berücksichtigung von Messfehlern. Die Kausalanalyse ermöglicht im Gegensatz zur Regressionsanalyse die Überprüfung komplexer Abhängigkeitsstrukturen, wie z. B. wechselseitige Abhängigkeiten (z. B. Markeneinstellung ↔ Markenwahl) oder kausale Ketten (z. B. Werbung → Markenbekanntheit → Kaufabsicht). Korrelationen können zwischen den unabhängigen Variablen explizit im Rahmen der Modellformulierung und -schätzung berücksichtigt werden. Sie stellen somit im Gegensatz zur Regressionsanalyse (Multikollinearitätsproblem) kein prinzipielles Problem dar. Die Kausalanalyse überwindet verschiedene Restriktionen der Regressionsanalyse, indem sie Messfehler explizit berücksichtigt, komplexe Abhängigkeitsstrukturen überprüft und Korrelationen zwischen den unabhängigen Variablen prinzipiell zulässt. Zur Veranschaulichung der Kausalanalyse soll auf eine Studie zurückgegriffen werden, die sich mit den Erfolgsfaktoren von Markentransfers beschäftigt (Völckner, 2003; siehe hierzu genauer Kapitel E. 3.). Die Studie basiert auf einer Konsumentenbefragung (Quo- Abbildung C.30: Klassifikationsmatrix Prognostiziert Teilnahme Keine Korrekte Teilnahme Klassifizierung Beobachtet Teilnahme 49 16 75,4% Keine Teilnahme 14 31 68,9% Gesamtprozentsatz 72,7% Kapitel_A-D 10.09.13 11:40 Seite 141 tenstichprobe, n = 2426). Die Aufgabe der Befragten bestand darin, eine Reihe von Markentransfers anhand verschiedener Merkmale zu beurteilen. Dabei wurden unter anderem die Größen Muttermarkenstärke, Marketingunterstützung des Transferprodukts und subjektiv wahrgenommener Erfolg des Transferprodukts berücksichtigt. Die genannten Größen stellen komplexe Konstrukte dar, die nicht direkt beobachtet und gemessen werden können. Die Kausalanalyse ist in der Lage, Wirkungszusammenhänge zwischen komplexen Konstrukten zu überprüfen. Eine grundlegende Besonderheit der Kausalanalyse liegt in der Unterscheidung von beobachteten (d. h. direkt messbaren) Variablen (so genannten In dikatorvariablen bzw. Items, z. B. die subjektiv wahrgenommene Qualität der Muttermarke) und latenten Variablen (z. B. das Konstrukt Muttermarkenstärke). Letztere stellen komplexe Größen dar, die nicht direkt gemessen werden können, sondern nur indirekt über die Indikatorvariablen erfasst werden können. Die Grundidee der Kausalanalyse besteht nun darin, auf der Basis empirisch gemessener Varianzen und Kovarianzen von Indikatorvariablen Rückschlüsse auf die Wirkungs zusammenhänge zwischen den zugrunde liegenden latenten Variablen zu ziehen (Homburg/Pflesser, 2000b, S. 643 f.). Die Analyse kann in vier Ablaufschritte unterteilt werden, die im Folgenden näher betrachtet werden sollen. 1. Schritt: Modellformulierung Ein vollständiges Kausalmodell besteht aus jeweils einem Messmodell für die latenten exogenen (d. h. erklärenden) und latenten endogenen (d. h. durch die Kausalstruktur erklärten) Variablen und aus einem Strukturmodell. Im Rahmen des Messmodells wird festgelegt, welche Konstrukte betrachtet und wie diese gemessen werden sollen. In der Regel wird eine einzelne latente Variable über mehrere Indikatorvariablen (Items) gemessen. Dabei wird unterstellt, dass jeder Indikator eine fehlerbehaftete Messung der zugrunde liegenden latenten Variablen darstellt (Hildebrandt/ Homburg, 1998). Das Messmodell der Kausalanalyse entspricht damit dem Grundgedanken der konfirmatorischen Faktorenanalyse (siehe hierzu auch Kapitel C. 4.2). In Abbildung C.31 ist das Messmodell für das Konstrukt Muttermarkenstärke des Anwendungsbeispiels dargestellt. Auf einer 7-stufigen Ratingskala wurde jeweils der Grad der Zustimmung zu den einzelnen Items erfasst. Analog sind Messmodelle für die übrigen Konstrukte zu formulieren. Ein Kausalmodell kann ‚reflektive’ und ‚formative’ Konstrukte enthalten. Das Kausal modell in Abbildung C.31 umfasst ausschließlich reflektive Konstrukte. Ein reflektives Konstrukt ist dadurch gekennzeichnet, dass es die ihm zugeordneten Indikatoren verursacht. Die Beziehungen zwischen Konstrukt und zugehörigen Indikatoren werden hier über Faktorladungen beschrieben. Daneben gibt es formative Konstrukte, deren wesentliches Merkmal darin zu sehen ist, dass sie durch ihre Indikatoren verursacht werden. Die Indikatoren sind nicht austauschbar, sondern in ihrer Gesamtheit zur vollständigen Erfassung des betrachteten Konstrukts erforderlich (Chin, 1998). 142 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 142 1434. Daten auswerten Das Strukturmodell beschreibt die hypothetischen Beziehungen zwischen den betrachteten Konstrukten (also den latenten Variablen). Die entsprechenden Hypothesen des Anwendungsbeispiels zwischen den Konstrukten sind in Abbildung C.31 dargestellt. Beispielsweise wurden hier die Hypothesen aufgestellt, dass die Marketingunterstützung einen positiven Einfluss auf die Handelsakzeptanz ausübt (Hypothese 6) und sich die wahrgenommene Ähnlichkeit zwischen Muttermarke und Transferprodukt positiv auf den Erfolg eines Transferprodukts auswirkt (Hypothese 4). Im Strukturmodell finden sich somit Grundgedanken der Regressionsanalyse wieder. η ξ η η ξ ξ η λ λ λ ξ δ δ δ Abbildung C.31: Messmodell und Strukturmodell der Kausalanalyse Kapitel_A-D 10.09.13 11:40 Seite 143 Die Kausalanalyse stellt eine multivariate Methode dar, die Elemente der klassischen Regressionsanalyse und der konfirmatorischen Faktorenanalyse miteinander verbindet. 2. Schritt: Schätzung der Modellparameter Zu den Modellparametern gehören: die Parameter, welche die Beziehungen zwischen den latenten Variablen beschreiben, die Koeffizienten der Pfade zwischen den latenten Variablen und ihren Indikatoren und die Kovarianzen der latenten exogenen Variablen, der Messfehlervariablen und der Residualvariablen der latenten endogenen Variablen (letztere sind mit der Residualgröße der Regressionsanalyse vergleichbar). Die Datengrundlage für die Bestimmung der Modellparameter bilden die Varianzen und Kovarianzen der Indikatoren. Die in der Literatur weit verbreitete Bezeichnung Kausalanalyse ist insofern als problematisch anzusehen, da sie suggeriert, dass mithilfe eines statistischen Verfahrens Kausalität nachgewiesen werden könnte. Die Kovarianz stellt aber lediglich ein statistisches Kriterium dar, das eine Quantifizierung der zwischen den betrachteten Variablen bestehenden Beziehung erlaubt. Sie lässt keine Aussage darüber zu, welche der beiden Variablen als verursachend für die andere Variable anzusehen ist. Bei der Kausalanalyse werden Korrelationen bzw. Kovarianzen auf verschiedene Weise kausal interpretiert. Die Aufdeckung von Ursache-Wirkungs-Zusammenhängen ist hingegen ausschließlich durch ein Experiment möglich (siehe hierzu Kapitel C. 4.5). Das Ziel der Modellschätzung (typischerweise in Form einer Maximum-Likelihood-Schätzung) besteht darin, die Parameter so zu bestimmen, dass die auf Basis der Ergebnisse berechnete modelltheoretische Kovarianzmatrix = (α) der auf Basis der Stichprobe ermittelten Kovarianzmatrix S möglichst ähnlich wird. Dabei bezeichnet αden Vektor der zu schätzenden Parameter und (α) die Kovarianzmatrix der Indikatoren als Funktion von α. 144 C. Märkte analysieren Reflektive und formative Konstrukte Die Unterscheidung zwischen reflektiven und formativen Konstrukten soll anhand des Konstrukts „Trunkenheit“ veranschaulicht werden (Chin, 1998). Möchte man das Ausmaß der „Trunkenheit“ einer Person messen, so könnte man z. B. die Indikatoren Blutalkohol, Fahrtüchtigkeit und das Abschneiden der Person bei Kopfrechenaufgaben erfassen. „Trunkenheit“ stellt in diesem Fall ein reflektives Konstrukt dar. Denn je größer das Ausmaß der „Trunkenheit“ ist, desto schlechter wird z. B. die Fahrtüchtigkeit der Person oder ihr Abschneiden beim Kopfrechnen sein, d. h. das Konstrukt verursacht die zugrunde liegenden Indikatoren. Umgekehrt verursacht z. B. die konsumierte Menge an Bier, Wein und harten Spirituosen die „Trunkenheit“ einer Person. Das Konstrukt wird in letzterem Fall also durch die betrachteten Indikatoren verursacht und folglich als formatives Konstrukt gemessen. Kapitel_A-D 10.09.13 11:40 Seite 144 1454. Daten auswerten Im Zusammenhang mit der Parameterschätzung ist anzumerken, dass die Kausalanalyse ein Verfahren darstellt, das auf asymptotischer Statistik beruht. Daher ist eine sinnvolle Anwendung des Verfahrens ausschließlich bei hinreichend großen Stichproben möglich. Wie groß eine Stichprobe sein muss, lässt sich nicht pauschal beantworten, sondern hängt vor allem von der Modellkomplexität und der verwendeten Schätzmethode ab. In der Literatur wird für ML-Schätzungen häufig ein Verhältnis zwischen Stichprobenumfang und Anzahl zu schätzender Parameter von mindestens 5:1 empfohlen, sofern zumindest annähernd multivariat normalverteilte Variablen vorliegen (Bagozzi/Yi, 1988, S. 82). In Abbildung C.32 sind die Ergebnisse der Parameterschätzung für die Beziehungen zwischen den latenten Variablen des Anwendungsbeispiels dargestellt. Die angegebenen Werte stellen analog zu den Beta-Koeffizienten der klassischen Regressionsanalyse standardisierte Schätzer dar, die unmittelbar miteinander verglichen werden können. Im Anschluss an die Schätzung der Modellparameter erfolgt eine Plausibilitätsbetrachtung der Ergebnisse. Dabei wird geprüft, ob nicht-sinnvolle Resultate auftreten, wie z. B. negative Varianzen oder Korrelationskoeffizienten größer als 1. Solche Werte liefern einen Hinweis darauf, dass ein Modell fehlerhaft spezifiziert wurde oder in Teilen nicht identifizierbar ist. 3. Schritt: Beurteilung der Modellgüte Liegen keine unplausiblen Schätzwerte vor, so erfolgt im nächsten Schritt die Beurteilung der Modellgüte mithilfe von Anpassungsmaßen, welche die Güte der Anpassung des betrachteten Modells an den vorliegenden Datensatz beurteilen (z. B. Völckner, 2003). η ξ η η ξ Abbildung C.32: Ausgewählte Ergebnisse der Parameterschätzung Kapitel_A-D 10.09.13 11:40 Seite 145 Grundsätzlich kann zwischen globalen und lokalen Anpassungsmaßen unterschieden werden: Globale Anpassungsmaße geben Aufschluss darüber, wie gut die in den Hypothesen aufgestellten Beziehungen insgesamt durch die empirischen Daten wiedergegeben werden. Sie beruhen auf einem Vergleich der empirischen Kovarianzmatrix mit der modelltheoretischen Kovarianzmatrix. Mit lokalen Anpassungsmaßen werden die einzelnen Teilstrukturen des Modells beurteilt, d. h. die einzelnen Konstrukte und Indikatoren. 4. Schritt: Ergebnisinterpretation Bei der Ergebnisinterpretation sollte sowohl eine Interpretation der Modellstruktur in ihrer Gesamtheit als auch eine Interpretation der einzelnen Koeffizienten hinsichtlich ihrer Signifikanz und Stärke erfolgen. Besonders aufschlussreich ist dabei die Betrachtung von direkten und indirekten Effekten der Konstrukte. Letztere treten bei der Analyse komplexer Abhängigkeitsstrukturen auf und können somit bei der klassischen Regres sionsanalyse nicht erfasst werden Direkte Effekte: Im Anwendungsbeispiel geht der stärkste direkte Einfluss auf den Markentransfererfolg vom wahrgenommenen Fit zwischen Muttermarke und Transferprodukt aus. Der standardisierte Pfadkoeffizient in Höhe von 0,51 besagt, dass mit der Zunahme des wahrgenommenen Fit um eine Einheit die Erfolgswahrscheinlichkeit eines geplanten Markentransfers um 0,51 Einheiten zunimmt (der indirekte Effekt des Fit ist hier noch nicht berücksichtigt). Die Handelsakzeptanz übt mit einem Wert von 0,33 den zweitstärksten direkten Effekt auf den Markentransfererfolg aus. Indirekte Effekte: Neben den direkten Effekten liegen verschiedene indirekte Einflüsse der einzelnen Erfolgsfaktoren auf den Markentransfererfolg vor. So geht von der Marketingunterstützung nicht nur ein direkter Effekt auf den Markentransfererfolg aus, sondern es existieren auch indirekte Effekte über den Fit und die Handelsakzeptanz. Ein indirekter Effekt wird durch Multiplikation der einzelnen Effekte des indirekten Weges berechnet. Totale Effekte: Der totale Beeinflussungseffekt der Marketingunterstützung ergibt sich als Summe aus indirekten Effekten und direktem Effekt: 0,38 · 0,25 · 0,33 + 0,38 · 0,51 + 0,56 · 0,33 + 0,16 = 0,57. Dieses Beispiel veranschaulicht, dass durch die bloße Betrachtung der direkten Effekte die Einflussstärken der betrachteten Variablen unter Umständen erheblich unter- oder überschätzt werden. Die Kausalanalyse ist in der Lage, komplexe Wirkungszusammenhänge abzubilden und auf diese Weise auch die indirekten Effekte von Variablen offen zu legen. 4.4 Präferenzen analysieren Präferenzen stellen einen eindimensionalen Indikator zur Erklärung von (Kauf-)Entscheidungen dar. Die Präferenz bringt das Ausmaß der Vorziehenswürdigkeit eines Beurteilungsobjekts für eine bestimmte Person während eines bestimmten Zeitraumes zum 146 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 146 1474. Daten auswerten Ausdruck (Böcker, 1986, S. 554), z. B. die auf einer 100-Punkte-Skala gemessene Präferenz eines Konsumenten gegenüber einem Audi A7. Weitgehend synonym mit dem Begriff der Präferenz sind die Konstrukte Nutzen oder Wert. Präferenzanalysen sind für das Marketing von herausragender Bedeutung, u. a. für die Neuproduktplanung (z. B. Messung von Präferenzen für neue Produkte), die Preispolitik (z. B. Analyse des Trade-offs zwischen einem höheren Preis und einer präferierten Produkteigenschaft), die Kommunikationspolitik (z. B. Positionierung von Marken) oder die Distributionspolitik (z. B. Analyse von Einkaufsstättenpräferenzen). Im Rahmen quantitativer Präferenzanalysen ist es weit verbreitet, Produkte als ein Bündel von Produkteigenschaften aufzufassen (Brockhoff, 1999, S. 12 ff.). Beispielsweise kann ein Pay-TV-Angebot von Sky durch die Produkteigenschaften Marke in der Ausprägung Sky, Preis in der Ausprägung 25 € pro Monat, Angebot von US-Sportarten in der Ausprägung ja bzw. vorhanden und Fußballangebot in der Ausprägung Fußball-Bundesliga beschrieben werden. Ziel der quantitativen Präferenzanalyse ist es, Präferenzen in Form von Nutzen für einzelne Produkteigenschaftsausprägungen zu messen. Die einfachste Form einer Präferenzmessung erfolgt über eine direkte Befragung (auch Self-Explicated-Methode genannt: Srinivasan, 1988, S. 296). Die Vorgehensweise ist in Abbildung C.33 illustriert: Auswahl der Ausprägung: Die Aufgabe der Befragten ist es zunächst, für jede Produkt eigenschaft die beste und schlechteste Ausprägung auszuwählen. Diese erhalten dann z. B. 10 bzw. 1 Nutzenpunkt(e). Bei mehr als zwei Eigenschaftsausprägungen werden die dazwischen liegenden Ausprägungen von den Probanden mit Punktwerten zwischen 1 und 10 bewertet (z. B. 6 Nutzenpunkte für den Preis 19,90 €). Angabe des Präferenzgewichts: Im nächsten Schritt geben dann die Befragten ein Präferenzgewicht für jede Eigenschaft an, im Beispiel Werte zwischen 10 und 1. Der Gesamtnutzen für ein Produkt in Form einer beliebigen Kombination von Eigenschaftsausprägungen ergibt sich durch Multiplikation jeder Eigenschaftsausprägung mit dem dazugehörigen Gewicht und anschließender Addition über alle Eigenschaften. Hierbei wird eine gewichtet-additive Aggregationsregel angewandt. Beispielsweise beträgt der Gesamtnutzen für ein Pay-TV-Angebot mit einem Preis von 19,90 €, einem US-Sport-Angebot, Fußball-Bundesliga-Übertragung, einem Formel-1-Angebot und der Marke Bild für die Werte aus Abbildung C.33: (6 · 10) + (1 · 6) + (10 · 5) + (10 · 2) + (1 · 8) = 144 Nutzeneinheiten. Auf diese Weise lassen sich für unterschiedliche Produkte und Befragte Nutzenwerte bestimmen. Hierauf aufbauend können Prognosen für die Marktchancen neuer Produkte ermittelt werden. Wird z. B. eine direkte Präferenzbefragung nach dem beschriebenen Muster für eine repräsentative Stichprobe von 1000 potenziellen Pay-TV-Kunden durchgeführt und unterstellt, dass von jedem Befragten das Produkt gewählt wird, das unter den zur Verfügung stehenden Produkten den höchsten Nutzenwert aufweist, so lässt sich eine Marktsimulation durchführen. Kapitel_A-D 10.09.13 11:40 Seite 147 Ein entsprechendes Beispiel mit insgesamt fünf verfügbaren Produktalternativen ist in Abbildung C.34 wiedergegeben. In der Ausgangssituation hat sich gemäß der Ergebnisse der direkten Präferenzbefragung ergeben, dass für 126 der 1000 Probanden das Produkt Nr. 5 den höchsten Gesamtnutzen aufweist. Dies führt zu einem Wahlanteil von 12,6%. Im Rahmen der Marktsimulation lassen sich auch die Effekte von Produktvariationen und Wettbewerbsreaktionen analysieren. Für die modifizierten Produkte wird jeweils gemäß der gemessenen Nutzenwerte ermittelt, für wie viele Kunden das jeweilige Produkt den höchsten Gesamtnutzen aufweist. Hieraus ergeben sich dann die verschiedenen Wahlanteile (Abbildung C.34). Die am Beispiel illustrierte direkte Präferenzbefragung ist für die Probanden sehr einfach zu bewältigen und erfordert vom Marktforscher geringes Methoden-Know-how. Dem stehen Validitätsprobleme gegenüber, z. B. infolge der deutlich von realen Kaufentscheidungen entfernten Aufgabenstellung. Alternativ zu direkten sind indirekte Präferenzbefragungen in Form von Conjoint-Analysen entwickelt worden (z. B. Tscheulin, 1992; Gustafsson/Herrmann/Huber, 2007; Sattler, 2006). Hierbei bewerten Probanden verschiedene Alternativen, z. B. Produkte, als Ganzes. Die Produkte sind als Bündel von Eigenschaften beschrieben, wobei die Eigenschaftsausprägungen systematisch zwischen den Alternativen variiert werden. Bei der Conjoint-Analyse werden aus den ganzheitlich bewerteten Alternativen die Nutzenwerte der einzelnen Eigenschaftsausprägungen mittels statistischer Schätzverfahren abgeleitet. 148 C. Märkte analysieren Abbildung C.33: Beispiel einer Präferenzmessung mittels direkter Befragung Eigenschaft Ausprägung 1 Ausprägung 2 Ausprägung 3 Gewicht Preis 14,90 19,90 24,90 Bewertung 10 6 1 10 Bundesliga + Champions Bundesliga + Fußballprogramm League + EM/ Champions Bundesliga WM League Bewertung 10 8 1 6 Formel 1- Programm Ja Nein – Bewertung 10 1 – 5 US-Sport- Programm Ja Nein – Bewertung 10 1 – 2 Marke Sky Tchibo-TV Bild-TV Bewertung 10 7 1 8 Kapitel_A-D 10.09.13 11:40 Seite 148 1494. Daten auswerten Ein Beispiel analog zum oben betrachteten Pay-TV-Fall ist in Abbildung C.35 dargestellt. Die Aufgabe der Befragten besteht darin, aus den präsentierten Produkten (hier ein Choice-Set von drei) jenes auszuwählen, das sie am ehesten kaufen würden (ggf. besteht auch die Möglichkeit, keines der präsentierten Produkte auszuwählen). Bei einer solchen wahlbasierten Abfrage spricht man von einer Choice-based Conjoint-Analyse (Haaijer/ Wedel, 2007). Pro Befragtem werden mehrere Wahlentscheidungen für systematisch variierte Choice- Sets getroffen. Alternativ kann die Aufgabe der Probanden auch darin bestehen, eine Reihe von Produkten (ggf. deutlich mehr als drei, z. B. zehn) in eine Präferenzrangfolge zu bringen oder jeweils auf einer Präferenzskala zu bewerten (klassische Conjoint-Analyse). In jedem Fall sind die Befragten indirekt dazu gezwungen, bei der Beurteilung der Angebote Trade-offs zwischen Eigenschaften vorzunehmen. Bei der Wahl zwischen Angebot A und B aus Abbildung C.35 muss beispielsweise ein Trade-off zwischen einer Preisdifferenz von fünf Euro und einem etablierten versus neuen Anbieter (Sky versus Tchibo) gemacht werden. In diesen Trade-offs spiegeln sich indirekt die Nutzenwerte der Eigenschaftsausprägungen wider. Die Bestimmung der Nutzenwerte pro Eigenschaft erfolgt über eine statistische Schätzung. Ziel der Schätzung ist es, die Parameter der Nutzenwerte so zu ermitteln, dass die erfragten ganzheitlichen Präferenzurteile (z. B. angegebene Werte auf einer 10-Punkte- Präferenzskala oder das Wahlverhalten, d. h. wurde ein bestimmtes Produkt gewählt oder nicht gewählt) möglichst gut durch die Schätzwerte wiedergegeben werden. Das Grundprinzip ist in Abbildung C.36 illustriert. Beispielsweise wurde für das Pay-TV-Angebot K ein Gesamtpräferenzwert von 5 auf der 10-Punkte-Skala angegeben. Das Angebot K ist 19,90 US-Sport: Nein Fußball: Bundesliga Formel 1: ja Anbieter: Sky 19,90 US-Sport: Ja Fußball: Bundesliga Formel 1: ja Anbieter: Bild 14,90 US-Sport: Nein Fußball: Bundesliga +Champ. Formel 1: nein Anbieter: Bild 19,90 US-Sport: Ja Fußball: Bundesliga + Champ. Formel 1: ja Anbieter: Tchibo 24,90 US-Sport: Nein Fußball: Bundesliga + Champ.+EM/WM Formel 1: ja Anbieter: Sky 14,8 % 21,4 % 30,9 % 20,3 % 12,6 % 13,6 % 19,6 % 28,2 % 18,6 % 20,0 % 10,4 % 22,8 % 24,6 % 16,0 % 26,3 % Reaktion: Zusätzlich US- Sport Zusätzlich Champ. League Preisreduktion auf 14,90 Abbildung C.34: Prognostizierte Wahlanteile für alternative Marktkonstellationen Kapitel_A-D 10.09.13 11:40 Seite 149 u. a. durch einen Preis von 14,90 €, ein US-Sport-Angebot, Fußball-Bundesliga und ein Formel-1-Angebot gekennzeichnet. Die Nutzenwerte für jede Eigenschaftsausprägung werden nun so geschätzt, dass die Summe der Nutzenwerte über alle Eigenschaften möglichst genau den skalierten Beurteilungen (bei Angebot K = 5) entsprechen. Hierfür kann z. B. ein lineares Optimierungsprogramm eingesetzt werden. Die Nutzenwerte werden entweder individuell oder für Segmente von Befragten geschätzt. Genau wie bei direkten Präferenzbefragungen lassen sich auch für die mittels Conjoint-Analysen geschätzten Nutzenwerte Marktsimulationen durchführen (Abbildung C.34). Der Vorteil von Conjoint-Analysen gegenüber direkten Präferenzabfragen besteht insbesondere in einer realitätsnäheren Aufgabenstellung für die Probanden und einer damit verbundenen höheren Validität. Die gilt insbesondere für Choice-based Conjoint-Analysen (Hartmann/Sattler, 2004). Allerdings werden höhere Anforderungen an das Methoden-Know-how gestellt. Sowohl Conjoint-Analysen als auch direkte Präferenzbefragungen setzen voraus, dass die präferenzdeterminierenden Eigenschaften a priori bekannt sind. In manchen Anwendungsfällen kann hiervon jedoch nicht zwangsläufig ausgegangen werden. Sollen z. B. Imagedimensionen von Marken analysiert werden, so ist nicht unmittelbar klar, welche Dimensionen aus Sicht von Konsumenten relevant sind. In diesen Fällen bietet sich der Einsatz einer spezifischen Analysetechnik an, der so genannten Multidimensionalen Skalierung (MDS). 150 C. Märkte analysieren Angebot B Preis: 19,90 pro Monat US-Sport: Ja Fußball: Bundesliga + Champ. + EM/WM Formel 1: ja Anbieter: Tchibo Angebot A Preis: 24,90 pro Monat US-Sport: Ja Fußball: Bundesliga + Champ. + EM/WM Formel 1: ja Anbieter: Sky Angebot C Preis: 14,90 pro Monat US-Sport: Nein Fußball: Bundesliga Formel 1: ja Anbieter: Bild Abbildung C.35: Alternative Produktbündel im Rahmen einer Conjoint-Analyse Kapitel_A-D 10.09.13 11:40 Seite 150 1514. Daten auswerten Mit Hilfe der Multidimensionalen Skalierung (MDS) können komplexe Affinitätsbeziehungen von Objekten transparent gemacht und präferenzdeterminierende Objekteigenschaften aufgedeckt werden. Die MDS nimmt eine räumliche Darstellung von Objekten nach Maßgabe ihrer wahr genommenen Ähnlichkeiten (bzw. Affinitäten) so vor, dass die Raumdistanzen der Objekte möglichst gut mit den empirisch gemessenen Ähnlichkeiten übereinstimmen. Ergebnis einer MDS ist ein Wahrnehmungsraum, dessen Achsen die Wahrnehmungs dimensionen der Objekte darstellen. Objekte können z. B. Marken, Produkte, Personen Skalierte Beurteilung Geschätzter Gesamtnutzen Geschätzter Teilnutzen sier P 14,90 19,90 24,90 ja nein U S -S po rt Bundesliga Bundesliga+Champ. BL+Champ.+EM/WM Fu ßb al l 1 le mroF ja nein Angebot K Angebot J Angebot F 5 3 2 . . . . . . . . . Abbildung C.36: Nutzenschätzung mittels einer Conjoint-Analyse Kapitel_A-D 10.09.13 11:40 Seite 151 (z. B. Prominente im Rahmen einer Testimonialanalyse) oder Institutionen (z. B. Universitäten) sein. Ein Beispiel für Schokoladenmarken ist in Abbildung C.37 wiedergegeben. Aus der räum lichen Nähe der beiden Marken Sprengel und Trumpf kann geschlossen werden, dass diese sich sehr ähnlich sind. Hingegen sind sich Trumpf und Ritter Sport infolge der großen Distanz sehr unähnlich. Im Beispiel sind zwei Wahrnehmungsdimensionen aufgedeckt worden, die im Zuge der MDS interpretiert und inhaltlich benannt werden müssen. Grundlage der MDS bildet eine Ähnlichkeitsmessung zwischen den Objekten. Für das Schokoladenbeispiel ist die Messung anhand der so genannten Ankerpunktmethode für eine befragte Person in Abbildung C.38 illustriert (zu alternativen Ähnlichkeitsmaßen siehe z. B. Lehmann/Gupta/Steckel, 1998, S. 630 ff.). Die Marke in der jeweiligen Spalte dient als Anker, d. h. die Ähnlichkeit der anderen Marken wird im Vergleich zum Anker in eine Rangreihung gebracht. In diesem Beispiel stellt Ritter Sport den Anker dar. Milka wird am ähnlichsten (Rang 1), Trumpf-Schokolade am unähnlichsten (Rang 5) zu Ritter Sport eingestuft. Die Ähnlichkeitsurteile werden anschließend für die weitere Analyse über die Menge der Befragten aggregiert, z. B. durch Mittelwertbildung. Basierend auf diesen Urteilen wird der Wahrnehmungsraum aufgespannt. Der Wahrnehmungsraum stellt einen r-dimensionalen Raum dar (im Beispiel 2 Dimensionen), in dem die Objekte positioniert werden. In diesem Raum sollen die Distanzen zwischen den einzelnen Objektpositionen den Ähnlichkeitsurteilen der Befragten möglichst gut entsprechen. Um dieses zu überprüfen, müssen die Distanzen zwischen den einzelnen Ob- 152 C. Märkte analysieren Abbildung C.37: Wahrnehmungsraum für Schokoladenmarken Kapitel_A-D 10.09.13 11:40 Seite 152 1534. Daten auswerten jektpositionen berechnet werden, wozu ein geeignetes Distanzmaß gewählt wird. Zumeist wird die euklidische Metrik verwendet: 1R –– dkl = ( |Wkr – Wlr|2)2 r=1 wobei: dkl: Distanz zwischen Objekt k und Objekt l wkr: Koordinatenpunkt des Objekts k auf der Dimension r wlr: Koordinatenpunkt des Objekts l auf der Dimension r Zunächst werden die Objekte beliebig im Wahrnehmungsraum positioniert. Für diese Startpartition wird überprüft, inwiefern die Rangfolge der im Raum gemessenen Distanzen zwischen den Objekten möglichst gut die Rangfolge der gemessenen Ähnlichkeiten wiedergibt. Je höher die Übereinstimmung zwischen den beiden Rangfolgen ist, desto besser ist die Anpassungsgüte der MDS. Die optimale Anpassungsgüte wird normalerweise nicht unmittelbar in der Startpartition erreicht. Deshalb werden die Objekte ausgehend von der Startpartition mithilfe eines iterativen Optimierungsverfahrens so lange verlagert, bis eine möglichst hohe Anpassungsgüte erzielt ist (z. B. Lehmann/Gupta/ Steckel, 1998, S. 631 ff.). Je weniger Objekte und je mehr Raumdimensionen betrachtet werden, desto höher ist c.p. die Anpassungsgüte. Aus Anschaulichkeitsgründen werden meist zwei oder drei Dimensionen gewählt. Um die Achseninterpretation des Wahrnehmungsraums vornehmen zu können, erhebt man häufig zusätzlich zu den Ähnlichkeitsbewertungen Urteile über potenziell relevante Eigenschaften der Objekte. Beispielsweise könnte die wahrgenommene Sortenvielfalt bei Abbildung C.38: Ähnlichkeitsmessung für Schokoladenmarken Kinderschokolade 2 Milka 1 Ritter Sport Sprengel 4 Trumpf 5 Yogurette 3 K in de rs ch ok ol ad e M ilk a R itt er S po rt Sp re ng el Tr um pf Yo gu re tte Kapitel_A-D 10.09.13 11:40 Seite 153 den sechs Schokoladenmarken auf einer Rating-Skala erhoben werden. Auf Basis dieser Urteile wird ein Vektor so in den Wahrnehmungsraum gelegt, dass die Projektion der Marken auf den Vektor mit den Urteilen auf der Rating-Skala möglichst gut korrespondiert. Verlaufen nun ein oder mehrere solcher Vektoren näherungsweise parallel zu einer Achse, so ist dies ein Hinweis, dass die Vektoren in engem inhaltlichen Zusammenhang mit der jeweiligen Achse stehen. Für das Schokoladenbeispiel können die Achsen wie folgt interpretiert werden: Die y-Achse steht für die Sortenvielfalt, die x-Achse für die Jugendlichkeit. Ritter Sport verfügt somit über die größte Sortenvielfalt, während Kinderschokolade am jugendlichsten ist. Schließlich lassen sich Idealvorstellungen von Probanden über Objekte in den Wahrnehmungsraum integrieren. Hierzu werden zunächst die Präferenzen der Probanden hinsichtlich der Objekte erhoben, z. B. über die Abfrage einer Präferenzrangfolge bezüglich der Objekte. Die Präferenzen werden nun in Form von Idealpunkten so in den Wahrnehmungsraum integriert, dass die Rangfolge der Distanzen zwischen Idealpunkt und Marken möglichst gut der abgefragten Präferenzrangfolge entspricht (Lehmann/Gupta/ Steckel, 1998). Die ermittelten Idealpunkte können beispielsweise als Anhaltspunkte für Neuproduktentwicklungen oder Markenumpositionierungen dienen. 4.5 Datengüte beurteilen Um eine akzeptable Datengüte sicherzustellen, sollten Marktforschungsergebnisse und Datenanalysemethoden gewisse Voraussetzungen erfüllen: Reliabilität: Sind Marktforschungsergebnisse frei von Zufallsfehlern? Trifft dies zu, so ist die Messung reliabel. Bei der Messung der Reliabilität wird insbesondere darauf Bezug genommen, inwiefern bei einer Wiederholung der Messung das gleiche Messergebnis erzielt wird. Wird beispielsweise eine Person mittels einer Rating-Skala befragt, inwiefern sie der Aussage zustimmt, dass Schokolade glücklich mache, so sollte die Person bei mehrfacher Befragung, z. B. am Anfang eines Fragebogens und am Ende in einem Kontrollteil, die gleiche Antwort geben. Kommt es zu abweichenden Antworten, so ist die Messung nicht reliabel. Validität: Ist eine Messung frei von systematischen Fehlern, heißt sie valide (Hammann/Erichson, 2000, S. 92 ff.). Die Validität zielt darauf ab, inwiefern ein Messinstrument in der Lage ist, das zu messen, was gemessen werden soll. Generalisierbarkeit: Inwiefern sind Messergebnisse in sachlicher, räumlicher und zeitlicher Hinsicht verallgemeinerbar? Wird beispielsweise in einem Laborexperiment die überlegene Wirksamkeit einer neuen Werbeform bei einer Marke ermittelt, so sollten die Befunde auch außerhalb des Labors (räumlich), über mehrere Monate oder gar Jahre hinweg (zeitlich) und über andere Marken (sachlich) verallgemeinerbar sein. Praktikabilität: Datenanalysemethoden sollten praktikabel sein, insbesondere im Hinblick auf ein möglichst einfaches Verständnis der Methode und einen ökonomischen Einsatz bezüglich Kosten und Zeit. 154 C. Märkte analysieren Kapitel_A-D 10.09.13 11:40 Seite 154 1554. Daten auswerten Für die Beurteilung der Datengüte sind vier zentrale Kriterien relevant: die Reliabilität (Erreicht man das gleiche Ergebnis bei Messwiederholung?), die Validität (Misst man das, was man messen will?), die Generalisierbarkeit (Lassen sich die Ergebnisse in sachlicher, räumlicher und zeitlicher Hinsicht verallgemeinern?) und die Praktikabilität (Ist die Datenanalysemethode für den Untersuchungszweck anwendbar und ökonomisch sinnvoll?). Zur Überprüfung der Reliabilität werden insbesondere zwei Konzepte verwendet: Die Wiederholungsreliabilität (test-retest reliability) vergleicht die Ergebnisse zeitlich aufeinander folgender Messungen mit demselben Instrument. Zur Operationalisierung können z. B. bei einer Stichprobe von Konsumenten die erste Messung und die Mess wiederholung miteinander korreliert werden. Ein Korrelationskoeffizient nahe 1 deutet dann auf eine hohe Reliabilität hin. Bei der Halbierungsreliabilität (split-half reliability) werden die Items, mit deren Hilfe ein (reflektives) Konstrukt gemessen wird, halbiert und die Messergebnisse der reduzierten Tests verglichen (Churchill, 1979). Verschiedene Fehler in den Phasen des Marktforschungsprozesses können dazu führen, dass die Validität eines Ergebnisses vermindert wird. Eine Übersicht über häufige systematische Fehlerquellen findet sich in Abbildung C.39. Für die Messung der Validität können unterschiedliche Kriterien angewendet werden: Face-Validität: Die Messergebnisse werden einer Plausibilitätsprüfung unterzogen, z. B. ob die ermittelten Ergebnisse den Erwartungen entsprechen oder sinnvoll interpretiert werden können. Hierzu können auch Experten herangezogen werden. Auch wenn die Face-Validität offensichtlich einen hohen Ermessensspielraum aufweist, so ist sie für viele Marktforschungsprojekte von hoher Bedeutung. Sind Ergebnisse auch mit viel Abbildung C.39: Ursachen für systematische Fehler Quelle: in Anlehnung an Berekoven/Eckert/Ellenrieder, 2009, S. 61 f. Untersuchungsträger Fehler in der Erhebungs planung: Veraltete Unterlagen Falsche Grundgesamtheits-Definition Falsche Methoden auswahl Fehler in der Erhebungsdurchführung Fehler in der Auswertung Fehler in der Interpretation Interviewer Verzerrung des Auswahl planes: Quotenfälschung Selbstausfüllung Verzerrung der Antworten: Suggestives Fragen Selektive Antwortregistrierung Probanden Non-Response-Fälle Falsches Verständnis von Fragen Überforderung Drittbeeinflussung Sozial erwünschte Antworten Kapitel_A-D 10.09.13 11:40 Seite 155 Mühe nicht interpretierbar oder in hohem Maße überraschend, so ist dies ein deutlicher Hinweis auf fehlende Validität. Die Ergebnisse der Datenanalysen sollten in diesem Fall kritisch hinterfragt werden. Konvergenzvalidität: Die Konvergenzvalidität beschreibt den Grad der Übereinstimmung zweier Messinstrumente, die das gleiche Konstrukt messen. Wird beispielsweise mit zwei ähnlichen, aber nicht identischen Messinstrumenten jeweils ein Markenimage gemessen, so sollten die Messergebnisse übereinstimmen, d. h. konvergieren. Diskriminierende Validität: Wendet man zwei Messinstrumente an, die ganz unterschiedliche Sachverhalte messen (z. B. Markenimage und Markenerhältlichkeit), so sollten die Ergebnisse nicht übereinstimmen. Trifft dies zu, so liegt diskriminierende Validität vor, andernfalls besteht ein Hinweis auf mangelnde Validität der Messinstrumente. Konvergierende und diskriminierende Validität werden häufig zur Überprüfung der Konstruktvalidität herangezogen. Weitere Aspekte der Konstruktvalidität wurden im Rahmen der Kausalanalyse in Kapitel C. 4.3 bereits behandelt. Die so genannte Multitrait- Multimethod-Matrix stellt eine Methode dar, um die Diskriminanz- und Konvergenzvalidität sowie die Reliabilität zu überprüfen (Campbell/Fiske, 1959). Ein diesbezügliches Beispiel ist in Abbildung C.40 beschrieben. Es werden die Variablen „Zufriedenheit mit dem Job“, „Rollenkonflikt“ und „Rollenverständnis“ mit zwei verschiedenen Methoden gemessen und die Messergebnisse jeweils miteinander korreliert. 156 C. Märkte analysieren Abbildung C.40: Multitrait-Multimethod-Matrix Quelle: in Anlehnung an Churchill, 1979, S. 71. Kapitel_A-D 10.09.13 11:40 Seite 156 1574. Daten auswerten Der obere linke Teil der Abbildung C.40 zeigt hohe positive Korrelationen zwischen den zeitlich versetzten Messergebnissen derselben Variablen mittels derselben Methode. Die Messung weist somit eine hohe Reliabilität auf. Der untere linke Teil der Abbildung zeigt, dass die Ergebnisse ebenfalls eine hohe Konvergenzvalidität aufweisen, da die mit unterschiedlichen Methoden erzielten Werte derselben Variablen ebenfalls stark positiv korrelieren. Die Diskriminanzvalidität lässt sich über die übrigen Korrelationen ablesen, z. B. im unteren rechten Teil der Abbildung. Da die mit derselben Methode erzielten Werte unterschiedlicher Variablen nur schwach positiv bzw. negativ miteinander korrelieren, ist auch Diskriminanzvalidität gegeben. Schließlich kann die nomologische Validität gemessen werden. Diese beschreibt den Grad der Übereinstimmung der Messergebnisse von Konstrukten und theoretisch postulierten Beziehungen. Sie kann insbesondere zur Beurteilung eines Messmodells herangezogen werden. Soll z. B. im Rahmen eines Regressionsmodells der Einfluss des Markenimages und des Preises auf den Absatz gemessen werden, so muss im ersten Schritt das Konstrukt Markenimage valide gemessen werden (Konstruktvalidität). Anschließend prüft man, inwiefern die Regressionskoeffizienten der unabhängigen Variablen Preis und Marken image die erwarteten Vorzeichen aufweisen (nomologische Validität). Schließlich kann erwartet werden, dass das Regressionsmodell einen nennenswerten Teil der Varianz des Absatzes erklärt, gemessen über das Bestimmtheitsmaß (nomologische Validität). Zur Beurteilung der Validität müssen verschiedene Kriterien überprüft werden, da die wahren, d. h. validen Werte im Vorhinein zumeist nicht bekannt sind. Kapitel_A-D 10.09.13 11:40 Seite 157 159Kolumnentitel D. Ziele und Strategien planen 1. Struktur und Methodik der Marketingplanung verstehen Die Notwendigkeit einer systematischen Planung marketingpolitischer Aktivitäten nimmt vor dem Hintergrund wachsender Dynamik und Komplexität des Umwelt- und Unternehmensgeschehens zu. Angesichts verstärkter Umwelt- und Unternehmensturbulenzen vermittelt die Analyse isoliert voneinander betrachteter Marktgegebenheiten kaum Anhaltspunkte für den gezielten Einsatz der marketingpolitischen Maßnahmen. Vielmehr erscheint ein umfassendes Planungskonzept erforderlich, das angemessene Reaktionen eines Unternehmens auf sich rasch verändernde Marktbedingungen erlaubt (Welge/Al-Laham, 2012; Müller-Stewens/Lechner, 2011). „Der Weg ist immer mehr als das Ziel.“ Heimito von Doderer Abbildung D.1: Konzept der Marketingplanung Quelle: in Anlehnung an Becker, 2013, S. 11. Kapitel_A-D 10.09.13 11:40 Seite 159

Chapter Preview

References

Zusammenfassung

Marketing – der handlungsorientierte Ansatz.

Marketing: verständlich und aktuell

Diese managementorientierte Einführung in das Marketing stellt die wesentlichen Instrumente kompakt und gleichzeitig wissenschaftlich fundiert dar. Durch die systematische Vorgehensweise und die handlungsorientierte Darstellung finden Praktiker und Studierende schnell einen Überblick über die Methoden und aktuellen Maßnahmen des Marketings. Das Buch gehört mittlerweile zu den erfolgreichsten Lehrbüchern im deutschsprachigen Raum.

Systematische Inhaltsstruktur

- Manager für Marketing sensibilisieren

- Verständnis für Kunden entwickeln

- Märkte analysieren

- Ziele und Strategien planen

- Maßnahmen gestalten

- Ziele, Strategien und Maßnahmen kontrollieren

- Marketing im Unternehmen verankern

Die Marketing-Experten

Prof. Dr. Franz-Rudolf Esch, Oestrich-Winkel, Prof. Dr. Andreas Herrmann, St. Gallen und Prof. Dr. Henrik Sattler, Hamburg.