Content

Manfred Schwaiger, Lorenz Zimmermann, Quantitative Forschung: Ein Überblick in:

Manfred Schwaiger, Anton Meyer (Ed.)

Theorien und Methoden der Betriebswirtschaft, page 412 - 430

Handbuch für Wissenschaftler und Studierende

1. Edition 2009, ISBN print: 978-3-8006-3613-6, ISBN online: 978-3-8006-4437-7, https://doi.org/10.15358/9783800644377_412

Bibliographic information
Teil C Quantitative Methoden und methodische Fragestellungen für die betriebswirtschaftliche Forschung Manfred Schwaiger /Lorenz Zimmermann Quantitative Forschung: Ein Überblick Zusammenfassung Quantitative Forschungsmethoden beschreiben und untersuchen reale Zusammenhänge in numerischer Form. Sie finden weite Verbreitung in betriebswirtschaftlicher Forschung und un ternehmerischer Praxis. Im Rahmen dieses Artikels werden zunächst grundlegende Eigenschaften quantitativer For schungsmethoden betrachtet, resultierende Vorteile herausgearbeitet und geeignete Einsatzmög lichkeiten aufgezeigt. Anschließend werden alternative Strukturierungsmöglichkeiten der quan titativen Verfahren erläutert und die wichtigsten quantitativen Analysemethoden – unterteilt in strukturentdeckende und prüfende Verfahren – vorgestellt. Prof. Dr. Manfred Schwaiger ist Ordinarius für Betriebswirtschaftslehre und Vorstand des Instituts für Marktorientierte Unternehmensführung an der Ludwig Maximilians Universität München. Dipl. oec. Lorenz Zimmermann ist wissenschaftlicher Mitarbeiter und Doktorand am Institut für Marktorientierte Unternehmensführung an der Ludwig Maximilians Universität München. Inhaltsverzeichnis 1 Grundlagen und Abgrenzung quantitativer Methoden . . . . . . . . . . . . . . . . . . . . . . . . 421 1.1 Merkmale quantitativer Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 1.2 Grundlagen des Einsatzes quantitativer Methoden . . . . . . . . . . . . . . . . . . . . . . . 422 1.3 Ansätze zur Typologisierung der einzelnen Methoden . . . . . . . . . . . . . . . . . . . . 423 2 Strukturentdeckende Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 2.1 Clusteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 2.2 Multidimensionale Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 2.3 Korrespondenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 2.4 (Explorative) Faktorenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 2.5 Data Mining Techniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 3 Strukturprüfende Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431 3.1 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431 3.2 Varianzanalyse und Kovarianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431 3.3 Diskriminanzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432 3.4 Kreuztabellierung und Kontingenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 3.5 Strukturgleichungsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 3.6 Conjoint Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434 Quantitative Forschung: Ein Überblick 421 1 Grundlagen und Abgrenzung quantitativer Methoden 1.1 Merkmale quantitativer Methoden Zählen, Messen und statistisches Auswerten als Kennzeichen quantitativer Methoden Quantitative Forschungsmethoden basieren auf der zahlenmäßigen Erhebung und Beschreibung von Sachverhalten. In dieser numerischen Abbildung der Realität grenzen sie sich von qualita tiven Methoden ab, die die verbale Beschreibung ihrer Untersuchungsobjekte anstreben. Kennzeichnend für die Anwendung quantitativer Methoden ist deshalb die Erhebung von Daten in Zahlenform und die Umwandlung von Merkmalsausprägungen in numerisches Format, wo Daten nicht natürlich in Zahlenform vorliegen. Die so erhobenen Messwerte werden in der Regel mit Hilfe statistischer Verfahren ausgewertet. Historisch entstammen quantitative Forschungsmethoden den Naturwissenschaften. Diese waren bereits lange vor dem Entstehen der modernen Sozialwissenschaften bestrebt, ihren Un tersuchungszielen durch den Einsatz von Messungen, Tests und mathematischen Quantifizie rungen näherzukommen. Quantitative Forschungsmethoden sind deshalb als älter anzusehen als qualitative Methoden (vgl. B /D 2002, S. 301f.). Vorteile und Einsatzgebiete quantitativer Methoden Qualitativen Methoden gegenüber lässt sich der Einsatz quantitativer Methoden durch eine Reihe von Eigenschaften abgrenzen: das Vorgehen erfolgt klar strukturiert, die verwendeten Analyseverfahren sind eindeutig definiert und beschrieben. Bei der Erhebung und Auswertung der Daten bedarf es nicht der Interpretation durch den Forscher. Die erzielten Ergebnisse sind deshalb intersubjektiv nachvollziehbar, die durchgeführten Untersuchungen sind replizierbar. Die Qualität der Forschungsergebnisse und die Güte der gezogenen Schlüsse können deshalb von Außenstehenden beurteilt und in Vergleichsstudien überprüft werden. Für strukturprüfende Analysen gilt zudem, dass Forschungsergebnisse falsifizierbar sind. Misslingen solche Falsifi kationsversuche, erhöhen sie die Gültigkeit der überprüften Hypothesen und steigern deren Annäherung an eine externe Wahrheit. Durch die Verwendung zahlenbasierten Datenmaterials können die untersuchten Effekte be sonders detailliert beschrieben werden; auch schwach ausgeprägte Phänomene können exakt be ziffert werden. Durch die eingesetzten statistischen Methoden ist gleichzeitig der eingegangene Fehler abschätzbar. Die Genauigkeit der abgeleiteten Aussagen kann beziffert werden. Der Einsatz quantitativer Forschungsmethoden eignet sich besonders dort, wo Erkenntnisse über eine umfangreiche Grundgesamtheit gewonnen werden sollen. Zur Ableitung von For schungsaussagen mit hoher externer Validität ist oft die Untersuchung großer Stichproben not wendig, deren Analyse quantitative Methoden ermöglichen. Der Hauptaufwand beim Einsatz quantitativer Methoden entsteht in der Regel bei der Untersuchungsvorbereitung, die Untersu chungskosten steigen nur unterproportional mit der Stichprobengröße. Gleichzeitig erfolgt die Auswertung der erhobenen Daten in der Regel computergestützt durch Statistikprogramme, die hohe Fallzahlen verarbeiten können. In Wissenschaft und Praxis werden diese Vorzüge quantitativer Forschungsmethoden deutlich wahrgenommen. Sie finden deshalb weite Verbreitung in vielfältigen Einsatzbereichen. 422 Manfred Schwaiger /Lorenz Zimmermann 1.2 Grundlagen des Einsatzes quantitativer Methoden Entwicklung und Verwendung geeigneter Skalen Wie erläutert, streben quantitative Methoden die zahlenbasierte Untersuchung realer Zusam menhänge an. Grundlage sindMessungen der betrachteten Zustände, die Objekten nach festge legten Regeln Zahlen zuordnen.1 Dies ist vergleichsweise einfach möglich, wo die untersuchten Größen bereits in Zahlenform vorliegen (z.B. Alter in Jahren) oder durch technische Instru mente direkt gemessen werden können (z.B. Geschwindigkeit in km/h). Messungen können eine größere Herausforderung darstellen, wenn latente und komplexe Konstrukte wie „Produkt involvement“ oder „Kundenbindung“ untersucht werden, die nicht direkt beobachtet werden können. Notwendig ist hier die Entwicklung und Verwendung geeigneter Messinstrumente. Es werden Indikatoren verwendet, die direkt beobachtbar sind oder direkt abgefragt werden können und deren Ausprägungen auf das interessierende Konstrukt schließen lassen. Mit der Operationalisierung und Messung latenter Konstrukte beschäftigt sich der Beitrag von E / R in diesem Herausgeberband. Der Verwendung geeigneter Skalen kommt im Forschungsprozess überragende Bedeutung zu. Ihre Güte hat entscheidenden Einfluss auf die Qualität der erhobenen Daten und der erzielten Forschungsergebnisse. Zur Beurteilung der Güte einer Skala werden üblicherweise die Krite rien Objektivität, Reliabilität und Validität herangezogen (vgl. H /H 1999, S. 23f.). Nur wo diese Kriterien erfüllt sind, können quantitative Forschungsmethoden ihre oben erläuterten Vorteile wie Vergleichbarkeit, Überprüfbarkeit und Replizierbarkeit der Ergebnisse ausschöpfen. Wo möglich sollte deshalb auf bereits validierte Skalen zurückgegriffen werden. Existieren noch keine validierten Skalen und müssen Messinstrumente neu entwickelt werden, müssen diese in einem Pretest auf ihre Eignung untersucht werden, das interessierende Kon strukt zu erfassen (vgl. E . 2008, S. 101). Stichprobenauswahl Im Rahmen quantitativer Untersuchungen ist es häufig nicht möglich, alle Objekte einer Grund gesamtheit zu untersuchen. Die relevante Grundgesamtheit kann unbekannt oder eine Voller hebung durch die Größe der untersuchten Population zu aufwendig sein (vgl. B /D 2002, S. 399). In solchen Fällen werden Stichproben gezogen und untersucht. Die verwendeten Auswahlverfahren haben wie die eingesetzten Messinstrumente großen Einfluss auf die Güte der erzielten Forschungsergebnisse. Im Rahmen deskriptiver Untersuchungen ist die Stichprobenauswahl vergleichsweise unproble matisch, da die Menge der interessierenden Objekte oft klar abgegrenzt ist. Werden induktive Untersuchungen durchgeführt, deren Ergebnisse über die untersuchten Objekte hinaus gelten sollen, hängt die Gültigkeit der abgeleiteten Aussagen stark von der korrekten Definition der Grundgesamtheit und der Auswahl der Untersuchungsobjekte ab (vgl. S . 2005, S. 265). Induktionsschlüsse sind nur für die zu Grunde gelegte Grundgesamtheit gültig; die tatsächlich untersuchten Objekte müssen diese unverzerrt repräsentieren. Besondere Bedeutung kommt zufallsbasierten Stichproben zu (vgl. B . 2008, S. 135ff.; S 1993, S. 36ff.). Diese erlauben die Anwendung inferenzstatistischer Tech niken und damit die Abschätzung des erwartungsmäßigen Fehlers, der bei der Anwendung von Induktionsschlüssen eingegangen wird. Im Rahmen einer Voruntersuchung kann die minimal Zur grundlegenden Betrachtung des Messens und unterschiedlicher Skalentypen vgl. S . (2005, S. 138ff.). Quantitative Forschung: Ein Überblick 423 erforderliche Stichprobengröße ermittelt werden, mit der ein vorgegebenes Fehlerniveau gerade noch unterschritten wird. In dieser hohen Bedeutung der ausgewählten Stichprobe unterscheiden sich quantitative von qualitativen Methoden, bei denen die intensive Untersuchung des Einzelfalls im Vordergrund steht. Quantitative Methoden streben nach verallgemeinerbaren Aussagen. Ohne korrekte Aus wahl der Untersuchungsobjekte ist auch der spätere Einsatz ausgefeilter Analysemethoden zur Auswertung des Datenmaterials wertlos. Anwendbarkeit statistischer Tests und Gütekriterien quantitativer Verfahren Wichtige Eigenschaft quantitativer Methoden ist die Anwendbarkeit statistischer Verfahren. Diese gestatten die genaue Beurteilung der Güte der generierten Aussagen und ermöglichen in ferenzstatistische Überprüfungen, ob ein Effekt zufällig in der untersuchten Stichprobe vorliegt oder ob angenommen werden kann, dass der Effekt auch in der Grundgesamtheit besteht (vgl. S . 2005, S. 447f.). Um zu einer solchen quantitativen Beurteilung der erzielten Forschungsergebnisse zu gelangen, müssen die untersuchten inhaltlichen Hypothesen zunächst in mathematisch exakter Form ausgedrückt werden (vgl. B /D 2002, S. 80). Sind die Untersuchungshypothesen auf diese Weise präzise formuliert, können statistische Tests eingesetzt werden. Diese überprüfen das Vorliegen oder Nichtvorliegen der interessierenden Effekte. Die Wahrscheinlichkeit, einen Stichprobeneffekt für real zu halten, der tatsächlich nicht vorhanden ist, wird im α Niveau einer Untersuchung angegeben und drückt die Signifikanz der Untersuchungsergebnisse aus. Signifikanz bedeutet dabei nicht, dass der vorliegende Effekt von starkem Ausmaß ist, sondern dass er sich mit hinreichend großer Wahrscheinlichkeit von null unterscheidet (vgl. S . 2005, S. 452f.). Mit ausreichend hoher Sicherheit kann also davon ausgegangen werden, dass der interessierende Effekt nicht auf Zufallsfehlern in der gezogenen Stichprobe beruht, sondern tatsächlich in der untersuchten Grundgesamtheit vorliegt. Statistische Tests und ihre Anwendung in der quantitativen Forschung sind Inhalt des Beitrags von G /T in diesem Herausgeberband. 1.3 Ansätze zur Typologisierung der einzelnen Methoden Zur Auswertung der erhobenen Daten existiert eine Vielzahl unterschiedlicher Analysemetho den. Diese erfahren laufende Weiterentwicklungen, zum Teil existiert eine Vielzahl einzelner Verfahrensvarianten. Zur Typologisierung der einzelnen Methoden können unterschiedliche Kriterien verwendet werden, die im Folgenden vorgestellt werden.2 Uni- vs. bi- vs. multivariate Verfahren Quantitative Analyseverfahren können nach der Zahl der in die Analyse einbezogenen Variablen unterschieden werden. Univariate Verfahren untersuchen die Verteilung einer Variablen, biva riate Verfahren betrachten zwei, multivariate Verfahren verarbeiten eine Vielzahl von Variablen gleichzeitig (vgl. S . 2005, S. 446). Deskriptive vs. induktive Verfahren Analyseverfahren können im Hinblick auf ihre Zielsetzung unterschieden werden. Deskriptive Verfahren beschreiben eine vorliegende Datenmenge, induktive (schließende) Verfahren bedie 2 Eine ausführlichere Übersicht der möglichen Kategorien zur Systematisierung quantitativer Forschungsmethoden liefern H . (1999, S. 104ff.). 424 Manfred Schwaiger /Lorenz Zimmermann nen sich der Wahrscheinlichkeitstheorie und ziehen Schlüsse von der untersuchten Stichprobe auf Strukturen in der Grundgesamtheit. Dabei werden begrenzte Fehlerwahrscheinlichkeiten in Kauf genommen (vgl. H . 1999, S. 104). Parametrische vs. nichtparametrische Verfahren Es kann zwischen parametrischen Verfahren und nichtparametrischen Verfahren unterschieden werden. Parametrische Verfahren beziehen sich auf einzelne Parameter einer Verteilung wie ihren Erwartungswert. Nichtparametrische, gelegentlich auch als „verteilungsfrei“ bezeichnete Verfahren, beziehen sich auf eine Verteilung als Ganzes (vgl. B . 2008, S. 205; H . 1999, S. 105). Deutlich größere Bedeutung haben parametrische Verfahren, die auf Annahmen über die Vertei lung der empirisch erhobenen Variablen in der zugrunde liegenden Grundgesamtheit basieren. Die abgeleiteten Schlüsse hängen bei diesen Verfahren von der Haltbarkeit der getroffenen Annahmen ab. Sind solche Verteilungsannahmen nicht möglich, finden nichtparametrische Verfahren Anwendung. Beispiel solcher verteilungsunabhängigen Verfahren sind Rangtests, bei denen nicht die eigentlichenMerkmalsausprägungen der Stichprobenobjekte untersucht werden, sondern deren Positionen in einer Rangliste. Verfahren der Dependenz- vs. Interdependenzanalyse Quantitative Untersuchungsmethoden können danach unterschieden werden, ob sie Dependenz oder Interdependenz zwischen Variablen untersuchen. Dependenzanalysen unterscheiden zwi schen abhängigen und unabhängigen Variablen und untersuchen Existenz und Stärke gerichteter Wirkungszusammenhänge von unabhängigen auf abhängige Variablen. Interdependenzanalysen nehmen keine solche Unterteilung vor und suchen nach jeder Art von Zusammenhang zwischen den analysierten Variablen (vgl. H . 1999, S. 105; E . 2008, S. 130). Strukturentdeckende vs. strukturprüfende Verfahren Häufig werden quantitative Analyseverfahren in strukturentdeckende und strukturprüfende Verfahren unterteilt. Strukturprüfende Verfahren dienen der Untersuchung von Kausalhypothesen. Vor ihrer Anwen dung bestehen bereits theoretische und sachlogische Überlegungen zum Wirkungszusammen hang zwischen den betrachteten Größen. Dieser Zusammenhang soll anhand eines vorliegenden Datensatzes überprüft werden. Die bestehenden theoretischen Vorkenntnisse sollen empirisch überprüft und im statistischen Sinne bestätigt werden. Es wird deshalb auch von konfirmato rischen Verfahren gesprochen (vgl. H . 1999, S. 105). Strukturentdeckende Verfahren bedürfen keiner theoretischen Vorüberlegungen zum Zusam menhang zwischen den untersuchten Größen. Vielmehr dienen sie der Entdeckung von Zusam menhängen und werden deshalb auch als explorative Methoden bezeichnet. Durch das daten statt theoriegetriebene Vorgehen haben die Ergebnisse strukturentdeckender Verfahren in der Regel nicht denselben Stellenwert wie die Resultate strukturprüfender Ver fahren. Vielmehr besteht die Gefahr, durch das rein datengeleitete Vorgehen zu inhaltlichen Fehlschlüssen zu gelangen (vgl. H . 1999, S. 106). Die Unterscheidung zwischen strukturentdeckenden und prüfenden Verfahren und die Zuord nung zu untersuchten Fragestellungen ist nicht völlig überschneidungsfrei (vgl. B . 2003, S. 7). Sie ist jedoch die am häufigsten verwendete Form der Typisierung und soll auch im Folgenden verwendet werden, die Übersicht der wichtigsten Analyseverfahren zu strukturieren. Quantitative Forschung: Ein Überblick 425 2 Strukturentdeckende Verfahren 2.1 Clusteranalyse Die Clusteranalyse gruppiert Objekte auf Basis vorab erhobener Merkmale. Ziel ist es, Gruppen zu bilden, die in sich möglichst homogen und zwischen einander möglichst heterogen sind. Aus schlaggebend für den Grad der Homogenität bzw. Heterogenität sind dabei die Ausprägungen aller zur Beschreibung der Objekte herangezogenen Merkmale (vgl. O 1980; B / T 1999, S. 339). Kennzeichnend für die Clusteranalyse ist ihre vergleichsweise einfache Prozedur, die nicht auf hochentwickelten statistischen Verfahren basiert. Hierin unterscheidet sich die Clusteranalyse von Regressions , Varianz und Faktorenanalyse, die auf weit tiefer greifenden statistischen Überlegungen basieren (vgl. M 2007, S. 638). Zur Durchführung einer Clusteranalyse werden zunächst die Merkmalsausprägungen der ein zelnen untersuchten Objekte erhoben (vgl. hierzu und im Folgenden O 1980; B . 2003, S. 481ff.). Auf dieser Basis wird die Ähnlichkeit von jeweils zwei Objekten ermit telt. Je nach Skalenniveau der betrachteten Merkmale werden verschiedene Ähnlichkeits oder Distanzmaße verwendet. Binär skalierte Variablen werden mit Ähnlichkeitsmaßen analysiert, die die Zahl identischer und unterschiedlicher Variablenausprägungen zweier Objekte in einem Paarvergleich untersuchen. Nominale Merkmale mit mehr als zwei Ausprägungen können dazu in mehrere binäre Variablen umgewandelt werden. Besitzen die untersuchten Variablen metrisches Skalenniveau, kann die Distanz zwischen zwei Objekten berechnet werden. Je geringer die errechnete Distanz zwischen zwei Objekten, desto ähnlicher sind sich diese. Die Clusteranalyse kann auch bei Variablen mit unterschiedlichem Skalenniveau angewandt werden. In diesem Fall müssen metrisch und nicht metrisch skalierte Variablen getrennt voneinander betrachtet werden. Alternativ können metrische Variablen auf niedrigeres Skalenniveau transformiert werden.3 Sind Ähnlichkeiten und Distanzen zwischen den Objektpaaren berechnet, werden im nächsten Schritt einzelne Objekte zu Clustern zusammengefasst. Dabei wird grundsätzlich zwischen partitionierenden und hierarchischen Gruppierungsverfahren unterschieden. Partitionierende Verfahren gehen von einer Startkonfiguration aus und versuchen diese durch Umgruppierungen von Objekten zu verbessern. Einzelne Objekte können dabei ihr zugewiesenes Cluster verlassen und einem anderen zugeordnet werden, wenn sich dadurch die Güte der Gesamtlösung verbes sert. Diese Umgruppierung erfolgt so lang, bis keine weitere Verbesserung der Clusterlösung erzielt werden kann. Das Vorgehen hierarchischer Verfahren unterscheidet sich davon grundlegend. Diese beginnen in der agglomerativen Variante mit der feinsten Gruppierung, bei der jedes Objekt sein eigenes Cluster bildet, und fassen schrittweise ähnliche Cluster zusammen, bis sich alle Objekte in einem gemeinsamen Cluster befinden. Bei divisiven Verfahren startet man mit einer Klasse, der alle Objekte angehören und erhöht schrittweise die Klassenanzahl, bis ein Abbruchkriterium erreicht wird. In beiden Varianten verbleibt jedes Objekt im einmal zugeordneten Cluster; es finden Fusionen von Clustern statt, jedoch keine Umgruppierungen von Objekten in andere Cluster. Werden hierarchische Verfahren zur Bildung der Cluster verwendet, muss der Anwender ent scheiden, welche Clusterlösung – also welche Anzahl von Clustern – als die beste anzusehen ist. Vgl. speziell zur Aggregation von Distanzen O (1980). 426 Manfred Schwaiger /Lorenz Zimmermann Liefern die Untersuchungsobjekte selbst keine sachlogischen Anhaltspunkte zur Bestimmung der optimalen Clusteranzahl, können statistische Kriterien herangezogen werden. Üblicherweise wird eine Zahl von Clustern gewählt, ab deren weiterer Verringerung die Heterogenität inner halb der Cluster überproportional stark anwachsen würde. Sollen nicht nur Objekte geclustert, sondern den Klassen auch dieMerkmale zugeordnet werden, die die Objekte beschreiben, so bieten sich zweimodale Klassifikationsverfahren an.4 Die Clusteranalyse ist ein wirkungsvolles Verfahren der Datenreduktion. Durch die Zusam menfassung von einzelnen Objekten zu Clustern werden Strukturen innerhalb eines Daten satzes erkennbar. Die Clusteranalyse ist dabei nicht auf theoretische Vorüberlegungen oder ein bestimmtes Skalenniveau der Merkmale angewiesen. Gleichzeitig zeichnet sich die Clusterana lyse durch ihre Flexibilität aus: die erreichten Gruppierungslösungen sind nicht starr, sondern können vom Anwender an die Anforderungen der jeweiligen Einsatzsituation angepasst werden. Nachteil der Clusteranalyse ist die schwierige Überprüfbarkeit ihrer Ergebnisse. Liegen keine Annahmen über tatsächliche Gruppenzugehörigkeiten vor, ist das Ergebnis der Clusteranalyse nicht bewertbar. Die Clusteranalyse selbst liefert keine Kriterien zur Beurteilung der Güte der gefundenen Lösung. Diese muss anhand externer Kriterien bewertet werden. Wichtiges Krite rium sollte dabei sein, ob die erzielte Lösung inhaltlich plausibel und brauchbar ist. Praktische Anwendung findet die Clusteranalyse innerhalb der Marktforschung vor allem bei der Marktsegmentierung. Heterogene Märkte können in homogene Teilmärkte aufgeteilt werden, die von einem Anbieter in unterschiedlicher Weise bearbeitet werden können (vgl. B /T 1999, S. 339 und zur Illustration bspw. die Sinus Milieus unter www. sinus sociovision.de). Die Bedeutung der Clusteranalyse für wissenschaftliche Zwecke hat mit der zunehmenden Ver breitung von Finite Mixture Modellen (vgl. in diesem Herausgeberband, S /R ) zur Entdeckung latenter Klassen und damit zur Behandlung von heterogenen Datensätzen nach gelassen. Die Verfügbarkeit entsprechender Algorithmen in gängigen Anwendungsprogrammen macht den vorgeschalteten Einsatz einer Clusteranalyse nicht nur überflüssig, vielmehr wird dem Anwender durch die im Sinne der Analyse bestmögliche Berücksichtigung der den Daten inne wohnenden Heterogenität auch die im Wesentlichen willkürliche Entscheidung für bestimmte Distanzmaße und Klassifikationsalgorithmen abgenommen, sodass wir auf eine ausführliche Behandlung der Clusteranalyse in diesem Buch verzichten. 2.2 Multidimensionale Skalierung Die Multidimensionale Skalierung (MDS) bildet Objekte in einem subjektiven, mehrdimen sionalen Wahrnehmungsfeld räumlich ab. Ziel ist die Darstellung der Objekte in einer soge nannten Konfiguration, in der idealer Weise in räumlicher Nähe positionierte Objekte ähnlich zueinander sind, während eine relativ große räumliche Entfernung zwischen zwei Objekten in der Konfiguration auf deren relativ große Unähnlichkeit hinweist. Die genauen Eigenschaften der beurteilten Objekte müssen nicht unbedingt bekannt sein, denn die für eine MDS benöti gten Distanzen zwischen den Objekten können nicht nur auf Basis der Merkmalsausprägungen errechnet werden, sie können über Rangreihen, Paarvergleiche und andere Metriken auch direkt ermittelt werden (vgl. K 1964; B . 2003, S. 606f.). Vorgaben zu einem mindestens nötigen Skalenniveau der betrachteten Merkmale bestehen deshalb nicht. Vgl. für eine ausführliche Übersicht S (1997a), für Anwendungsbeispiele S (1997b; 1997c). Quantitative Forschung: Ein Überblick 427 Bei der Durchführung einer MDS werden entweder Distanzen aus denMerkmalsausprägungen errechnet (vgl. O 1980, S. 27ff.) oder Ähnlichkeitsurteile der Probanden bezüglich der Untersuchungsobjekte direkt erfragt, indem diese Rangreihen von ähnlichen zu immer un ähnlicheren Paaren bilden oder die Ähnlichkeit jeweils eines Objektpaares auf einer Skala be werten (vgl. G . 1988, S. 602). Aus den Ähnlichkeitsurteilen werden auf Basis einer bestimmtenMethode Distanzen zwischen den abgefragten Objekten errechnet, wobei auch hier ähnliche bzw. ähnlich präferierte Objekte durch kleine und unähnliche bzw. stark unterschied lich präferierte Objekte durch große Distanzen gekennzeichnet sein sollen. Im nächsten Schritt wird ein Raum von möglichst niedriger Dimensionalität gesucht, in dem die dargestellten Di stanzen zwischen den Objekten die ermittelten Unähnlichkeiten möglichst gut widerspiegeln. Zum Auffinden einer geeigneten Konfiguration wird ein iteratives Vorgehen gewählt: ausgehend von einer Startkonfiguration wird diese in der Regel durch Anwendung eines Gradientenverfah rens schrittweise verbessert. Zur Beurteilung der Güte einer Konfiguration wird das sogenannte STRESS Maß verwendet, das das Verhältnis der in der Konfiguration dargestellten Distanzen zu den in der Distanzmatrix enthaltenen ursprünglich errechneten Ähnlichkeiten betrachtet (vgl. K 1964). Die Zahl der verwendeten Dimensionen muss vom Anwender festgelegt werden. Diese soll be stenfalls die Zahl der wahren Dimensionen der Ähnlichkeitsbeurteilung durch die Probanden widerspiegeln. Da diese oft unbekannt ist und erst durch die Anwendung der MDS entdeckt werden soll, werden in der Regel zwei bis drei Dimensionen verwendet, um die Ergebnisse grafisch darstellen zu können. Formales Kriterium zur Bestimmung der Zahl der verwendeten Dimensionen kann ebenfalls das STRESS Maß der verschiedenen Lösungsalternativen sein. Eine Interpretation der Dimensionen kann – sofern sie erforderlich ist – mit Hilfe sogenannter Property Fitting Techniken erleichtert werden (vgl. O /S 1998), die Merkmals vektoren in die Konfiguration einbetten und somit die Anschaulichkeit der ermittelten Lösung erhöhen. Klassischerweise stellt die MDS den Wahrnehmungsraum einer Person dar. Häufig ist aber nicht der individuelle Wahrnehmungsraum einer Person von Interesse, sondern die aggregierte Wahrnehmung einer Reihe von Objekten durch eine Gruppe von Personen. Für eine solche aggregierte Darstellung bestehen unterschiedliche Vorgehensalternativen: vor Durchführung der MDS können die Ähnlichkeitsurteile der einzelnen Probanden aggregiert werden und eine gemeinsame Konfiguration ermittelt werden. Alternativ kann für jede Person eine eigene MDS durchgeführt werden, anschließend erfolgt die Zusammenführung der Ergebnisse zu einer ge meinsamen Konfiguration. Als dritte Alternative können Computerprogramme verwendet wer den, die die Ähnlichkeitsurteile mehrerer Personen gleichzeitig analysieren und eine gemeinsame Konfiguration ermitteln. Eine solche Analyse wird als Replicated MDS (RMDS) bezeichnet (vgl. S . 1981, S. 56ff.). Praxisanwendung findet die MDS in der Marktforschung typischerweise bei der Analyse der wahrgenommenen Positionierungen von Wettbewerbsprodukten innerhalb einer Produktkate gorie, etwa um über die anzustrebende Marktpositionierung eines Neuprodukts entscheiden zu können (vgl. P /R 1973). 2.3 Korrespondenzanalyse Die Korrespondenzanalyse dient der Visualisierung von Datentabellen. Im Gegensatz zur Kon tingenzanalyse stellt sie keine systematische Analyse der Daten dar, sondern liefert lediglich eine grafische Darstellung der zugrunde liegenden Werte. Besonders die Häufigkeiten qualitativer 428 Manfred Schwaiger /Lorenz Zimmermann nominal skalierter Variablen, die in zum Teil umfangreichen Kreuztabellen dargestellt wer den, können durch Korrespondenzanalysen überschaubar gemacht werden (vgl. H 1992, S. 84ff.; H . 2006, S. 663ff.). Zusammenhänge werden leichter erkennbar, indem die „Korrespondenz“ zwischen Spalten und Zeilen einer Datenmatrix betrachtet und ihre Profile als Punkte in einem mehrdimensionalen Raum abgebildet werden (vgl. H /F 1986). Ausgangsdaten einer Korrespondenzanalyse sind meist absolute Häufigkeitsverteilungen der Ausprägungen qualitativer Merkmale in einer Kreuztabelle. Diese werden zunächst in relative Häufigkeiten umgewandelt und zentriert, sodass ihr Schwerpunkt imUrsprung des verwendeten Koordinatensystems liegt. Im Folgeschritt wird die Anzahl der Dimensionen einer Darstellung festgelegt; ihre Mindestzahl ergibt sich aus der Zahl der Objekte in den Spalten und Zeilen der Ausgangstabelle. Um die Aussagekraft der Lösung zu erhöhen, können die Dimensionen einer Darstellung interpretiert werden. Eine solche Interpretation ist aber oft nicht eindeutig und neben der reinen grafischen Darstellung wird in einem späteren Analyseschritt die numerische Auswertung der Daten angestrebt. Häufig wird die Korrespondenzanalyse deshalb nicht isoliert angewandt, sondern in Kombination mit Cluster , Faktoren oder Conjoint Analysen eingesetzt (vgl. M . 1999, S. 546). Praktische Anwendung findet die Korrespondenzanalyse in der Marktforschung etwa, um Un terschiede im Verhalten von Konsumenten in unterschiedlichen Kulturkreisen grafisch darzu stellen (vgl. G . 1983). 2.4 (Explorative) Faktorenanalyse Die Faktorenanalyse ist ein Instrument zum Aufdecken von Zusammenhängen zwischen ein zelnen Variablen. Sie wird eingesetzt, um eine Vielzahl möglicher Erklärungsvariablen durch Elimination redundanter Information auf eine kleine Zahl voneinander unabhängiger Ein flussfaktoren zu reduzieren (vgl. Ü 1971; C 1970). Anwendungsvoraussetzung der Faktorenanalyse ist das Vorliegen metrisch skalierter Variablen. Üblicherweise wird zwischen explorativer und konfirmatorischer Faktorenanalyse unterschie den, die jeweils unterschiedliche Zielsetzungen verfolgen. Während die explorative Faktoren analyse einen vorliegenden Datenbestand beschreiben will und zu den strukturentdeckenden Verfahren zählt, geht die konfirmatorische Faktorenanalyse von einem theoretischenModell aus, das anhand eines empirischen Datensatzes überprüft werden soll. Sie ist deshalb den struktur prüfenden Verfahren zuzurechnen und kann als Sonderfall der Kausalanalyse angesehen werden (vgl. H /P 1999, S. 415). Anwendung findet die konfirmatorische Faktorenanalyse bei der Analyse komplexer Konstrukte wie Kaufabsichten oder Kundenbindung (vgl. B 2003). Explorative Faktorenanalysen kom men zum Einsatz, wo nach bislang unerforschten Gründen und Einflussfaktoren auf eine oder mehrere Zielvariablen gesucht werden soll (vgl. bspw. S /S 2009; F 2006). Die explorative Faktorenanalyse wird detailliert vorgestellt im Beitrag von R in diesem Herausgeberband. 2.5 Data Mining Techniken Unter DataMining werden statistische Verfahren verstanden, die ohne vorab getroffeneModell annahmen in einem Datenbestand nach Regeln, Mustern und Trends suchen. Häufig werden Quantitative Forschung: Ein Überblick 429 Data Mining Techniken auf sehr große Datenbestände angewandt. Zu den wichtigsten Instru menten des Data Mining zählen neuronale Netze, Entscheidungsbäume und Assoziationsana lysen. Neuronale Netze (Künstliche) neuronale Netze sind ein Instrument zur Prognose und Klassifizierung von Ob jekten. Sie bestehen aus einer Vielzahl einzelner Netzknoten, die miteinander in Verbindung stehen. Kennzeichnend für die Anwendung neuronaler Netze ist die Modellierung eines sta tistischen Lernprozesses, mit dem aus verfügbaren Inputdaten die interessierenden Outputin formationen möglichst präzise generiert werden sollen. Der genaue Ablauf des Lernprozesses ist für den Anwender dabei irrelevant (vgl. D 2003; B 2005). Neuronale Netze werden eingesetzt, wenn keine Vorkenntnisse zum Zusammenhang zwischen den untersuchten Variablen bestehen und nicht dessen genaue Analyse im Vordergrund der Untersuchung steht, sondern die Erzielung möglichst genauer Ergebnisse Priorität hat. Beim Einsatz neuronaler Netze lassen sich die Schritte der Netzkonstruktion, des Lernens an einem Trainingsdatensatz und der Anwendung auf neue Daten unterscheiden: zunächst erfolgen Problemstrukturierung und Wahl des Netztyps. Dazu müssen mögliche Einflussfaktoren auf die Zielvariable bekannt sein und als Inputvariable berücksichtigt werden. Außerdem werden die zulässigen Rechenoperationen in den einzelnen Netzknoten bestimmt. Für das Trainieren des Netzes wird ein Übungsdatensatz mit empirisch beobachtbaren Soll Ausgabedaten benötigt. Ziel dieser Lernphase ist es, die Netzgewichte so zu bestimmen, dass die vorliegenden Inputdaten in Outputdaten umgewandelt werden, die den empirisch beobachtbaren möglichst nahekom men. Dabei darf das Netz nicht „übertrainiert“ werden und sich zu stark dem Trainingsdatensatz anpassen. Stattdessen soll die grundlegende Struktur des Problems herausgearbeitet werden. Nach dem Training des Netzes wird deshalb häufig ein Validierungsdatensatz mit ebenfalls bekannten Soll Ausgabegrößen verwendet, anhand dessen die Erklärungskraft des neuronalen Netzes überprüft werden kann. In der Anwendungsphase wird das neuronale Netz auf neue Daten ohne bekannte Ausprägungen der Outputvariablen angewendet. Im Vergleich zu konventionellen ökonometrischen Verfahren erweisen sich neuronale Netze als besonders robust und sie unterstellen zudem keine fixen Funktionsformen für die Zusam menhänge zwischen den untersuchten Variablen. Mindestanforderungen an das Skalenniveau der Input und Outputvariablen werden nicht gestellt. Neuronale Netze stellen jedoch erhöhte Anforderungen anMenge und Variation der verwendeten Daten.Wo diese Anforderungen nicht erfüllt werden können, sind Rückgriffe auf klassische Verfahren vorteilhaft (vgl. H 1999, S. 681). Praktische Anwendung finden neuronale Netze dort, wo eine große Zahl unabhängiger und abhängiger Variablen flexibel analysiert werden soll. So können neuronale Netze etwa zur Be stimmung allgemeiner Marktreaktionsfunktionen oder zur Marktsegmentierung verwendet werden (vgl. H 1999, S. 681f.). Entscheidungsbäume Ähnlich neuronalen Netzen dienen Entscheidungsbäume der Klassifikation von Daten. Sie ver arbeiten eine Reihe von Inputvariablen und versuchen, auf deren Basis die Zugehörigkeit zu einer definierten Klasse von Objekten vorherzusagen (vgl. P 2005, S. 136; G . 1988, S. 88). Anders als neuronale Netze gehen Entscheidungsbäume jedoch streng hierar chisch vor und verknüpfen einzelne Entscheidungsregeln, die für den Nutzer klar ersichtlich sind. Entscheidungsbäume bestehen aus einer Baumwurzel, von der aus sie sich immer weiter 430 Manfred Schwaiger /Lorenz Zimmermann verzweigen. Durchläuft ein Objekt den Entscheidungsbaum, wird an jedem Knotenpunkt ein Attribut abgefragt und auf dessen Basis eine Entscheidung über den weiteren verfolgten Weg durch den Entscheidungsbaum getroffen. Am Ende des Durchlaufs steht ein Resultat in Form einer Klassifikationsentscheidung oder des Erwartungswerts einer numerischen Variablen. Die Menge der analysierten Objekte wird auf diese Weise in mehrere Teilmengen aufgespalten. Die Regeln, nach denen die einzelnen Objekte an den Entscheidungsknoten klassifiziert wer den, müssen zunächst in einer Lernphase und anhand einer Trainingsstichprobe mit bekannten Soll Klassifikationsergebnissen ermittelt werden. Zur Konstruktion dieser Entscheidungsregeln wurden unterschiedliche Algorithmen vorgeschlagen (vgl. P 2005, S. 141ff.). Ist der Entscheidungsbaum nach dieser Lernphase entwickelt, kann er auf neue Objekte mit unbe kannten Outputdaten angewandt werden. Mindestanforderungen an das Skalenniveau der betrachteten Variablen bestehen nicht, Ent scheidungsbäume werden jedoch nach der Art der Entscheidungsknoten unterschieden: Binäre Entscheidungsbäume fragen an jedem Knoten ein Attribut mit genau zwei möglichen Merk malsausprägungen ab und eröffnen zwei weitere Verzweigungen. Ist eine Mehrzahl von Ent scheidungsalternativen an einem Knoten möglich, wird von Klassifikationsbäumen gesprochen. Sind die Zielvariablen in den Endpunkten des Entscheidungsbaums metrisch skaliert, wird auch von Regressionsbäumen gesprochen. Entscheidungsbäume sind leicht verständlich und interpretierbar. Aus der ermittelten Baum struktur lassen sich die einzelnen Entscheidungsregeln direkt ablesen. Mit zunehmender Größe können Entscheidungsbäume jedoch schnell unübersichtlich werden (vgl. P 2005, S. 32). Praktische Anwendung finden Entscheidungsbäume in der Klassifikation von Kunden eines Unternehmens, etwa um die Kunden einer Bank in gute und schlechte Kreditrisiken zu unter teilen (vgl. L 2005, S. 107) oder um die Akzeptanz eines neuen Produkts in verschiedenen Kundengruppen zu untersuchen (vgl. V /M 1976). Assoziationsanalyse Die Assoziationsanalyse sucht nach Zusammenhängen in Datenbeständen. Sie beschreibt Korre lationen zwischen gemeinsam auftretenden Ereignissen oder Zuständen ohne dabei Mindestan forderungen an das Skalenniveau der betrachteten Variablen zu stellen. Ergebnis sind Wenn Dann Schlüsse vom Auftreten eines Items (sogenannter Regelrumpf) auf das Auftreten eines zweiten Items (sogenannter Regelkopf, vgl. H /H 2001; A . 1993). Theoretisch lassen sich assoziationsanalytisch Regeln für die Beziehung aller Items innerhalb eines Datensatzes bilden. Dies ist aber kaum sinnvoll. Die gefundenen Zusammenhänge werden deshalb nach den Werten der Kenngrößen Support, Confidence und Lift beurteilt. Der Support einer Assoziationsregel misst die relative Häufigkeit des Auftretens eines Zusammenhangs. Dazu wird die Häufigkeit des interessierenden Zusammenhangs im Verhältnis zu allen gefundenen Zusammenhängen innerhalb eines Datensatzes betrachtet. Confidence misst die Stärke einer Assoziationsregel. Sie zählt das gemeinsame Auftreten von Regelrumpf und Regelkopf und setzt es in Verhältnis zum Auftreten des Regelrumpfes insgesamt. Der Lift einer Assoziationsregel untersucht die Verteilung des Regelkopfes im gesamten Datensatz und vergleicht diese mit der Verteilung in derjenigen Teilmenge, für die auch ein Auftreten des Regelrumpfes beobachtet wird. Ein hoher Lift Wert bedeutet deshalb, dass das Auftreten des Regelkopfes sehr viel wahr scheinlicher ist, wenn auch der Regelrumpf beobachtbar ist. Quantitative Forschung: Ein Überblick 431 Neben diesen statistischen Messgrößen ist die inhaltliche Interpretierbarkeit der generierten Regeln von großer Bedeutung für den Anwender. Technisch lassen sich oft eine Vielzahl von Assoziationsregeln finden; diese geben jedoch oft bereits bekannte Zusammenhänge wieder oder beruhen auf Scheinkorrelationen und liefern deshalb keinen Erkenntnisgewinn. Wichtig ist deshalb, dass der Anwender einer Assoziationsanalyse neben den genannten statistischen Bewertungsmaßstäben auch inhaltliche Kriterien verwendet, um aus der Flut der gefundenen Zusammenhänge die interessanten Assoziationen herauszufiltern. Praktische Anwendung findet die Assoziationsanalyse im Marketing typischerweise in der Wa renkorbanalyse, mit der das Einkaufsverhalten von Kunden untersucht wird (vgl. P 2005, S. 102). Von der Wahl eines Produkts wird auf den Kauf weiterer Produkte im gleichen Einkauf geschlossen. Ziel solcher Warenkorbanalysen kann der Erkenntnisgewinn über das Kaufverhalten der Kunden oder die Messung der Effekte von Sonderangeboten oder Promotion Maßnahmen sein. 3 Strukturprüfende Verfahren 3.1 Regressionsanalyse Die Regressionsanalyse erklärt und quantifiziert den gerichteten Zusammenhang zwischen ei ner oder mehreren unabhängigen, beeinflussenden Variablen und einer abhängigen Variablen. Die abhängige Variable wird dazu als mathematische Funktion der unabhängigen Variablen dargestellt (vgl. B . 2008, S. 225ff.; H 2005). Auf diese Weise können Ur sache Wirkungs Beziehungen analysiert und Werte der abhängigen Variablen auf Basis der un abhängigen prognostiziert werden. Die Regressionsanalyse zeichnet sich durch ihre besonders flexiblen Anwendungsmöglichkeiten aus; sie ist deshalb ein sehr häufig eingesetztes Analyseverfahren. Nach der Anzahl der zur Erklärung herangezogenen unabhängigen Variablen spricht man von einfacher oder multipler Regressionsanalyse. Nach der Skalierung der abhängigen Variablen wird zwischen linearer und logistischer Regression unterschieden: die lineare Regression untersucht den direkten Einfluss unabhängiger metrischer oder binärer Variablen auf die Ausprägung einer metrisch skalierten abhängigen Variablen (vgl. H . 2006, S. 169ff.). Die logistische Regression untersucht den Einfluss auf die Eintrittswahrscheinlichkeit der beiden möglichen Ausprägungen einer binär skalierten abhängigen Variablen (vgl. H . 2006, S. 355ff.). Für die Regressionsanalyse bieten sich vielfältige praktische Einsatzmöglichkeiten im Marke ting. Durch lineare Regression kann etwa die zukünftige Performance eines Unternehmens prognostiziert und die Stärke verschiedener Einflussfaktoren darauf untersucht werden (vgl. E /S 2005). Mittels logistischer Regression kann die individuelle Kundenent scheidung über Kauf oder Nichtkauf eines Produkts auf Basis unterschiedlicher Einflussfaktoren untersucht und prognostiziert werden (vgl. K /H 1972). Die unterschiedlichen Ansätze der Regressionsanalyse behandelt der Beitrag von H / W in diesem Herausgeberband. 3.2 Varianzanalyse und Kovarianzanalyse Die Varianzanalyse untersucht Erwartungswertunterschiede zwischen den Teilgruppen einer Grundgesamtheit. Sie dient der Feststellung signifikanter Unterschiede zwischen den Gruppen 432 Manfred Schwaiger /Lorenz Zimmermann und ist deshalb wichtiges Werkzeug bei der Analyse von Experimentalergebnissen (vgl. H /S 1999; H . 2006, S. 383ff.). Durch den Einsatz der Varianzanalyse kann die Wirkung einer oder mehrerer unabhängiger nominalskalierter Variablen auf eine oder mehrere metrisch skalierte abhängige Variablen untersucht werden. Je nach Zahl der unab hängigen Variablen spricht man von ein , zwei oder mehrfaktorieller Varianzanalyse. Die Varianzanalyse hat große Ähnlichkeit zur Regressionsanalyse. Der Unterschied zwischen den beiden Verfahren besteht im Wesentlichen darin, dass zur Durchführung einer Varianza nalyse lediglich nominalskalierte unabhängige Variablen nötig sind, während die Regressions analyse auf metrisch skalierte unabhängige Variablen angewiesen ist. Daneben überprüft die Varianzanalyse, ob überhaupt ein Zusammenhang zwischen unabhängigen und abhängigen Variablen besteht, während die Regressionsanalyse den marginalen Einfluss der unabhängigen Variablen untersucht (vgl. H /S 1999, S. 268). Varianzanalysen sind von hoher Bedeutung in der Marktforschung, da bei Fragestellungen des Marketing die interessierenden unabhängigen Variablen oft nur auf nicht metrischem Skalen niveau vorliegen. Beispiel solcher varianzanalytischen Untersuchungen ist etwa die Frage, ob die Konsumneigung einer Person durch ihr Geschlecht beeinflusst wird (vgl. H /S 1999, S. 267), welche Wirkung verschiedene Marketinginstrumente auf eine Zielvariable haben (vgl. B . 2003, S. 118) oder welche Variablen die Leistung von Vertriebsmi tarbeitern auf unterschiedlichen Karrierestufen beeinflussen (vgl. C /S 1986). Eine Darstellung der Grundlagen der Varianzanalyse und ihres Ablaufs liefert der Beitrag von R in diesem Herausgeberband. 3.3 Diskriminanzanalyse Die Diskriminanzanalyse ist ein Verfahren zur Analyse von Gruppenunterschieden hinsichtlich einer Mehrzahl von Variablen. Sie ermöglicht sowohl das Finden signifikanter Unterschiede zwischen zwei Gruppen hinsichtlich einer oder mehrerer vorab definierten Variablen als auch das Aufspüren von Variablen, die zur Unterscheidung zwischen den Gruppen geeignet sind (vgl. F . 1996). Formal untersucht die Diskriminanzanalyse die Abhängigkeit einer nominal skalierten Variablen (der Gruppenzugehörigkeit) von mehreren metrisch skalierten Variablen (den Variablen zur Beschreibung der Gruppenelemente, vgl. G . 1988, S. 508). Dabei kann zwischen diagnostischem und prognostischem Analyseansatz der Diskriminanza nalyse unterschieden werden. Ziel des diagnostischen Analyseansatzes ist die Suche nach Vari ablen, hinsichtlich derer sich die untersuchten Gruppen unterscheiden sowie die Bestimmung der Stärke dieses Unterschieds. Eine solche Analyse dient der Interpretation vorliegender Daten. Wird ein prognostischer Analyseansatz verfolgt, soll untersucht werden, welcher bestehenden Gruppe neu zu klassifizierende Elemente auf Basis ihrer Eigenschaften zugeordnet werden kön nen. In diesem Anwendungsfall ist die Diskriminanzanalyse Klassifikationsinstrument (vgl. D /T 1999, S. 298). Die Diskriminanzanalyse unterscheidet sich deutlich von gruppierenden Verfahren wie der Clusteranalyse. Ziel der Diskriminanzanalyse ist nicht die Erzeugung von Gruppen, sondern die Analyse vorgegebener Gruppen. Die Diskriminanzanalyse ist deshalb ein Trennverfahren (vgl. D /T 1999, S. 297). Gruppierende und trennende Verfahren können sich je doch ergänzen: in einer Clusteranalyse werden Gruppen gebildet; mittels Diskriminanzanalyse können neue Elemente den bestehenden Gruppen zugeordnet werden (vgl. B . 2003, S. 157). Quantitative Forschung: Ein Überblick 433 Praktische Anwendung findet die Diskriminanzanalyse etwa bei der Kundensegmentierung. Eine Bank kann z.B. analysieren, hinsichtlich welcher Merkmale sich Kunden unterscheiden, die als gute oder schlechte Kreditrisiken einzustufen sind. Anhand der ermittelten Merkmals ausprägungen kann die Kreditwürdigkeit neuer Antragsteller überprüft werden (vgl. H / E 2007, S. 204f.). Ein Hersteller von Konsumgütern kann eine Diskriminanzanalyse zur Identifizierung von Produkteigenschaften einsetzen, die die Entscheidung eines Händlers über die Aufnahme eines Neuprodukts in sein Sortiment beeinflussen. Sind wichtige Einflussfak toren bekannt, kann die Wahrscheinlichkeit eines Neuprodukterfolgs gezielt erhöht werden (vgl. M 1975). 3.4 Kreuztabellierung und Kontingenzanalyse Kreuztabellierung und Kontingenzanalyse untersuchen Zusammenhänge zwischen kategorial skalierten Variablen und eruieren, ob ein Zusammenhang zwischen Variablen erkennbar und signifikant ist (vgl. H . 2006, S. 663). Kreuztabellierung und Kontingenzanalyse sind als zwei aufeinanderfolgende Untersuchungs schritte anzusehen: durch eine Kreuztabellierung der vorliegenden Daten werden im ersten Schritt Zusammenhänge erkennbar. Sind solche Zusammenhänge zwischen den Variablen aufgedeckt, wird die Kontingenzanalyse zur Beantwortung der Frage eingesetzt, ob die ge fundenen Assoziationen zufällig in der untersuchten Stichprobe aufgetreten sind, oder ob ein systematischer Zusammenhang vorliegt. Der üblicherweise verwendete Test zur Untersuchung der statistischen Abhängigkeit zweier Variablen ist der χ2 Test (vgl. in diesemHerausgeberband, G /T ). Ist ein signifikanter Zusammenhang zwischen zwei Variablen gefunden, kann dessen Stärke ermittelt werden. Hierzu werden Phi Koeffizient (φ) oder Kontingenzkoef fizient berechnet (vgl. B . 2003, S. 244). Vorteil der Kontingenzanalyse ist ihre Eignung, Variablen unterschiedlicher Skalenniveaus einer gemeinsamen Analyse zu unterziehen. Variablen mit höherem Skalenniveau werden dazu auf nominales Skalenniveau transformiert. Metrische Variablen können etwa klassiert betrachtet werden. Auch die Untersuchung der Abhängigkeit von mehr als zwei Variablen ist möglich; dazu wird eine mehrdimensionale Tabelle erstellt. Zur Wahrung der Übersichtlichkeit werden in der Regel jeweils nur zwei Dimensionen gleichzeitig betrachtet und die übrigen Dimensionen konstant gehalten. Wissenschaftliches Anwendungsbeispiel einer Kontingenzanalyse ist die Untersuchung vonM . (2006) zum Zusammenhang zwischen dem Innovationsgrad eines Neuprodukts und dem erreichten Erfolg in der Bearbeitung neuer Märkte. Praktische Anwendung in der Markt forschung findet die Kontingenzanalyse etwa bei der Analyse des Zusammenhangs zwischen Einkommensklasse oder Bildungsstand einer Person und Konsumverhalten. 3.5 Strukturgleichungsmodelle Strukturgleichungsmodelle untersuchen kausale Abhängigkeiten. Sie dienen der Überprüfung vorab formulierter und theoretisch fundierter Hypothesen anhand des vorliegenden empirischen Datenmaterials und setzen das Vorliegen metrisch skalierter Daten voraus. Besonderheit von Strukturgleichungsmodellen ist die Möglichkeit der Überprüfung von Zusammenhängen zwi schen latenten – und damit nicht direkt beobachtbaren – Variablen (vgl. H . 2007, S. 3ff.; H . 2006, S. 770ff.). Ergebnis der Analyse ist ein grafisches Strukturmodell der untersuchten Zusammenhänge. Für die einzelnen Wirkungspfade zwischen den Elementen 434 Manfred Schwaiger /Lorenz Zimmermann eines Modells können jeweils Signifikanzwerte und die Stärke des gefundenen Zusammenhangs angegeben werden. Praktische Anwendung finden Strukturgleichungsmodelle ihren Eigenschaften gemäß z.B. bei der Untersuchung der Entstehung komplexer latenter Konstrukte wie „Reputation“ (vgl. S 2004) und deren Wirkung auf das Konsumentenverhalten. Das Vorgehen bei der Erstellung von Strukturgleichungsmodellen und die einzelnen Verfahrens varianten werden in den Beiträgen von R , S . und S /R in diesem Herausgeberband vorgestellt. 3.6 Conjoint Analyse Die Conjoint Analyse misst den Beitrag einzelner Komponenten zum wahrgenommenen Ge samtnutzen eines Objekts (vgl. T 1999, S. 473ff.; G . 1988, S. 616ff.). Im Gegensatz zu den anderen hier vorgestellten Forschungsmethoden ist die Conjoint Analyse kein Verfahren zur Auswertung bestehender Datenbestände, sondern bildet einen eigenen Ansatz der Datenerhebung und interpretation; sie stellt keine Vorbedingungen an das Skalenniveau der betrachteten Variablen. Kennzeichnend für die Conjoint Analyse ist ihr dekompositioneller Ansatz: aus der Nutzenbewertung mehrerer Untersuchungsobjekte mit unterschiedlichen Merkmalsausprägungen wird auf den Nutzenbeitrag der einzelnen Merkmale und Merkmals ausprägungen geschlossen. Üblicherweise wird dabei angenommen, dass sich der Gesamtnutzen eines Untersuchungsobjekts additiv aus dem Nutzen seiner Bestandteile zusammensetzt. In den vergangenen Jahren wurden zahlreiche Weiterentwicklungen und Verfahrensvarianten der klassischen Conjoint Analyse vorgeschlagen, sodass nicht von einer einzelnen Methode gespro chen werden kann; vielmehr existiert eine Vielzahl ähnlich gerichteter Ansätze (vgl. T 1999, S. 473). Praktische Anwendung findet die Conjoint Analyse, wenn der Beitrag einzelner Produktkompo nenten zum resultierenden Kundennutzen ermittelt werden soll (vgl. O /S 2002) oder der Einfluss einzelner Merkmale von Produkt und Anbieter auf die Kaufentscheidung der Kunden untersucht werden soll (vgl. E 2006). Eine Darstellung der Vorgehensweise und einen Überblick über die unterschiedlichen Verfah rensvarianten der Conjoint Analyse liefert der Beitrag von F in diesem Herausgeberband. Literaturverzeichnis agraWal, r.; imielinsKi, T.; sWami, a. (1993): Mining Association Rules between Sets of Items in Large Databases, in: Proceedings of the ACM SIGMOD Conference on Management of Data, Washington, 1993. BaCKhaUs, K.; eriChson, B.; plinKe, W.; WeiBer, r. (2003):Multivariate Analysemethoden, 10. Aufl., Berlin u.a., 2003. BaKay, z. (2003): Kundenbindung von Haushaltsstromkunden, Wiesbaden, 2003. BamBerg, g.; BaUr, F.; Krapp, m. (2008): Statistik, 14. Aufl., München u.a., 2008. Bishop, C. m. (2005): Neural Networks for Pattern Recognition, Oxford, 2005. Quantitative Forschung: Ein Überblick 435 BorTz, J.; Döring, n. (2002): Forschungsmethoden und Evaluation für Human und Sozial wissenschaftler, 3. Aufl., Berlin u.a., 2002. BüsChKen, J.; ThaDen, C. v. (1999): Clusteranalyse, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 337–380. ChilD, D. (1970): The Essentials of Factor Analysis, London, 1970. Cron, W. l.; sloCUm, J. W. (1986): The Influence of Career Stages on Salespeople ś Job Attitudes, Work Perceptions, and Performance, in: Journal of Marketing, Vol. 23, No. 2, S. 119–129. DeCKer, r. (2003): Data Mining und Datenexploration in der Betriebswirtschaft, in: Schwai ger, M.; Harhoff, D. [Hrsg.]: Empirie und Betriebswirtschaft. Entwicklungen und Perspektiven, Stuttgart, 2003, S. 47–82. DeCKer, r.; Temme, T. (1999):Diskriminanzanalyse, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 295–335. eBerl, m. (2006):Unternehmensreputation als Determinante von Kaufentscheidungen, Wies baden, 2006. eBerl, m.; sChWaiger, m. (2005):Corporate reputation: disentangling the effects on financial performance, in: European Journal of Marketing, Vol. 39, No. 7/8, S. 838–854. esCh, F.-r.; hermann, a.; saTTler, h. (2008): Marketing, 2. Aufl., München, 2008. Fahrmeir, l.; häUssler, W.; TUTz, g. (1996):Diskriminanzanalyse, in: Fahrmeir, L.; Hamer le, A.; Tutz, G. [Hrsg.]: Multivariate Statistische Verfahren, 2. überarb. Aufl., Berlin u.a., 1996, S. 357–435. FesTge, F. (2006):Kundenzufriedenheit und Kundenbindung im Investitionsgüterbereich – Er mittlung zentraler Einflussfaktoren, Wiesbaden, 2006. green, p. e.; TUll, D. s.; alBaUm, g. (1988): Research for Marketing Decisions, 5. Aufl., Englewood Cliffs, 1988. green, r. T.; leonarDi, J.-p.; ChanDon, J.-l.; CUnningham, i. C. m.; verhage, B.; sTrazzieri, a. (1983): Societal Development and Family Purchasing Roles: A Cross National Study, in: Journal of Consumer Research, Vol. 9, No. 4, S. 436–442. hair, J. F.; BlaCK, W. C.; BaBin, B. J.; anDerson, r. e.; TaTham, r. l. (2006):Multivariate Data Analysis, 6. Aufl., Upper Saddle River, 2006. harTUng, J.; elpelT, B. (2007):Multivariate Statistik, 7. Aufl., München u.a., 2007. haUKe, W. (1992): Darstellung struktureller Zusammenhänge und Entwicklungen in Input Output Tabellen, Bergisch Gladbach, 1992. herrmann, a.; homBUrg, C. (1999):Marktforschung: Ziele, Vorgehensweisen undMethoden, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 13–32. herrmann, a.; seilheimer, C. (1999): Varianz und Kovarianzanalyse, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 265–294. heTTiCh, s.; hippner, h. (2001): Assoziationsanalyse, in: Hippner, H.; Küsters, U.; Meyer, M.; Wilde, K. [Hrsg.]: Handbuch Data Mining im Marketing, Wiesbaden, 2001, S. 459–495. 436 Manfred Schwaiger /Lorenz Zimmermann hoFFman, D. l.; FranKe, g. r. (1986): Correspondence Analysis: Graphical Representati on of Categorical Data in Marketing Research, in: Journal of Marketing Research, Vol. 23, No. 3, S. 213–227. homBUrg, C.; pFlesser, C. (1999): Konfirmatorische Faktorenanalyse, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 413–437. homBUrg, C.; herrmann, a.; pFlesser, C. (1999):Methoden der Datenanalyse im Überblick, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 101–125. hrUsChKa, h. (1999): Neuronale Netze, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktfor schung, Wiesbaden, 1999, S. 661–683. hUBer, F.; herrmann, a.; meyer, F.; vogel, J.; vollharDT, K. (2007): Kausalmodellierung mit Partial Least Squares, Wiesbaden, 2007. hüBler, o. (2005): Einführung in die empirische Wirtschaftsforschung, München u.a., 2005. KaU, p.; hill, l. (1972): AThresholdModel of Purchasing Decisions, in: Journal of Marketing Research, Vol. 9, No. 3, S. 264–270. KrUsKal, J. B. (1964):Multidimensional scaling by optimizing goodness of fit to a nonmetric hypothesis, in: Psychometrika, Vol. 29, No. 1, S. 1–27. larose, D. T. (2005): Discovering Knowledge in Data, Hoboken, 2005. malhoTra, n. K. (2007): Market Research, 5. Aufl., Upper Saddle River, 2007. meyer, m.; Diehl, h.-J.; WenDenBUrg, D. (1999): Korrespondenzanalyse, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktforschung, Wiesbaden, 1999, S. 513–548. min, s.; KalWani, m. U.; roBinson,W. T. (2006):Market Pioneer and Early Follower Survival Risks: a Contingency Analysis of Really New Versus Incrementally New Product Markets, in: Journal of Marketing, Vol. 70, No. 1, S. 15–33. monTgomery, D. B. (1975): New Product Distribution: An Analysis of Supermarket Buyer Decisions, in: Journal of Marketing, Vol. 12, No. 3, S. 255–264. oFeK, e.; srinivasan, v. (2002): How Much Does the Market Value an Improvement in a Product Attribute?, in: Marketing Science, Vol. 21, No. 4, S. 398–411. opiTz, o. (1980): Numerische Taxonomie, Stuttgart u.a., 1980. opiTz, o.; sChWaiger, m. (1998): Zur Interpretation mehrdimensionaler Skalierungsergeb nisse, in: Hippner, H.; Meyer, M.; Wilde, K. [Hrsg.]: Computer Based Marketing – Das Hand buch zur Marketinginformatik, Braunschweig u.a., 1998, S. 563–572. pessemier, e. a.; rooT, h. p. (1973): The Dimensions of New Product Planning, in: Journal of Marketing, Vol. 37, No. 1, S. 10–18. peTersohn, h. (2005): Data Mining, München, 2005. sChiFFman, s. s.; reynolDs, m. l.; yoUng, F. W. (1981): Introduction to Multidimensional Scaling, Orlando u.a., 1981. sChnell, r.; hill, p. B.; esser, e. (2005): Methoden der empirischen Sozialforschung, 7. Aufl., München, 2005. Quantitative Forschung: Ein Überblick 437 sChWaiger, m. (1993): Hochrechnungsverfahren im Marketing, München, 1993. sChWaiger, m. (1997a):Multivariate Werbewirkungskontrolle: Konzepte zur Auswertung von Werbetests, Wiesbaden, 1997. sChWaiger, m. (1997b): Ansätze zur Kontrolle des Brand Fit, in: Werbeforschung & Praxis, 42. Jg., Nr. 6, S. 1–4. sChWaiger, m. (1997c): Ein methodischer Ansatz zur Auswertung von Recall Daten, in: Jahrbuch der Absatz und Verbrauchsforschung, hrsg. von der GfK Nürnberg, 43. Jg., Nr. 4, S. 440–453. sChWaiger, m. (2004): Components and Parameters of Corporate Reputation – an Empirical Study, in: Schmalenbach Business Review, Vol. 56, No. 1, S. 46–71. sChWaiger, m.; sarsTeDT, m. (2009): Treiber der Fußballfanzufriedenheit – eine kausala nalytische Untersuchung, in: Hünerberg, R.; Mann, A. [Hrsg.]: Unternehmensführung auf dynamischen Märkten, Wiesbaden, erscheint demnächst. TeiCherT, T. (1999): Conjoint Analyse, in: Herrmann, A.; Homburg, C. [Hrsg.]: Marktfor schung, Wiesbaden, 1999, S. 471–511. üBerla, K. (1971): Faktorenanalyse, Berlin u.a., 1971. villani, K. e. a.; morrison, D. g. (1976): A Method for Analyzing New Formulation Deci sions, in: Journal of Marketing Research, Vol. 13, No. 3, S. 284–288.

Chapter Preview

References

Zusammenfassung

Dieser Sammelband bietet einen Überblick über relevante Theorien der Wirtschafts- und Sozialwissenschaften sowie ausgewählte Methoden der qualitativen und quantitativen Forschung. Der Leser hat die Möglichkeit, jede hier behandelte Theorie und Methode in ihren grundlegenden Aussagen bzw. Funktionsweisen zu verstehen sowie hilfreiche Hinweise und Literaturquellen für ein vertiefendes Studium jedes Themenfeldes zu erhalten.

Studenten oder Doktoranden stehen vor dem gleichen Problem:

Wie können Forschungsfragen durch geeignete theoretische Konzepte fundiert werden, wie werden sie in Hypothesen transformiert und mit welchen empirischen Methoden überprüft?

Die Kernbotschaft: Auf dem Weg zu wissenschaftlicher Leistung müssen Theorien und Methoden Hand in Hand gehen.

Damit dies gelingen kann benötigt jeder Forscher eine grundlegende Kenntnis derjenigen Theorien und empirischen Methoden, die im jeweiligen Forschungsfeld Relevanz besitzen und für die Anwendung in Frage kommen. Das Verständnis von Theorien bzw. der Funktionsweise und Leistungsfähigkeit empirischer Methoden sind dabei essentiell. Erst dadurch werden eine zutreffende Auswahl und eine korrekte Anwendung von Theorien und Methoden zur Lösung des Forschungsanliegens ermöglicht.

Der Überblick über die Theorien und Methoden der Wirtschafts- und Sozialwissenschaften.

Der kompakte Sammelband ist empfehlenswert für Studenten und Doktoranden, die Forschungsfragen durch geeignete theoretische Konzepte fundieren, in Hypothesen transformieren und anschließend mit geeigneten empirischen Methoden überprüfen können.