Content

Richard Rinkenburger, Einführung in die Varianzanalyse in:

Manfred Schwaiger, Anton Meyer (Ed.)

Theorien und Methoden der Betriebswirtschaft, page 483 - 502

Handbuch für Wissenschaftler und Studierende

1. Edition 2009, ISBN print: 978-3-8006-3613-6, ISBN online: 978-3-8006-4437-7, https://doi.org/10.15358/9783800644377_483

Bibliographic information
Richard Rinkenburger Einführung in die Varianzanalyse Zusammenfassung Die Varianzanalyse ist eine robuste und häufig eingesetzte quantitative Analysemethode, welche vor allem bei der Auswertung von Experimenten eingesetzt wird. Mit ihrer Hilfe könnenMittel wertunterschiede von Teilgruppen der Grundgesamtheit untersucht werden. Im Gegensatz zum t Test können mehr als zwei Gruppen gleichzeitig miteinander verglichen werden. Mit Hilfe von Erweiterungen können darüber hinaus weitaus komplexere Problemstellungen analysiert wer den. Das Ziel dieses Beitrages ist die Vorstellung eines vierstufigen Prozesses zur Anwendung der Varianzanalyse. Die vier Stufen umfassen die Problemformulierung und die Modellgenerierung der Varianzanalyse, die Annahmen und Voraussetzungen der Varianzanalyse, die Zerlegung der Abweichungen sowie die Überprüfung der statistischen Unabhängigkeit und die Interpretation der Ergebnisse. Dipl. Kfm. Richard Rinkenburger ist wissenschaftlicherMitarbeiter undDoktorand am Institut für Marktorientierte Unternehmensführung an der Ludwig Maximilians Universität München. Inhaltsverzeichnis 1 Grundlagen der Varianzanalyse und Einordnung verschiedener Verfahren . . . . . . . . . 493 2 Die Durchführung einer einfaktoriellen Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . 496 2.1 Problemformulierung und Modellgenerierung . . . . . . . . . . . . . . . . . . . . . . . . . . 496 2.2 Annahmen und Voraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497 2.3 Zerlegung der Abweichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497 2.4 Test auf statistische Unabhängigkeit und Interpretation der Ergebnisse . . . . . . . 499 2.5 Berechnung der Effektstärke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 499 3 Die Durchführung einer n faktoriellen Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . 500 3.1 Problemformulierung und Modellgenerierung . . . . . . . . . . . . . . . . . . . . . . . . . . 500 3.2 Annahmen und Voraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 3.3 Zerlegung der Abweichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 3.4 Test auf statistische Unabhängigkeit und Interpretation der Ergebnisse . . . . . . . 504 3.5 Berechnung der Effektstärke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 4 Erweiterungen der Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 4.1 Kovarianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 4.2 Mehrdimensionale Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506 4.3 Multiple Mittelwertvergleiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507 492 Richard Rinkenburger Abbildungsverzeichnis Abbildung 1: Vorgehensweise bei der Durchführung einer Varianzanalyse . . . . . . . . . . . . 493 Abbildung 2: Abgrenzung zwischen t Test, Varianz und Kovarianzanalyse sowie Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495 Abbildung 3: Haupt und Interaktionseffekte in einer zwei bzw. dreifaktoriellen Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 500 Tabellenverzeichnis Tabelle 1: Typen der Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494 Tabelle 2: Zusammenfassung der Notation für die Durchführung einer einfaktoriellen Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496 Tabelle 3: Zusammenfassung der Notation für die Durchführung einer zweifaktoriellen Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 501 Tabelle 4: Berechnung der Varianzen bei zwei Faktoren . . . . . . . . . . . . . . . . . . . . . . . . . . 503 Tabelle 5: Systematisierung von Post Hoc Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 508 Einführung in die Varianzanalyse 493 1 Grundlagen der Varianzanalyse und Einordnung verschie dener Verfahren Das Ziel einer Varianzanalyse ist die Überprüfung, ob eine oder mehrere unabhängige nomi nal skalierte Variablen einzeln oder in Kombination einen signifikanten Einfluss auf eine oder mehrere abhängige metrisch skalierte Variablen ausübt bzw. ausüben. Mit anderen Worten, es wird angenommen, dass die abhängige(n) eine Funktion der unabhängigen Variable(n) ist. In der Regel werden die unabhängigen Variablen auch als Faktoren bezeichnet, die einzelnen Ausprägungen als Faktorstufen oder Kategorien. Anhand der Faktorstufen können die Unter suchungsobjekte in Gruppen zusammengefasst werden. Die Varianzanalyse wird typischerweise bei der Analyse und Auswertung von Experimenten eingesetzt (vgl. B . 2003, S. 118f.). Die Bezeichnung Varianzanalyse oder kurz ANOVA (Analysis of Variance) ist darauf zurückzuführen, dass bei dieser Methode die gesamte beobachtete Abweichung bzw. Varianz zerlegt wird. Dabei wird zwischen der Abweichung bzw. Varianz innerhalb der Gruppen (within) und der Abweichung bzw. Varianz zwischen den Gruppen (between) unterschieden. Mit Hilfe dieser beiden Varianzen wird anschließend eine Prüfgröße berechnet, anhand derer ein Signifi kanztest eingesetzt wird, um die Hypothese zu überprüfen, dass alle Gruppenmittelwerte in der Grundgesamtheit den gleichen Wert besitzen (vgl. S . 1994, S. 421). 1. Stufe Problemformulierung und Modellgenerierung Fragestellung festlegen abhängige und unabhängige Variablen identifizieren 2. Stufe Annahmen und Voraussetzungen Normalverteilungsannahme Varianzhomogenitätsannahme Unabhängigkeitsannahme Stichprobengröße 3. Stufe Analyse bzw. Zerlegung der Abweichungen Summe der quadrierten Abweichungen bestimmen Varianzen bestimmen optional Berechnung der Effektstärke 4. Stufe Test auf statistische Unabhängigkeit und Interpretation der Ergebnisse Nullhypothese aufstellen Prüfgröße berechnen Vergleich mit theoretischem Wert Abbildung 1: Vorgehensweise bei der Durchführung einer Varianzanalyse 494 Richard Rinkenburger Wie in Abbildung 1 dargestellt, kann die Vorgehensweise bei der Durchführung einer Vari anzanalyse grundsätzlich in vier Stufen unterteilt werden. Auf der ersten Stufe gilt es, die Pro blemstellung zu formulieren und das Modell aufzustellen. Dabei muss der Forscher anhand der Fragestellung den Zusammenhang zwischen den Variablen festlegen, d.h. abhängige und unab hängige Variablen und deren Skalierung identifizieren, sowie die Anzahl der einzubeziehenden Variablen bestimmen. Auf der zweiten Stufe muss überprüft werden, ob die Voraussetzungen und Annahmen, bezogen auf die betrachtete Problemstellung und Modellformulierung, erfüllt werden. Anschließend erfolgt in Stufe drei die Analyse der Abweichungen bzw. die Zerlegung der Gesamtabweichung und der Varianz. Auf der vierten Stufe werden die statistische Unab hängigkeit getestet und die Ergebnisse interpretiert. Dabei wird aus dem Verhältnis der Varianz zwischen den Gruppen und der Varianz innerhalb der Gruppen eine Prüfgröße berechnet. Ein Signifikanztest überprüft anhand dieser Prüfgröße die Nullhypothese, dass die Mittelwerte der Beobachtungen in allen Gruppen gleich groß sind. Schließlich werden die Ergebnisse des Signifikanztestes interpretiert. Optional kann am Ende einer Varianzanalyse auch die Stärke der Wirkung der unabhängigen Variable oder Variablen betrachtet werden. Die Typen der Varianzanalyse können anhand der Anzahl der abhängigen Variablen und an hand der Zahl der betrachteten Faktoren unterschieden werden. Eine einfaktorielle Varianz analyse umfasst genau eine abhängige und genau eine unabhängige Variable und ist damit die einfachste Variante (vgl. Abschnitt 2). Wenn mehr als zwei Faktoren einbezogen werden, spricht man von einer n faktoriellen Varianzanalyse (vgl. Abschnitt 3). Wenn die Grup pe der unabhängigen Variablen neben nominal auch metrisch skalierte Variablen enthält, nennt man das Verfahren Kovarianzanalyse (vgl. Abschnitt 4.1). Dabei werden die metrisch skalierten Variablen auch als Kovariate bezeichnet. Wenn mehrere abhängige Variablen in die Analyse einbezogen werden, spricht man von einer mehrdimensionalen bzw. multivariaten Varianzanalyse (vgl. Abschnitt 4.2). Tabelle 1 stellt die Einteilung der verschiedenen Typen der Varianzanalyse dar. Abbildung 2 grenzt die verschiedenen Arten der Varianzanalyse zusätzlich von der Anwendung eines t Tests und einer Regression ab. Beide Methoden beinhalten ebenfalls eine metrisch ska lierte abhängige Variable. Ein t Test (vgl. in diesem Herausgeberband, G /T ) ist lediglich dafür geeignet, Gruppenunterschiede anhand einer binären Variable zu analysieren, Anzahl der unabhängigen Variablen (nominal skaliert)" Faktoren Kovarianzanalyse TypAnzahl der abhängigen Variablen (metrisch skaliert) ! # Anzahl der unabhängigen Variablen (metrisch skaliert)" Kovariaten TypZusätzlich zu Faktoren: ! 1 multivariate Varianzanalyse! 2 n (= 2, 3, ...) n-faktorielle Varianzanalyse1 1 Einfaktorielle Varianzanalyse1 Tabelle 1: Typen der Varianzanalyse [in Anlehnung an BacKhaus et al. 2003, S. 119] Einführung in die Varianzanalyse 495 während sowohl die Varianzanalyse als auch die Regression (vgl. in diesem Herausgeberband, H /W ) mehr als eine unabhängige Variable beinhalten können. Bei der Varianza nalyse muss mindestens eine Unabhängige kategorial skaliert sein und mehr als zwei Faktorstu fen aufweisen. Die Regression wird dagegen angewendet, wenn ausschließlich metrisch skalierte unabhängige Variablen betrachtet werden. Ziel dieses Beitrages ist es, Anwendern ohne Vorkenntnisse über quantitative Forschungsme thoden eine erste Einführung in die Varianzanalyse zu geben. Dazu werden die einfaktorielle und die n faktorielle Varianzanalyse anhand der oben vorgestellten vierstufigen Vorgehensweise vorgestellt und erläutert. Zusätzlich sollen wichtige Erweiterungen und Varianten der Varianza nalyse kurz vorgestellt und auf weiterführende Literatur verwiesen werden. Generell ist im Rahmen dieses Beitrages nur eine kompakte Vorstellung und Diskussion der ein zelnen Stufen der Varianzanalyse möglich. Für tiefergehende Erklärungen und detailliertere Dar stellungen sei beispielsweise auf Standardwerke von D (1979), H /K (1994), K (1995), S . (1992), S (1959) oder W (1971) verwiesen. Metrisch skalierte, abhängige Variable Eine unabhängige Variable Binäre Variable t-Test Eine oder mehrere unabhängige Variablen Nominal- und intervallskalierte Variablen Kovarianzanalyse Nominalskalierte Variable(n) Varianzanalyse Intervallskalierte Variablen Regression Ein Faktor Einfaktorielle Varianzanalyse Mindestens zwei Faktoren n-faktorielle Varianzanalyse Abbildung 2: Abgrenzung zwischen t-Test, Varianz- und Kovarianzanalyse sowie Regressionsanalyse [in Anlehnung an malohtra/BirKs 2007, S. 486] 496 Richard Rinkenburger 2 Die Durchführung einer einfaktoriellen Varianzanalyse Das grundlegende Prinzip der Varianzanalyse wird zuerst anhand des einfachsten Modells mit genau einer abhängigen und genau einer unabhängigen Variablen erklärt. Dabei orientiert sich der folgende Abschnitt an der eben vorgestellten Vorgehensweise (vgl. Abbildung 1). 2.1 Problemformulierung und Modellgenerierung In der Betriebswirtschaftslehre sowie den Sozialwissenschaften stellt sich oft die Frage, ob eine einzelne unabhängige Variable einen Einfluss auf eine abhängige Variable hat. Für die Beantwor tung solcher Fragestellungen werden häufig Experimente eingesetzt. Beispielsweise soll unter sucht werden, ob drei unterschiedliche Verpackungen (Glasflasche, Plastikflasche oder Tetra Pak) zu verschiedenen Absatzzahlen des Produktes führen. Aus vergleichbaren Verkaufsstätten werden dazu drei ausgewählt, in denen das Produkt in jeweils einer Verpackungsform angeboten und der Absatz des Produktes an mehreren Tagen gemessen wird. Mit Hilfe der Varianzanalyse kann die Frage untersucht werden, ob die Form der Verpackung einen Einfluss auf den Absatz hat. Nachdem die Problemstellung klar definiert ist, muss als nächstes das der Varianzanalyse zu grundeliegende lineare Modell aufgestellt werden: (1) Yij = µ + αj + εij Dabei wird der einzelne Beobachtungswert der abhängigen Variablen Yij durch den Mittelwert in der Grundgesamtheit (μ) und durch den Einfluss der Faktorstufe j (αj) erklärt. Der Term εij bezeichnet den Einfluss von Zufallsgrößen in der Grundgesamtheit. Zur Schätzung von µ wird der Gesamtmittelwert der Stichprobe und zur Schätzung von αj die Abweichung des Fak torstufenmittelwertes vom Gesamtmittelwert der Stichprobe herangezogen. Die Faktorstufen werden anhand der unabhängigen Variable X festgelegt, welche eine kategoriale Variable mit c Faktorstufen bzw. Kategorien ist. Für jede Kategorie von X liegen n Beobachtungen der Ab hängigen Y vor. Die gesamte Stichprobe ist N = n · x · c groß. Tabelle 2 fasst die Notationen noch einmal zusammen. Bezogen auf das oben vorgestellte Beispiel, wäre die abhängige Variable der Absatz und die Unabhängige die Verpackungsformmit den drei Faktorstufen (c = 3) Glasflasche, Plastikflasche und Tetra Pak. Wenn der Absatz an fünf Tagen gemessen worden wäre (n = 5), hätte die Stich probe insgesamt 15 Beobachtungswerte (N = 5 × ). i = 1, 2, ..., n i-te Beobachtung innerhalb der Faktorstufe j = 1, 2, ..., c j-te Faktorstufe der unabhängigen Variable X Y – j Mittelwert der Beobachtungswerte der Faktorstufe j Y – Gesamtmittelwert aller Beobachtungswerte Yij Individuelle Beobachtung Tabelle 2: Zusammenfassung der Notation für die Durchführung einer einfaktoriellen Varianzanalyse Einführung in die Varianzanalyse 497 2.2 Annahmen und Voraussetzungen Die Anwendung der Varianzanalyse setzt voraus, dass der Forscher im Vorfeld eine Hypo these über den Wirkungszusammenhang der Variablen aufgestellt hat. Die Varianzanalyse an sich liefert nur eine Aussage über die statistische Signifikanz, nicht jedoch über die inhaltliche Relevanz und Qualität der Hypothesenformulierung. Neben den wissenschaftstheoretischen Überlegungen werden auch an die Daten Voraussetzungen gestellt. Die abhängige Variable muss metrisch skaliert sein. Die unabhängigen Variablen dagegen können mit jedem Skalenniveau in die Analyse einbezogen werden, allerdings müssen sie jede für sich eine Einflussgröße der abhän gigen Variablen sein, damit die Abweichungen den einzelnen Variablen eindeutig zugewiesen werden können (vgl. B . 2003, S. 150). Die inferenzstatistische Interpretation der Testgrößen fordert zusätzliche Annahmen. So soll die abhängige Variable innerhalb der Gruppen normal verteilt sein. Diese erste Annahme kann mit Hilfe eines Kolmogorov Smirnov Tests oder eines Chi Quadrat Tests überprüft werden (vgl. S 1976, S. 42ff.). Alternativ eignen sich auch ein Normal Probability Plot oder einge schränkt auch ein Symmetrieplot (vgl. S 1994, S. 262ff.). Darüber hinaus wird ange nommen, dass sich andere mögliche Einflussgrößen in allen Stichprobenzellen gleich auswirken. Das bedeutet, dass die Varianzen in den unterschiedlichen Faktorstufen identisch sind. Diese zweite Annahme kann durch den Bartlett Chi Quadrat Test, den Hartley Fmax Test oder den Cochrans C Test überprüft werden (vgl. S 1974, S. 381ff.). Dabei überprüft der Bartlett Test gleichzeitig die Normalverteilung, gilt aber allgemein als zu empfindlich, weshalb viele Software Pakete auf den robusteren Levene Test zurückgreifen. Neben den verschiedenen Tests kann der Anwender auch mit Hilfe von Spread versus Level Plots oder Plots der Standardabwei chung gegen denMittelwert die Varianzhomogenitätsannahme überprüfen (vgl. S 1994, S. 265ff.). Drittens muss die Annahme erfüllt sein, dass alle Beobachtungen unabhängig vonei nander sind, was allgemein als erfüllt angesehen werden kann, wenn die Stichprobe zufällig aus der Grundgesamtheit gezogen wurde und die Objekte aus der Stichprobe zufällig den Gruppen zugeordnet wurden. Der Anwender kannmittels grafischer Unterstützung überprüfen, inwiefern die Annahme durch den vorliegenden Datensatz verletzt wird (vgl. S 1994, S. 268ff.). Allgemein kann man sagen, dass die Varianzanalyse relativ robust hinsichtlich der Nichter füllung dieser Annahmen ist. So gilt beispielsweise die Faustregel, dass eine Verletzung der Normalverteilungsannahme bei hinreichend großen Stichproben unproblematisch ist. Wenn die Zellen mit der gleichen Anzahl an Beobachtungen besetzt sind, ist auch die Nichterfüllung der Varianzhomogenitätsannahme weniger problematisch (vgl. S 1994, S. 270). Generell sollten die Ausgangsdaten der Varianzanalyse allerdings auf Ausreißer überprüft werden, da die Anwendung gegenüber Extremwerten nicht robust ist (vgl. S 1994, S. 263). Damit die Stichprobe einen Rückschluss auf die Grundgesamtheit erlaubt, muss der Anwender auch hinsichtlich der Stichprobengröße einige Bedingungen beachten. Generell sollte pro Fak torstufe ein Minimum von 20 Beobachtungen vorliegen (vgl. H . 2006, S. 391). Mit jeder zusätzlich einbezogenen Faktorstufe steigt auch die entsprechend benötigte Stichproben größe an. Obwohl aus Gründen der Vereinfachung angenommen wird, dass die Stichproben in den einzelnen Gruppen gleich groß sind, ist dies nicht für alle Varianten der Varianzanalyse zwingend notwendig (vgl. Abschnitt 3.2 & Abschnitt 4). 2.3 Zerlegung der Abweichungen Folgende Überlegung steht hinter der Varianzanalyse: Wenn die unabhängige keinen Einfluss auf die abhängige Variable hat, dann treten auch keine Unterschiede zwischen den Faktorstu 498 Richard Rinkenburger fenmittelwerten auf. Falls sich die Mittelwerte der Faktorstufen dagegen unterscheiden, kann man auf eineWirkung der unabhängigen Variablen schließen. Die Abweichungen der einzelnen Beobachtungen vom Faktorstufenmittelwert werden nach den Annahmen auf zufällige Einfluss größen zurückgeführt, die in allen Faktorstufen identisch sind. Um die Frage zu beantworten, ob ein Einfluss vorhanden ist, müssen die im Modell erfassten (systematischen) von den nicht erfassten (zufälligen) Einflüssen getrennt werden. Dazu wird die Gesamtabweichung einer ein zelnen Beobachtung in die erklärte und die nicht erklärte Abweichung zerlegt. Diese Überlegung kann auch auf die Summe der Gesamtabweichungen aller Beobachtungen übertragen werden (vgl. B . 2003, S. 120ff.). Dabei wird die erklärte Abweichung (SSb = Sum of Squares between groups) durch die Summe der quadrierten Abweichungen zwischen den Fak torstufen berechnet. Diese Abweichungen vonY können auf die Faktorstufen der unabhängigen Variable zurückgeführt werden: (2) 2c b j j=1 SS n Y– Y– "! Dagegen spricht man bei den Abweichungen innerhalb der Faktorstufen von der nicht erklärten Abweichung (SSw = Sum of Squares within groups), da diese Abweichungen auf die zufälligen äußeren Einflüsse zurückgeführt werden. Zu Ihrer Berechnung werden die quadrierten Abwei chungen innerhalb der Faktorstufen summiert: (3) 2n w ij j i SS Y Y– "! c j ! Die gesamte beobachtete Abweichung der abhängigen Variable (SSy ) setzt sich aus der erklärten Abweichung (SSb ) und der nicht erklärten Abweichung (SSw ) zusammen: (4) SSy = SSb + SSw Die Gesamtabweichung SSy kann auch durch die Summe der quadrierten Gesamtabweichungen bestimmt werden: (5) 2n y ij i SS Y Y– "! c j ! Da die Quadratsumme der Abweichungen als Maß für die Streuung mit größeren Einzelwerten ebenfalls steigt, wird ein besserer Schätzer für die Streuung benötigt. Indem die Summe der quadrierten Abweichungen durch die Freiheitsgrade (df = degree of freedom) dividiert wird, erhält man die Varianz bzw. die mittlere quadratische Abweichung (MS). Die Freiheitsgrade sind definiert als die Anzahl der Beobachtungen minus der Anzahl geschätzter Parameter. Ent sprechend werden bei der Berechnung der Varianzen N - 1 (MSY ), c - 1 (MSb ) und N - c (MSw ) Freiheitsgrade verwendet. Die Varianzen lassen sich dementsprechend wie folgt definieren: (6) " ! N SSMS YY (7) " ! c SSMS bb (8) cN SSMS ww " ! Ausgehend von den Überlegungen zur Varianzzerlegung, wird die Varianz zwischen den Grup pen (MSb ) durch die Faktoren verursacht während die Varianz innerhalb der Gruppen (MSw ) Einführung in die Varianzanalyse 499 auf nicht erfasste Einflüsse zurückzuführen ist. WäreMSw bei gegebener Gesamtvarianz (MSy ) gleich Null, dann wird die Varianz der abhängigen Variablen komplett durch den Faktor erklärt. Der Erklärungsanteil der unabhängigen Variablen wird gemäß der Streuungszerlegung bei stei gendem MSw immer kleiner (vgl. B . 2003, S. 125). 2.4 Test auf statistische Unabhängigkeit und Interpretation der Ergebnisse Das eigentliche Ziel der einfaktoriellen Varianzanalyse ist es, die Nullhypothese zu testen, sodass keine Unterschiede in der Wirkung der Faktorstufen auf die abhängige Variable vorliegen. In anderen Worten: Die Abweichungen zwischen den Faktorstufen und innerhalb der Faktor stufen basieren auf der gleichen Ursache. Die entsprechende Gegenhypothese besagt, dass ein Unterschied zwischen den Wirkungen der Faktorstufen besteht. Formal können die beiden Hypothesen wie folgt dargestellt werden. (9) H0: α = α2 = … = αc = 0 (10) H1: mindestens ein αj ≠ 0 Für die statistische Überprüfung der Hypothesen wird ein empirischer F Wert bestimmt. Da der Einfluss des Faktors umso wahrscheinlicher ist, je größerMSb im Verhältnis zuMSw ist, werden die mittlere quadratische Abweichung zwischen den Faktorstufen und die mittlere quadratische Abweichung innerhalb der Faktorstufen zueinander ins Verhältnis gesetzt und als Prüfgröße verwendet: (11) w b empirisch MS MSF ! Nach der Berechnung des empirischen F Wertes wird dieser anhand der theoretischen F Vertei lung beurteilt. Dazu vergleicht man den empirischen F Wert mit dem theoretischen F Wert, der abhängig vom gewünschten Signifikanzniveau und den Freiheitsgraden im Zähler und Nenner aus den entsprechenden Tabellen der theoretischen F(c 1, N c) Verteilung abgelesen werden kann. Ist der empirisch ermittelte Wert größer, kann die Nullhypothese verworfen werden. In diesem Fall kann man darauf schließen, dass ein Einfluss der unabhängigen Variablen vorliegt. 2.5 Berechnung der Effektstärke Optional kann die Stärke des Einflusses der unabhängigen auf die abhängige Variable bestimmt werden. Die Analyse der Abweichung sagt aus, dass die Wirkung der unabhängigen auf die abhängige Variable durch SSb gemessen wird. Die Stärke der Wirkung von X auf Y wird mit folgender Formel berechnet (vgl. M /B 2007, S. 490): (12) y b SS SS "2! Die Effektstärke η2 kann Werte von 0 bis 1 annehmen. Wenn alle Faktorstufenmittelwerte den gleichen Wert haben, also davon ausgegangen werden kann, dass die Unabhängige X keinen Einfluss auf Y hat, nimmt η2 den Wert 0 an. Dagegen besagt der Wert 1, dass es innerhalb der Faktorstufen keine Abweichungen gibt, aber dass es zumindest kleine Abweichungen zwischen den Faktorstufen gibt. η2 ist demnach ein Maß für die Abweichungen von Y, welche durch die unabhängige Variable erklärt werden kann (vgl. M /B 2007, S. 490). 500 Richard Rinkenburger 3 Die Durchführung einer n faktoriellen Varianzanalyse Mit Hilfe der Varianzanalyse kann der Forscher auch mehr als eine unabhängige Variable in die Untersuchung einbeziehen, ohne dass sich das grundlegende Prinzip ändert. Auch bei der Vorstellung der n faktoriellen Varianzanalyse orientiert sich der folgende Abschnitt an der zu Beginn vorgestellten Vorgehensweise (vgl. Abbildung 1). 3.1 Problemformulierung und Modellgenerierung Da in der Betriebswirtschaftslehre sowie den Sozialwissenschaften häufiger komplexere Pro blemstellungen auftreten, bei denen oft weit mehr als eine unabhängige Variable berücksichtigt werden sollen undmüssen, kann die Varianzanalyse erweitert werden. Betrachtet man wiederum das Beispiel aus Abschnitt 2 wird deutlich, dass mehr Faktoren einen Einfluss auf den Absatz haben, als nur die Form der Verpackung. Daneben könnte beispielsweise auch die Art der Wer bung (Lautsprecherdurchsagen oder Print Poster) in der Verkaufsstätte eine Rolle spielen. In diesem Fall müsste das Experiment erweitert werden. Damit alle Kombinationsmöglichkeiten der Faktorstufen abgedeckt werden, muss in diesem Fall ein 3 x 2 faktorielles Design aufgestellt werden. Das bedeutet, dass jetzt sechs statt drei nahezu vergleichbare Verkaufsstätten (und damit Gruppen) ausgewählt werden müssen. In jeder Verkaufsstätte wird genau eine Faktorstufenkom bination aus Verpackungsform undWerbung eingesetzt und wiederum der Absatz des Produktes gemessen. Mit Hilfe der Varianzanalyse kann für diese Problemstellung zum einen überprüft werden, ob die Form der Verpackung und / oder die Art der Werbung einen Effekt auf den Gesamtabweichung (SSy ) Abweichung zwischen den Faktorstufen (SSb ) Abweichung innerhalb der Faktorstufen bzw. Zellen (SSw ) Haupteffekte Interaktionseffekte Abweichung durch X1 Abweichung durch Wechselwirkung von X1× X2 Abweichung durch X2 Abweichung durch Wechselwirkung von X1× X3 Abweichung durch X3 Abweichung durch Wechselwirkung von X2× X3 Abweichung durch Wechselwirkung von X1× X2 × X3 Abbildung 3: Haupt- und Interaktionseffekte in einer zwei- bzw. dreifaktoriellen Varianzanalyse [in Anlehnung an BacKhaus et al. 2003, S. 131 & S. 139] Einführung in die Varianzanalyse 501 Absatz ausüben (sogenannte Haupteffekte). Zum anderen kann zusätzlich getestet werden, ob es eine Wechselwirkung zwischen der Verpackungsform und der Art der Werbung gibt. Im Vergleich zur einfaktoriellen Varianzanalyse werden für jede unabhängige Variable ein Haupteffekt und eben ein oder mehrere Interaktionseffekte (abhängig von der Anzahl der un abhängigen Variablen, vgl. Abbildung 3) im Modell berücksichtigt. Nachfolgend wird am Beispiel einer 2 faktoriellen Varianzanalyse die Vorgehensweise illustriert, wobei das gleiche Grundprinzip wie bei der einfaktoriellen Varianzanalyse Anwendung findet. Das Modell der 2 faktoriellen Varianzanalyse hat dabei folgende Form: (13) Yijk = µ + αj + βk + (αβ)jk + εijk Dabei wird der einzelne Beobachtungswert der abhängigen Variable Yijk durch den Mittelwert in der Grundgesamtheit (µ), den Einfluss der Faktorstufe j der ersten unabhängigen Variable (αj), den Einfluss der Faktorstufe k der zweiten unabhängigen Variablen (βk) und dem Inter aktionseffekt zwischen der j ten Faktorstufe von α und der k ten Faktorstufe von β ((αβ)jk) erklärt. Der Term εijk bezeichnet erneut den Zufallseffekt der nicht kontrollierten Einflüsse. Zur Schätzung von µ wird wiederum der Gesamtmittelwert der Stichprobe herangezogen, für die Schätzung von αj und βk jeweils die Abweichung der entsprechenden Faktorstufenmittelwerte vom Gesamtmittelwert. Die Faktorstufen werden anhand der beiden unabhängigen Variablen X und X2 gebildet, welche c bzw. c2 Faktorstufen / Kategorien haben. Der Interaktionsterm (αβ)jk wird geschätzt aus der Abweichung des Mittelwertes der Zelle (j,k) und dem Wert, der für diese Zelle zu erwarten wäre, wenn kein Interaktionseffekt vorliegen würde. Für jede Fak torstufenkombination liegen n Beobachtungen vor. Die gesamte Stichprobe ist N = n × c × c2 groß. Tabelle 3 fasst die Notationen zusammen und stellt die neuen Terme vor. i = 1, 2, ..., n i-te Beobachtung innerhalb der Faktorstufenkombination bzw. Zelle (j,k) j = 1, 2, ..., c1 j-te Faktorstufe der unabhängigen Variable X1 k = 1, 2, ..., c2 k-te Faktorstufe der unabhängigen Variable X2 Y – j Mittelwert der Beobachtungswerte der Faktorstufe j Yijk Individuelle Beobachtung Y – k Mittelwert der Beobachtungswerte der Faktorstufe k Y – jk Mittelwert der Beobachtungswerte in Zelle (j,k) Ŷjk = Y – j + Y – k - Y – Schätzwert, der für Zelle (j,k) zu erwarten wäre, wenn keine Interaktion vorhanden ist Y – Gesamtmittelwert aller Beobachtungswerte Tabelle 3: Zusammenfassung der Notation für die Durchführung einer zweifaktoriellen Varianzanalyse 502 Richard Rinkenburger Bezogen auf das oben vorgestellte Beispiel beeinflussen zwei unabhängige Variablen, die Verpa ckungsform (X ) und die Art der Werbung (X2), sowie der Interaktionseffekt den Absatz (Y). Die Verpackungsform hat drei (c = 3) und die Art der Werbung in den Verkaufsstätten hat zwei (c2=2) Faktorstufen. Wenn der Absatz wiederum an jeweils fünf Tagen gemessen wird (n = 5), liegen insgesamt 30 Beobachtungswerte vor (N = 5 x 3 x 2). 3.2 Annahmen und Voraussetzungen Es gelten die gleichen Annahmen und Voraussetzungen, welche bereits für die einfaktorielle Va rianzanalyse vorgestellt wurden (vgl. Abschnitt 2.2). Darüber hinaus kann die Wechselwirkung zwischen den unabhängigen Variablen nur erfasst werden, wenn für jede Faktorstufenkombi nation mehr als eine Beobachtung vorhanden ist (vgl. B . 2003, S. 129). Der interessierte Leser sei für diesen Spezialfall auf F . (1996, S. 193ff.) verwiesen. Zusätzlich muss bei der n faktoriellen Varianzanalyse beachtet werden, dass das Versuchsde sign ausbalanciert ist, d.h. dass für alle Zellen gleich viele Beobachtungen vorliegen. Andern falls kann die Gesamtabweichung nicht durch die einfache Addition der Faktoren und deren Wechselwirkung dargestellt werden, denn die Reihenfolge der unabhängigen Variablen hätte einen Einfluss auf die erklärten Abweichungen. Die Behandlung von nicht ausbalancierten Versuchsanordnungen wird beispielsweise bei S (1987) erläutert. Spezielle Methoden, wie die Anwendung des allgemeinen linearen Modells (vgl. zu dessen Vorstellung Abschnitt 4.2.), können dieses Problem ebenfalls lösen. 3.3 Zerlegung der Abweichungen Die Überlegung hinter der Analyse der Abweichungen ist gegenüber der einfaktoriellen Vari anzanalyse unverändert. Die Summe der Gesamtabweichungen wird wiederum in die erklärte und die nicht erklärte Abweichung zerlegt. Die Gesamtabweichung (SSY) berechnet sich aus der Summe der quadrierten Abweichungen der einzelnen Beobachtungswerte vom Gesamt mittelwert: (14) % #""" $! n i c j c k ijky YYSS 2 2 Die erklärte Abweichung (SSb) setzt sich im zweifaktoriellen Design aus den Abweichungen durch FaktorX , den Abweichungen durch FaktorX2 und den Abweichungen durch die Wech selwirkung der beiden Faktoren zusammen: (15) 2 2 XXXXb SSSSSSSS Die Abweichungen durch die unabhängigen Variablen werden mittels der Summe der Abwei chungen der jeweiligen Faktorstufenmittelwerte vom Gesamtmittelwert bestimmt: (16) 2c1 x1 j j SS n×c2 Y – Y– "! (17) 2c2 x2 k k SS n×c1 Y – Y– "! Die Abweichung, die auf den Interaktionseffekt der beiden Faktoren zurückgeführt werden kann, berechnet sich aus der Summe der quadrierten Abweichungen zwischen dem Mittelwert Einführung in die Varianzanalyse 503 der Zellen und dem Schätzwert für die Zellen, der zu erwarten wäre, wenn keine Interaktion vorläge (vgl. Tabelle 3): (18) 2c2 x1 x2 jk k SS n Y– Ŷjk "! c1 j ! Die erklärte Abweichung kann auch direkt berechnet werden, indem die quadrierten Abwei chungen zwischen den Zellen bzw. Gruppenmittelwerten und dem Gesamtmittelwert sum miert werden: (19) 2c2 b jk k SS n Y– Y– "! c1 j ! Die nicht erklärte Abweichung (SSw) ist analog zur einfaktoriellen Varianzanalyse definiert als die Summe der Abweichungen der einzelnen Beobachtungswerte vom Zellen bzw. Gruppen mittelwert: (20) 2c2 w ijk jk k SS Y Y– "! c1 j ! n i ! An dieser Stelle werden wiederum die Varianzen der Abweichungen als Basis für die Prüfgrößen berechnet. Dazu werden die Summen der quadrierten Abweichungen durch die entsprechenden Freiheitsgrade (df) dividiert. Tabelle 4 stellt die Berechnung der Freiheitsgrade und der Varianz für die zweifaktorielle Varianzanalyse dar. df (X1) = c1 - 1 df (X2) = c2 - 1 df (X1X2) = (c1 - 1)(c2 - 1) df (b) = (c1 - 1) + (c2 - 1) + (c1 - 1)(c2 - 1) = c1c2 - 1 df (w) = N - c1c2 df (Y) = N - 1 11 1 1 !c SS MS XX 12 2 2 ! c SS X XMS 11 21 21 21 !! cc SS MS XXXX 121 ! cc SS MS bb 21ccN SS MS ww ! 1! N SS MS YY Tabelle 4: Berechnung der Varianzen bei zwei Faktoren 504 Richard Rinkenburger 3.4 Test auf statistische Unabhängigkeit und Interpretation der Ergebnisse Im Falle der zweifaktoriellen Varianzanalysen können mehrere Hypothesen getestet werden. Zu Beginn wird überprüft, ob überhaupt Unterschiede zwischen den Gruppen bzw. Zellen vorlie gen, d.h. dass mindestens ein Effekt einer unabhängigen Variablen oder der Wechselwirkungen vorliegt. Die entsprechende Null und Gegenhypothese werden formal wie folgt dargestellt: (21) % $ % $ 0: 2 2 0 ######### ccccH "!"!!!"" !!! (22) & $ 0: %!! jkkjeinindestensmH #""# Für die statistische Überprüfung wird wiederum ein empirischer F Wert berechnet, indem die erklärte Varianz (MSb) zur nicht erklärten Varianz (MSw) ins Verhältnis gesetzt wird: (23) w b empirisch MS MSF ! Dieser empirische F Wert wird analog mit dem theoretischen Wert aus der F(c1c2 1,N c1c2) Verteilung verglichen. Wenn der empirisch bestimmte Wert größer ist, kann die Nullhypothese verworfen werden. Damit liegt mindestens einer der Effekte vor. Als nächstes sollte überprüft werden, ob ein Interaktionseffekt vorliegt. Die zu überprüfende Nullhypothese sagt aus, dass keine Interaktion vorhanden ist. Die Hypothesen und die passende Teststatistik werden formal wie folgt dargestellt: (24) H0: (αβ) = ... = (αβ)c c2 = 0 (25) H : mindestens ein (αβ)jk ≠ 0 (26) w XX empirisch MS MS F 2 ! In diesem Fall wird der theoretische Wert aus der F((c1 – 1)(c2 – 1),N c1c2) Verteilung für den Vergleich herangezogen. Falls der empirische Wert größer als der theoretische ist und damit der Interaktionseffekt signifikant, ist es generell weniger sinnvoll, die Haupteffekte der einzelnen Faktoren zu testen, da der Effekt von Faktor X abhängig von der Faktorstufe von X2 ist und umgekehrt. Dadurch ist eine Interpretation der direkten Effekte der unabhängigen Variablen sehr schwierig. Wenn allerdings der Interaktionseffekt nicht signifikant ist, sollte getestet werden, ob die Haupt effekte einzeln einen Einfluss auf die abhängige Variable haben (vgl. H . 2006, S. 496). Dazu werden folgende Hypothesen aufgestellt und Teststatistiken berechnet: (27) H0: α = ... = αc1= 0 (bzw. H0: β = ... = βc2 = 0) (28) H : mindestens ein αj ≠ 0 (bzw. H1: mindestens ein βk ≠ 0) (29) %% # ' $$ " & !! w X empirisch w X empirisch MS MS Fbzw MS MS F 2 . Einführung in die Varianzanalyse 505 In Analogie werden die empirischen F Werte mit den theoretischen Werten aus der F(c1 1,N c1c2) Verteilung bzw. aus der F(c2 1,N c1c2) Verteilung verglichen. Die Interpretation erfolgt wie bei den bisher vorgestellten Tests. Damit kann der Anwender mit Hilfe der zweifaktoriellen (bzw. n faktoriellen) Varianzanalyse eine Reihe von möglichen Einflüssen auf die abhängige Variable testen. 3.5 Berechnung der Effektstärke Auch bei einer n faktoriellen Varianzanalyse können optional die Effektstärken der Einflüsse der unabhängigen Variablen bestimmt werden (vgl. B . 2003, S. 146f.): (30) Y X SS SS 2 #"! (31) Y X SS SS 22 #!" Zusätzlich kann die Stärke des Gesamteffektes beider unabhängigen Variablen (multiples η2) wie folgt berechnet werden (vgl. M /B 2007, S. 495): (32) Y XXXX SS SSSSSS multiples 2 2 2 !! #" 4 Erweiterungen der Varianzanalyse Neben den beiden vorgestellten Typen der Varianzanalyse gibt es eine Reihe von Erweite rungen der Varianzanalyse. Dieser Beitrag ist bisher davon ausgegangen, dass alle Zellen des Forschungsdesigns die gleiche Anzahl an Beobachtungen beinhalten. Gängige Software Pakete sind in der Lage, ungleich besetzte Zellen zu berücksichtigen und entsprechend die Zerlegung der Abweichung mit Hilfe einer einfachen Gewichtung der einzelnen Beobachtungswerte an zupassen (vgl. B . 2003). Eine weitere Ergänzung liegt in der Verwendung von unvollständigen Experimentalplänen, d.h. dass nicht für alle möglichen Kombinationen der Faktorausprägungen Beobachtungen vorliegen. Dabei müssen bestimmte Maßnahmen im Vor feld sowie bei der Auswertung der Untersuchung getroffen werden (vgl. H /K 1988). Besonders wichtige Erweiterungen wie die Kovarianzanalyse, die mehrdimensionale bzw. multivariate Varianzanalyse und multiple Mittelwertvergleiche werden im Folgenden einzeln und ausführlicher vorgestellt. 4.1 Kovarianzanalyse Ziel einer Kovarianzanalyse ist es zum einen, etwas von dem nicht unter der Kontrolle des Forschers stehenden systematischen Fehler zu vermindern, welcher die Ergebnisse beeinflussen könnte. Zum anderen sollen Abweichungen berücksichtigt werden, welche auf Grund von be sonderen Eigenschaften der Untersuchungsobjekte auftreten. Mit anderenWorten sollen Störva riablen, die keine Verbindung zur inhaltlichenHypothese haben, aber trotzdem die abhängige(n) Variable(n) beeinflussen, berücksichtigt werden. Bei Experimenten können systematische Ver zerrungen in der Regel durch die zufällige Zuteilung der Untersuchungsobjekte zu den Faktor stufenkombinationen unterbunden werden. Wenn allerdings keine experimentelle Forschung möglich ist, können diese Regeln nicht angewendet werden (vgl. H . 2006). 506 Richard Rinkenburger In solchen Fällen sollte der Einfluss der Störvariablen neutralisiert werden, um die nicht er klärten Abweichungen in der Varianzanalyse zu verringern und somit die Aussagekraft der Ergebnisse zu erhöhen. Eine Möglichkeit dazu bietet die Kovarianzanalyse, welche eine Kom bination der Varianzanalyse mit einer Regressionsanalyse darstellt. Im einfachsten Fall bein haltet die Kovarianzanalyse mindestens eine kategoriale unabhängige Variable und mindestens eine metrisch skalierte unabhängige Störvariable, welche als Kovariate bezeichnet wird. Die Durchführung der Kovarianzanalyse kann zwei verschiedenen Überlegungen folgen: Erstens kann mit Hilfe einer Regressionsanalyse die Varianz einer oder mehrerer Kovariaten aus der abhängigen Variable entfernt werden. Im Anschluss wird dann die eigentliche Varianzanalyse auf Basis der bereinigten abhängigen Variable durchgeführt (vgl. S 1959). Die zweite Überlegung zerlegt die Varianz der Kovariate ebenso wie die Varianz der abhängigen Variable. Zusätzlich werden die Produktsummen der abhängigen Variable und der Kovariate berechnet und analog zur Varianz zerlegt. Mit deren Hilfe können modifizierte Varianzwerte für die ab hängige Variable berechnet werden und es erfolgt analog zur Varianzanalyse eine Überprüfung der Hypothesen (vgl. E 1979). Bei der Auswahl der Kovariaten sollte darauf geachtet werden, dass diese sehr hoch mit der bzw. den abhängigen Variablen und gleichzeitig nicht mit den unabhängigen Variablen korrelieren. Wenn dies der Fall ist, dann kann ein Teil der Varianz der abhängigen Variablen mit Hilfe der Kovariaten erklärt werden und dies führt zu einer reduzierten nicht erklärten Varianz. Damit verringert sich auch der Fehlerterm (MSw) der Testgröße und gleichzeitig bleibt der erklärte Anteil der Varianz durch die Faktoren gleich, da die Kovariate nicht mit den Faktoren korrelie ren und nur Varianz erklären, die nicht von den Faktoren erklärt wird. Dadurch wird der Test hinsichtlich der Wirkung der Faktoren effizienter. Im gegenteiligen Fall, wenn also die Kovari aten mit den Faktoren korrelieren, würden die Kovariaten einen Teil der Varianz erklären, der auch von den Faktoren erklärt worden wäre. Dadurch würde der Effekt der Faktoren verringert (vgl. H . 2006, S. 406). Neben den Eigenschaften der Kovariate stellt sich die Frage, wie viele Kovariate in die Analyse aufgenommen werden sollten. Auf der einen Seite möchte der Anwender so viele externe Effekte wie möglich berücksichtigen, auf der anderen Seite verringert eine zu große Zahl die Aussagekraft der Methode. Nach H (1980) kann der Anwender sich an folgender Faustregel orientieren: (33) Maximale Anzahl Kovariate = (0,10 x Stichprobengröße) (Anzahl Faktorstufenkombinationen 1) Abschließend müssen noch zwei Annahmen für die Anwendung einer Kovarianzanalyse erfüllt sein. Erstens müssen die Kovariate mindestens in einer schwachen Beziehung (Korrelation) zu der oder den abhängigen Variablen stehen. Zweitens müssen die Kovariate über alle Faktorstufen bzw. Faktorstufenkombinationen den gleichen Einfluss auf die abhängige Variable haben (vgl. D 1979). Die Auswirkungen der Verletzungen dieser Annahmen werden von E (1969) oder E /A (1968) thematisiert. 4.2 Mehrdimensionale Varianzanalyse Die in diesem Beitrag vorgestellten Arten der Varianzanalyse werden als univariate Analyseme thode klassifiziert, wobei nicht die Anzahl der unabhängigen Variablen dafür ausschlaggebend ist, sondern die Anzahl der Abhängigen. Mit Hilfe der mehrdimensionalen bzw. multivariaten Varianzanalyse können Modelle mit mehr als einer abhängigen Variablen und mehreren Fak toren und Kovariaten untersucht werden (vgl. B . 2003, S. 141). Die ausführliche Darstellung der mehrdimensionalen Varianzanalyse ist im Rahmen dieses Beitrages nicht mög Einführung in die Varianzanalyse 507 lich. Eine umfassendere Vorstellung der mehrdimensionalen Varianzanalyse bieten beispielswei se A /L (1981), B (1975) oder T (1975). Die Grundlage der mehrdimensionalen Varianzanalyse bildet das sogenannte allgemeine lineare Modell (ALM bzw. GLM für General Linear Model). Es wurde von N /W (1972) eingeführt und ist für verschiedene Situationen weiterentwickelt worden. F / T (2001) fassen wichtige Entwicklungen in ihrem Buch zusammen. Inzwischen findet das ALM auch vermehrt Anwendung bei einfachen Varianzanalysen. Das ALM bietet einen Rah men, in dem verschiedene Anordnungen von abhängigen und unabhängigen Variablen beachtet werden können: So können entweder eine (univariate Verfahren) oder mehrere (multivariate Verfahren) abhängige Variablen, eine (einfaktorielle bzw. einfache Verfahren) oder mehrere (mehrfaktorielle beziehungsweise multiple Verfahren) unabhängige Variablen, diskrete und diskretisierte (Faktoren) oder kontinuierliche (Prädiktoren) unabhängige Variablen sowie un abhängige oder abhängige Stichproben berücksichtigt werden. Im ALM wird davon ausge gangen, dass sich eine Beobachtung der abhängigen Variablen durch eine Linearkombination von gewichteten Werten von gegebenenfalls mehreren anderen Variablen beschreiben lässt. M C /N (1989) bieten eine gute Einführung und Erklärung in allgemeine lineare Modelle. 4.3 Multiple Mittelwertvergleiche Die verschiedenen Arten der Varianzanalyse sind in der Lage zu ermitteln, ob ein signifikanter Einfluss einer oder mehrerer Faktoren auf die abhängige Variable vorhanden ist. Sie kann jedoch nicht bestimmen, welche Faktorstufen bzw. Faktorstufenkombinationen sich voneinander un terscheiden (vgl. S 1959). Entweder man verwendet a priori festgelegte, auf theoretischen oder praktischen Überlegungen des Forschers basierende, Tests oder man setzt sogenannte Post hoc Tests ein, welche alle möglichen Paare von Faktorstufen bzw. Faktorstufenkombinationen automatisch testen. Der Forscher kann spezifische Vergleiche machen, d.h. er legt im Vorhinein fest, welche Grup pen miteinander verglichen werden sollen. Spezifische Vergleiche sollten aufgrund konzepti oneller Überlegungen verwendet werden, da bei einem explorativen Einsatz der Fehler 1. Art bezogen auf alle Tests inflationär ansteigen würde. Ein Nachteil von spezifischen Vergleichen ist die Möglichkeit, dass der Forscher nicht die richtigen Gruppenvergleiche festlegt (vgl. D 1979, S. 40ff.). Um dies zu verhindern, wurden Testverfahren entwickelt, die eine Kontrolle der Fehlerrate 1. Art für das gesamte Experiment erlauben. Diese sogenannten Post Hoc Tests können anhand von zwei Dimensionen systematisiert werden. Man kann einerseits Spannweitentests und an dererseits paarweise multiple Vergleiche verwenden. Erstere ermitteln homogene Untergruppen von Mittelwerten, welche sich nicht unterscheiden. Paarweise Mehrfachvergleiche testen dage gen, ob die gepaartenMittelwerte voneinander abweichen. Ein weiteres Merkmal von Post Hoc Tests ist die zugrundegelegte Annahme hinsichtlich der Varianzgleichheit in den untersuchten Gruppen. Tabelle 5 stellt verfügbare Tests vor und systematisiert mit Hilfe beider Kriterien die verschiedenen Testverfahren. 508 Richard Rinkenburger Die Vorstellung der verschiedenen Tests und die Diskussion, welches Verfahren in bestimmten Situationen besser geeignet ist bzw. nicht angewendet werden kann, findet man z.B. bei D (1979), H /C (1967), P /H (1969) oderW (1917). Da rüber hinaus bieten H /T (1987) eine übersichtliche Darstellung und kurze Erklärung verfügbarer Post Hoc Tests. Literaturverzeichnis ahrens, h.; läUTer, J. (1981):Mehrdimensionale Varianzanalyse – Hypothesenprüfung, Di mensionserniedrigung, Diskrimination bei multivariaten Beobachtungen, 2. erw. u. berichtigte Aufl., Berlin, 1981. BaCKhaUs, K.; eriChson, B.; plinKe,W.;WeiBer, r. (2003):Multivariate Analysemethoden – Eine anwendungsorientierte Einführung, 10. neu bearbeitete u. erw. Aufl., Berlin u.a., 2003. BoCK, r. D. (1975): Multivariate statistical methods in behavioral research, New York, 1975. Diehl, J. m. (1979): Varianzanalyse, 3. unveränd. Aufl., Frankfurt a. M., 1979. eDWarDs, a. l. (1979): Multiple regression and the analysis of variance and covariance, San Francisco, 1979. elashoFF, J. D. (1969): Analysis of covariance: a delicate instrument, in: American Educational Research Journal, Vol. 6, No. 2, S. 383–401. Varianzheterogenität Paarweise multiple Vergleiche Varianzhomogenität Spannweitentests J )&42 <0% M":#& 4"$I"L!)&42 I<:# E7:#;05$ J G<;5"&M>)&42 J *:#&N@>)&42 J )0!&F>3>)&42 J *208&I2>A&-KC&0M4>)&42 J /0I:)&42 J ,>)&42 I<:# +F."I72> G<;5"&M>(&M4:# J *6 ."I72>G<;5"&M>(&M4:# J (/0I:)&42 J 37I%&557I">)&42 J *"8)&42 J ,"4#&5=4 B*/ H$&5"I$42& 4"$I"L!)&42 J )9>)&42 I<:# ))&42 I<:# /0II&22 J GE7-&MM>)&42 J 1>)&42 I<:# /0II&22 Tabelle 5: Systematisierung von Post-Hoc-Tests Einführung in die Varianzanalyse 509 evans, s. h.; anasTasio, e. J. (1968): Misuse of analysis of covariance when treatment effect and covariate are confounded, in: Psychological Bulletin, Vol. 69, No. 4, S. 225–234. Fahrmeir, l.; TUTz, g. (2001): Multivariate statistical modelling based on generalized linear models, 2. Aufl., New York u.a., 2001. Fahrmeir, l.; hamerle, l.; nagl, W. (1996): Varianz und Kovarianzanalyse, in: Fahrmeier, L.; Hamerle, L.; Tutz, G. [Hrsg.]: Multivariate statistische Verfahren, 2. erw. Aufl., Berlin u.a., 1996. hair, J. F.; BlaCK, W. C.; BaBin, B. J.; anDerson, r. e.; TaTham, r. l. (2006):Multivariate data analysis, 6. Aufl., Upper Saddle River, 2006. hinKelmann, K.; KempThorne, o. (1994): Design and analysis of experiments, New York u.a., 1994. hoChBerg, y.; Tamhane, a. h. (1987): Multiple comparison procedures, New York u.a., 1987. hoChsTäDTer, D.; Kaiser, U. (1988): Varianz und Kovarianzanalyse, Frankfurt a. M. u.a., 1988. hopKins, K. D.; ChaDBoUrn, r. a. (1967): Comments: a schema for proper utilization of multiple comparisons in research and case study, in: American Educational Research Journal, Vol. 4, No. 4, S. 407–412. hUiTema, B. e. (1980): The analysis of covariance and alternatives, New York u.a., 1980. KirK, r. e. (1995): Experimental design: procedures for the behavioral sciences, 3. Aufl., Pacific Grove u.a., 1995. malhoTra, n. K.; BirKs, D. F. (2007):Marketing research – an applied approach, 3. European Edition, Harlow u.a., 2007. mCCUllagh, p.; nelDer, J. a. (1989): Generalized linear models, 2. Aufl., New York, 1989. nelDer, J. a.; WeDDerBUrn, r. W. m. (1972): Generalized linear models, in: Journal of the Royal Statistical Society, A 135, S. 370–384. peTrinoviCh, l. F.; harDyCK, C. D. (1969): Error rates for multiple comparison methods: some evidence concerning the frequency of errorneous conclusions, in: Psychology Bulletin, Vol. 71, No. 1, S. 43–54. saChs, l. (1974): Angewandte Statistik, Berlin, 1974. sCheFFé, h. (1959): The analysis of variance, New York u.a., 1959. sChnell, r (1994): Graphisch gestütze Datenanalyse, München u.a., 1994. sChnell, r; hill, p. B.; esser, e. (1994):Methoden der empirischen Sozialforschung, 6. völl. überarb. u. erw. Aufl., München u.a., 1999. searle, s. r.; Casella, g.; mCCUlloCh, C. e. (1992): Variance components, New York u.a., 1992. searle, s. r. (1987): Linear models for unbalanced data, New York u.a., 1987. siegel, s. (1976): Nichtparametrische statistische Methoden, Frankfurt a. M., 1976. 510 Richard Rinkenburger Timm, n. h. (1975):Multivariate analysis with applications in education and psychology, Mon terey, 1975. Winer, B. J. (1971): Statistical principles in experimental design, 2. Aufl., New York u.a., 1971.

Chapter Preview

References

Zusammenfassung

Dieser Sammelband bietet einen Überblick über relevante Theorien der Wirtschafts- und Sozialwissenschaften sowie ausgewählte Methoden der qualitativen und quantitativen Forschung. Der Leser hat die Möglichkeit, jede hier behandelte Theorie und Methode in ihren grundlegenden Aussagen bzw. Funktionsweisen zu verstehen sowie hilfreiche Hinweise und Literaturquellen für ein vertiefendes Studium jedes Themenfeldes zu erhalten.

Studenten oder Doktoranden stehen vor dem gleichen Problem:

Wie können Forschungsfragen durch geeignete theoretische Konzepte fundiert werden, wie werden sie in Hypothesen transformiert und mit welchen empirischen Methoden überprüft?

Die Kernbotschaft: Auf dem Weg zu wissenschaftlicher Leistung müssen Theorien und Methoden Hand in Hand gehen.

Damit dies gelingen kann benötigt jeder Forscher eine grundlegende Kenntnis derjenigen Theorien und empirischen Methoden, die im jeweiligen Forschungsfeld Relevanz besitzen und für die Anwendung in Frage kommen. Das Verständnis von Theorien bzw. der Funktionsweise und Leistungsfähigkeit empirischer Methoden sind dabei essentiell. Erst dadurch werden eine zutreffende Auswahl und eine korrekte Anwendung von Theorien und Methoden zur Lösung des Forschungsanliegens ermöglicht.

Der Überblick über die Theorien und Methoden der Wirtschafts- und Sozialwissenschaften.

Der kompakte Sammelband ist empfehlenswert für Studenten und Doktoranden, die Forschungsfragen durch geeignete theoretische Konzepte fundieren, in Hypothesen transformieren und anschließend mit geeigneten empirischen Methoden überprüfen können.