Content

4 Marktforschung in:

Andreas Scharf, Bernd Schubert, Patrick Hehn

Marketing, page 117 - 198

Einführung in Theorie und Praxis

6. Edition 2015, ISBN print: 978-3-7910-3410-2, ISBN online: 978-3-7992-6950-6, https://doi.org/10.34156/9783799269506-117

Bibliographic information
15-09-17 11:02:53 -o.mangold- o.mangold 4 Marktforschung ZLernziele Lage, diese Datenerhebungsmethoden auchauf praktische Marktforschungsproblemeanzuwenden. Sie sind mit den wichtigsten Verfahren deruni- und bivariaten Analyse von Datenvertraut. Sie können sie auf einfache Auswertungsprobleme anwenden und die Ergebnisse interpretieren. Sie kennen die grundlegenden multivariaten Verfahren der Interdependenzund der Dependenzanalyse und der damit verbundenen Vorgehensweise. Sie wissen, welche Marktforschungsprobleme mit dem jeweiligen Verfahren gelöst werden können und sind in der Lage, die Ergebnisse der Analyse zu interpretieren. Sie kennen den Begriff, die wesentlichen Aufgabenbereiche sowie die Träger der Marktforschung. Sie haben einen Überblick über die Forschungsansätze der Marktforschung sowie über die Phasen des Marktforschungsprozesses. Sie können den Unterschied zwischen Primär- und Sekundärforschung erklären. Sie wissen, welche Messniveaus und Gütekriterien der Messung unterschieden werden können und sind mit den gängigen Auswahlverfahren der Marktforschung vertraut. Sie kennen die verschiedenen Methoden der Datenerhebung. Sie sind über die wichtigsten Aspekte bezüglich ihrer Auswahl informiert und ansatzweise in der 4.1 Grundlegende Aspekte der Marktforschung 4.1.1 Begriff und wesentliche Aufgabenbereiche der Marktforschung Das Marketingmanagement muss zahlreiche Entscheidungen treffen. Unverzichtbare Grundlage für diese Entscheidungen bezüglich der Marketingziele, -strategien und -maßnahmen sind relevante Informationen über das gegenwärtige und zukünftige Marktgeschehen. Informationen lassen sich in diesem Zusammenhang definieren als »zweckorientiertes Wissen« (Berekoven et al., 2009, S. 31). Sättigungstendenzen auf nahezu allen Absatzmärkten, intensive Konkurrenzbeziehungen zwischen den Anbietern sowie verkürzte Produktlebenszyklen haben dazu geführt, dass die Gewinnung von Informationen über die Absatzmärkte heutzutage zu einem zentralen Element der unternehmerischen Tätigkeit geworden ist. In vielen Fällen, z. B. bei rohstoffnahen Industriebetrieben, sind jedoch auch Daten über die Beschaffungsmärkte entscheidungsrelevant. Hierzu zählen vor allem Informationen über Lieferanten, Mengen, Preise und Qualitäten der zu beschaffenden Rohstoffe, Werkstoffe und Betriebsmittel. Ferner muss auf der Beschaffungsseite das Angebot an Arbeitskräften und Kapitalquellen ermittelt werden. Die Marktforschung übernimmt in diesem Zusammenhang die Aufgabe, alle für die Entscheidungsfindung benötigten Informationen zur richtigen Zeit in der gewünschten Qualität bereitzustellen (Aus der Praxis 4-1). In der Literatur existieren unterschiedliche Definitionen bzw. Sichtweisen, beispielsweise wird zwischen den Begriffen Marketingforschung und Marktforschung unterschieden (z. B. Bruhn, 2014a, S. 87 ff.). Unter Marktforschung versteht man die systematische Gewinnung, Aufbereitung und Interpretation von für die Marketingplanung relevanten Informationen Marktforschung liefert alle für die Marketingentscheidungen benötigten Informationen. 15-09-17 11:02:53 -o.mangold- o.mangold 118 4.1 MarktforschungGrundlegende Aspekte der Marktforschung über Absatz- und Beschaffungsmärkte zur Fundierung von Marketingentscheidungen. Die Marketingforschung stellt hingegen nur Informationen über die Absatzmärkte bereit, umfasst jedoch – im Gegensatz zur Marktforschung – auch die Beschaffung unternehmensinterner Daten (Weis/Steinmetz, 2012, S. 19 f.). Die grundlegende Aufgabe der Marktforschung besteht in der Deckung des Bedarfs an relevanten Informationen. Der jeweilige Informationsbedarf wird in Art, Inhalt und Umfang durch das jeweilige Entscheidungs- bzw. Marktforschungsproblem konkretisiert. Die Vielzahl der Entscheidungsprobleme, die wiederum spezifische Anforderungen an die zu beschaffenden Informationen stellen, führt zu unterschiedlichen Aufgabenbereichen der Marktforschung. Im Folgenden werden die wichtigsten Klassifikationsmerkmale kurz erläutert (vgl. auch Abbildung 4-1): In Abhängigkeit von der Art der Untersuchungsobjekte unterscheidet man zwischen demoskopischer und ökoskopischer Marktforschung (Hüttner/Schwarting, 2002, S. 3). Die objektiven Sachverhalte von Märkten (z. B. Absatzmengen, Marktanteile, Distributionsquoten) erfasst die ökoskopische Marktforschung. Es handelt sich dabei um Größen, die losgelöst vom individuell geprägten Denken und Handeln der Marktteilnehmer erfasst werden. Demgegenüber sind die Marktteilnehmer die Erkenntnisobjekte der demoskopischen Marktforschung. Sie erfasst die objektiven Merkmale (z. B. Alter, Geschlecht, Haushaltsgröße, Einkommen) sowie die subjektiven Merkmale der Marktteilnehmer (z. B. Bedürfnisse, Einstellungen, Lebensstile). Der Erfolg einer Marketingstrategie bzw. einer Marketingmaßnahme hängt entscheidend vom gegenwärtigen und zukünftigen Verhalten der agierenden Marktteilnehmer ab. Demnach gilt es, auf der Absatzseite das Verhalten der Konsumenten, der Konkurrenten sowie der Absatzmittler und -helfer, auf der Beschaffungsseite hingegen das Verhalten der Lieferanten, der Beschaffungsmittler und -helfer sowie der Unternehmen mit gleichen oder ähnlichen Beschaffungswegen bzw. -quellen (Ressourcenkonkurrenten) zu erforschen. Marktforschung kann auf die verschiedenen Marketinginstrumente ausgerichtet sein: Im Mittelpunkt der Produktforschung steht die Analyse des gegenwärtigen Leistungsprogramms sowie die Ermittlung von Chancen und Risiken bei einer Veränderung bestehender bzw. der Vermarktung neuer Produkte. Die Preisforschung stellt z. B. Daten über die Preisreaktion der Abnehmer auf Änderungen des Angebotspreises zur Verfügung. Die Dis- Aus der Praxis 4-1 Informationen über Absatz- und Beschaffungsmärkte Um erfolgreich zu sein, muss ein Hersteller von Milchprodukten auf der Absatzseite beispielsweise Informationen über die relevanten Marktakteure beschaffen, das heißt über die geschmacklichen Vorlieben und die Preisbereitschaft seiner Abnehmer, über die Ausgestaltung der absatzpolitischen Instrumente seiner Konkurrenten sowie über die Ziele und Strategien der Einzelhandelskonzerne, die als Absatzmittler fungieren. Auf der Beschaffungsseite werden etwa Daten über die Preisforderungen verschiedener Molkereien erforderlich sowie über die Preise von Lieferanten für Zentrifugen und Abfüllanlagen benötigt. Abb. 4-1 Überblick über wichtige Aufgabenbereiche der Marktforschung Art der Untersuchungsobjekte Art der zu untersuchenden Marktteilnehmer Art der zu untersuchenden Marketinginstrumente Ökoskopische Marktforschung Demoskopische Marktforschung Absatzmarktforschung – Abnehmerforschung – Konkurrenzforschung (Angebotskonkurrenz) – Erforschung der Absatzmittler/-helfer Beschaffungsmarktforschung – Lieferantenforschung – Konkurrenzforschung (Ressourcenkonkurrenz) – Erforschung der Beschaffungsmittler und -helfer Produktforschung Preisforschung Distributionsforschung Kommunikationsforschung 15-09-17 11:02:54 -o.mangold- o.mangold 119 4.1Grundlegende Aspekte der Marktforschung tributionsforschung liefert insbesondere Daten über die Effizienz bestehender sowie das Erfolgspotenzial neuer Vertriebswege. Im Rahmen der Kommunikationsforschung lässt sich unter anderem untersuchen, wie die Abnehmer durch bestimmte Werbemaßnahmen beeinflusst werden. 4.1.2 Träger der Marktforschungsfunktion Auch im Bereich der Marktforschung steht eine Unternehmung immer wieder vor der Entscheidung, ob sie die für ihre Marketingplanung erforderlichen Daten durch innerbetriebliche Aktivitäten oder durch Fremdbezug beschaffen soll (»make-or-buy«-Entscheidung). Diese Entscheidung hängt zum einen von der Bedeutung der Marktforschung im Unternehmen selbst ab, zum anderen aber auch von der Qualität und dem Preis der Dienstleistungen externer Marktforschungsinstitute. Für die innerbetriebliche Wahrnehmung von Marktforschungsaufgaben sind zunächst die organisatorischen Voraussetzungen zu schaffen. Die vielfältigen Aufgaben der Marktforschung müssen in die Unternehmenshierarchie integriert werden. Die folgenden aufbauorganisatorischen Lösungen sind in diesem Zusammenhang denkbar (vgl. Hammann/ Erichson, 2000, S. 42). Fallen umfangreiche laufende und selbst durchführbare Marktforschungsaufgaben an, welche die Marketingleitung steuern und kontrollieren soll, ist es sinnvoll, eine selbständige Marktforschungsabteilung im Marketingbereich der Unternehmung einzurichten. Ist der Umfang der innerbetrieblichen Marktforschungstätigkeit jedoch eher gering, bietet sich die Einrichtung einer Stabstelle an, eine Lösung, die in der Praxis sehr häufig gewählt wird. Unterstützt die Stabstelle primär die Marketingabteilung der Unternehmung, dann wird sie dieser oder einer niedrigeren hierarchischen Ebene (z. B. Produktmanagement) zugeordnet. Liefert die Stabstelle auch Daten für andere Funktionsbereiche sowie für die Unternehmensleitung, wird sie dieser direkt unterstellt. Insbesondere in Großunternehmen kann es sinnvoll sein, die umfangreichen Aufgaben der Für innerbetriebliche Marktforschungsaufgaben müssen organisatorische Voraussetzungen geschaffen werden. Datenbeschaffung, -aufbereitung und -interpretation für alle Unternehmensbereiche in einem zentralen Informationsbereich zusammenzuführen (Berekoven et al., 2009, S. 34). Die Marktforschung ist diesem funktionalen Bereich als selbständige Abteilung untergeordnet. Auf diese Weise kann sie zum einen direkt auf alle im Unternehmen verfügbaren Informationen sowie auf die vorhandenen technischen Einrichtungen (z. B. Datenbanken) direkt zugreifen. Zum anderen liefert sie nicht nur der Marketingabteilung, sondern auch allen anderen Unternehmensbereichen wichtige Informationen. Die Durchführung von Marktforschung in Eigenregie weist verschiedene Vorteile auf: Die spezifischen Produkt- bzw. Marktkenntnisse betrieblicher Entscheidungsträger lassen sich uneingeschränkt nutzen, alle Marktforschungsaktivitäten können effizient koordiniert und kontrolliert werden, und vertrauliche Informationen (z. B. Ideen für neue Produkte) verbleiben im Unternehmen. Nachteilig können sich hingegen die begrenzten Methodenkenntnisse sowie die mangelnde Objektivität einiger betrieblicher Marktforscher auswirken. Ferner stehen der Output der betrieblichen Marktforschung und die durch sie verursachten Kosten nicht immer in einem vertretbaren Verhältnis. Vielfach werden die erforderlichen Marktforschungsaufgaben deshalb von externen Dienstleistungsunternehmen wahrgenommen. In Deutschland, Österreich und der Schweiz existieren zurzeit ungefähr 1500 Marktforschungsunternehmen, die Mitglied im Berufsverband Deutscher Markt- und Sozialforscher e. V. (BVM) sind und sich hinsichtlich ihrer Größe und ihres Dienstleistungsangebots erheblich unterscheiden (BVM, 2014). Neben den so genannten »Full Service«-Unternehmen, die alle gängigen Marktforschungsaufgaben ohne wesentliche Fremdhilfe von der Konzeption bis zur Präsentation der Ergebnisse wahrnehmen, versuchen Spezialinstitute Kompetenz nur in ausgewählten Bereichen der Marktforschung aufzubauen. Hierzu gehören beispielsweise Firmen, die sich auf Werbewirkungsforschung, Panelerhebungen oder sensorische Produkttests (z. B. Geschmackstests) spezialisiert haben (Aus der Praxis 4-2). Vorteile der Vergabe von Marktforschungsaufgaben an externe Dienstleistungsunternehmen Marktforschung kann auch von externen Dienstleistern übernommen werden, wenn eine innerbetriebliche Expertise zu kostenintensiv ist. 15-09-17 11:02:54 -o.mangold- o.mangold 120 4.1 MarktforschungGrundlegende Aspekte der Marktforschung sind vor allem die zumeist größere Objektivität bei der Planung und Umsetzung von Marktforschungsstudien sowie die bisweilen umfangreichere Methodenkenntnis bzw. Projekterfahrung. Außerdem hat der Auftraggeber nur die Kosten für die Inanspruchnahme konkreter Marktforschungsdienstleistungen zu tragen. Häufig wird auch die Expertise kommerzieller Marktforschungsinstitute benötigt, um Entscheidungen im Unternehmen durchsetzen zu können. Schließlich ist es bei Unzufriedenheit mit der Dienstleistungsqualität relativ einfach, den externen Partner zu wechseln. Die Einschaltung von Marktforschungsinstituten wird häufig dann kritisch beurteilt, wenn es sich um die Informationsbeschaffung für besonders vertrauliche Vorhaben handelt bzw. wenn der Erfolg der zu treffenden Marketingentscheidungen (z. B. Einführung eines neuen Produktes) entscheidend von der Einhaltung eines engen Zeitplans zur Informationsbeschaffung abhängt. Weitere Probleme, die in der Zusammenarbeit mit externen Partnern auftreten können, sind Kommunikationsschwierigkeiten, fehlende Kenntnisse bezüglich der unternehmensspezifischen Marketing-Entscheidungsprobleme sowie die unsolide Abwicklung der Aufträge. Die Abbildung 4-2 enthält einige wichtige Kriterien für die Auswahl eines geeigneten Anbieters von Marktforschungsdienstleistungen. Betriebliche und externe Marktforschungsaktivitäten schließen sich keineswegs gegenseitig aus, sondern ergänzen sich in vielen Unternehmen sinnvoll. In Abhängigkeit von der Art und dem Umfang des konkreten Informationsbedarfs werden die Kosten und das Problemlösungspotenzial der internen und externen Marktforschung gegenübergestellt und die kostengünstigere bzw. bessere Alternative ausgewählt. Die wichtigsten Vorteile interner bzw. externer Marktforschung sind abschließend in der Abbildung 4-3 aufgeführt. Neben den Marktforschungsinstituten existieren auch zahlreiche Marktforschungsberater und Informationsbroker (vgl. Berekoven et al., 2009, S. 38). Marktforschungsberater sind im Allgemeinen freiberufliche Spezialisten, die bei der Konzeption, Auswertung und Interpretation von Marktforschungsuntersuchungen mitwirken. Insbesondere dann, wenn die Erhebung von Daten Die Zusammenarbeit mit externen Marktforschern ist mit bestimmten Vor- und Nachteilen verbunden. Aus der Praxis 4-2 Who is Who in der Marktforschungsbranche Einen detaillierten Überblick über die deutschen Marktforschungsinstitute liefert das Handbuch der Marktforschungsinstitute, welches jährlich vom Berufsverband Deutscher Markt- und Sozialforscher (BVM) herausgegeben wird. Unterschieden wird zwischen Forschungsinstituten, Feldorganisationen, Beratern, Studios und anderen Dienstleistern. Das BVM- Handbuch liefert Informationen zu Firmendaten und Leistungen der Marktforschungsbranche. Es stellt für die gesamte Branche eines der wichtigsten Medien dar, um jährlich aktuell ihre Leistungsfähigkeit, ihr Spektrum und ihre Differenziertheit zu kommunizieren. Unter anderem findet man darin auch ein Verzeichnis der Geschäftsführer und Studioleiter sowie ein Leistungsverzeichnis der Mitglieder, welches das Finden von speziellen Leistungen einzelner Firmen vereinfacht (BVM, 2014). Abb. 4-2 Relevante Kriterien für die Auswahl eines geeigneten Marktforschungsinstitutes Kenntnis hinsichtlich Branche bzw. Produktbereich Kompetenz bezüglich Datenerhebung und Datenanalyse Effiziente Steuerung der Kommunikation und Interaktion mit dem Kunden Hohe Dienstleistungsqualität in allen Phasen des Marktforschungsprozesses Vertraulicher Umgang mit allen kunden- bzw. projektbezogenen Daten Überzeugende Referenzen, Erfahrungen mit ähnlichen Projekten Problemzentrierte, detaillierte Angebotserstellung Zeitbedarf und Terminzuverlässigkeit Kosten (Quelle: in Anlehnung an Lehmann et al., 1998, S. 102 f.) 15-09-17 11:02:54 -o.mangold- o.mangold 121 4.1Grundlegende Aspekte der Marktforschung erforderlich wird, fungieren sie als Mittler zwischen Betrieb und Marktforschungsinstituten, welche die so genannte »Feldarbeit« übernehmen (z. B. Befragung von Kunden, vgl. hierzu Kapitel 4.3.1). Demgegenüber liefern Informationsbroker ihren Auftraggebern relevante Informationen, die sie sich mit Hilfe moderner Kommunikationstechniken vorwiegend aus nationalen und internationalen Datenbanken beschaffen und problemadäquat aufbereiten. Obwohl Marktforschung für eine erfolgreiche Marketingplanung von zentraler Bedeutung ist, wird sie von vielen Unternehmen nicht richtig betrieben. Dafür gibt es viele Gründe (vgl. Kotler et al., 2007, S. 190): Häufig misst das Management der Marktforschung nur einen geringen Stellenwert bei. Die Folge sind gering bezahlte betriebliche Marktforscher mit unzureichender Qualifikation bzw. wenig überzeugende Dienstleistungen preisaggressiver Marktforschungsinstitute. Nicht selten versäumen es die Marketingmanagement und Marktforschung – ein Spannungsverhältnis auf Grund unterschiedlicher Denkstrukturen. Aus der Praxis 4-3 Die größten Marktforschungsinstitute weltweit Die zehn größten Marktforschungsinstitute erzielen zusammen einen Jahresumsatz von ca. 19,1 Milliarden US-Dollar. Die deutsche GfK-Gruppe (Gesellschaft für Konsumforschung) mit Hauptsitz in Nürnberg liegt mit einem Umsatz von 2 Milliarden, erwirtschaftet von 12.940 Mitarbeitern in 74 Ländern, weltweit auf dem fünften Platz. (Quelle: Gold, 2014, S. 40) Abb. 4-4: Umsätze der 10 größten Marktforschungsinstitute weltweit 2014 Rangplatz Unternehmen Umsatz in Mio. US-$ Umsatz im Ausland in % Anzahl der Mitarbeiter ca. (Vollzeit) Anzahl der bearbeiteten Länder 1 The Nielsen Co., USA 6.045 47,2 36.700 100 2 Kantar, Großbritannien 3.389 71,9 22.800 100 3 IMS Health, USA 2.544 63,2 10.000 76 4 Ipsos-Gruppe, Frankreich 2.274 93,1 15.536 86 5 GfK-Gruppe, Deutschland 1.985 70,0 12.940 74 6 Information Resources, USA 845 40,4 4.635 8 7 Westat, USA 583 3,2 2.044 6 8 dunnhumby, Großbritannien 454 76,5 715 24 9 INTAGE, Japan 436 5,6 2.527 8 10 The NPD Group, USA 288 29,7 1.282 14 Marketing-Entscheidungsträger auch, das relevante Untersuchungsproblem vollständig und präzise genug zu formulieren. Ferner fehlt ihnen aufgrund des hohen Entscheidungsdrucks bisweilen das Verständnis dafür, dass sorgfältig ge- Abb. 4-3 Vorteile der Marktforschung in Eigenregie bzw. durch externe Dienstleistungsunternehmen Vorteile der Marktforschung in Eigenregie Vorteile der Marktforschung durch externe Dienstleistungsunternehmen Nutzung von unternehmensspezifischem Know-how Sicherstellung der Geheimhaltung brisanter Informationen Steuerung und Kontrolle des Marktforschungsprozesses Objektivität Kosten nur bei Inanspruchnahme Einfacher Wechsel bei Unzufriedenheit Spezialisierung bezüglich der Datenerhebungs- und Datenanalysemethoden Akzeptanz im Unternehmen (Quelle: in Anlehnung an Aaker et al., 2013, S. 33 ff.; Berekoven et al., 2009, S. 36) 15-09-17 11:02:54 -o.mangold- o.mangold 122 4.1 MarktforschungGrundlegende Aspekte der Marktforschung plante und durchgeführte Marktforschungsprojekte eine gewisse Zeit erfordern. Schließlich sind die Arbeitsweisen und Denkstrukturen von Marketing-Managern und Marktforschern vielfach sehr unterschiedlich: Während der Marketingleiter etwa leicht verständliche Ergebnisse und konkrete Hinweise auf die Lösung des Entscheidungsproblems erwartet, liefert der Marktforscher einen umfangreichen und komplizierten Untersuchungsbericht ab. 4.1.3 Forschungsansätze im Rahmen der Marktforschung Unter einem Forschungsansatz versteht man die Vorgehensweise, durch die festgelegt wird, welche Informationen aus welchen Quellen mit Hilfe welcher Verfahren zu beschaffen sind. Die Wahl des Forschungsansatzes hängt entscheidend vom vorliegenden Marketing-Entscheidungsproblem ab, welches mit Hilfe der Marktforschungsuntersuchung gelöst werden soll. Man unterscheidet zwischen explorativen, deskriptiven und kausalanalytischen Forschungsansätzen (vgl. Böhler, 2004, S. 37; Herrmann et al., 2008, S. 8; Kuß et al., 2014, S. 31 ff.): Explorative Studien bieten sich an, wenn zu einem entscheidungsrelevanten Problemfeld nur wenige Erkenntnisse vorliegen, sodass die Identifikation bzw. Definition eines konkreten Marktforschungsproblems nicht möglich ist. Dieser Forschungsansatz, der dem Marktforscher ein hohes Maß an Flexibilität und Kreativität abverlangt, soll erste Hinweise auf die Struktur des interessierenden Problemfeldes (Hypothesenbildung) sowie auf die Auswahl und Abwicklung geeigneter Marktforschungsprojekte liefern. Die Datengewinnung im Rahmen explorativer Studien erfolgt insbesondere durch die Sichtung einschlägiger Literaturquellen, durch die Analyse von bereits vorliegendem Datenmaterial (z. B. gelungene bzw. gescheiterte Marketing- Maßnahmen bei ähnlich gelagerten Problemfeldern) sowie bei völlig neuartigen Entscheidungsproblemen vor allem durch qualitativ angelegte Befragungen von unternehmensinternen Personen (z. B. Vertriebsmitarbeiter, Produktmanager), unternehmensexternen Fachleuten (z. B. Absatzmittler, Werbeagenturen) sowie poten- Erste Informationsbeschaffung über explorative Studien zur Strukturierung des Problemfeldes ziellen Abnehmern (z. B. Kunden vergleichbarer Produkte). Derartige Befragungen werden als Tiefeninterviews oder Gruppendiskussionen durchgeführt (vgl. hierzu Kapitel 4.3.1.2) und sind sehr flexibel bezüglich der Fragestellungen und Antwortmöglichkeiten. In der Marktforschungspraxis dienen die Ergebnisse explorativer Studien häufig zur Vorbereitung sich anschließender deskriptiver Forschungsvorhaben, da Explorationen grundlegende Informationen darüber liefern, welche Variablen bzw. Variablenbeziehungen für das zu untersuchende Problemfeld relevant sind. Zu beachten ist, dass explorative Studien lediglich zur Identifikation marketingrelevanter Fragestellungen geeignet sind, die sich anschließend mit Hilfe deskriptiver bzw. kausalanalytischer Forschung beantworten lassen. Keinesfalls dürfen die Ergebnisse explorativer Studien von den betrieblichen Entscheidungsträgern als direkt Aus der Praxis 4-4 Beispiel für einen explorativen Untersuchungsansatz Ein Hersteller von Körperpflegeprodukten sucht nach Ideen für neue Produkte, welche die Haarpflege erleichtern sollen. Zu diesem Zweck wird eine explorative Studie in der Form von zwei Gruppendiskussionen durchgeführt: Die eine Gruppe bilden zehn unternehmensinterne und unternehmensexterne Experten (Produktentwickler und Marketingverantwortliche des Unternehmens, Friseure und Hautärzte), die andere Gruppe besteht aus Konsumenten, für die das Thema »Haarpflege« überdurchschnittlich wichtig ist. Jede Gruppe diskutiert unter Anleitung eines Psychologen über die Gründe für häufiges Waschen der Haare und über die Probleme, die damit verbunden sind. Durch eine möglichst dynamische Gesprächssituation (das heißt flexible Fragestellungen und spontane Antworten) sollen die Teilnehmer so stimuliert werden, dass sie persönliche Erfahrungen, Kenntnisse, Einstellungen und Ideen vorbehaltlos äußern, welche dem Marktforscher helfen, das Problemfeld besser zu strukturieren. 15-09-17 11:02:54 -o.mangold- o.mangold 123 4.1Grundlegende Aspekte der Marktforschung umsetzbare Marktforschungsergebnisse interpretiert werden (Aus der Praxis 4-4). Deskriptive Studien weisen im Rahmen der Marktforschung zweifellos die größte Bedeutung auf. Im Gegensatz zur flexiblen Vorgehensweise bei der Exploration sind deskriptive Untersuchungen durch genau definierte Forschungsziele sowie ein gut strukturiertes Forschungsdesign gekennzeichnet, sodass detaillierte und weitgehend fehlerfreie Ergebnisse erzielt werden können. Die sorgfältige Planung setzt voraus, dass der Forscher bereits über fundierte Kenntnisse bezüglich des Marktforschungsproblems verfügt (z. B. aus einer vorab durchgeführten explorativen Studie). Das Ziel deskriptiver Analysen besteht vorrangig in der Erfassung und Beschreibung relevanter Markttatbestände (z. B. Marktanteile, Kundenzufriedenheit) sowie in der Analyse von Zusammenhängen zwischen marketingrelevanten Variablen (z. B. Einfluss des Alters der Konsumenten auf die Kaufbereitschaft für eine bestimmte Automarke). Die Schlussfolgerungen, die aus diesen Informationen gezogen werden können, lassen sich unter bestimmten Bedingungen zur Prognose zukünftiger Marktbedingungen heranziehen. Die Datengewinnung im Rahmen deskriptiver Forschungsvorhaben erfolgt zum einen durch standardisierte Befragungen bzw. Beobachtungen repräsentativer Stichproben, zum anderen durch die systematische Auswertung geeigneter Sekundärinformationen (vgl. hierzu Kapitel 4.2.1 und Aus der Praxis 4-5). Ergebnisse deskriptiver Studien stellen für die Entscheidungsträger wichtige Informationen zur Erklärung der untersuchten Sachverhalte dar und liefern Hinweise auf den Einfluss von Marketingmaßnahmen auf relevante Zielgrößen wie Absatzmenge, Umsatz und Marktanteil. Streng genommen handelt es sich jedoch lediglich um Annahmen über den Zusammenhang zwischen Variablen, nicht um den Nachweis von Kausalbeziehungen, da viele vom Forscher außer Acht gelassene Faktoren die Beziehungen zwischen den betrachteten Variablen ebenfalls beeinflusst haben könnten. In Abhängigkeit davon, ob die benötigten Informationen nur zu einem einzigen Zeitpunkt oder aber wiederholt zu verschiedenen Zeitpunkten erhoben werden, unterscheidet man Deskriptive Studien erfassen und beschreiben relevante Markttatbestände. zwei verschiedene Arten deskriptiver Studien (vgl. Böhler, 2004, S. 39 f.): Querschnittsanalysen liefern Daten, welche sich nur auf einen bestimmten Zeitpunkt beziehen. Sie dienen vor allem der Analyse relevanter Markttatbestände (z. B. Beschreibung der Kernzielgruppe hinsichtlich Alter, Einkommen, Beruf, Lifestyle, Nutzenerwartungen usw.). Die Abbildung 4-5 enthält das Ergebnis einer typischen Querschnittsanalyse. Dargestellt ist der prozentuale Anteil verschiedener Länder bzw. Regionen an der weltweiten Automobilproduktion von insgesamt 77 Millionen Fahrzeugen. Bei Längsschnittanalysen wird die Datenerhebung zu verschiedenen Zeitpunkten unter möglichst identischen Rahmenbedingungen wiederholt. Auf diese Weise lassen sich Veränderungen des Marktgeschehens erfassen (z. B. Ent- Querschnittsanalysen beziehen sich auf eine Datenerhebung zu einem bestimmten Zeitpunkt. Längsschnittanalysen entstehen aus Datenerhebungen zu verschiedenen Zeitpunkten. Aus der Praxis 4-5 Beispiel für einen deskriptiven Untersuchungsansatz Ein nationaler Anbieter von Herrenbekleidung möchte die Gründe für einen stetigen Umsatzrückgang bei Straßenanzügen ermitteln. Deshalb führt er eine mündliche Befragung potenzieller und tatsächlicher Käufer seiner Produkte in verschiedenen deutschen Großstädten durch. Folgende Informationen werden unter anderem gewonnen: Auf die Frage, ob sie sich vorstellen können, in nächster Zeit einen Anzug des Herstellers zu kaufen, antworten 25 Prozent der Kunden, die älter sind als 50 Jahre, mit »Ja«. Demgegenüber sind es bei den Befragten, die jünger sind als 30 Jahre, weniger als 5 Prozent. In einer Frage nach dem Image der Produkte des Herstellers geben die meisten dieser Altersgruppe an, die Anzüge des Herstellers ziemlich altmodisch zu finden. Die Ergebnisse dieser deskriptiven Studie deuten folglich auf ein Imageproblem bei der jüngeren Zielgruppe hin. Folglich könnten eine stärkere modische Ausrichtung der Produkte und auf den Lifestyle junger Leute abgestellte Werbemaßnahmen zu einer Umsatzsteigerung bei dieser Zielgruppe führen. 15-09-17 11:02:54 -o.mangold- o.mangold 124 4.1 MarktforschungGrundlegende Aspekte der Marktforschung wicklung des Bekanntheitsgrades oder der Absatzmenge eines Produktes in der Einführungsphase des Produktlebenszyklus). Eine spezielle Methode zur Durchführung von Längsschnittanalysen ist die Panelforschung (vgl. Kapitel 4.3.3.2). Die Abbildung 4-6 enthält ein Beispiel für eine typische Längsschnittanalyse. Dargestellt ist die Entwicklung des Umsatzes der deutschen Automobilindustrie im Zeitraum der Jahre 1997 bis 2013, differenziert nach Umsatz im Inland und im Ausland. Mit Hilfe deskriptiver Studien ist es zwar möglich, mehr oder weniger präzise Hypothesen – etwa über die Wirkung bestimmter Marketingmaßnahmen auf relevante Zielgrößen – zu formulieren. Vielfach ist der Marktforscher jedoch daran interessiert, die Ursachen von Veränderungen bei den Zielgrößen zweifelsfrei in allen Details zu klären. Hierzu eignen sich kausalanalytische Studien, die fundierte Einblicke in bestehende Ursache-Wirkungszusammenhänge zwischen Variablen liefern. Sie ermöglichen folglich genauere und verlässlichere Antworten auf die Frage nach dem »Warum« als deskriptive Studien. In der Marktforschung versucht man mit Hilfe kausalanalytischer Untersuchungen, vor allem Informationen über die Wirkung alternati- Kausalanalytische Studien analysieren Ursache-Wirkungszusammenhänge. ver Marketing-Maßnahmen (z. B. verschiedene Preise, Distributionskanäle, Werbespots) auf bestimmte Zielgrößen (z. B. Bekanntheitsgrad, Absatzmenge) zu gewinnen. Jedoch nur wenn alle anderen Einflussfaktoren ausgeschlossen bzw. kontrolliert werden können, ist es möglich nachzuweisen, dass die Änderung einer bestimmten Marketingmaßnahme (z. B. Preissenkung bei Produkt x) für eine messbare Veränderung der interessierenden Zielgröße (z. B. Umsatzerhöhung für Produkt x) verantwortlich ist. Der Forscher muss demnach bereits vor der Durchführung einer kausalanalytischen Studie über fundierte Kenntnisse bezüglich der zu untersuchenden Variablenbeziehungen verfügen. Die Durchführung explorativer Forschungsvorhaben erfolgt mittels Experimenten (vgl. Kapitel 4.3.3.1; Aus der Praxis 4-6). 4.1.4 Phasen des Marktforschungsprozesses Jede Marktforschungsuntersuchung lässt sich – unabhängig vom vorliegenden Entscheidungsproblem – idealtypisch in mehrere aufeinander folgende Phasen unterteilen (z. B. Berekoven et al., 2009, S. 31 ff.; Böhler, 2004, S. 29 ff.). Alle Einzelschritte müssen sorgfältig geplant werden, da Fehler, insbesondere in frühen Phasen eines Marktforschungsprozesses, zwangsläufig zu Beeinträchtigungen der Qualität der Resultate führen. Es ist jedoch nicht immer erforderlich, die einzelnen Phasen in strenger Reihenfolge zu durchlaufen, sie stellen vielmehr einen wichtigen Orientierungsrahmen für diejenigen Aufgaben dar, die im Rahmen eines Marktforschungsprojektes zu berücksichtigen sind. Die Abbildung 4-7 liefert einen Überblick über die verschiedenen Phasen des idealtypischen Marktforschungsprozesses. In der Definitionsphase ist es zunächst erforderlich, das von den Entscheidungsträgern formulierte Marketingproblem und den damit verbundenen Informationsbedarf in ein Marktforschungsproblem zu transformieren. Hieraus werden dann möglichst operationale Forschungsziele abgeleitet. Sind bezüglich des Entscheidungsproblems nur geringe Kenntnisse vorhanden, ist ein möglichst flexibler Marktfor- Die Phasen des Marktforschungsprozesses geben einen Orientierungsrahmen für die zu bearbeitenden Aufgaben. Abb. 4-5 Typisches Beispiel für eine Querschnittsanalyse Restliches Europa 3,1% Kanada, USA, Mexiko 21,9% Südamerika 4,6% EU-27 20,0% Weltautomobilproduktion 2014 – 77 Mio. Fahrzeuge Restliche Welt 2,9% Restliches Asien 12,7% Japan 10,7% China 24,1% (Quelle: Verband der Automobilindustrie, 2015a; www.vda.de) 15-09-17 11:02:54 -o.mangold- o.mangold 125 4.1Grundlegende Aspekte der Marktforschung schungsprozess einzuleiten (explorative Forschung). Bei gut strukturierten Entscheidungsproblemen kann hingegen ein detaillierter Marktforschungsplan entwickelt werden (deskriptive oder kausalanalytische Forschung). In der Designphase des Marktforschungsprozesses erfolgt die Auswahl des Forschungsdesigns, welches alle weiteren Phasen entscheidend prägt. Auf der Basis der vorab formulierten Forschungsziele wird ein konkreter Erhebungsplan entworfen. Zu diesem Zweck müssen die Informationsquellen bestimmt, die Erhebungsmethoden und -einheiten ausgewählt sowie eine detaillierte Zeit- und Kostenplanung erstellt werden. Die Datenerhebungsphase, die so genannte »Feldarbeit«, ist dadurch gekennzeichnet, dass die laut Erhebungsplan durchzuführenden Aktivitäten zu organisieren und zu überwachen sind. So muss beispielsweise bei anspruchsvolleren Forschungsvorhaben (z. B. Expertenbefragung) geeignetes Befragungspersonal angeworben und geschult werden. Um Fehler während der Datenerhebung zu vermeiden, ist es außerdem erforderlich, das Erhebungspersonal sorgfältig zu kontrollieren. Nach Abschluss der Erhebung werden die gewonnenen Daten in der Datenanalysephase zunächst auf Vollständigkeit und logische Konsis- Aus der Praxis 4-6 Beispiel für einen kausalanalytischen Untersuchungsansatz Ein Anbieter von Müsliriegeln hat für seine Produktlinie ein neues Verpackungsdesign entwickelt, welches den Ansprüchen der Konsumenten hinsichtlich der spontanen Anmutung sowie der Wiederverschließbarkeit besser entsprechen soll als die bisher verwendeten Verpackungen. Da die Herstellung der neuen Verpackungen teurer ist, soll vor der endgültigen produktionstechnischen Umstellung untersucht werden, ob sich die neuen Verpackungen tatsächlich positiv auf die Nachfrage am Point of Sale auswirken oder nicht. Die zu überprüfende Kausalhypothese lautet hier: Die Modifikation der Verpackungen führt zu einer Steigerung der Absatzmenge. Zur Überprüfung dieser Hypothese ist die Durchführung einer kausalanalytischen Studie geeignet. Einen Monat lang werden die verschiedenen Müsliriegel in den Regalen einer bestimmten Anzahl von Einzelhandelsgeschäften mit neuen Verpackungen und in einer identischen Anzahl vergleichbarer Geschäfte mit den alten Verpackungen angeboten. Nach Abschluss des Experiments erfolgt ein Vergleich der Absatzmengen der Müsliriegel in Abhängigkeit der Verpackungsgestaltung. Die Absatzmenge der Müsliriegel in den modifizierten Verpackungen war – unter ansonsten identischen Bedingungen – um 6,5 Prozent höher als die Absatzmenge der Müsliriegel in den alten Verpackungen. Diese Information bildet die Grundlage für die Entscheidung der Marketingleitung, die neue Verpackung einzuführen. Abb. 4-6 Typisches Beispiel für eine Längsschnittanalyse (Quelle: Verband der Automobilindustrie, 2015b; www.vda.de) 15-09-17 11:02:54 -o.mangold- o.mangold 126 4.1 MarktforschungGrundlegende Aspekte der Marktforschung tenz hin überprüft und anschließend im Hinblick auf das Erhebungsziel aufbereitet. Heutzutage erfolgt die Auswertung der Daten nahezu ausschließlich computergestützt, sodass die verfügbaren Informationen in eine vom Computer lesbare Form transformiert und in geeigneten Dateiformaten gespeichert werden müssen. Bevor eine Interpretation der Daten erfolgen kann, ist es in den meisten Fällen erforderlich, sie im Hinblick auf das Untersuchungsziel zu verdichten. In der Dokumentationsphase müssen die gewonnenen Informationen den Marketing- Entscheidungsträgern in angemessener Form zur Verfügung gestellt werden. An dieser Schnittstelle zum Marketing-Management hat der Marktforscher die Aufgabe, aussagekräftige Schaubilder und Tabellen zu präsentieren, Schlussfolgerungen aus dem Datenmaterial abzuleiten und Lösungsansätze für das vorab definierte Marktforschungsproblem zur Diskussion zu stellen. Die Ergebnisse umfangreicherer Marktforschungsstudien können schnell zu Tabellen- und Grafikbänden führen, die mehrere hundert Seiten umfassen. In der Marktforschungspraxis ist deshalb die Erstellung ei- Abb. 4-7 Phasen des idealtypischen Marktforschungsprozesses Phase Aufgaben Beispiel 1. Definitionsphase Definition des Marktforschungsproblems Festlegung der Marktforschungsziele Ein Anbieter von Einweggeschirr hat ein neues Produkt entwickelt, dessen Marktchancen überprüft werden sollen. Wie wird das neue Geschirr aus nachwachsenden Rohstoffen im Vergleich zu marktgängigem Plastikgeschirr – bezogen auf die Handhabung beim Essen – wahrgenommen und beurteilt? Ermittlung der sensorischen Wahrnehmung und Beurteilung des neuen Geschirrs. 2. Designphase Hypothesenbildung Festlegung der Informationsquellen sowie der Erhebungsmethoden und -einheiten Zeit- und Kostenplanung Zentrale Untersuchungshypothese: »Bezüglich der Handhabung schneidet das neue Geschirr im Vergleich zu herkömmlichem Plastikgeschirr signifikant besser ab.« Durchführung einer mündlichen Befragung von 100 Studierenden in der Mensa einer Hochschule während des Essens. 50 Studierende erhalten das neue Geschirr, die übrigen 50 essen mit dem herkömmlichen Plastikgeschirr. Terminierung der Datenerhebung auf drei Erhebungstage in der Zeit von 12 bis 14 Uhr. Kosten entstehen für die Interviewertätigkeit, für die Konzeption und den Druck des Fragebogens sowie für die Eingabe und Auswertung der Daten. 3. Datenerhebungsphase Anwerbung und Schulung des Erhebungspersonals Organisation, Durchführung und Kontrolle der Datenerhebung Die ausgewählten Interviewer werden vom Projektleiter in den Ablauf der Befragung und ihre Aufgaben eingewiesen. Die Befragten erhalten ihren Teller vor und ihr Besteck nach der Essensausgabe. Das Ausfüllen des Fragebogens erfolgt während des Essens durch den Interviewer. 4. Datenanalysephase Auswertung, Verdichtung und Interpretation der gewonnenen Daten Ermittlung der Mittelwerte für die einzelnen Beurteilungsdimensionen (z. B. »Schnittfestigkeit des Messers«, »Stabilität der Gabel«) Berechnung der Signifikanz der Mittelwertunterschiede zwischen den beiden Geschirr-Varianten. 5. Dokumentationsphase Erstellung eines Forschungsberichtes Präsentation der Ergebnisse Grafische Aufbereitung der Ergebnisse Stichwortartige Dokumentation der wichtigsten Erkenntnisse bezüglich der formulierten Hypothesen Mündliche Präsentation der Ergebnisse in einem Projektmeeting 15-09-17 11:02:54 -o.mangold- o.mangold 127 4.1Grundlegende Aspekte der Marktforschung nes Forschungsberichts üblich, in dem das Forschungsdesign (Informationsquellen, Stichprobenbildung, Methoden der Datenerhebung und -auswertung) sowie die wichtigsten Ergebnisse (abhängig vom Untersuchungsziel) dargestellt sind. Die Aufgaben, welche in den einzelnen Phasen des Marktforschungsprozesses zu bewältigen sind, lassen sich abschließend anhand eines Beispiels aus der Dienstleistungsmarktforschung veranschaulichen (Aus der Praxis 4-7). Gute Marktforschung zeichnet sich durch eine streng wissenschaftliche Vorgehensweise aus, das heißt, dass der Forscher die zu untersuchenden Phänomene gründlich beobachtet und exakte Hypothesen formuliert bzw. testet. Weitere Merkmale sind Kreativität bei der Planung problemadäquater Forschungsdesigns sowie die genaue Anpassung des Forschungsansatzes an das vorliegende Marktforschungsproblem. Wichtig ist ferner die Wahl des richtigen Analysemodells, mit dessen Hilfe die vorliegenden Daten in informative Aussagensysteme umgeformt werden können. Schließlich muss der Wert der Informationen größer sein als die Kosten ihrer Beschaffung (vgl. Kotler et al., 2007, S. 187 f.). Aus der Praxis 4-7 Marktforschungsprozess eines Reiseveranstalters Der Reiseveranstalter »Glücktours« stellt fest, dass die Anzahl der Buchungen von Pauschalreisen auf die Kanarischen Inseln im abgelaufenen Geschäftsjahr stark rückläufig war. Die Marketing-Entscheidungsträger überlegen, ob sie ihre Angebote modifizieren (etwa durch vertragliche Bindung an Hotels in ruhigerer Lage und mit besserem Service), die Reisepreise senken oder die Kanarischen Inseln als Reiseziel aus dem Leistungsprogramm ganz streichen sollen (Marketing-Entscheidungsprobleme). Hieraus lassen sich unter anderem die folgenden Fragen ableiten (Marktforschungsprobleme), die wiederum den Informationsbedarf festlegen: Durch welche Veränderungen am Produkt »Pauschalreise auf die Kanarischen Inseln« können Kunden zurückgewonnen werden? Auf welchen Preis müssten die bestehenden Angebote gesenkt werden, um die Absatzzahlen der vergangenen Jahre annähernd zu erreichen? Welche neuen Urlaubsziele könnten anstelle der Kanarischen Inseln ins Leistungsprogramm aufgenommen werden? Die Marketing-Manager entschließen sich, in einem ersten Schritt zu ermitteln, aus welchen Gründen die Nachfrager andere Reiseveranstalter bzw. andere Reisegebiete bevorzugen (Erhebungsziel). Das Ziel soll durch eine telefonische Befragung von 500 Personen erreicht werden, die zwar in der vergangenen, aber nicht in der laufenden Saison eine Reise mit »Glücktours« auf die Kanarischen Inseln gebucht haben. Ein Marktforschungsinstitut wird damit beauftragt, die benötigten Informationen zu einem vereinbarten Preis und vor Beginn der Vertragsverhandlungen mit Hotels im Zielgebiet für die nächste Saison zu beschaffen (Datenerhebung). Die gewonnenen Daten sind so auszuwerten, dass unter anderem die Merkmale (z. B. Preise, Service, Flugzeiten) aufgedeckt werden, die dafür verantwortlich sind, dass sich die Kunden für einen anderen Reiseveranstalter bzw. ein anderes Reiseziel entschieden haben (Datenanalyse). Die Darstellung der Ergebnisse erfolgt einerseits durch einen schriftlichen Untersuchungsbericht, andererseits durch mündliche Präsentation der wichtigsten Erkenntnisse der Studie vor den betrieblichen Entscheidungsträgern (Dokumentation). 15-09-17 11:02:54 -o.mangold- o.mangold 128 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung 4.2 Entscheidungsprobleme im Rahmen der Datenerhebung 4.2.1 Primär- und Sekundärforschung Daten beruhen auf Zahlen oder verbalen Aussagen. Entscheidungsrelevante Daten stellen Informationen dar, die für eine erfolgreiche Marketingplanung benötigt werden. Der Vorgang der systematischen und gezielten Beschaffung von Informationen wird als Erhebung bezeichnet (Hammann/Erichson, 2000, S. 75). Im Rahmen der Datenerhebung lassen sich zwei grundlegende Vorgehensweisen unterscheiden, die Primär- und die Sekundärforschung: Müssen neue Daten beschafft und aufbereitet werden, um das vorliegende Marktforschungsproblem zu lösen, spricht man von Primärforschung (field research). Originäre Daten lassen sich grundsätzlich durch Befragungen oder Beobachtungen bzw. durch Mischformen dieser beiden, das heißt durch Experimente oder Panelerhebungen, gewinnen. Gegenstand der Sekundärforschung (desk research) ist hingegen die Beschaffung von Daten, die bereits zu einem früheren Zeitpunkt und für andere Zwecke erhoben wurden (Kuß et al., 2014, S. 36). Dieses Da- Primärforschung beschafft originäre Daten. Sekundärforschung greift auf vorhandene Daten zurück, um sie zu analysieren. tenmaterial wird im Hinblick auf das vorliegende Marktforschungsproblem aufbereitet und analysiert (Bruhn, 2014a, S. 109). Zu berücksichtigen ist in diesem Zusammenhang, dass alle im Rahmen der Sekundärforschung verwendeten Daten früher einmal mit Hilfe der Primärforschung gewonnen wurden. Die Abbildung 4-8 gibt einen Überblick über die beiden grundlegenden Methoden der Datenerhebung und deren wichtigsten Ausprägungen. Bei Primär- und Sekundärerhebungen handelt es sich gleichermaßen um empirische Techniken der Informationsgewinnung. Unterschiede ergeben sich nur hinsichtlich der Art der Datenerhebung. Bezüglich der Entscheidung, ob Primärforschung oder Sekundärforschung betrieben werden soll, muss abgewogen werden zwischen der Aussagekraft der erhobenen Daten einerseits sowie den mit der Datenerhebung verbundenen Kosten andererseits. An dieser Stelle gilt es zunächst, die wichtigsten Aspekte der Sekundärforschung herauszuarbeiten, auf die Methoden der Primärforschung wird dann detailliert im Kapitel 4.3 eingegangen. Abb. 4-8 Methoden der Datenerhebung im Überblick Panelerhebung Mischformen Experiment öffentlich kommerziell qualitativ Befragung Primärforschung Sekundärforschung Methoden der Datenerhebung Beobachtung interne Quellen externe Quellen quantitativ (Quelle: in Anlehnung an Freter, 2004, S. 44; Homburg, 2015, S. 262) 15-09-17 11:02:54 -o.mangold- o.mangold 129 4.2Entscheidungsprobleme im Rahmen der Datenerhebung Das Material, welches für die Sekundärforschung herangezogen werden kann, ist nahezu unbegrenzt. Im Hinblick auf die Herkunft lässt sich zwischen internen und externen Informationsquellen unterscheiden (Böhler, 2004, S. 63 ff.). Interne Datenquellen der Sekundärforschung dienen beispielsweise zur Überprüfung der Wirkung realisierter Marketingmaßnahmen sowie zur Suche nach Ursachen für Abweichungen bezüglich relevanter Zielgrößen (z. B. Absatzmengen, Umsatzzahlen). Die Qualität interner Daten hängt entscheidend von der Aussagekraft des betrieblichen Berichts- und Informationswesens ab (z. B. Absatzstatistiken, Vertriebskostenrechnung). Bei der Suche nach geeigneten externen Datenquellen stellt sich für den Forscher das Problem, aus einer unüberschaubaren Vielzahl von Quellen die richtigen auszuwählen. Durch das weltweit verfügbare Internet sowie die damit verbundene Möglichkeit der Nutzung von Internet-Suchmaschinen und Online-Datenbanken hat sich die Sekundärforschung in den letzten Jahren dramatisch verändert: Sie ist billiger, schneller und aktueller geworden. Hinsichtlich der externen Datenquellen ist zu unterscheiden zwischen kostenlosen, das heißt öffentlich zugänglichen Sekundärdaten (Aus der Praxis 4-8) sowie verfügbaren Informationen, die von kommerziellen Dienstleistungsunternehmen gegen Entgelt angeboten werden. In einem ersten Schritt müssen alle potenziell relevanten Quellen identifiziert und verfügbar gemacht werden. Dann gilt es, die im Hinblick auf das zu lösende Marktforschungsproblem nützlichen Informationen gezielt auszuwählen und angemessen aufzubereiten. Die Abbildung 4-9 gibt einen Überblick über wichtige interne und externe Datenquellen der Sekundärforschung, auf die hier jedoch nicht weiter eingegangen sondern auf die einschlägige Literatur verwiesen wird (z. B. Berekoven et al., 2009, S. 39 ff.; Böhler, 2004, S. 64 ff.; Hüttner/Schwarting, 2002, S. 196 ff.). Viele Marktforschungsprojekte sind durch eine Kombination aus Primär- und Sekundärforschung gekennzeichnet. Am Anfang der Suche nach relevanten Informationen steht in der Regel die Sekundärforschung, da Sekundärdaten schneller und kostengünstiger beschafft werden können als Primärdaten. Außerdem besteht in Interne Datenquellen sind Informationen aus dem betrieblichen Berichtswesen. Externe Datenquellen stehen in einer Vielzahl kostenlos oder kostenpflichtig zur Verfügung. bestimmten Fällen ein Bedarf an Informationen, die sich ausschließlich aus Sekundärquellen gewinnen lassen (z. B. volkswirtschaftliche Rahmendaten). Normalerweise gelingt es mit Hilfe sekundärstatistischer Analysen, einen mehr oder weniger groben Datenkranz zu erstellen, sodass eine sich anschließende Primärerhebung zielgerichteter geplant und durchgeführt werden kann. Bei der Verwendung durch Sekundärforschung gewonnener Daten können jedoch auch verschiedene Probleme auftreten (Berekoven et al., 2009, S. 42): Viele Daten sind zum Zeitpunkt der Nutzung durch die Marktforschung nicht mehr aktuell genug. Das gilt insbesondere für interessierende Größen, die einer hohen Dynamik unterworfen sind (z. B. Veränderung der Pkw- Abb. 4-9 Interne und externe Informationsquellen der Sekundärforschung Unternehmensinterne Datenquellen Unternehmensexterne Datenquellen Buchhaltungsunterlagen Unterlagen der Kostenrechnung (z. B. Absatz- und Vertriebskosten, Deckungsbeiträge) Allgemeine Statistiken (z. B. Umsätze insgesamt, nach Produktgruppen, Artikeln, Kunden, Vertretern, Gebieten und Perioden) Kundenstatistiken (z. B. Kunden nach Art, Größe, Gebiet, Auftragsgrößen, Vertriebswegen, Reklamationen, Mahnungen) Berichte und Meldungen des Außendienstes (z. B. Besuchsstatistiken) Frühere Primärerhebungen, die für neue Problemstellungen relevant erscheinen Veröffentlichungen des Statistischen Bundesamtes und der Statistischen Landesämter Veröffentlichungen anderer amtlicher und halbamtlicher Institutionen (z. B. Ministerien, Kommunen, Bundesämter, Industrie-, Handels- und Handwerkskammern, Berichte öffentlich-rechtlicher Körperschaften) Veröffentlichungen von Wirtschaftsverbänden und -organisationen Veröffentlichungen von wissenschaftlichen Instituten und Lehrstühlen Veröffentlichungen von Banken und Sonderdienstleistern Veröffentlichungen einschlägiger Verlage (Bücher, Fachzeitschriften, Zeitungen und sonstige Publikationen) Veröffentlichungen von Werbeträgern und Werbemittelherstellern Veröffentlichungen firmenspezifischer Art, wie Geschäftsberichte, Firmenzeitschriften, Kataloge und Werbemitteilungen Informationsmaterial von Adressverlagen, speziellen Informationsdiensten, Beratungsfirmen und Marktforschungsinstituten (Quelle: Herrmann/Homburg, 2000, S. 25) 15-09-17 11:02:54 -o.mangold- o.mangold 130 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung Zulassungszahlen unmittelbar nach der weltweiten Finanzkrise im Jahr 2008). Auch die Objektivität vieler Informationsquellen sowie die Genauigkeit der verfügbaren Daten können nicht immer als gegeben angesehen werden. Insbesondere das methodische Vorgehen im Rahmen der Datenerhebung bleibt oft unklar. Häufig entspricht die gewählte Aufbereitung bzw. Einteilung des Zahlenmaterials nicht den Anforderungen, die sich aus dem zu lösenden Marktforschungsproblem ergeben. Interpretationsprobleme können beispielsweise durch abweichende Definitionen (z. B. Marktabgrenzung) oder Klassifikationen (z. B. Altersgruppen) bestimmter Variablen entstehen. 4.2.2 Messtheoretische Grundlagen Im Rahmen einer jeden Marktforschungsuntersuchung werden Daten über diejenigen Ausprägungen erhoben und anschließend interpretiert, welche die Untersuchungsobjekte (z. B. Stammkunden) bezüglich der interessierenden Eigenschaften (z. B. Kaufhäufigkeit) aufweisen. Aus der Praxis 4-8 Öffentlich zugängliche Sekundärdaten Zu den wichtigsten externen Informationsquellen zählen die Veröffentlichungen des Statistischen Bundesamtes und der Statistischen Landesämter. Die Abbildung 4-10 enthält Informationen über die Ausstattung privater Haushalte in Deutschland mit Geräten der Informations- und Kommunikationstechnik. Solche Daten können kostenlos über das Internet bezogen werden und dienen den Marketingverantwortlichen beispielsweise dazu, zukünftige Absatzpotenziale bestimmter Produkte zu schätzen. Den Daten in der Abbildung 4-10 lässt sich unter anderem entnehmen, dass die Märkte für mobile PC-Geräte sowie für Navigationssysteme in den letzten Jahren starke Zuwächse verzeichnen konnten und aufgrund der vergleichsweise geringen Marktausschöpfung damit zu rechnen ist, dass auch in Zukunft gute Absatzmöglichkeiten für diese Produktarten bestehen. (Quelle: Statistisches Bundesamt, 2015) Abb. 4-10: Ausstattung deutscher Haushalte mit Geräten der Informations- und Kommunikationstechnik Gegenstand der Nachweisung 2009 2010 2011 2012 2014 Hochgerechnete Haushalte (1 000) 36 462 36 521 36 640 36 701 36 343 Informations- und Kommunikationstechnik Ausstattungsgrad je 100 Haushalte Personalcomputer 78,8 80,8 82,0 83,5 87,0 PC stationär 62,9 63,1 61,1 59,6 54,0 PC mobil (Notebook, Laptop, Tablet-PC) 40,0 45,5 51,9 57,5 68,3 Internetanschluss (auch mobil) 68,9 72,9 75,9 79,4 78,8 Telefon 99,5 99,4 99,6 99,7 99,9 Festnetztelefon 91,5 91,6 92,7 93,4 91,5 Mobiltelefon (Handy, Smartphone) 86,7 88,9 90,0 90,3 93,6 Faxgerät stationär 19,2 20,1 19,0 18,8 – Navigationsgerät 27,0 33,2 38,9 42,7 48,3 15-09-17 11:02:54 -o.mangold- o.mangold 131 4.2Entscheidungsprobleme im Rahmen der Datenerhebung Welche Eigenschaften eines interessierenden Untersuchungsobjektes aus der Vielzahl existierender Eigenschaften ausgewählt werden, hängt entscheidend vom vorab formulierten Marktforschungsproblem und dem damit verbundenen Informationsbedarf ab. Um am Ende zu interpretierbaren Daten zu gelangen, sind von der Marktforschung grundsätzlich zwei Aufgaben zu erfüllen: Erstens müssen die relevanten Eigenschaften operational definiert werden, und zweitens gilt es, die Ausprägungen der Untersuchungsobjekte bezüglich dieser Eigenschaften zu messen (Böhler, 2004, S. 106 ff.). Die Abbildung 4-11 veranschaulicht diese idealtypische Vorgehensweise. Wie schwierig die Aufgabe der Operationalisierung ist, hängt ab von den interessierenden Eigenschaften des Untersuchungsobjektes. Bei quantitativen Größen – etwa Einkommen und Alter eines Konsumenten oder Absatzmengen und Verkaufspreise eines Produktes – ist die Formulierung eines operationalen Maßstabs, mit dessen Hilfe die Eigenschaftsausprägungen bei den Untersuchungsobjekten gemessen werden können, vergleichsweise einfach. Als problematisch erweist sich jedoch die Operationalisierung qualitativer, nicht beobachtbarer Merkmale, so genannter theoretischer bzw. hypothetischer Konstrukte wie beispielsweise die Einstellung oder der Lebensstil eines Konsumenten. Für solche Eigenschaften gilt es zum einen, empirisch erfassbare Indikatoren zu bestimmen, mit deren Hilfe zweifelsfrei festgestellt werden kann, ob und in welcher Ausprägung das hypothetische Konstrukt vorliegt. Zum anderen muss festgelegt werden, wie die Messung der ausgewählten Indikatoren zu erfolgen hat, damit dem hypothetischen Konstrukt schließlich ein bestimmter Messwert zugewiesen werden kann. Unter einer Messung versteht man allgemein die systematische Erfassung empirischer Sachverhalte mittels Befragung oder Beobachtung. In einem standardisierten Prozess werden den festgestellten Ausprägungen der vorab präzise operationalisierten Eigenschaften eines Untersuchungsobjektes nach festgelegten Regeln Zahlen oder andere Symbole zugeordnet (Aaker et al., 2013, S. 224). Die Zuordnung muss so erfolgen, dass die Relation zwischen den Zahlen bzw. Symbolen mit der Relation zwischen den Die interessierenden Eigenschaften müssen operational definiert und gemessen werden. Objekten bezüglich der interessierenden Eigenschaft bzw. deren Ausprägung übereinstimmt. Sind beispielsweise 85 und 60 die gemessenen Prozentwerte (Zahlen) für den Distributionsgrad (Eigenschaft) zweier Süßwarenhersteller A und B (Untersuchungsobjekte), dann weist der Hersteller A einen um 15 Prozent höheren Distributionsgrad auf als der Hersteller B. Um den Eigenschaftsausprägungen Zahlenwerte zuordnen zu können, ist es erforderlich, einen geeigneten Maßstab zu definieren. Ein solcher Maßstab ist durch eine Skala gegeben. Der Vorgang der Skalierung bezieht sich folglich auf die Zuordnung von Zahlen (Messwerten) zu den Ausprägungen der Eigenschaften. Die Zuordnungsvorschrift ist dabei nicht beliebig, sie ergibt sich vielmehr aus den Besonderheiten des abzubildenden Sachverhalts (Aus der Praxis 4-9). Welche Informationen die erhobenen Daten aufweisen, hängt vor allem vom Messniveau der verwendeten Skala ab, mit dem die Eigen- Der Informationsgehalt von erhobenen Daten ist abhängig vom gewählten Messniveau. Abb. 4-11 Idealtypische Vorgehensweise bezüglich der Operationalisierung und Messung von Eigenschaften eines interessierenden Untersuchungsobjektes Gesamtheit aller Eigenschaften, durch die sich das interessierende Untersuchungsobjekt beschreiben lässt Präzise begriffliche Definition der relevanten Eigenschaften des Untersuchungsobjektes Bestimmung der korrespondierenden empirisch wahrnehmbaren Eigenschaften (Indikatoren) Festlegung der Art der Messung, durch welche die Ausprägungen der Eigenschaften feststellbar sind Erfassung der Antworten bzw. Beobachtungen, die sich auf die wahrnehmbaren Eigenschaften beziehen (Daten) Zuordnung von Symbolen bzw. Zahlen zu den gemessenen Eigenschaftsausprägungen nach bestimmten Regeln M es su ng d er Ei ge ns ch af te n Op er at io na lis ie ru ng de r Ei ge ns ch af te n (Quelle: in Anlehnung an Böhler, 2004, S. 106) 15-09-17 11:02:54 -o.mangold- o.mangold 132 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung schaftsausprägungen der Untersuchungsobjekte gemessen worden sind. In Abhängigkeit ihrer mathematischen Besonderheiten lassen sich vier Skalentypen unterscheiden (Aaker et al., 2013, S. 224 f.), deren Eigenschaften in der Abbildung 4-12 im Überblick dargestellt sind. Die einfachste Form des Messens erfolgt auf nominalem Niveau, das heißt, es existiert eine Klassifizierung der Untersuchungsobjekte dergestalt, dass man ihnen Kategorien bzw. Attribute zuordnet. Demnach sind Aussagen darüber zulässig, ob die Messwerte für zwei Untersuchungsobjekte identisch sind oder nicht. Für die einzelnen Merkmalsausprägungen qualitativer Merkmale lassen sich dann absolute und relative Häufigkeiten berechnen; die Beziehungen zwischen nominalskalierten Merkmalen können mit Hilfe geeigneter Kontingenzkoeffizienten errechnet werden (vgl. Kapitel 4.4.3.1 Korrespondenzanalyse). Typische Beispiele für die Messung auf nominalem Niveau sind die Merkmale »Geschlecht« mit den beiden Ausprägungen »männlich« und »weiblich« sowie »Familienstand« mit den Ausprägungen »ledig«, »verheiratet«, »verwitwet« und »geschieden«. Im Rahmen einer Messung auf ordinalem Niveau ist es möglich, die Untersuchungsobjekte hinsichtlich der vorliegenden Messwerte in eine Reihenfolge zu bringen, ohne dass jedoch Aussagen über deren Abstände getroffen werden können. Ein Beispiel für eine Messung mittels Ordinalskala ist die Bildung einer Reihenfolge verschiedener Werbespots für eine Marke nach abnehmender Beliebtheit durch die Beworbenen. Der Rang eines Werbespots ist in diesem Zusammenhang als dessen Ausprägung bezüglich der Eigenschaft »Beliebtheit« zu verstehen. Befindet sich etwa der Werbespot A auf dem ersten und der Werbespot B auf dem zweiten Rang, dann ist A bei den Beworbenen beliebter als B. Wie groß der Unterschied zwischen A und B bezüglich der Beliebtheit ist, kann mittels Ordinalskala jedoch nicht erfasst werden. Aus der Praxis 4-9 Ermittlung der Einstellung gegenüber Einkaufsstätten Für welche Einkaufsstätte sich die Konsumenten in ihrem Wohnort entscheiden, wenn sie ihren Wochenendeinkauf erledigen wollen, hängt entscheidend von ihrer Einstellung gegenüber den konkurrierenden Einkaufsalternativen ab. Bei der Einstellung von Konsumenten gegen- über einer Einkaufsstätte handelt es sich jedoch um ein Konstrukt, das sich zwar exakt definieren lässt, jedoch nicht direkt beobachtbar ist (zum Konstrukt »Einstellung« vgl. auch Kapitel 3.2.1.4). Folglich benötigt die Marktforschung in diesem Fall empirisch erfassbare bzw. wahrnehmbare Eigenschaften, so genannte Indikatoren, die eine zuverlässige Messung der Einstellung der Konsumenten gegenüber einer Einkaufsstätte ermöglichen. Als Indikatoren eignen sich hier diejenigen Eigenschaften, welche die Konsumenten heranziehen, um ihre Einstellung gegenüber einer Einkaufsstätte zu bilden (z. B. Erreichbarkeit, Preisniveau, Auswahl, Wartezeit an der Kasse etc.). So lässt sich beispielsweise der Indikator »Wartezeit an der Kasse« durch folgende Fragestellung operationalisieren: »In welchem Maße trifft die folgende Aussage zu: ›In der Einkaufsstätte X gibt es keine Wartezeit an der Kasse.‹« Die Befragten müssen eine von vier vorgegebenen Antwortmöglichkeiten (Ausprägungen) auswählen (»trifft voll und ganz zu« = 4; »trifft teilweise zu« = 3; »trifft teilweise nicht zu« = 2; »trifft überhaupt nicht zu« = 1). Den Ausprägungen jedes ausgewählten Indikators für die interessierende Eigenschaft »Einstellung« werden also Zahlen so zugeordnet, dass eine größere Zahl mit einer stärkeren Ausprägung des Indikators korrespondiert. In der konkreten Befragungssituation muss jeder Proband für alle vorab ausgewählten Indikatoren die von ihm wahrgenommenen Ausprägungen angeben. Die Einstellung eines Konsumenten gegenüber der Einkaufsstätte X lässt sich dann beispielsweise dadurch ermitteln, dass die mit den Ausprägungen korrespondierenden Zahlen addiert werden. 15-09-17 11:02:54 -o.mangold- o.mangold 133 4.2Entscheidungsprobleme im Rahmen der Datenerhebung Aufgrund ihrer mathematischen Eigenschaften bezeichnet man Messungen mit Hilfe nominaler und ordinaler Skalen auch als nichtmetrisch. Demgegenüber gestatten Intervallund Verhältnisskalen metrische Messungen. Eine Intervallskala weist gleichgroße Abstände zwischen den Skalenabschnitten auf, sodass die Unterschiede zwischen zwei Messwerten quantifiziert werden können. Intervallskalen können einen willkürlich gewählten Nullpunkt aufweisen, und die gewonnenen Messwerte lassen sich addieren und subtrahieren. Typisch für intervallskalierte Merkmale sind Messungen der Temperatur und des Intelligenzquotienten. Im Rahmen der intervallskalierten Messung nicht direkt beobachtbarer empirischer Phänomene wie etwa Einstellungen, Motive oder Kaufwahrscheinlichkeiten gelangen Rating-Skalen zweifellos am häufigsten zur Anwendung. Die Auskunftspersonen erhalten die Aufgabe, die Untersuchungsobjekte (z. B. Produkte, Einkaufsstätten) hinsichtlich der interessierenden Merkmale auf einer mehrere Stufen umfassenden Skala zu beurteilen. Die Abstände zwischen den Merkmalsausprägungen werden dabei verbal, numerisch und/oder grafisch unterstützt, um die Einstufung zu erleichtern. Die Abbildung 4-13 enthält einige Beispiele für praxisrelevante Ratingskalen. Das höchste Messniveau stellt die Verhältnisskala dar, die sich von der Intervallskala dadurch unterscheidet, dass sie einen natürlichen Nullpunkt aufweist. Ein »echter« Nullpunkt bedeutet, dass das Merkmal bei einer Ausprägung von Null nicht mehr vorhanden ist. Demgegen- über wird der Nullpunkt einer Intervallskala willkürlich gewählt, sodass Divisionen keinen Sinn machen. Merkmale, die auf der Basis einer Verhältnisskala gemessen werden können, sind beispielsweise der Preis, der Distributionsgrad und der Marktanteil eines Produktes. Auf die mittels einer Verhältnisskala gewonnenen Messwerte sind alle Rechenoperationen anwendbar. Spätestens dann, wenn aus den vorliegenden Messergebnissen Schlussfolgerungen für die Marketingplanung gezogen werden sollen, stellt sich die Frage nach der Messgenauigkeit, das heißt nach der Qualität der vorhandenen Daten. Eine Messung muss objektiv, zuverlässig Objektivität, Reliabilität und Validität sind wichtige Gütekriterien für eine Messung. Abb. 4-12 Messniveaus und ihre Eigenschaften Skala Mathematische Eigenschaften der Messwerte Beschreibung der Eigenschaften Definiert ist zusätzlich Zulässige Transformationen Beispiel ← ⎯ Zu na hm e de s In fo rm at io ns ge ha lt es ← ⎯ N ic ht -m et ri sc he D at en Nominal A = A ≠ B Klassifikation: Die Rangwerte zweier Untersuchungseinheiten sind identisch oder nicht Äquivalenzrelation eindeutig, Umbenennung Mittelwert: Modus zweiklassig: Geschlecht mehrklassig: Postleitzahlen Ordinal A > B > C Rangordnung: Messwerte lassen sich auf einer Messdimension als kleiner/größer/gleich einordnen Ordnungsrelation streng monoton steigend Mittelwert: + Median Präferenz- und Urteilsdaten, Windstärke (Beaufort) M et ri sc he D at en Intervall A > B > C und A – B = B – C Rangordnung und Abstandsbestimmung: Abstände sind angebbar äquidistante Skalenpunkte linear y = ax + b Mittelwert: + arithmet. Mittel Intelligenzquotient, Temperatur (Celsius) Ratio (Verhältnis) A = x ⋅ B absoluter Nullpunkt: Neben Abstandsbestimmung auch Messwertverhältnis berechenbar natürlicher Nullpunkt proportional y = ax Mittelwert: + geometr. Mittel Alter, Jahresumsatz (Quelle: in Anlehnung an Berekoven et al., 2009, S. 65; Meffert et al., 2015, S. 143; Wirtz/Nachtigall, 2012, S. 56) 15-09-17 11:02:54 -o.mangold- o.mangold 134 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung und genau sein (vgl. Berekoven et al., 2009, S. 80 ff.; Bortz/Schuster, 2010, S. 8 ff.). Diese Gütekriterien der Messung sollen im Folgenden etwas näher betrachtet werden. Objektivität einer Messung bedeutet, dass die Messwerte frei von subjektiven Einflüssen sind. Verschiedene Personen, die unabhängig voneinander den gleichen empirischen Sachverhalt messen, müssen zu identischen Ergebnissen gelangen. Sollen beispielsweise die Interviewer im Rahmen einer Befragung das Gewicht der Auskunftspersonen einschätzen und einer der drei Kategorien »Übergewicht«, »Normalgewicht« oder »Idealgewicht« zuordnen, handelt es sich nicht um eine objektive Messung, da die Bewertungssysteme der Interviewer zweifellos variieren. Um eine objektive Messung zu gewährleisten, sollten die Interviewer die Erfassung des Gewichts der Probanden folglich mittels einer Waage durchführen. Die Reliabilität (Zuverlässigkeit) einer Messung ist gewährleistet, wenn bei wiederholter Messung des gleichen Sachverhalts identische Messwerte erzielt werden. Deshalb sind reliable SP myBook McDonald’s Markencheck – Sensorische Beurteilung von Nahrungsund Genussmittelmarken mit gravierenden Mängeln bezüglich Objektivität, Reliabilität und Validität sp-mb.de/qr/mark/378 Messungen auch frei von Zufallsfehlern. Soll beispielsweise in einem Produkttest der Geschmack eines neuen Fruchtjoghurts durch potenzielle Verwender beurteilt werden, ist die Messung nicht reliabel, wenn die Verzehrtemperatur des Produktes von Proband zu Proband schwankt, weil die Joghurtproben unterschiedlich lange außerhalb des Kühlschranks gelagert wurden. Der Zufallsfehler ist folglich groß, da das Akzeptanzurteil entscheidend von der Verzehrtemperatur abhängt, diese jedoch zufällig schwankt. Eine Messung kann in diesem Fall folglich nur dann reliabel sein, wenn sichergestellt wird, dass alle Probanden den neuen Joghurt unter konstanten Bedingungen verkosten (das heißt einheitliche, vorab festgelegte Verzehrtemperatur). Um die Reliabilität zu überprüfen, können unter anderem die Resultate mehrerer zeitlich aufeinanderfolgender Messungen der Merkmalsausprägungen eines Untersuchungsobjekts mit demselben Messinstrument verglichen werden (Test-Retest-Reliabilität). Die Validität einer Messung (Gültigkeit) ist gewährleistet, wenn genau der empirische Sachver- Abb. 4-13 Beispiele für die Anwendung von Rating-Skalen in der Marktforschungspraxis - (Quelle: in Anlehnung an Berekoven et al., 2009, S. 69; Esch et al., 2013, S. 106) 15-09-17 11:02:54 -o.mangold- o.mangold 135 4.2Entscheidungsprobleme im Rahmen der Datenerhebung halt gemessen wird, den der Forscher zu messen beansprucht. Im Gegensatz zur Reliabilität, die sich auf unsystematische bzw. zufällige Fehler des Messinstruments bezieht, gibt die Validität Auskunft über das Vorhandensein systematischer Fehler. Bezogen auf das oben skizzierte Beispiel ist es denkbar, dass alle Proben einen unangenehmen, leicht säuerlichen Geschmack aufweisen, weil das Mindesthaltbarkeitsdatum der Proben erheblich überschritten ist. Bei jeder Messung wird die Probe folglich schlechter bewertet, als bei einer Messung mit sensorisch einwandfreien Proben. Es handelt sich hier also um einen systematischen Fehler, der das Ergebnis bei jeder Messung in eine bestimmte Richtung verzerrt (Aus der Praxis 4-10). 4.2.3 Auswahlverfahren Eine wichtige Entscheidung, die vor der Durchführung jeder primären Marktforschungsuntersuchung getroffen werden muss, ist die Auswahl der geeigneten Erhebungseinheiten. Welcher Personenkreis befragt bzw. beobachtet werden soll, richtet sich nach den benötigten Informationen, die wiederum von den konkreten Erhebungszielen abhängen. Die Gesamtheit aller Elemente, über die bestimmte Informationen beschafft werden sollen, bezeichnet man als Grundgesamtheit. Wird tatsächlich jedes Element der Grundgesamtheit für die geplante Untersuchung berücksichtigt, dann handelt es sich um eine Vollerhebung (Zensus). Aus organisatorischen, zeitlichen und finanziellen Gründen eignet sich eine Vollerhebung nur in wenigen Fällen. Sie ist dann sinnvoll, wenn die interessierende Grundgesamtheit relativ klein und bezüglich der zu messenden Merkmale heterogen strukturiert ist (Hammann/Erichson, 2000, S. 125 ff.; Meffert et al., 2015, S. 144). Insbesondere im Bereich der Investitionsgüterindustrie beliefern viele Unternehmen nur eine überschaubare Anzahl von Abnehmern, die sich hinsichtlich ihrer Leistungsprogramme und der damit verbundenen Anforderungen jedoch deutlich unterscheiden können. In solchen Fällen bietet sich eine Vollerhebung an, um beispielsweise das Erfolgspotenzial neuer Produkte durch eine Befragung von Kunden zu ermitteln (Aus der Praxis 4-11). Vollerhebungen sind außerdem zur Beschaffung von Daten für amtliche Statistiken erforderlich (z. B. Volkszählung, Arbeitsstättenzählung). In der Marktforschung für Konsumgüter und Dienstleistungen hat man es im Allgemeinen mit großen Grundgesamtheiten zu tun. Deshalb beschränken sich die meisten Primärforschungen auf die Untersuchung eines Teils der Grundgesamtheit. Ziel einer solchen preiswerten und Vollerhebungen sind nur unter bestimmten Voraussetzungen möglich. Teilerhebungen liefern Rückschlüsse auf die Grundgesamtheit. Aus der Praxis 4-10 Zusammenhang zwischen den Gütekriterien Das folgende anschauliche Praxisbeispiel verdeutlicht abschließend, dass Objektivität, Reliabilität und Validität nicht unabhängig voneinander betrachtet werden können, sondern in einem engen Zusammenhang stehen (Berekoven et al., 2009, S. 83): Ein Altwarenhändler handelt mit Metallen. Um das Gewicht zu ermitteln, benutzt er eine alte verrostete Waage. Das Skalenblatt der Waage ist schon beschädigt, manche Skalenstriche sind überhaupt nicht mehr vorhanden. Außerdem befindet sich in der Nähe ein starker Elektromagnet. Die Schrottwaage ist kein objektives Messinstrument, denn beim Ablesen der Skala ist soviel Augenmaß und Ermessen notwendig, dass zwei Schrotthändler, die die Skala unabhängig voneinander ablesen würden, zu unterschiedlichen Messwerten kämen. Auch ist die Schrottwaage kein reliables Messinstrument, denn selbst wenn das Skalenblatt repariert wird, würden bei Messwiederholungen unterschiedliche Messwerte zustande kommen. Dies liegt daran, dass die Waage verrostet ist, und daher keine exakten Messwerte zulässt. Selbst wenn die alte Schrottwaage durch eine neue ersetzt würde, kämen keine validen Messwerte zustande, da das Gewicht der gewogenen Metalle durch den in der Nähe stehenden Elektromagneten verfälscht wird. Es besteht somit folgender Zusammenhang zwischen den Gütekriterien: Objektivität ist Voraussetzung für Reliabilität, diese wiederum für die Validität eines Messinstrumentes. 15-09-17 11:02:54 -o.mangold- o.mangold 136 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung von Elementen aus der Grundgesamtheit. Eine Stichprobe ist repräsentativ, wenn sie in der Verteilung aller interessierenden Merkmale exakt der Grundgesamtheit entspricht (Aus der Praxis 4-12). Wird eine Teilerhebung durchgeführt, ist ein geeigneter Auswahlplan zu erstellen, der die folgenden Schritte umfasst (vgl. Böhler, 2004, S. 132 ff.): Definition der Grundgesamtheit (z. B. männliche Personen, die älter sind als 24 Jahre und in den neuen Bundesländern leben) Bestimmung der Auswahlbasis (Verzeichnisse der Wohnbevölkerung, Adressen- und Branchenverzeichnisse, Telefonbücher, Kundendatenbanken usw.) Festlegung des Stichprobenumfangs (Berücksichtigung von Kosten, Zeit, Stichprobenfehler usw.) Entscheidung bezüglich des Auswahlverfahrens (z. B. Quotenauswahl, Zufallsauswahl) Durchführung der Auswahl der Erhebungseinheiten. In der Marktforschungspraxis kommt eine Vielzahl unterschiedlicher Auswahlverfahren zum Einsatz. Welches Verfahren am besten dazu geeignet ist, den bestehenden Informationsbedarf über eine Teilerhebung zu decken, muss unter sachrelevanten und kostenbezogen Gesichtspunkten entschieden werden. Die Abbildung 4-14 gibt einen Überblick über die verschiedenen Verfahren der zufälligen und der nicht zufälligen bzw. bewussten Stichprobenauswahl. Diese Verfahren werden im Folgenden näher beleuchtet. 4.2.3.1 Verfahren der Zufallsauswahl Bei der Zufallsauswahl (»random sampling«) besitzt jedes Element der Grundgesamtheit eine berechenbare, von Null verschiedene Wahrscheinlichkeit, in die Auswahl zu gelangen. Da die Erhebungseinheiten nicht nach subjektivem Ermessen, sondern durch einen Zufallsmechanismus bestimmt werden, lässt sich der Stichproben- bzw. Zufallsfehler statistisch berechnen (Aus der Wissenschaft 4-1). Mit zunehmender Anzahl der Erhebungseinheiten steigt die Wahrscheinlichkeit, dass die Stichprobe in ihrer Zusammensetzung der Grundgesamtheit entspricht. Jedes Element der Grundgesamtheit besitzt bei der Zufallsauswahl die gleiche Wahrscheinlichkeit in die Stichprobe zu gelangen. zeitsparenden Teilerhebung ist es, aufgrund von Aussagen über bestimmte, nach sachrelevanten Kriterien ausgewählte Erhebungseinheiten auch Aussagen über die Grundgesamtheit treffen zu können. Ein solcher Rückschluss ist jedoch nur dann zulässig, wenn das Ergebnis der Teilerhebung möglichst exakt die Verhältnisse in der Grundgesamtheit widerspiegelt. Unter einer Stichprobe versteht man demnach die nach einem bestimmten Verfahren erfolgende Auswahl einer begrenzten Anzahl Aus der Praxis 4-11 Vollerhebung Ein mittelständischer Anbieter von Hardwareund Software-Lösungen für die Bürokommunikation stellt fest, dass der Umsatz bei den bestehenden Kunden in den letzten zwei Jahren um jeweils fünf Prozent gesunken ist. Die Entscheidungsträger vermuten, dass diese negative Entwicklung auf eine Abnahme der Kundenzufriedenheit (zu diesem Konstrukt vgl. Kapitel 3.2.1.4) zurückzuführen ist, wofür sie wiederum den in der Vergangenheit durchgeführten Personalabbau im Servicebereich und die zunehmende Konkurrenz durch preisaggressive Discounter verantwortlich machen. Um diese Annahme zu überprüfen, wird ein Marktforschungsinstitut damit beauftragt, die Zufriedenheit der bestehenden Kunden mit den Leistungen des Anbieters mittels telefonischer Befragung zu ermitteln. »Bestehende Kunden« werden definiert als Abnehmer, mit denen das Unternehmen in den letzten zwei Jahren einen bestimmten Mindestumsatz und eine bestimmte Mindestanzahl von Aufträgen realisiert hat. Aus der Kundendatenbank geht hervor, dass gemäß dieser Definition insgesamt 315 Kunden zu berücksichtigen sind (Grundgesamtheit). Da diese Kunden unterschiedliche Produkte und Dienstleistungen nachfragen und sich somit in ihren Anforderungen an das Unternehmen erheblich unterscheiden, beschließt das Unternehmen, alle Erhebungseinheiten bei der geplanten telefonischen Befragung zu berücksichtigen (Vollerhebung). 15-09-17 11:02:54 -o.mangold- o.mangold 137 4.2Entscheidungsprobleme im Rahmen der Datenerhebung Als Vorteile einer zufälligen Auswahl der Erhebungseinheiten lässt sich zum einen die Berechenbarkeit des Zufallsfehlers anführen. Zum anderen werden Verzerrungen durch die subjektive Auswahl der Auskunftspersonen vermieden. Nachteilig wirken sich die hohen Kosten für die Planung und Durchführung der zufälligen Auswahl aus. Ferner dürfen einmal ausgewählte Untersuchungseinheiten nicht nachträglich durch andere ersetzt werden, da sonst die Berechnung des Zufallsfehlers nicht mehr möglich ist. Dieses Problem darf nicht unterschätzt werden, da es häufig vorkommt, dass ausgewählte Personen nicht erreicht werden können oder keine Auskunft geben wollen (»non response«- Problem). Abb. 4-14 Überblick über wichtige Auswahlverfahren Vollerhebung Teilerhebung Festlegung des Auswahlverfahrens Zufallsauswahlnicht zufällige, bewusste Auswahl Definition der Grundgesamtheit einfache Zufallsauswahl geschichtete Zufallsauswahl Klumpenauswahl mehrstufige Auswahl Quotenverfahren Konzentrationsverfahren Auswahl aufs Geratewohl (Quelle: in Anlehnung an Hammann/Erichson, 2000, S. 133) Aus der Praxis 4-12 Beispiel für die Bildung einer repräsentativen Stichprobe Ein international tätiger Anbieter von Tiefkühlprodukten beabsichtigt, eine neue Tiefkühlpizza auf dem bundesdeutschen Markt einzuführen. Zu diesem Zweck möchte er sich ein Bild über die Nutzenerwartungen der deutschen Verwender von Tiefkühlpizza verschaffen. In diesem Fall bilden alle Deutschen, die (definitionsgemäß) mindestens einmal pro Monat eine Tiefkühlpizza verzehren, die Grundgesamtheit. Eine Vollerhebung ist aus Kostenund Zeitgründen jedoch nicht sinnvoll. Außerdem liegt kein geeignetes Verzeichnis aller bundesdeutschen Pizzaverwender vor. Verfügbare Paneldaten (vgl. hierzu Kapitel 4.3.3.2) liefern jedoch wertvolle Informationen, beispielsweise über die Verteilung der Merkmale »Einkommen«, »Alter« und »Verwendungsintensität« in der Grundgesamtheit. Das Unternehmen entscheidet sich dazu, 500 Erhebungseinheiten auszuwählen und diese nach ihren Nutzenerwartungen bei Tiefkühlpizza zu befragen. Es wird sichergestellt, dass die Stichprobe repräsentativ ist, indem die Verteilung der oben genannten Merkmale (z. B. Einkommensklassen) in der Stichprobe exakt der Verteilung dieser Merkmale in der Grundgesamtheit entspricht. 15-09-17 11:02:54 -o.mangold- o.mangold 138 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung Berechnung des Stichprobenfehlers Bei einer Teilerhebung schließt man von der Ausprägung eines Merkmals, das in der Stichprobe erhoben wurde, auf die entsprechende Ausprägung dieses Merkmals in der Grundgesamtheit (z. B. Anteil der Konsumenten, die Marke X verwenden). Eine solche »Hochrechnung« weicht jedoch mehr oder weniger stark von der »wahren« Ausprägung des interessierenden Merkmals in der Grundgesamtheit ab. Diese »wahre« Ausprägung lässt sich über eine Vollerhebung ermitteln, die aber nur in Ausnahmefällen möglich bzw. sinnvoll ist. Der so genannte Stichprobenfehler, der auch als Zufallsfehler oder maximale Fehlermarge bezeichnet wird, gibt die zufällige Abweichung der Ausprägung eines Merkmals in der Stichprobe von der »wahren« Ausprägung des Merkmals in der Grundgesamtheit an. Der Stichprobenfehler wird wie folgt berechnet: e = Stichprobenfehler, das heißt der Schwankungsbereich (±) in Prozent um den gemessenen Stichprobenwert, in dem der »wahre« Wert (in der Grundgesamtheit) mit einer bestimmten Wahrscheinlichkeit liegt. t = Kennziffer für die vorgegebene Sicherheit des Rückschlusses von der Stichprobe auf die Grundgesamtheit (die Wahl von t bestimmt das Signifikanzniveau). Die folgende Tabelle zeigt, bei welcher Größe von t der »wahre« Wert des Merkmals mit welcher Wahrscheinlichkeit innerhalb des Intervalls p ± e liegt. p = Anteil der Personen in der Grundgesamtheit, die ein bestimmtes Merkmal aufweisen (z. B. Anteil der Verwender der Marke X). q = Anteil der Personen in der Grundgesamtheit, die ein bestimmtes Merkmal nicht aufweisen (z. B. Anteil der Nichtverwender der Marke X). Das Produkt p · q – und damit auch der Stichprobenfehler – ist bei gegebenem Stichprobenumfang am größten, wenn p einen Wert von 50 aufweist. Dieser in Bezug auf den Stichprobenfehler ungünstigste Wert wird immer dann angenommen, wenn p nicht bekannt ist. n = Stichprobengröße t-Wert Vertrauenswahrscheinlichkeit (Signifikanzniveau) (in %) 1 68,3 1,96 95,0 2 95,5 3 99,7 3,29 99,9 p q n e t Beispiel: Bei einer Stichprobengröße von n = 400 und der Annahme, dass p = 50 Prozent ist, beträgt der Stichprobenfehler ± 5 Prozent, wenn t = 2 gewählt wird. Demnach liegt der »wahre« Wert von p, das heißt der Anteil der Verwender der Marke X in der Grundgesamtheit, mit einer Wahrscheinlichkeit von 95,5 Prozent (t = 2) zwischen 45 und 55 Prozent (vgl. Ter Hofte-Fankhauser/Wälty, 2013, S. 50 f.) Das errechnete Intervall wird auch als Konfidenzintervall des Anteilswertes p bezeichnet. Wie die Abbildung 4-15 zeigt, hängt die Größe des Stichprobenfehlers bei gegebenem Signifikanzniveau einerseits vom Umfang der Stichprobe und andererseits vom Wert p ab. Abb. 4-15: Stichprobenfehler ±e in Prozent in Abhängigkeit von der Stichprobengröße n und der Verteilung von p und q ebenfalls in Prozent (Signifikanzniveau: 95,5 Prozent; t=2) Die Berechnung des Stichprobenfehlers und des Konfidenzintervalls ist streng genommen nur gestattet, wenn folgende Voraussetzung erfüllt ist: n · p · q ≥ 9 (Bortz, 2005, S. 104f). Sie ist im vorliegenden Beispiel gegeben, da gilt: 400 · 0,5 · 0,5 = 100. Der Stichprobenfehler kann nicht nur für prozentuale Verteilungen sondern auch für Stichprobenmittelwerte von metrischen Daten berechnet werden (vgl. z. B. Homburg, 2015, S. 300 f.). Stichprobengröße n p q 50 50 45 55 40 60 35 65 30 70 25 75 20 80 … … … … … … … … … … … 100 10,0 9,9 9,8 9,5 9,2 8,7 8,0 … 200 7,1 7,0 6,9 6,7 6,5 6,1 5,7 … 300 5,8 5,7 5,7 5,5 5,3 5,0 4,6 … 400 5,0 5.0 4,9 4,8 4,6 4,3 4,0 … 500 4,5 4,4 4,4 4,3 4,1 3,9 3,6 … 600 4,1 4,1 4,0 3,9 3,7 3,5 3,3 … 700 3,8 3,8 3,7 3,6 3,5 3,3 3,0 … 800 3,5 3,5 3,5 3,4 3,2 3,1 2,8 … 900 3,3 3,3 3,3 3,2 3,1 2,9 2,7 … 1000 3,2 3,1 3,1 3,0 2,9 2,7 2,5 … … … … … … … … … … Au s de r W is se ns ch af t 4- 1 15-09-17 11:02:54 -o.mangold- o.mangold 139 4.2Entscheidungsprobleme im Rahmen der Datenerhebung Folgende Verfahren der Zufallsauswahl lassen sich unterscheiden (vgl. ausführlich dazu Berekoven et al., 2009, S. 46 ff.; Böhler, 2004, S. 139 ff.; Hammann/Erichson, 2000, S. 137 ff.; Hüttner/Schwarting, 2002, S. 126 ff.): Bei der einfachen bzw. uneingeschränkten Zufallsauswahl besitzt jedes Element der Grundgesamtheit die gleiche Wahrscheinlichkeit, in die Auswahl zu gelangen (so genanntes »Urnenmodell«). Voraussetzung für diese Vorgehensweise ist zumindest die symbolische Vollständigkeit der Grundgesamtheit (z. B. als Kartei). In der Marktforschungspraxis existiert eine Vielzahl alternativer Auswahltechniken; hierunter fallen z. B. Zufallszahlentabellen oder Zufallsgeneratoren, mit deren Hilfe die einzelnen Elemente der Stichprobe unmittelbar aus der Grundgesamtheit gezogen werden können. Die einfache Zufallsauswahl weist jedoch folgende Nachteile auf: Liegen umfangreiche Grundgesamtheiten vor, ist es sehr umständlich und teuer, alle Einheiten aufzulisten, um hieraus eine Zufallsauswahl vorzunehmen. Ferner fehlt es häufig an brauchbaren Auswahlgrundlagen (z. B. Adressenlisten). Viele Merkmale (z. B. Umsätze von Handelsbetrieben) weisen in der Grundgesamtheit eine große Varianz auf, sodass auch die ermittelten Messwerte sehr stark streuen. Aussagen mit geringer Fehlerspanne können dann nur durch einen hohen Stichprobenumfang gewährleistet werden. Unter solchen Umständen bieten sich zwei Sonderformen der zufälligen Auswahl an: Insbesondere bei heterogenen Grundgesamtheiten, die sich aus relativ homogenen Teilgruppen zusammensetzen, kommt die geschichtete Zufallsauswahl (»stratified sampling«) zum Einsatz. Hier wird die Grundgesamtheit in mehrere, sich gegenseitig ausschließende Untergruppen (Schichten) aufgeteilt, aus denen dann jeweils eine eigene Stichprobe nach dem Zufallsprinzip gezogen wird. Soll beispielsweise für die Bundesbürger der durchschnittliche Alkoholkonsum pro Tag ermittelt werden, dann erscheint eine Schichtung nach dem Geschlecht sinnvoll, da sich der Alkoholkonsum von Männern und Frauen deutlich unterscheidet. Aus jeder Schicht wird anschließend eine einfache Zufallsauswahl vorgenommen. Bei der so genannten Klumpenauswahl (»cluster sampling«) wird die Grundgesamtheit in Wichtige Verfahren der Zufallsauswahl sind die einfache und geschichtete Zufallsauswahl sowie die Klumpenauswahl. sich gegenseitig ausschließende Gruppen von Erhebungseinheiten eingeteilt und dann per Zufallsauswahl eine bestimmte Anzahl dieser »Klumpen« gezogen. Demnach werden die Untersuchungseinheiten nicht einzeln ausgewählt, sondern jeweils in Gruppen. Möchte etwa die Stadtverwaltung wissen, wie die Bürger den öffentlichen Personennahverkehr beurteilen, kann sie nicht auf eine Liste derjenigen Personen zurückgreifen, die regelmä- ßig den Bus benutzen. Sie verfügt jedoch über eine Liste aller in der Stadt lebenden Haushalte (»Klumpen«). Aus dieser Liste wird eine Zufallsauswahl bezüglich der Haushalte vorgenommen. In den ausgewählten Haushalten werden dann alle Busbenutzer befragt. Vielfach bildet eine Landkarte oder ein Stadtplan die Grundlage der Klumpenauswahl, weshalb diese Vorgehensweise auch als Flächenstichprobenverfahren bezeichnet wird. Die Gruppen der Erhebungseinheiten werden geografisch, z. B. als Planquadrate eines Stadtplans, Häuserblocks, Wahlbezirks usw., definiert. Die Klumpenauswahl bietet sich insbesondere dann an, wenn man nicht über eine vollständige Liste der Erhebungseinheiten verfügt bzw. die vorliegende Liste veraltet ist. Ferner erweist sich dieses Verfahren in der Regel als wesentlich ökonomischer als die reine Zufallsauswahl, da Wegekosten und Zeitaufwand aufgrund der Befragung aller Untersuchungseinheiten eines Klumpens wesentlich geringer ausfallen. Nachteilig kann sich die Klumpenbildung auf den Stichprobenfehler auswirken, da die Klumpen (z. B. Wohnblöcke) in sich, das heißt in Bezug auf den Untersuchungsgegenstand, in der Regel homogener sind als eine zu erwartende Zufallsauswahl und demnach die Grundgesamtheit nicht genau repräsentieren. Dieses Problem wird als Klumpeneffekt bezeichnet und kann die Untersuchungsergebnisse erheblich verzerren. 4.2.3.2 Verfahren der bewussten Auswahl Diese Vorgehensweise verzichtet auf die Chancengleichheit aller Elemente der Grundgesamtheit, in die Stichprobe zu gelangen. Die Auswahl erfolgt hier gezielt und überlegt nach sachrelevanten Merkmalen, wobei der Marktforscher ebenfalls das Ziel verfolgt, die Stichprobe so 15-09-17 11:02:54 -o.mangold- o.mangold 140 4.2 MarktforschungEntscheidungsprobleme im Rahmen der Datenerhebung festzulegen, dass sie im Hinblick auf die relevanten Merkmale als repräsentativ für die Grundgesamtheit gilt. Folgende Verfahren lassen sich unterscheiden: Bei der Quotenauswahl wird die Stichprobe analog zur Verteilung eines oder mehrerer relevanter Merkmale der Grundgesamtheit gebildet. In der Praxis beschränkt man sich dabei auf einige wenige Merkmale, deren Verteilung in der Grundgesamtheit bekannt ist und von denen man weiß oder annimmt, dass sie für den Untersuchungsgegenstand eine ausschlaggebende Rolle spielen. Jedoch nur dann, wenn wenige Merkmale und Merkmalsausprägungen ausge- SP myBook Screening-Fragebogen zur Realisierung einer vorab definierten Stichprobe sp-mb.de/qr/mark/427 Die bewusste Auswahl erfolgt nach sachrelevanten Merkmalen zu Lasten der Chancengleichheit aller Elemente, in die Grundgesamtheit zu gelangen. wählt werden, können die geeigneten Personen mit einem vertretbaren Kosten- und Zeitaufwand gefunden werden. Die Auswahl der Quotenmerkmale und ihrer Ausprägungen führt dazu, dass konkrete Vorgaben gemacht werden, nach denen das Erhebungspersonal die entsprechenden Auskunftspersonen auszuwählen hat. Eine solche Quotenanweisung enthält die Anzahl der Erhebungseinheiten, die Quotenmerkmale und die Quoten pro Merkmalsausprägung. Die Abbildung 4-16 enthält ein typisches Beispiel für eine einfache Quotenanweisung, in der die Merkmalsausprägungen jeder ausgewählten Erhebungseinheit vermerkt werden. Bei korrekter Durchführung der Erhebung entspricht die Stichprobe folglich in allen Quotierungsmerkmalen der Zusammensetzung der Grundgesamtheit. Einfache Quotenanweisungen sind jedoch mit dem Problem verbunden, dass die einzuhaltenden Quoten für jedes Merkmal getrennt aufgeführt sind, was zu Verzerrungen in den Ergebnissen führen kann (Böhler, 2004, S. 137). Bezogen auf das Beispiel, das in der Abbildung 4-16 dargestellt ist, wäre es folglich möglich, dass die vier ausgewählten Erhebungseinheiten, die der Altersklasse zwischen 30 bis 39 Jahren angehören, alle weiblich sind und die Marke B verwenden. Um dieses Problem zu vermeiden, kommen in der Marktforschungspraxis vor allem kombinierte Quotenanweisungen zum Einsatz. Bezogen auf das obige Beispiel liegen drei Quotenmerkmale mit zwei bzw. drei unterschiedlichen Ausprägungen vor, sodass sich insgesamt 12 Untergruppen bilden lassen. Für jede Untergruppe ist deren relative Häufigkeit in der Grundgesamtheit zu ermitteln und die Stichprobe auf der Grundlage dieser Informationen zu quotieren. Das Beispiel verdeutlicht jedoch auch, dass kombinierte Quotenanweisungen nur für wenige Merkmale und Merkmalsausprägungen erstellt werden können, da andernfalls die Anzahl der Untergruppen so groß wird, dass die Suche nach geeigneten Erhebungseinheiten zu teuer bzw. zu zeitaufwändig wird. Für das Quotenverfahren spricht die kostengünstige und schnelle Handhabung, insbesondere in denjenigen Fällen, in denen eine Zufallsauswahl nicht oder nur mit unverhältnismäßig hohem Aufwand eingesetzt werden kann. Zu Verzer- Abb. 4-16 Beispiel für eine einfache Quotenanweisung Gesamtanzahl der Erhebungseinheiten = 20 Quotenmerkmal Ausprägungen des Quotenmerkmals Anzahl der Auskunftspersonen Alter 16 bis 19 O O O O O O O O 20 bis 29 O O O O O O O O 30 bis 39 O O O O Geschlecht männlich O O O O O O O O O O weiblich O O O O O O O O O O Markenverwendung Marke A O O O O O O O O Marke B O O O O O O O O O O O O Abb. 4-17 Beispiel für eine kombinierte Quotenanweisung Alter Geschlecht Markenverwendung Marke A Marke B 16 bis 19 männlich 2 3 weiblich 1 2 20 bis 29 männlich 1 2 weiblich 2 3 30 bis 39 männlich 1 1 weiblich 1 1 15-09-17 11:02:54 -o.mangold- o.mangold 141 4.3Methoden der Primärforschung rungen kann es jedoch kommen, weil der Interviewer die Auskunftspersonen unter Berücksichtigung der Quotierungsmerkmale selbst aussucht. Ferner ist eine mathematisch-statistische Berechnung des Stichprobenfehlers nicht möglich. Beim Konzentrations- oder Abschneideverfahren (»cut off sampling«) werden diejenigen Teile der Grundgesamtheit von der Erhebung ausgeklammert, die für das Untersuchungsziel keine oder nur geringe Bedeutung haben. Dieses Verfahren bietet sich an, wenn einem Teil der Untersuchungsobjekte ein sehr hoher Erklärungsbeitrag für den zu untersuchenden Sachverhalt in der Grundgesamtheit zugemessen wird. So kann es beispielsweise sinnvoll sein, dass ein Hersteller von Tiefkühlkost ausschließlich umsatzstarke Betriebe des Lebensmitteleinzelhandels befragt, da die Einbeziehung kleinerer Betriebe keine zusätzlichen Erkenntnisse 4.3 Methoden der Primärforschung Zur Beschaffung originärer Daten stehen grundsätzlich zwei Erhebungsmethoden zur Verfügung: die Befragung und die Beobachtung von Zielpersonen. Bei einem Experiment handelt sich um eine spezielle Versuchsanordnung, die auf einer Befragung oder Beobachtung beruht, weshalb einige Autoren auch zwischen experimentellen und nicht-experimentellen Befragungs- bzw. Beobachtungsformen unterscheiden (vgl. z. B. Hüttner/Schwarting, 2002, S. 68). Aufgrund seiner spezifischen Eigenschaften wird das Experiment gesondert im Kapitel 4.3.3.1 behandelt. Eine weitere Variante der Primärforschung ist die Panelerhebung. Sie beruht ebenfalls auf einer speziellen Form der Befragung bzw. Beobachtung und wird im Kapitel 4.3.3.2 näher beleuchtet. 4.3.1 Befragung Die Befragung ist zweifellos die wichtigste und am häufigsten eingesetzte Erhebungsmethode im Rahmen der Primärforschung, weshalb die mit ihrer Planung verbundenen Entscheidungstatbe- Befragung: aktive Mitwirkung der Auskunftsperson bringt oder die zusätzlichen Informationen in keinem Verhältnis zu den zusätzlichen Kosten stehen. Bei der Auswahl aufs Geratewohl werden die Erhebungseinheiten nach freiem Ermessen des Forschers ausgewählt. Dieses Willkürprinzip, das fälschlicherweise häufig der Zufallsauswahl zugeordnet wird, kann jedoch nicht sicherstellen, dass alle Elemente der Grundgesamtheit die gleiche Chance haben, in die Stichprobe zu gelangen (Pepels, 2012, S. 235). Vielmehr kommt es dadurch zu Verzerrungen, dass für eine empirische Untersuchung ausschließlich oder überwiegend solche Probanden berücksichtigt werden, die besonders leicht für die Teilnahme zu gewinnen sind. Das gilt beispielsweise für Personen, die nur teilnehmen, weil sie an der Aufwandsentschädigung interessiert sind. stände an dieser Stelle etwas ausführlicher dargestellt werden sollen. Eine Befragung erfordert die aktive Mitwirkung der Auskunftspersonen und eignet sich insbesondere dazu, nicht beobachtbare, im Kopf der Probanden gespeicherte Sachverhalte (z. B. die Einstellung gegenüber einem Produkt) offenzulegen. Als Befragung bezeichnet man im Allgemein eine Datenerhebungsmethode, bei der die Auskunftspersonen zu Äußerungen bezüglich bestimmter, vom Forscher vorgegebener Sachverhalte aufgefordert werden. Die Entscheidung, Informationen mit Hilfe einer Befragung zu beschaffen, legt nur die grundsätzliche Vorgehensweise im Rahmen der Datenerhebung fest. Die konkrete Ausprägung einer Befragung ergibt sich erst aus der Art und Kombination einzelner Befragungselemente. Die wichtigsten Gestaltungsmöglichkeiten von Befragungen lassen sich mit Hilfe verschiedener Einteilungskriterien strukturieren, die im Folgenden näher erläutert werden sollen (vgl. Esch et al., 2013, S. 106; Böhler, 2004, S. 85). Die Abbildung 4-18 liefert ein Überblick über die verschiedenen Erscheinungsformen von Befragungen. 15-09-17 11:02:54 -o.mangold- o.mangold 142 4.3 MarktforschungMethoden der Primärforschung 4.3.1.1 Art der Kommunikation mit dem Befragten Das wohl wichtigste Einteilungskriterium ist die Art der Kontaktaufnahme mit den Auskunftspersonen. Jede Vorgehensweise ist durch ganz bestimmte Merkmale gekennzeichnet und weist spezifische Vor- und Nachteile auf, wobei die Vorteile einer Befragungsart häufig mit den Nachteilen einer anderen gleichgesetzt werden können. Mündliche Befragungen sind gekennzeichnet durch die persönliche Kommunikation zwischen dem Interviewer und der Auskunftsperson und lassen sich weiter in persönliche und telefonische Befragungen unterteilen. Mündliche Befragungen werden am häufigsten in standardisierter Form im Rahmen von Verbraucherbefragungen durchgeführt, das heißt, der Interviewer ist an die Formulierung und Reihenfolge der Fragen fest gebunden. Der Interviewer übernimmt in einer persönlichen Befragung (»face to face«-Interview) die Aufgabe, die Fragen zu stellen und die Antworten des Probanden zu notieren. Derartige Befragungen werden in der Regel in einem Teststudio, im Haushalt des Befragten oder an stark frequentierten öffentlichen Plätzen (z. B. Fußgängerzone, Einkaufszentrum) durchgeführt. Grundlage traditioneller mündlicher Befragungen ist folglich ein Fragebogen, weshalb man in diesem Zusammenhang von »paper and pencil«- Befragungen spricht. Bei der computergestützten Form der mündlichen Befragung, die man auch als CAPI bezeichnet (»Computer Assisted Personal Interview«), werden die Fragen auf dem Bildschirm präsentiert, und die Antworten lassen sich direkt über die Computertastatur, Maus- Mündliche Befragung als persönliche oder telefonische Kommunikation Persönliche Befragung durch Interviewer: »Paper and Pencil« oder computergestützt klicks oder Berührungen der Bildschirmoberfläche (»Touchscreen«) in das System eingeben. Der grundlegende Vorteil aller computergestützten Befragungsformen beruht darauf, dass nach Abschluss des Interviews keine Dateneingabe auf der Grundlage von Fragebögen mehr nötig ist. Außerdem lässt sich der Ablauf einer computergestützten Befragung bezüglich der Reihenfolge bzw. der Auswahl der von der Testperson zu beantwortenden Fragen durch intelligente Softwarelösungen sehr flexibel gestalten. Schließlich besteht die Möglichkeit, multimediale Elemente in den Befragungsablauf einzubauen (z. B. Bilder, Videoclips, Animationen, Töne), wodurch komplexe Sachverhalte besser erläutert und die Motivation der Teilnehmer erhöht werden können (vgl. hierzu Abbildung 4-19). Persönliche Befragungen weisen verschiedene Vorteile auf: Identität und nötige Konzentration der Auskunftsperson lassen sich vom Interviewer im Allgemeinen leicht überprüfen. Außerdem steht er mit näheren Erläuterungen zur Verfügung, wenn Verständnisprobleme auftreten, wobei die Vergleichbarkeit der Antworten jedoch nicht gefährdet werden darf. Die Beantwortung bestimmter Fragen kann durch geeignete Hilfsmittel (z. B. optische Vorlagen, Verpackungsmuster) unterstützt werden. Persönliche Interviews können auch umfangreicher als schriftliche sein, da die Auskunftspersonen durch die persönliche Kommunikation in der Regel nicht so schnell ermüden. Außerdem hat der Interviewer die Möglichkeit, auftretenden Ermüdungserscheinungen gezielt entgegenzutreten (z. B. durch kurze Unterbrechung). Schließlich kann der Interviewer durch entsprechende Anweisungen die Reihenfolge der Fragen und die Beantwortungszeit gemäß den Vorgaben genau steuern. Die Nachteile eines persönlichen Interviews lassen sich zum einen auf die Verzerrungseffekte durch die spezifische Kommunikationssituation zurückführen (Interviewer-Bias). Der persönliche Kontakt zwischen der Auskunftsperson und dem Interviewer führt oft zur Beeinflussung der Antworten (Meffert et al., 2015, S. 150; Hammann/Erichson, 2000, S. 99). Beispielsweise ist es möglich, dass eine weibliche Versuchsperson gegenüber einem männlichen Interviewer nicht so unbefangen über ihre Haarpflegeprobleme spricht wie gegenüber einer Interviewerin. Die Abb. 4-18 Strukturierung unterschiedlicher Befragungen Einteilungskriterium Erscheinungsformen Art der Kommunikation mündlich (persönlich/telefonisch) schriftlich (offline/online) Grad der Standardisierung (Befragungsstrategie) quantitativ (hoher Grad der Standardisierung) qualitativ (geringer Grad der Standardisierung) Art der Fragestellung (Befragungstaktik) direkte/indirekte Fragen offene/geschlossene Fragen 15-09-17 11:02:54 -o.mangold- o.mangold 143 4.3Methoden der Primärforschung Auskunftsperson will einen »netten« bzw. »sympathischen« Interviewer nicht enttäuschen und gibt Gefälligkeitsantworten. Die Durchführung einer persönlichen Befragung ist zum anderen aufgrund des benötigten Erhebungspersonals mit erheblichen Kosten verbunden. Neben den reinen Personalkosten für die Durchführung der mündlichen Befragung müssen die Kontaktkosten (z. B. Anfahrtszeiten, vergebliche Versuche der Kontaktaufnahme mit den Auskunftspersonen) berücksichtigt werden. Die zweite Form des persönlichen Interviews ist die telefonische Befragung. Sie ist dadurch gekennzeichnet, dass der Interviewer die Auskunftspersonen anruft und bittet, auf Fragen zum interessierenden Sachverhalt zu antworten. Aufgrund der nahezu vollständigen Verbreitung von Festnetz- und/oder Mobilfunkanschlüssen in Unternehmen und Haushalten tritt die Gefahr der mangelnden Repräsentanz der Auskunftspersonen heute in den Hintergrund. Analog zur persönlichen Befragung ist die computergestützte Form der telefonischen Befragung ebenfalls von großer Bedeutung, die als CATI (Computer Assisted Telephone Interview) bezeichnet Telefonische Befragung erfolgt durch Interviewer. wird. Entsprechende Softwareprogramme unterstützen den am Bildschirm sitzenden Interviewer unter anderem dadurch, dass die Telefonnummern sowie die Ersatznummern bei Fehlversuchen automatisch ausgewählt und alle Fragen (inklusive Filterführungen, Fragenrotationen etc.) am Bildschirm nacheinander dargestellt werden (Berekoven et al., 2009, S. 103 f.). Ein wesentlicher Vorteil telefonischer Befragungen ist zweifellos die kostengünstige und zeitsparende Kontaktaufnahme (wenige Interviewer, keine Wegekosten, mehrere Kontaktversuche in kurzer Zeit). Sind die Auskunftspersonen zu Hause, nehmen sie in der Regel auch in ungünstigen Momenten eher den Hörer ab, als dass sie einem Interviewer die Tür öffnen oder ihn in der Innenstadt in ein Teststudio begleiten. Außerdem belegen empirische Untersuchungen, dass viele Befragte am Telefon eine größere Auskunftsbereitschaft zeigen und ehrlichere Antworten als bei einem mündlichen Interview geben, weil sie die Kommunikationssituation eher als anonym empfinden. Diesen positiven Aspekten der telefonischen Befragung stehen folgende Nachteile gegenüber: Abb. 4-19 Beispiel für den Einsatz multimedialer Stimuli im Rahmen einer computergestützten Befragung 15-09-17 11:02:54 -o.mangold- o.mangold 144 4.3 MarktforschungMethoden der Primärforschung Die Auswahlgrundlagen, das heißt Verzeichnisse mit Telefonnummern, auf die sich offline oder online zugreifen lässt, sind nicht vollständig; Neueintragungen fehlen, manche Telefonnummern sind mehrfach eingetragen und Teilnehmer mit Geheimnummern sind nicht erreichbar. Ferner kann die Marktforschung wegen der besonderen Kommunikationssituation Hilfsmittel wie Bildmaterial, unterstützende Skalen oder Listen nicht einsetzen. Aufgrund der rein akustischen Reizübermittlung müssen sich die Auskunftspersonen stark konzentrieren, wodurch telefonische Interviews vergleichsweise kurz und einfach gestaltet sein müssen. Fühlt sich der Befragte belästigt oder überfordert, kann er das Telefongespräch durch Auflegen des Hörers problemlos beenden. Die Auskunftsbereitschaft am Telefon wird schließlich auch dadurch beeinträchtigt, dass eine zweifelsfreie Legitimation des anrufenden Interviewers nicht möglich ist. Bei einer schriftlichen Befragung erhalten die Auskunftspersonen in der Regel per Post, per Fax oder E-Mail einen Fragebogen zugeschickt, den sie innerhalb einer vorgegebenen Zeitspanne ausfüllen und an die Institution zurücksenden sollen, welche die Feldarbeit durchführt. Auch in Zeitschriften, Warenverpackungen etc. befinden sich manchmal Fragebögen, die von den Konsumenten ausgefüllt und an die angegebene Adresse gesendet werden sollen (Böhler, 2004, S. 92). Die Kommunikation zwischen Fragesteller und Befragtem erfolgt also ausschließlich über den Fragebogen. Schriftliche Befragungen werden insbesondere im Business to Business-Marketing relativ häufig durchgeführt. Die umfangreichste schriftliche Befragung in der Bundesrepublik Deutschland ist die Volkszählung, bei der die Bürger zur Auskunft gesetzlich verpflichtet sind. Bei der letzten Volkszählung in Deutschland, dem Zensus 2011, erhielten unter anderem alle Eigentümer eines Wohnhauses oder einer Eigentumswohnung per Post einen Fragebogen des zuständigen Statistischen Landesamtes. Erstmals bestand auch die Möglichkeit, diesen Fragebogen online auszufüllen. Dazu mussten die Befragten auf der entsprechenden Internetseite ihre Fragebogennummer sowie einen Aktivierungscode eingeben (vgl. www.zensus2011.de). Schriftliche Befragung als Kommunikation per Post, E-Mail oder Internet Schriftliche Befragungen weisen die folgenden Vorteile auf (Dannenberg/Barthel, 2002, S. 147): Sie sind trotz der anfallenden Versandkosten vergleichsweise preiswert, da ein großes räumliches Befragungsgebiet ohne den Einsatz von Interviewern abgedeckt werden kann. Auch schwer erreichbare Auskunftspersonen (z. B. Schichtarbeiter) können auf dem Postweg in den Besitz des Fragebogens gelangen. Die Auskunftspersonen haben zu Hause genügend Zeit, die einzelnen Fragen sorgfältig zu bearbeiten. Schließlich sind Einflüsse ausgeschlossen, die durch die Anwesenheit eines Interviewers hervorgerufen werden könnten (z. B. falsche Antworten auf intime Fragen). Diesen Vorteilen der schriftlichen Befragung steht jedoch eine Reihe von Nachteilen gegen- über, die auf Repräsentanz- und Kommunikationsprobleme zurückzuführen sind: Die Rücklaufquoten schwanken je nach Grundgesamtheit bzw. Untersuchungsgegenstand, liegen in der Regel jedoch nur zwischen 10 bis 30 Prozent und sind damit deutlich geringer als bei den übrigen Kommunikationsarten (Kühn/Kreuzer, 2006, S. 61). Dadurch kann die Repräsentanz der gewählten Stichprobe gefährdet sein. Es ist jedoch möglich, die Rücklaufquote durch gezielte Maßnahmen zu erhöhen, z. B. durch vorherige telefonische Ankündigung der schriftlichen Befragung oder durch Auslosung von Preisen unter den Beantwortern (Diekmann, 2007, S. 519 f.). Bei der Bearbeitung des Fragebogens können Missverständnisse auftreten, weil schwer verständliche Fragen bzw. Anweisungen nicht zusätzlich erläutert werden können. Genaue Anweisungen, gegebenenfalls mit Antwortbeispielen, erhöhen wiederum den Umfang des Fragebogens, sodass die Antwortbereitschaft der Auskunftspersonen unter Umständen abnimmt. Schließlich lässt sich nicht nachprüfen, zu welchem Zeitpunkt und unter welchen Rahmenbedingungen (z. B. unkonzentriertes Ausfüllen während einer spannenden Fernsehsendung) die Beantwortung erfolgt. Fraglich bleibt auch, ob die angeschriebenen Auskunftspersonen den Fragebogen tatsächlich selbst ausfüllen. Zudem besteht die Gefahr, dass die Fragen nicht in der vorgesehenen Reihenfolge beantwortet werden. Bei schriftlichen Befragungen von Führungskräften im Rahmen der Investitionsgütermarktforschung besteht häufig das 15-09-17 11:02:54 -o.mangold- o.mangold 145 4.3Methoden der Primärforschung Problem, dass die Zielpersonen die Beantwortung der Fragebögen aus Zeitmangel an Mitarbeiter delegieren, die über den interessierenden Sachverhalt nur bedingt Auskunft erteilen können. Aufgrund der schnellen weltweiten Verbreitung des Internets als Kommunikations- und Interaktionskanal haben Online-Befragungen in den letzten Jahren erheblich an Bedeutung gewonnen. Sie können als Sonderform der schriftlichen Befragung aufgefasst werden, da der Teilnehmer die gestellten Fragen alleine, das heißt ohne Unterstützung eines Interviewers, an sei- Online-Befragungen gewinnen zunehmend an Bedeutung. Abb. 4-20 Beispiel für die Durchführung von Online-Befragungen mit Hilfe eines Online-Access-Panels (Quelle: www.myonlinepanel.de) 15-09-17 11:02:54 -o.mangold- o.mangold 146 4.3 MarktforschungMethoden der Primärforschung Abb. 4-21 Vor- und Nachteile verschiedener Befragungsformen mündliche Befragung schriftliche Befragung persönlich telefonisch offline online traditionell Interviewer mit Fragebogen Fragebogen per Post Online-Befragung computergestützt Computer Assisted Personal Interview (CAPI) Computer Assisted Telephone Interview (CATI) Elektronischer Fragebogen per E-Mail Vorteile Reduktion der Verweigerungsquote durch geschultes Verhalten des Interviewers hohe Rücklaufquote und dadurch hohe Repräsentativität Fragebogenumfang und -inhalt kaum eingeschränkt Befragungssituation weitgehend kontrollierbar Frageformen und Reihenfolge bestmöglich einsetzbar Möglichkeit für Rückfragen und zusätzliche Verdeutlichungen Verwendung von optischen Hilfsmitteln möglich (Bilder und Produktmuster) zusätzliche Erfassung von nonverbalen Reaktionen Verzweigungen im Fragebogen durch Interviewer realisierbar (Filterführung) zeitliche Flexibilität: sehr kurzfristig einsetzbar, Durchführung nicht tageszeitabhängig, Abbruchmöglichkeit mit späterer Fortsetzung zeitnahe Verfügbarkeit der Ergebnisse relative Kostengünstigkeit Möglichkeit für Rückfragen und zusätzliche Verdeutlichungen Abdeckung eines großen räumlichen Gebietes (große Fallzahlen erreichbar) keine Beeinflussung durch Interviewer möglich relative Kostengünstigkeit – wenn Interesse seitens der Befragten vorhanden ist und dadurch eine hohe Rücklaufquote erwartet wird Möglichkeit der Befragten in Ruhe über eine Antwort nachzudenken hohe Reichweite; Ansprache einer Vielzahl von Befragten (auch international) schnelle Kontaktierung und dadurch schnelle Erzielbarkeit großer Fallzahlen (Zeitvorteil) automatische Erfassung der Daten und zeitnahe Ergebnisse relativ geringe Kosten keine Beeinflussung durch Interviewer möglich Filterführungen möglich Nachteile erheblicher Zeitaufwand dadurch relativ hohe Kosten der Durchführung hoher Grad der Beeinflussbarkeit durch Interviewer möglich dadurch Verzerrung der Ergebnisse aufgrund der sozialen Interaktion und der Befragungssituation geringe Auskunftsbereitschaft durch Anonymität des Interviewers und fehlenden Sichtkontakt Beeinflussung durch Interviewer möglich keine Erfassung von nonverbalen Reaktionen keine Verwendung von optischen Hilfsmitteln möglich schwierige telefonische Erreichbarkeit bestimmter Befragungsgruppen Rücklauf geringer durch Gesprächsabbruch der Befragten (Auflegen) nur Personen erreichbar deren Adresse bekannt ist relativ geringe Rücklaufquoten ( 20 Prozent) keine Kontrolle der Befragungssituation – Antwortverzerrung aufgrund der Anonymität – keine Rückfragen möglich daraus resultierende Gefahr der mangelnden Repräsentativität keine Kontrolle der Reihenfolge der Fragenbeantwortung sowie des situativen Umfelds und dessen Beeinflussung Filterführungen nur bedingt möglich Fragenumfang ist limitiert Rücklaufquoten unter Umständen gering oftmals unzureichende Informationen über die Grundgesamtheit Repräsentativität unter Umständen eingeschränkt – Gefahr der Verzerrung durch Selbstselektion der Teilnehmer keine Kontrolle der Befragungssituation – Antwortverzerrung aufgrund der Anonymität – keine Rückfragen möglich (Quelle: in Anlehnung an Esch et al., 2013, S. 110; Meffert et al., 2015, S. 150) 15-09-17 11:02:54 -o.mangold- o.mangold 147 4.3Methoden der Primärforschung nem Computer beantwortet (»self administered survey«) (Theobald et al., 2003, S. 9). Online- Befragungen weisen alle oben genannten Vorteile computergestützter Erhebungsformen auf, ihre Besonderheit besteht jedoch darin, dass der Internet-Nutzer auf den Fragebogen zugreift, indem er eine bestimmte Seite im World Wide Web aufruft (Decker, 2001, S. 80). Teilnehmer für Online-Befragungen werden beispielsweise durch Werbung im Internet bzw. in den klassischen Werbemedien oder durch entsprechende Einträge in Suchmaschinen gewonnen. Diese Form der Rekrutierung ist jedoch problematisch, weil die Grundgesamtheit unbekannt bleibt und aufgrund der Selbstselektion der Teilnehmer keine Repräsentanz der Stichprobe realisiert werden kann. Deshalb haben sich in der Marktforschungspraxis so genannte Online-Access-Panels durchgesetzt. Dabei handelt es sich jeweils um eine Gruppe von registrierten Personen, die sich bereit erklärt haben, wiederholt an Online-Befragungen teilzunehmen (Götz, 2003, S. 228). Geeignete Teilnehmer werden per E-Mail eingeladen und gelangen zu dem Fragebogen, indem Sie ein Kennwort oder einen personalisierten Link verwenden (Kühn/Kreuzer, 2006, S. 111). Die Abbildung 4-20 enthält ein Beispiel für ein Marktforschungsunternehmen, welches Befragungen mit Hilfe eines Online-Access-Panels durchführt. Aufgrund der oben skizzierten Vor- und Nachteile lässt sich die Effizienz einer Befragung durch Kombinationen bestimmter Kommunikationsformen erhöhen. Hierzu zählen z. B. die telefonische Verabredung eines mündlichen Interviews bzw. die telefonische Gewinnung der Auskunftspersonen für die Beantwortung eines anschließend per Post verschickten Fragebogens (Aaker et al., 2013, S. 208 f.). Die Abbildung 4-21 enthält eine abschließende Gegenüberstellung der Vor- und Nachteile der verschiedenen Arten der Kommunikation mit den Auskunftspersonen. 4.3.1.2 Grad der Standardisierung einer Befragung – quantitative und qualitative Interviews Liegen Reihenfolge, Anzahl und Formulierung der Fragen sowie die Antwortmöglichkeiten fest, handelt es sich um eine quantitative Befragung. Aufgrund des hohen Standardisie- Online-Access-Panels erhöhen die Qualität der Stichprobe. Quantitative Befragung: Erfassung von Sachverhalten durch hohe Standardisierung des Interviews rungsgrads lassen sich große repräsentative Stichproben und differenzierte statistische Auswertungen realisieren (Esch et al., 2013, S. 106). Quantitative Befragungen sind in der Marktforschung weit verbreitet und kommen vor allem zur Erfassung von Sachverhalten zum Einsatz, die durch einfache, eindeutige Fragen und leicht unterscheidbare Antwortkategorien abgedeckt werden können. Dazu zählen etwa demografische Merkmale der Befragten (z. B. Geschlecht, Alter, Einkommen) sowie Informationen über deren Kauf- und Konsumverhalten (z. B. Marken- und Einkaufsstättenwahl) (Kühn/Kreuzer, 2006, S. 43). Vorteile quantitativer Befragungen sind die Vollständigkeit und gute Vergleichbarkeit der Antworten, die leichte Quantifizierbarkeit der Ergebnisse sowie die hohe Zuverlässigkeit (Reliabilität) der Antworten aufgrund des vergleichsweise geringen Interviewereinflusses. Gravierender Nachteil ist die zum Teil geringe Gültigkeit (Validität) der mit Hilfe geschlossener Fragen gewonnenen Informationen (vgl. hierzu Kapitel 4.3.1.3). Es besteht die Gefahr, dass standardisierte Fragestellungen bzw. Antwortmöglichkeiten der tatsächlichen Situation des Befragten nicht gerecht werden, sodass der Marktforscher unvollständige oder sogar falsche Antworten erhält (Böhler, 2004, S. 87). Ist die Entscheidung gefallen, eine quantitative Befragung durchzuführen, muss ein geeigneter Fragebogen entwickelt werden, der die Grundlage eines jeden standardisierten Interviews bildet. Hinsichtlich der Strukturierung eines Fragebogens lassen sich vier Fragetypen Der Fragebogen bildet die Grundlage für ein standardisiertes Interview. Abb. 4-22 Inhaltliche Strukturierung eines Fragebogens Art der Fragen Zielsetzung (1) Kontaktfragen Abbau von Misstrauen, Motivierung für die folgenden Fragen (2) Sachfragen Direkter Bezug zum Untersuchungsgegenstand, Hauptteil der Befragung (3) Kontrollfragen Überprüfung der Antworten auf Konsistenz, Kontrolle der Interviewer (4) Fragen zur Person Erfassung relevanter Merkmale der Befragten (z. B. Alter, Einkommen, Familienstand) 15-09-17 11:02:54 -o.mangold- o.mangold 148 4.3 MarktforschungMethoden der Primärforschung unterscheiden, die in der Abbildung 4-22 dargestellt sind (Schäfer/Knoblich, 1978, S. 292; Koch, 2012, S. 61). Die Bereitschaft der Auskunftspersonen zur Beantwortung der vorbereiteten Fragen hängt entscheidend von der Dauer des Interviews ab. Der maximale Umfang eines Fragebogens kann nicht grundsätzlich festgelegt werden, er wird vielmehr von der Kommunikationsform, vom Schwierigkeitsgrad der Fragen, der Gestaltung des Fragebogens und dem Interesse der Testpersonen am zu untersuchenden Sachverhalt beeinflusst. Während eine Befragung von Verbrauchern in der Regel eine Zeitdauer von 30 bis 60 Minuten nicht überschreiten sollte, nehmen Expertenbefragungen, insbesondere bei der Verwendung offener Fragen, manchmal mehrere Stunden in Anspruch. Die für eine Auskunftsperson gerade noch erträgliche Dauer eines Interviews richtet sich außerdem nicht nach der objektiv messbaren, sondern nach der subjektiv empfundenen Zeitdauer, die vor allem vom Involvement der Befragten in Bezug auf den Gegenstand der Befragung abhängt (vgl. Kapitel 3.2.1.1). Einfluss auf die Qualität der Ergebnisse der Befragung hat auch die sprachliche Gestaltung der einzelnen Fragen. Unangemessene Formulierungen beeinträchtigen die Aussagefähigkeit der Antworten. Grundsätzlich sollten die Fragen einfach gestellt sein, das heißt, dass das verwendete Vokabular den Auskunftspersonen verständlich bzw. geläufig sein muss. Damit die Fragen von allen Befragten in gleicher Weise interpretiert werden, ist ferner auf eine eindeutige und präzise Formulierung zu achten (Aus der Praxis 4-13). Die Fragen müssen außerdem neutral konstruiert sein, sodass die Auskunftspersonen bei ihrer Antwort nicht beeinflusst werden. Insbesondere suggestiv gestellte Fragen führen dazu, dass der Befragte einer bestimmten Antwort kaum ausweichen kann. Manche Formulierungen fordern die Auskunftspersonen geradezu heraus, bestimmten Aussagen (z. B. auf Grund sozialer Erwünschtheit) zuzustimmen: »Sind Sie nicht auch der Meinung, dass zum Wohl von Eltern und Kindern Süßwaren nicht mehr in den Kassenzonen des Lebensmitteleinzelhandels platziert werden sollten?« Schließlich ist darauf zu achten, dass die Fragen beantwortbar sind. Nur in denjenigen Fällen, in denen die Auskunftspersonen über die nötige Sachkenntnis bezüglich des Untersuchungsgegenstands verfügen, sind ihre Antworten auch interpretierbar. »Exklusive Parfums sind vor allem deshalb so teuer, weil die Hersteller viel Geld in die Werbung stecken.« Um diese Aussage sachgerecht mit »ja« oder »nein« beantworten zu können, müssen die Auskunftspersonen über spezielle Kenntnisse der Herstellungsund Marketingkosten im Produktbereich der Parfums verfügen. Derartige Fragen können jedoch dann sinnvoll sein, wenn lediglich die subjektive Meinung der Befragten ermittelt werden soll. Sollen Marktforschungsprobleme strukturiert bzw. präzisiert und Hypothesen formuliert werden, bieten sich qualitative Befragungen an, die ohne Fragebogen auskommen und folglich einen niedrigen Standardisierungsgrad aufweisen (vgl. Buber/Klein, 2009). Häufig wird für Qualitative Befragung: Erfassung von tiefer gehenden Informationen durch sehr geringe Standardisierung (Interviewleitfaden) Aus der Praxis 4-13 Präzise formulierte Fragestellungen »Handelt es sich bei dem neuen VW Golf um ein wirtschaftliches und sicheres Fahrzeug?« Diese Frage, für deren Beantwortung die Befragten den Grad ihrer Zustimmung anhand einer siebenstufigen Ratingskala (1 = »stimme überhaupt nicht zu« / 7 = »stimme voll und ganz zu«) angeben müssen, enthält eine mehrdeutige bzw. mehrdimensionale Formulierung. Erstens muss damit gerechnet werden, dass ein Teil der Auskunftspersonen den VW Golf als sicher, jedoch nicht als wirtschaftlich einschätzt (oder umgekehrt). Zweitens ist insbesondere das Merkmal »Wirtschaftlichkeit« nicht präzise genug formuliert (Operationalisierungsproblem). Einige Testpersonen könnten darunter den Anschaffungspreis sowie Ausgaben für Steuern und Versicherungen verstehen, andere den Benzinverbrauch oder die Kosten für Wartung und Reparaturen. Folglich kann der Informationsbedarf hier nur gedeckt werden, wenn die Meinung der Befragten zu dem interessierenden Sachverhalt durch mehrere präziser formulierte Fragen ermittelt wird. 15-09-17 11:02:54 -o.mangold- o.mangold 149 4.3Methoden der Primärforschung eine qualitative Befragung nur ein thematischer Leitfaden erstellt, während man auf standardisierte Vorgaben bewusst verzichtet. Folglich sind den Antwortmöglichkeiten und Ausdrucksformen der Gesprächspartner nahezu keine Grenzen gesetzt. Durch diese Vorgehensweise wird ein tieferer Informationsgehalt der Ergebnisse erreicht. Interaktionen zwischen Interviewer und Befragten werden im Gegensatz zu quantitativen Befragungen nicht als Verzerrungen betrachtet, sondern bieten die Möglichkeit, Hintergründe zu erfragen und Unklarheiten zu beseitigen. Um die Befragten in der Artikulation ihrer Gedanken möglichst wenig einzuschränken, ist eine natürliche Kommunikationssituation von entscheidender Bedeutung. Durch die flexible Gesprächsführung kann auf neu auftretende problembezogene Aspekte jederzeit durch Erweiterung bzw. Abwandlung der zu stellenden Fragen reagiert werden, sodass sich der Interviewer flexibel an jede Untersuchungssituation anpassen kann (Kepper, 2008, S. 177). Ziel einer qualitativen Befragung ist es, die subjektive Sicht relevanter Gesprächspersonen abzubilden, um mögliche Ursachen für deren Verhalten besser verstehen zu können. Im Mittelpunkt derartiger Interviews stehen folglich die nicht beobachtbaren psychischen Prozesse, die sich im menschlichen Gehirn abspielen (zu aktivierenden und kognitiven Prozessen vgl. Kapitel 3.2). Es geht also nicht darum, bestimmte Sachverhalte exakt zu messen, sondern die aktivierenden und kognitiven Prozesse der Konsumenten darzustellen, zu beschreiben und zu verstehen. Neben der Ermittlung von Ursachen für konkretes Kauf- oder Konsumverhalten werden im Rahmen qualitativer Befragungen insbesondere die Motivationen und Bedürfnisse der Konsumenten analysiert, um Rückschlüsse auf den Grad der Bedürfnisbefriedigung bei bestimmten Produkten oder Dienstleistungen ziehen zu können (Salcher, 1995, S. 6 f.). In der Marktforschungspraxis kommen qualitative Befragungen vor allem im Rahmen explorativer Studien zum Einsatz, das heißt, wenn über das interessierende Problemfeld nur wenige Informationen vorliegen. Ebenfalls geeignet ist diese Befragungsstrategie für die Erstellung qualitativer Prognosen, also wenn das Datenmaterial für quantitative Prognosen fehlt. Schließlich spielen qualitative Interviews auch eine wichtige Rolle im Innovationsprozess, insbesondere im Zusammenhang mit der Gewinnung oder Bewertung von Ideen für neue Produkte (Kepper, 2008, S. 178). Der wesentliche Vorteil qualitativer, nicht standardisierter Befragungen beruht auf der grö- ßeren Aussagekraft der Antworten aufgrund der freien Gesprächsführung. Durch einen geschulten Interviewer können Sachverhalte aufgedeckt werden, die dem Befragten selbst vorher unbewusst waren. Die Anforderungen an die Qualifikation des Interviewers sind jedoch sehr hoch, da die Qualität der gewonnenen Informationen zum größten Teil von der Gesprächsführung abhängt. Aus den Ergebnissen qualitativer Befragungen lassen sich keine statistisch verwertbaren Informationen gewinnen. Außerdem sind die Datenerhebung und die Auswertung des Gesprächsverlaufs im Vergleich zur quantitativen Variante erheblich aufwändiger und damit teurer. Normalerweise werden neben Gesprächsprotokollen auch Audio- bzw. Videoaufzeichnungen gemacht, um eine lückenlose Abschrift des gesamten Interviews zu erstellen (»Transkription«). Schließlich bieten die Aufbereitung und Verdichtung der Ergebnisse eines qualitativen Interviews erhebliche Interpretationsspielräume. In der Marktforschung kommen insbesondere zwei qualitative Befragungsstrategien zum Einsatz, und zwar das psychologische Tiefeninterview und die Gruppendiskussion (vgl. Bohnsack/Przyborski, 2009). Das psychologische Tiefeninterview ist ein intensives Gespräch zwischen zwei Gesprächspartnern, mit dem das Ziel verfolgt wird, unbewusste, verborgene oder schwer zugängliche Motivationen, Bedürfnisse und Einstellungen des Befragten zu erfassen. Die offene und zwanglose Gesprächssituation wird von einem psychologisch geschulten Interviewer indirekt auf das interessierende Thema gelenkt, welches dann vertieft wird. Tiefeninterviews kommen in der Marktforschung vor allem zum Einsatz, um Ursachenforschung zu betreiben. Durch spezielle Interviewtechniken lassen sich Motivationsstrukturen und Sinnzusammenhänge zuverlässig aufdecken. So können beispielsweise die Gründe für geäußerte Meinungen oder Einstellungen zu bestimmten Produkten, Dienstleistungen oder ganzen Unternehmen aus dem Zusammenhang heraus erschlossen und so- SP myBook Konzeption eines Gesprächsleitfadens für eine qualitative Befragung sp-mb.de/qr/mark/428 Qualitative Befragung mittels Tiefeninterview oder Gruppendiskussion 15-09-17 11:02:54 -o.mangold- o.mangold 150 4.3 MarktforschungMethoden der Primärforschung mit Kaufentscheidungsprozesse transparenter gemacht werden (Kepper, 2008, S. 182 ff.). Die Gruppendiskussion ist die am weitesten verbreitete Methode der qualitativen Befragung. Hierbei handelt es sich um die gleichzeitige Befragung mehrerer Personen durch einen geschulten Moderator, wobei Interaktionen zwischen den Teilnehmern nicht nur gestattet, sondern ausdrücklich erwünscht sind. Neben dem Begriff »Gruppendiskussion« werden synonym auch die Begriffe »Gruppenexploration« und »Fokusgruppe« (»Focus Group«) verwendet. Durch die Schaffung einer möglichst alltagsnahen Kommunikationssituation gilt es, vorhandene Hemmungen, Ängste und Widerstände zu reduzieren und somit tiefer liegende Motive und Einstellungen sichtbar zu machen. Insbesondere die unmittelbare Reaktion anderer auf die eigenen Äußerungen regt dazu an, seine Gedanken zu vertiefen. Durch den gegenseitigen Austausch und die Konfrontation mit Wahrnehmungen, Meinungen und Ideen anderer Teilnehmer liefert eine Gruppendiskussion bessere Informationen als nacheinander durchgeführte Einzelinterviews (Salcher, 1995, S. 44 f.). Die Gruppendiskussion gilt in der Marktforschung als vielseitig und flexibel einsetzbare Methode, mit der sich schnell und einfach viele entscheidungs- und handlungsrelevante Strukturen von Personengruppen offenlegen lassen (Aus der Praxis 4-14). Einen wichtigen Beitrag leistet die Gruppendiskussion im Zusammenhang mit kreativen Prozessen. Im betrieblichen Innovationsprozess kommt sie sowohl in frühen Phasen, z. B. zur Ideengenerierung oder zur Konzeptüberprüfung, als auch in späteren Aus der Praxis 4-14 Gruppendiskussionen über moderne Kommunikationswege Aufgrund der schnellen weltweiten Verbreitung des Internets gewinnen Online-Gruppendiskussionen in der Marktforschungspraxis zunehmend an Bedeutung (Kepper, 2008, S. 194 ff.). Die traditionelle Gesprächssituation wird hierbei durch eine textbasierte Kommunikation ersetzt. Die Begrüßung, die Einführung in die Problemstellung und die eigentliche Diskussion werden vom Moderator und den Teilnehmern als Text an ihren Computern verfasst und auf einer Internet-Plattform ausgetauscht. Multimediale Stimuli, welche die Problemstellung verdeutlichen (z. B. Werbespots, Produktabbildungen), lassen sich problemlos in die Gesprächssituation integrieren. Online-Gruppendiskussionen stellen jedoch zusätzliche Anforderungen bezüglich der Formulierung der Gesprächsbeiträge und deren Eingabe über die Computer-Tastatur. Der Moderator muss schnell reagieren, um sich den verschiedenen Textbeiträgen gleichzeitig zu widmen und wichtige Aspekte des Problems zu vertiefen. Ein Vorteil von Online-Gruppendiskussionen besteht in der räumlichen Trennung der Teilnehmer durch die Schaffung eines virtuellen Diskussionsraumes. Schwer erreichbare, beruflich stark eingebundene und ortsgebundene Personen können als Teilnehmer gewonnen werden und folglich lassen sich Online-Gesprächsrunden schneller und kostengünstiger organisieren. Eine weitere Stärke ist die Anonymität der virtuellen Gesprächssituation, welche bei sensiblen Themen zu offeneren Antworten führt. Im Gegensatz zu einer ebenfalls anonymen schriftlichen Befragung ist hier ein begrenztes Maß an Interaktion möglich, die zu aussagekräftigeren Ergebnissen führt. Teilweise entstehen auch gruppendynamische Effekte, welche bei physischer Anwesenheit der Teilnehmer möglicherweise nicht oder nur abgeschwächt aufgetreten wären. Problematisch ist allerdings, dass sich die Online-Gruppendiskussionen von der traditionellen »face to face«-Variante im Hinblick auf die Kommunikationssituation erheblich unterscheidet. Durch den schriftlichen Austausch werden andere Wörter und Formulierungen verwendet (z. B. Abkürzungen). Außerdem fehlen alle für soziale Prozesse extrem wichtigen nonverbalen Interaktionen (z. B. Gestik, Mimik), sodass Kritiker davon ausgehen, dass sich echte gruppendynamische Prozesse im virtuellen Gesprächsraum nicht erzeugen lassen. 15-09-17 11:02:54 -o.mangold- o.mangold 151 4.3Methoden der Primärforschung Phasen, z. B. zur Bewertung erster Prototypen, zum Einsatz (zum Innovationsprozess vgl. Kapitel 6.5.2). Gruppendiskussionen weisen im Vergleich zu Einzelinterviews Zeit- und Kostenvorteile auf, da ein Moderator gleichzeitig die Daten mehrerer Personen in relativ kurzer Zeit erhebt. Im Gegensatz zu quantitativen Befragungen lassen sich durch Gruppendiskussionen realistische Meinungsbildungsprozesse abbilden, da die Gesprächssituation einer normalen Alltagssituation nahe kommt, in der Meinungen und Verhaltensweisen immer auch unter sozialem Einfluss stehen. Durch die Interaktion der Teilnehmer wird das Gespräch vielschichtiger und ganz neue Gesichtspunkte können gewonnen werden. Nachteilig kann sich auswirken, dass Gruppen dazu neigen, eine eigene Dynamik zu entwickeln. Negative Folgen sind Abschweifungen vom Thema, Festhalten an einzelnen Aspekten sowie Konsenszwang. Auch Teilnehmer, die das Gespräch stark dominieren bzw. die sich extrem passiv verhalten, können die Ergebnisse einer Gruppendiskussion beeinträchtigen. Deshalb sind die Kompetenz des Moderators und die Zusammensetzung der Gruppe von entscheidender Bedeutung für die Qualität der gewonnenen Informationen. Schließlich gibt es, wie bei allen qualitativen Befragungen, Spielräume bei der Auswertung bzw. Interpretation der erhobenen Informationen, und die gewonnenen Erkenntnisse lassen sich weder übertragen noch generalisieren (Uhe, 2002, S. 104). 4.3.1.3 Art der Fragestellung In Abhängigkeit davon, ob die Auskunftspersonen den hinter der Frage stehenden Sachverhalt unmittelbar erkennen können oder nicht, unterscheidet man zwischen direkten und indirekten Fragen. Mit direkten Fragen versucht man, den interessierenden Sachverhalt ohne Umschweife zu ermitteln, das heißt, die Auskunftspersonen durchschauen die Zielsetzung der gestellten Frage. Der Nachteil direkter Fragen beruht darauf, dass bei der Erfassung heikler bzw. tabuisierter Sachverhalte damit gerechnet werden muss, dass die Befragten falsche Antworten geben oder die Antwort sogar vollständig verweigern. So bleibt beispielsweise die wichtige Frage nach dem Nettoeinkommen der Testpersonen Direkte Fragen eignen sich für unproblematische, indirekte Fragen eher für sensible Themen. häufig unbeantwortet. Dieses Problem darf schon bei scheinbar unverfänglichen Sachverhalten nicht unterschätzt werden. Typische direkte Fragen sind: »Wie alt sind Sie? Wie oft sind Sie in diesem Monat mit Ihrem Auto zur Arbeit gefahren? Besitzen Sie einen Geschirrspüler?« Die mit der direkten Befragung verbundenen Probleme haben dazu geführt, dass in der Marktforschungspraxis auch indirekte Fragen zum Einsatz kommen. Hier werden die interessierenden Sachverhalte »auf Umwegen« ermittelt. Durch psychologisch geschickte Formulierungen veranlasst man die befragten Personen dazu, Auskünfte zu geben, die sie bei direkter Fragestellung verschweigen oder verzerrt wiedergeben würden. »Haben Sie schon den Film ›Der Baader-Meinhoff-Komplex‹ gesehen?« Auf diese Frage könnte eine Testperson, obwohl sie den Film noch nicht gesehen hat, mit »ja« antworten, weil sie Angst hat, vom Interviewer als ungebildet eingestuft zu werden. Indirekt formuliert könnte die Frage lauten: »Beabsichtigen Sie, in nächster Zeit den Film ›Der Baader-Meinhoff-Komplex‹ anzusehen.« Die Antwort »den Film habe ich bereits gesehen« gibt dann Aufschluss über den interessierenden Sachverhalt. Werden den Auskunftspersonen die Antwortkategorien vorgegeben, handelt es sich um geschlossene Fragen. Die Vorgabe bereits vorformulierter Antwortmöglichkeiten verringert die erforderliche Denk- bzw. Konzentrationsleistung der Befragten, und es werden keine besonderen Ansprüche an deren Ausdrucksvermögen gestellt. Auf diese Weise lässt sich die Auskunftsbereitschaft und -fähigkeit von Nichtexperten erhöhen. Die Verwendung geschlossener Fragen ist besonders zeitsparend, da die Antworten schnell erfasst und die Antwortkategorien für die spätere Datenauswertung einfach verschlüsselt werden können. Der Nachteil geschlossener Fragen beruht darauf, dass der Antwortspielraum der Auskunftspersonen künstlich eingeschränkt wird. Es besteht die Gefahr, dass relevante Antwortkategorien nicht sachgerecht formuliert oder aber schlicht vergessen werden. Um dieser Gefahr zu begegnen, kann man beispielsweise eine zusätzliche Antwortkategorie »Sonstiges« aufnehmen oder sich für offene Geschlossene Fragen erleichtern die Beantwortung und die Auswertung. 15-09-17 11:02:54 -o.mangold- o.mangold 152 4.3 MarktforschungMethoden der Primärforschung Fragen entscheiden. Abbildung 4-23 enthält eine typische Selektivfrage (»multiple-choice«- Frage) als eine Möglichkeit der Gestaltung geschlossener Fragen. Bei offenen Fragen müssen die Auskunftspersonen ihre Antwort auf die gestellte Frage selbst formulieren. Die Antwort wird dann im Rahmen der Datenauswertung bestimmten Kategorien zugeordnet. Offene Fragen bieten sich insbesondere dann an, wenn detaillierte Auskünfte von Experten eingeholt werden sollen Bei offenen Fragen können die Auskunftspersonen ihre Gedanken ohne Einschränkung zum Ausdruck bringen. oder wenn dem Marktforscher die für die Auskunftspersonen relevanten Antwortkategorien nicht hinreichend bekannt sind. Der wesentliche Vorteil offener Fragen besteht, wie oben bereits angesprochen, in der vollständigen Erfassung des interessierenden Sachverhalts. Die Auskunftspersonen können ihre Kenntnisse, Einstellungen usw. uneingeschränkt zum Ausdruck bringen (vgl. Abbildung 4-24). Verzerrungen durch fehlende bzw. die Vorgabe unangemessener Antwortkategorien lassen sich so vermeiden. Nachteile offener Fragen ergeben sich zum einen aus der Gefahr einer unvollständigen oder falschen Interpretation der Antworten durch den Interviewer. Zum anderen ist die nachträgliche Einordnung der Antworten in bestimmte Kategorien als Voraussetzung für eine quantitative Auswertung häufig sehr schwierig und zeitaufwändig. Um diese Nachteile auszuräumen, kommt deshalb in der Marktforschungspraxis häufig die so genannte Feldverschlüsselung zum Einsatz. Hier wird der Auskunftsperson zwar eine offene Frage gestellt, mögliche Antwortkategorien sind jedoch im Fragebogen bereits enthalten, sodass der Interviewer nur noch die entsprechende(n) Antwort(en) zuordnen muss. Die Feldverschlüsselung kommt beispielsweise im Rahmen der Ermittlung der ungestützten Bekanntheit von Produkten, Dienstleistungen oder Unternehmen zum Einsatz. Der Auskunftsperson wird etwa folgende Frage gestellt: »Denken Sie einmal an DVD-Rekorder! Welche Marken fallen Ihnen dann spontan ein?« Im Fragebogen sind die bekanntesten Namen bereits aufgeführt, außerdem wird eine Kategorie »Sonstige« aufgenommen, um auch weniger bekannte Marken, die genannt werden, erfassen zu können. 4.3.2 Beobachtung Neben der Befragung ist die Beobachtung die zweite grundlegende Methode der Primärforschung. Sie gelangt in der Marktforschungspraxis jedoch vergleichsweise selten zum Einsatz, da sie lediglich zur Lösung ganz spezieller Untersuchungsprobleme geeignet ist. Bei der Beobachtung handelt es sich um eine visuelle oder instrumentelle Form der Datenerhebung, das Abb. 4-24 Beispiel für die Gestaltung einer offenen Frage sowie schriftliche Antwort eines Befragten Sie haben soeben den neuen Snack probiert. Was verbinden Sie spontan mit diesem Produkt? Bitte tragen Sie Ihre Antwort in das Antwortfeld ein! Abb. 4-23 Beispiel für die Gestaltung einer geschlossenen Frage Sie haben soeben den neuen Snack probiert. Was verbinden Sie spontan mit diesem Produkt? (Sie können mehrere Antworten ankreuzen!) Dieser Snack … … schmeckt anders als die Produkte, die ich kenne. … schmeckt besonders natürlich. … ist gesünder als andere Snackprodukte. … schmeckt einfach gut. … ist sicherlich teurer als vergleichbare Produkte. … ist für zwischendurch geeignet. … ist die ideale Ersatz-Mahlzeit. … hilft gegen Heißhunger. … ist eher für Kinder geeignet. … ist ein Produkt für Gesundheitsbewusste. … ist der ideale Party-Knabber-Spaß. 15-09-17 11:02:54 -o.mangold- o.mangold 153 4.3Methoden der Primärforschung heißt, dass die relevanten Informationen nicht mit Hilfe einer ausdrücklichen Erklärung der Auskunftsperson gewonnen werden, sondern sich unmittelbar aus deren Verhalten ergeben. Beobachtung lässt sich allgemein definieren als zielgerichtete und planmäßige Erfassung sinnlich wahrnehmbarer Sachverhalte zum Zeitpunkt ihres Geschehens durch beobachtende Personen oder technische Hilfsmittel (z. B. Videokamera). 4.3.2.1 Formen der Beobachtung Die verschiedenen Möglichkeiten der Beobachtung von Personen kann man anhand folgender Merkmale gegeneinander abgrenzen (Berekoven et al., 2009, S. 141 ff.; Kuß et al., 2014, S. 136f .): Durchschaubarkeit der Beobachtungssituation Partizipationsgrad des Beobachters. In Abhängigkeit davon, ob die Beobachtungssituation für die Testpersonen durchschaubar ist oder nicht, unterscheidet man zwischen offenen und verdeckten Beobachtungen. Handelt es sich um eine offene Beobachtungssituation, kennt die Testperson das Ziel der Beobachtung und die Aufgabe, die sie als beobachtete Person zu erfüllen hat. Sie weiß außerdem, dass sie beobachtet wird. Der Nachteil dieser Vorgehensweise beruht darauf, dass sich die Testperson aufgrund des Wissens um die Beobachtungssituation gegebenenfalls anders verhält (Beobachtungseffekt). Gelingt es, durch entsprechende Maßnahmen zu verhindern, dass die beobachtete Person das Ziel der Beobachtung kennt, spricht man von einer nicht durchschaubaren Beobachtung. Erreichen lässt sich eine solche Situation dadurch, dass dem Befragten ein falsches Beobachtungsziel mitgeteilt wird. Ergebnisverzerrungen können jedoch auch hier auftreten, da die Probanden wissen, dass sie beobachtet werden. Deshalb lassen sich im Allgemeinen bessere Ergebnisse durch verdeckte Beobachtungen erzielen, da die Versuchspersonen natürlicher reagieren, wenn sie sich unbeobachtet fühlen. In einer quasi biotischen Situation kennt die Testperson weder das Beobachtungsziel noch ihre eigentliche Aufgabe. Sie weiß jedoch, dass sie beobachtet wird. Eine vollständige Ahnungslosigkeit liegt vor, wenn ein Proband nicht merkt, dass er sich in einer Beobachtungssituation be- Beobachtung: Informationen aus dem Verhalten der Auskunftsperson ableiten findet. Diese Form wird als vollkommen biotische Beobachtungssituation bezeichnet. Die verschiedenen Formen in Abhängigkeit der Durchschaubarkeit der Beobachtungssituation sind in der Abbildung 4-25 dargestellt. Bezüglich der Rolle, die der Beobachter im Rahmen der Beobachtungssituation einnimmt, unterscheidet man zwischen teilnehmenden und nicht teilnehmenden Beobachtungen. Bei der teilnehmenden Beobachtung ist der Beobachter aktiv in den Ablauf des zu beobachtenden Sachverhaltes eingebunden. Soll er unerkannt bleiben, muss er eine Funktion übernehmen, die seine Anwesenheit erklärt, ohne Misstrauen bei den Testpersonen hervorzurufen (z. B. gibt sich der Beobachter als Kunde aus). Aufgrund der vergleichsweise hohen Kosten sowie des starken Beobachtereinflusses (z. B. durch subjektive und selektive Wahrnehmung) sind die Einsatzfelder teilnehmender Beobachtungen in der Marktforschungspraxis begrenzt. Gleichwohl eignet sich diese Form etwa für bestimmte Marktforschungsprobleme, die mit Hilfe explorativer Studien konkretisiert werden sollen. Die Beschaffung relevanter Informationen durch nicht teilnehmende Beobachtungen ist für die Marktforschung von größerer Bedeutung. Da die beobachtende Person nicht aktiv in das Geschehen eingreift (z. B. Beobachtung durch einen Einwegspiegel), ist dieses Vorgehen weitaus objektiver. Die größte Zuverlässigkeit hinsichtlich der Datenerfassung weisen zweifellos geeignete technische Hilfsmittel auf, bei denen eine Verzerrung durch die Wahrnehmung des Be- Abb. 4-25 Beobachtungssituation mit unterschiedlichem Grad der Durchschaubarkeit Ziel der Beobachtung bekannt Aufgabe bekannt Beobachtungssituation bekannt offene Situation ja ja ja nicht durchschaubare Situation nein ja ja quasi biotische Situation nein nein ja vollkommen biotische Situation nein nein nein (Quelle: in Anlehnung an Berekoven et al., 2009, S. 142) 15-09-17 11:02:54 -o.mangold- o.mangold 154 4.3 MarktforschungMethoden der Primärforschung obachters vollständig ausgeschlossen ist. Aufgrund dieses Vorteils hat der Einsatz mechanischer oder elektronischer Verfahren wie Blickaufzeichnungen oder Hautwiderstandsmessungen in den letzten Jahren an Bedeutung gewonnen. Die Abbildung 4-26 liefert einen abschließenden Überblick über die wichtigsten Vor- und Nachteile der Beobachtung. 4.3.2.2 Anwendungsfelder der Beobachtung in der Marktforschungspraxis Mit Hilfe von Geräten zur Blickaufzeichnung lassen sich die Bewegungen der Augen einer Testperson bei der visuellen Wahrnehmung von Umweltreizen sehr genau registrieren. Das mit technischen Hilfsmitteln aufgezeichnete Wanderungsmuster der Pupillen zeigt Ruhepunkte (Fixationen) und deren Dauer sowie Sprünge (Sakkaden). Auf diese Weise lässt sich der Grad des Interesses für ein Objekt feststellen, auf das sich die visuelle Wahrnehmung einer Person richtet (Kroeber-Riel/Gröppel-Klein, 2013, S. 342 ff.). Blickaufzeichnungsgeräte werden beispielsweise zur Überprüfung von Werbemitteln sowie von Produkt- oder Verpackungsdesigns eingesetzt, um die Frage zu beantworten, welche Elemente des interessierenden Sachverhaltes wie lange und in welcher Reihenfolge von Blickaufzeichnung dient der Beobachtung der visuellen Informationsaufnahme. den Testpersonen betrachtet werden (vgl. ausführlich Block, 2002). Ein wichtiges Beobachtungsverfahren im Einzelhandel ist die Kundenlaufstudie. Durch eine beobachtende Person, die sich beispielsweise als Mitarbeiter des Unternehmens tarnt, oder mit Hilfe von Kameras wird der Konsument vom Betreten des Geschäfts bis zu dessen Verlassen beobachtet. Ziel ist es, herauszufinden, in welcher Weise der Kunde die Einkaufsstätte durchläuft und welche Abteilungen er aufsucht. Kundenlaufstudien liefern wichtige Informationen für die Verbesserung der Ladengestaltung und Warenpräsentation. Die Beobachtung des Einkaufsverhaltens dient insbesondere der Überprüfung von Marktchancen neuer oder modifizierter Produkte im realen Konkurrenzumfeld (Aus der Praxis 4-15). Im Gegensatz zur Kundenlaufstudie werden die interessierenden Personen nur an einem bestimmten Regalabschnitt beobachtet. Zum einen wird registriert, wie viele Kunden am Regal vorbeigehen, wie viele von ihnen das betreffende Produkt betrachten, wie viele es herausnehmen und schließlich kaufen bzw. in das Regal zurücklegen. Heute wird das Einkaufsverhalten von Kunden vor allem mittels Scanning erfasst. Dabei handelt es sich um die elektronische Erfassung von Artikel-Strichcodes, den so genannten EAN-Codes (Hammann/Erichson, 2000, S. 122 ff.). Handhabungsbeobachtungen sollen zur Klärung beitragen, ob bestimmte Produkte funktionsgerecht gestaltet sind oder nicht. Da es sich etwa beim Öffnen von Packungen um überwiegend automatisierte, kaum bewusste Vorgänge handelt, ist die verbale Auskunftsfähigkeit der Konsumenten in solchen Fällen meist gering. Der interessierende Sachverhalt wird am besten in einen übergeordneten Handlungsablauf eingebettet (quasi biotische Beobachtungssituation), sodass der Verrichtung, welche das Ziel der Beobachtung darstellt, keine größere Bedeutung zukommt als im Alltag. Aufgrund der wachsenden Zahl der Fernsehsender und des Informationsbedürfnisses der werbenden Wirtschaft kommt der Beobachtung des Fernsehverhaltens steigende Bedeutung zu. Sie erfolgt in der Bundesrepublik Deutschland mit Hilfe des so genannten Telemeters, eines Beobachtungen am POS, dienen dazu Kundenlaufwege zu identifizieren oder neu platzierte Produkte und deren Wahrnehmung durch den Konsumenten zu überprüfen. Abb. 4-26 Vor- und Nachteile der Beobachtung Vorteile der Beobachtung Nachteile der Beobachtung Die Auskunftspersonen müssen nicht auskunftsbereit sein. Die Ergebnisse sind unabhängig von dem Ausdrucksvermögen der Testpersonen. Es können Sachverhalte erfasst werden, die den Testpersonen selbst nicht bewusst sind. Ist die Beobachtungssituation der Testperson nicht bekannt, entfällt der Interviewereinfluss vollständig. Durch technische Hilfsmittel können präzise Ergebnisse erzielt werden. Situative Umwelteinflüsse können berücksichtigt werden. Bestimmte interessierende Sachverhalte (z. B. Einstellungen) lassen sich nicht beobachten. Die beobachteten Merkmale werden unter Umständen unterschiedlich interpretiert. Die persönliche Beobachtung leidet unter der subjektiven und selektiven Wahrnehmung des Beobachters. Bei bestimmten Beobachtungen (z. B. Kundenlaufstudien) ist die Repräsentanz der beobachteten Testpersonen kaum zu gewährleisten. Weiß die beobachtete Person, dass sie beobachtet wird, ist mit einem Beobachtungseffekt zu rechnen. (Quelle: in Anlehnung an Hüttner/Schwarting, 2002, S. 165 f.; Raab et al., 2009, S. 43) 15-09-17 11:02:54 -o.mangold- o.mangold 155 4.3Methoden der Primärforschung Messgerätes, das die Gesellschaft für Konsumforschung (GfK) in ca. 5.000 repräsentativ ausgewählten Haushalten an das Fernsehgerät angeschlossen hat. Es speichert automatisch, wann die Testhaushalte ihre Fernsehgeräte bzw. Videound DVD-Rekorder auf welchem Kanal betrieben haben. Die erfassten Daten werden regelmäßig vom Computer des GfK-Rechenzentrums abgerufen und ausgewertet (Pepels, 2007, S. 249). 4.3.3 Spezielle Ansätze der Primärforschung 4.3.3.1 Experiment Ziel experimenteller Untersuchungen ist die Überprüfung von Ursache-Wirkungs-Beziehungen (Kuß et al., 2014, S. 177 f.). Beim Experiment handelt es sich jedoch nicht um eine eigenständige Methode der Primärforschung, sondern nur um einen speziellen Ansatz, bei dem die erforderlichen Informationen ebenfalls durch Beobachtung oder Befragung gewonnen werden. Der Unterschied zu nicht experimentellen Beobachtungen bzw. Befragungen besteht darin, dass der Forscher die rezeptive Haltung gegenüber dem interessierenden Sachverhalt zugunsten einer aktiven Gestaltung der Untersuchungsbedingungen aufgibt. Bei einem Experiment handelt es sich um eine wiederholbare, unter kontrollierten Bedingungen ablaufende Versuchsanordnung. Ziel des Experiments ist die empirische Überprüfung von Kausalhypothesen, indem die Wirkung von unabhängigen Variablen auf die abhängige(n) Variable(n) gemessen wird (Weis/Steinmetz, 2012, Im Experiment wird die Wirkung der unabhängigen auf die abhängigen Variablen gemessen. Aus der Praxis 4-15 Beobachtung des individuellen Essverhaltens im »Restaurant der Zukunft« An der holländischen Universität Wageningen gehen Wissenschaftler dem Essverhalten des Menschen mit völlig neuen Methoden auf den Grund. Das neue Schnellrestaurant ist auf den ersten Blick eine ganz normale Kantine. Doch wer hier zu Mittag isst, wird dabei ununterbrochen beobachtet. Ganz unauffällig filmen 20 Kameras an der Decke jeden Bissen, jeden Schluck. »Restaurant der Zukunft« heißt dieses ungewöhnliche Forschungsprojekt, mit dem das 20-köpfige Team aus Ernährungswissenschaftlern und Psychologen das normale Essverhalten des Menschen ganz genau untersucht. Eine ausgeklügelte Technik sorgt dafür, dass alle relevanten Umweltfaktoren von den Forschern beeinflusst werden können. Per Knopfdruck lassen sich beispielsweise unterschiedliche Lichtstimmungen herstellen. Ob warmes Rot, kühles Blau oder frisches Grün – die Wissenschaftler bestimmen den Farbcharakter des Restaurants. Beobachtungen der Restaurantbesucher liefern bereits Hinweise darauf, dass die Gäste bei rotem Licht schneller und auch weniger essen als bei blauer Stimmung. Auch die Preise der Gerichte verändern sich. Zwar minimal, aber kontinuierlich. Man will wissen: Welche Rolle spielt der Preis bei der Entscheidung für oder gegen ein gesundes Essen? Mit diesem Forschungsprojekt, das sich über einen Zeitraum von 10 Jahren erstreckt, wird das Essverhalten von Menschen zum ersten Mal systematisch analysiert. Jeder der 200 freiwilligen Testesser lässt bei jedem Besuch seine individuelle Essensauswahl registrieren. Auch das Gewicht der Probanden wird bei jedem Besuch gemessen. Denn beim Bezahlen tritt der Gast – ohne dass er es bewusst wahrnimmt – auf eine Waage. Mittels Kamera entgeht den Forschern auch während des Essvorgangs nichts, jede Hand- und Mundbewegung wird registriert. Auf diese Weise entsteht ein extrem umfangreicher Datenbestand über das individuelle Essverhalten. Die Forscher wollen aber nicht nur wissen, was und wie der Mensch isst, sondern auch, wie ihm das Essen schmeckt. Auch hier kommt moderne Technik zum Einsatz: Ein so genannter Gesichtsscanner vermisst das Gesicht des Essenden. Aus den Bewegungen der Gesichtsmuskulatur lässt sich dann ableiten, ob ihm das Essen schmeckt oder nicht (O.V., 2008b). 15-09-17 11:02:54 -o.mangold- o.mangold 156 4.3 MarktforschungMethoden der Primärforschung S. 221). In der Marktforschung finden Experimente vor allem Verwendung, um Aussagen über die Wirkung alternativer Marketing-Maßnahmen (unabhängige Variablen) auf relevante Marketing-Zielgrößen (abhängige Variablen) zu ermöglichen. Experimente bieten sich beispielsweise an, wenn der Forscher den Einfluss unterschiedlicher Verpackungsdesigns auf die Kaufbereitschaft der Abnehmer oder die Auswirkung unterschiedlicher Regalplatzierungen auf die Absatzmenge einer Marke untersuchen will. Eine einfache marketingrelevante Kausalhypothese, die sich mit Hilfe eines Experiments überprüfen lässt, lautet beispielsweise: Die Platzierung einer neu konzipierten Werbeanzeige (unabhängige Variable) für eine regionale Biermarke in der Tageszeitung führt zu einer Umsatzsteigerung (abhängige Variable) bei dem beworbenen Produkt um zwei Prozent. Aufgrund des komplexen Marktgeschehens ist jedoch damit zu rechnen, dass interessierende Zielgrößen wie etwa Umsatz oder Marktanteil nicht nur unter dem Einfluss derjenigen Marketingvariablen stehen, welche vom Marktforscher selbst gestaltet und variiert werden können. Auch andere Größen wie Konkurrenzmaßnahmen, Wettereinflüsse oder saisonale bzw. konjunkturelle Schwankungen, die nicht untersucht werden sollen bzw. nicht bekannt sind, können auf die interessierenden Zielgrößen einwirken. Mit Hilfe experimenteller Versuchsanordnungen versucht man, diese so genannten Störvariablen zu eliminieren bzw. zu kontrollieren, um den so genannten »Nettoeinfluss« einer Marketingmaßnahme auf die relevante Zielgröße messen zu können. Um Störvariablen wirksam zu kontrollieren, stehen verschiedene Möglichkeiten zur Verfügung (Berekoven et al., 2009, S. 147). Die gebräuchlichste Lösung besteht darin, eine Kontrollgruppe einzuführen, welche die gleichen Ausprägungen bezüglich der Störvariablen aufweist wie die Experimentalgruppe. Die Experimentalgruppe wird dem experimentellen Stimulus ausgesetzt, die Kontrollgruppe jedoch nicht. Häufig kombiniert man diese Vorgehensweise mit der so genannten Randomisierung. Hierbei werden die Untersuchungseinheiten (Geschäfte, Personen etc.) nach dem Zufallsprinzip ausgewählt und auch nach dem Zufallsprinzip auf Experimental- und Kontrollgruppe verteilt. Die Kontrolle von Störvariablen lässt sich auch durch deren Konstanthaltung erreichen. Vermutet man beispielsweise, dass der Standort von Einzelhandelsgeschäften die Messung der Umsatzwirkung unterschiedlicher Preissenkungsmaßnahmen beeinflusst, weil die Zahl der Passanten in Abhängigkeit des Standortes stark variiert, muss das Experiment auf Geschäfte mit vergleichbaren Standorten beschränkt werden. Die Abbildung 4-27 liefert einen abschließenden Überblick über die verschiedenen Elemente experimenteller Untersuchungen. In der Marktforschung wird außerdem unterschieden zwischen Labor- und Feldexperimenten. Laborexperimente finden in einer künstlichen, weitgehend vom Forscher gestalteten Situation statt, um möglichst alle störenden Einflüsse zu kontrollieren bzw. auszuschalten. Ziel ist es folglich, den Einfluss der unabhängigen Variablen auf die abhängigen Variablen möglichst exakt zu messen. Wichtige Einsatzfelder von Labortests in der Marktforschungspraxis sind sensorische Produkttests in einem Sensoriklabor oder Werbeanzeigentests mittels Blickaufzeichnung (Aus der Praxis 4-16). Störvariablen können über eine Kontrollgruppe eliminiert werden. Abb. 4-27 Wesentliche Elemente einer experimentellen Untersuchung Element des Experiments Erläuterung Testeinheiten/ Untersuchungsobjekte Objekte, an denen ein Experiment ausgeführt wird (z. B. Konsumenten, Einkaufsstätten) Unabhängige Variablen Faktoren, deren Einfluss gemessen werden soll (z. B. Preise, Verpackungen, Regalplatzierungen) Abhängige Variablen Faktoren, an denen die Wirkung des Einflusses der unabhängigen Variablen gemessen werden soll (z. B. Umsätze Marktanteile, Einstellungen) Kontrollierte Variablen Faktoren, deren möglicher Einfluss auf die unabhängigen Variablen durch Beibehaltung eines bestimmten Ausprägungsgrades ausgeschaltet wird (z. B. Berücksichtigung nur von Geschäften mit vergleichbaren Standorten) Störvariablen Faktoren, die neben den unabhängigen Variablen ebenfalls Einfluss auf die abhängigen Variablen nehmen und nicht kontrolliert werden können (z. B. saisonale/konjunkturelle Einflüsse) (Quelle: in Anlehnung an Meffert et al., 2012, S. 165) 15-09-17 11:02:54 -o.mangold- o.mangold 157 4.3Methoden der Primärforschung Aus der Praxis 4-16 Sensorische Produkttests Bei sensorischen Produkttests handelt es sich um so genannte »Blindtests«, das heißt, die Probanden erhalten keine Informationen über den Markennamen oder andere Marketingvariablen (z. B. Preis). Die Bewertung der sensorischen Produkteigenschaften (Aussehen, Geruch, Geschmack etc.) von Testprodukten durch Konsumenten erfolgt im Sensoriklabor unter weitgehend kontrollierten Bedingungen (Raumtemperatur, Beleuchtung etc.). Viele Hersteller von Nahrungs- und Genussmitteln sowie Körperpflegeprodukten, aber auch einige Marktforschungsinstitute verfügen über ein eigenes Sensoriklabor. Jeder Testplatz ist mit der Laborküche über eine »Durchreiche« verbunden. Bezüglich der Beleuchtung kann zwischen Rotlicht, Tageslicht und Warmlicht gewählt werden, Waschbecken mit Kalt- und Warmwasseranschluss ermöglichen beispielsweise das Ausspucken von Flüssigkeiten oder das Hantieren mit Reinigungsmitteln. Durch eine Klimatisierung des gesamten Labors werden eine konstante Raumtemperatur und Luftfeuchtigkeit sichergestellt. Die Laborküche dient der standardisierten Vorbereitung bzw. Zubereitung der Testprodukte. Sie verfügt unter anderem über hochwertige Backöfen und Herdplatten, Mikrowellen-Öfen, Wasserkocher und Kaffeemaschinen, Feinwaagen, Gefriertruhen und Kühlschränke sowie angeschlossene Lagerräume mit Kühlmöglichkeiten, Regalen und Stellflächen, in denen Testprodukte in größerer Menge und für eine längere Testzeit lagern können. Ein wesentlicher Vorteil der Durchführung sensorischer Produkttests im Labor besteht darin, dass sich aufgrund der vorhandenen Ausstattung auch Produkte mit aufwändiger Vorbereitung (z. B. Suppen, Fertiggerichte) bzw. stark riechende Produkte (z. B. Käse, Parfum) unter kontrollierten Bedingungen testen lassen. Bestimmte Fragestellungen, etwa die Beurteilung des Geschmacks von Testprodukten, die im Aussehen variieren, erfordern besondere Untersuchungsbedingungen wie beispielsweise die Durchführung des Tests unter Rotlicht. Da die Datenerhebung in einem Labortest heute in der Regel computergestützt erfolgt, sind auch die Daten vergleichsweise schnell verfügbar. Problematisch ist hingegen die künstliche Beurteilungssituation in einem Labor. Die Testpersonen sitzen in der Regel isoliert in engen, steril wirkenden Kabinen und verkosten beispielsweise bei Nahrungsmitteln Mengen, die häufig von den »normalen« Portionen abweichen. Hinzu kommt, dass die Vorbereitung und Präsentation der Proben bisweilen anders erfolgt, als es die Testpersonen gewohnt sind. Schließlich kann sich der − im Gegensatz zum Haushaltstest − sehr kurze Kontakt mit dem Produkt negativ auf die Validität der Ergebnisse auswirken (Scharf, 2000, S. 146 f.). Abb. 4-28: Geschmackstest in einem Sensoriklabor 15-09-17 11:02:54 -o.mangold- o.mangold 158 4.3 MarktforschungMethoden der Primärforschung Feldexperimente finden im Gegensatz zu Laborexperimenten in der natürlichen Umgebung der Testpersonen statt. Häufig wissen die Testpersonen nicht, dass sie an einem Experiment teilnehmen, sodass sie sich realitätsnäher verhalten als beim Experiment im Labor. Ein typisches Beispiel für ein Feldexperiment ist die Platzierung eines neuen Produktes im Regal ausgewählter Geschäfte, um die Kaufbereitschaft der Konsumenten zu erfassen. Die Abbildung 4-29 liefert einen Überblick über die wesentlichen Vor- und Nachteile von Labor- und Feldexperimenten. In Abhängigkeit davon, zu welchem Zeitpunkt die Messung durchgeführt wird und ob Kontrollgruppen gebildet werden, lassen sich verschiedene experimentelle Versuchsanordnungen unterscheiden, die in der Marktforschung auch als »echte« oder »formale« Experimente bezeichnet werden (Aaker et al., 2013, S. 281 ff.; Böhler, 2004, S. 42 ff.). An dieser Stelle soll nur auf die so genannte EBA-CBA-Versuchsanordnung eingegangen werden, die in der Marktforschung häufig als das klassische Experiment bezeichnet wird. Die verwendeten Buchstaben haben folgende Bedeutung: Zur Kennzeichnung der Versuchsgruppen werden die Buchstaben »E« (Experimentalgruppe – »experimental group«) und »C« (Kontrollgruppe – »control group«) verwendet. Bezüglich des Zeitpunktes der Messung bedeutet »B«, dass die Messung vor (»before«) Einflussnahme der unabhängigen Variablen erfolgt, und A steht für eine Feldexperimente sind realitätsnäher als Laborexperimente. Messung nach (»after«) Einflussnahme der unabhängigen Variablen. Ein EBA-CBA-Experiment ist durch die Bildung mindestens einer Experimental- und einer Kontrollgruppe gekennzeichnet. Bei beiden Gruppen werden die Werte der abhängigen Variablen vor und nach der Einflussnahme der unabhängigen Variablen gemessen. Dieser experimentellen Versuchsanordnung liegt die folgende Überlegung zugrunde (vgl. Zimmermann, 1972, S. 58 f.): Den Einfluss aller Störvariablen kann der Forscher zwar weder exakt ermitteln noch vollständig unterbinden, er schlägt sich jedoch in beiden Gruppen gleichermaßen nieder, sofern diese hinsichtlich der Störvariablen identische Ausprägungen aufweisen. Folglich lässt sich die Wirkung der Störvariablen aufgrund der Versuchsanordnung von dem Einfluss der abhängigen Variablen isolieren (Aus der Praxis 4-17). Experimentelle Versuchsanordnungen lassen sich auf eine Vielzahl relevanter Marktforschungsprobleme anwenden. Im Mittelpunkt der Konsumgüterindustrie stehen häufig solche Tests, die auf die Gewinnung von Informationen über die Absatzchancen neuer oder modifizierter Produkte ausgerichtet sind. Je nach Marktreife der Produkte können folgende Testarten unterschieden werden (vgl. ausführlich dazu Berekoven et al., 2009, S. 150 ff.): In einer sehr frühen Phase der Produktentwicklung kommt der Konzepttest zum Einsatz. Den Testpersonen werden keine real existieren- Überprüfung von Absatzchancen neuer oder modifizierter Produkte durch Konzept- und Produkttests Abb. 4-29 Wesentliche Vor- und Nachteile von Labor- und Feldexperimenten Beurteilungskriterium Laborexperiment Feldexperiment Wiederholungsmöglichkeit des Experimentes + – Kontrolle unabhängiger Variablen und anderer Einflussfaktoren + – Zeitbedarf und Kosten der Datenerhebung + – Geheimhaltung gegenüber Wettbewerbern + – Realitätsnähe der Untersuchungsbedingungen – + Interne Validität + – Externe Validität (Generalisierbarkeit) – + 15-09-17 11:02:54 -o.mangold- o.mangold 159 4.3Methoden der Primärforschung Aus der Praxis 4-17 Beispiel für ein EBA-CBA- Experiment Um den Einfluss einer zehnprozentigen Preissenkung auf die Absatzmenge eines Fruchtsaftgetränks festzustellen, wird in einer Experimentalgruppe von zehn Lebensmittelgeschäften die Marke X zum niedrigeren Preis und in zehn vergleichbaren Lebensmittelgeschäften (Kontrollgruppe) weiterhin zum normalen Preis angeboten. Vor Durchführung des Experiments werden in der Experimental- und Kontrollgruppe die im letzten Monat erzielten Absatzmengen des Fruchtsaftgetränks ermittelt. Nach Durchführung des einmonatigen Experiments werden wiederum die Absatzmengen erfasst. In der Zwischenzeit haben jedoch mehrere Störfaktoren gewirkt: Durch Distributionsschwierigkeiten war die Konkurrenzmarke B eine gewisse Zeit lang nicht lieferbar. Konkurrent C versuchte, seinen Absatz durch verstärkte Werbung und Verkaufsförderung zu beleben, und für die Konkurrenzmarke D wurde eine nationale Sonderpreisaktion gestartet. Da jedoch alle Störungen sowohl auf die Experimental- als auch auf die Kontrollgruppe gleichermaßen einwirkten, lässt sich die durch die Preissenkung hervorgerufene Änderung der Absatzmenge durch die Differenzbildung herausrechnen. Die Ergebnisse des Experiments: Absatzmenge der Experimentgruppe im letzten Monat (AE1): 1.500 Einheiten Absatzmenge der Kontrollgruppe im letzten Monat (AC1): 1.450 Einheiten Absatzmenge der Experimentgruppe in diesem Monat (AE2): 1.800 Einheiten Absatzmenge der Kontrollgruppe in diesem Monat (AC2): 1.200 Einheiten Die Wirkung der Preissenkung auf die Absatzmenge des Fruchtsaftgetränks (X) lässt sich wie folgt berechnen: X = (AE2 – AE1) – (AC2 – AC1) X = (1.800 – 1.500) – (1.200 – 1.450) = (300) – (-250) = + 550 Einheiten Da die Störgrößen in der Kontrollgruppe zu einem Rückgang der Absatzmenge von 250 Einheiten geführt haben und anzunehmen ist, dass diese Einflüsse auch in der Experimentgruppe gewirkt haben, beläuft sich die Wirkung der Preissenkung insgesamt auf eine zusätzliche Absatzmenge aufgrund der Preiserhöhung von 550 Einheiten für die Marke X (in Anlehnung an Böhler, 2004, S. 44 ff.). Die Abbildung 4-30 visualisiert den Aufbau dieses EBA-CBA-Experimentes. Abb. 4-30: Aufbau des EBA-CBA-Experimentes Erfassung der abhängigen Variablen vor der Wirkung der unabhängigen Variablen Berechnung der Absatzmengendifferenz zwischen t0 und t1 t0 Messung der Absatzmenge von Marke X Experimentalgruppe Auswahl von 10 Geschäften Kontrollgruppe Auswahl von 10 Geschäften Messung der Absatzmenge von Marke X t1 Messung der Absatzmenge von Marke X Preissenkung bei Marke X um 10% Beibehaltung des Normalpreises Messung der Absatzmenge von Marke X Erfassung der abhängigen Variablen nach der Wirkung der unabhängigen Variablen 15-09-17 11:02:54 -o.mangold- o.mangold 160 4.3 MarktforschungMethoden der Primärforschung den Produkte, sondern nur »Ideen« von Produkten, das heißt verbal oder grafisch konkretisierte Produktkonzepte, zur Beurteilung vorgelegt. Beispielsweise werden in diesem Zusammenhang die Testpersonen aufgefordert, verschiedene Produktvarianten, die als Bilder am Bildschirm dargestellt werden, in eine Präferenzrangfolge zu bringen. Der Konzepttest dient zur Beantwortung der wichtigen Frage, ob eine konkretisierte Produktidee weiterverfolgt werden soll oder nicht (vgl. Kapitel 6.5.2.3). Nachdem aus erfolgversprechenden Produktkonzepten neue bzw. modifizierte Produkte entwickelt wurden, die zumindest als Prototypen vorliegen, kommt der Produkttest zum Einsatz, das vermutlich wichtigste und folglich am häufigsten eingesetzte Instrument zur Informationsbeschaffung im Rahmen der Produktpolitik. Der Produkttest ist durch eine experimentelle Versuchsanordnung gekennzeichnet, bei der die ausgewählten Testpersonen die Testprodukte probeweise ge- oder verbrauchen und anschließend Auskunft über ihre Wahrnehmungen und Präferenzen bezüglich dieser Testprodukte geben (vgl. Bauer, 1981, S. 12; Scharf, 2000, S. 69). Werden die Produkte ganzheitlich beurteilt, lässt sich diejenige Alternative ermitteln, welche aus Sicht der Abnehmer am besten gelungen ist. Wird der Einfluss einzelner Produkteigenschaften (unabhängige Variablen) auf die Wahrnehmung, Präferenz oder Kaufbereitschaft (abhängige Variablen) potenzieller Verwender untersucht (Preistest, Geschmackstest, Packungstest etc.), dann können Informationen über die optimale Gestaltung einzelner Produkteigenschaften gewonnen werden (Aus der Praxis 4-18). Unter einem Storetest versteht man den probeweisen Verkauf von Produkten unter kontrollierten Bedingungen in ausgewählten Testgeschäften, um den voraussichtlichen Produkterfolg bzw. die Wirksamkeit bestimmter Marketingmaßnahmen kostengünstig und schnell überprüfen zu können. Die benötigten Daten werden mittels Scannerkassen oder Inventur gewonnen. Beispielsweise bei der Ermittlung so genannter »Erstkaufraten« neuer bzw. modifizierter Produkte liefert der Storetest bessere Ergebnisse als der Produkttest, weil die Messung den realen Kaufentscheidungsprozess im Geschäft berücksichtigt. Der Markttest stellt schließlich das umfassendste und genaueste Instrument zur Überprüfung der Chancen neuer Produkte bzw. gesamter Marketingkonzepte dar. Bei dieser quasi experimentellen Untersuchung handelt es sich um den probeweisen Verkauf neuer oder modifizierter Produkte unter weitgehend kontrollierten Bedingungen in einem räumlich abgegrenzten Testmarkt bei Einsatz ausgewählter oder sämtlicher Marketinginstrumente. Ziel ist es, Informationen über den zu erwartenden Markterfolg auf dem Gesamtmarkt zu gewinnen, um daraus die Entscheidung über eine Markteinführung abzuleiten. Aufgrund der vielfältigen Probleme, die mit größeren Testmärkten verbunden sind (mangelnde Kontrolle von Störfaktoren, zu lange Durchführungsphase, ungenügende Repräsentanz und Isolierbarkeit, fehlende Geheimhaltung sowie hohe Kosten), bieten einige Markt- Storetest: Ermittlung der Erfolgschancen neuer Produkte in ausgewählten Testgeschäften Aus der Praxis 4-18 Neue Produkte im Geschmackstest Ein Hersteller von Süßwaren möchte mit einem »Me too«-Produkt in den Markt für Schokokekse eindringen. Zu diesem Zweck wurden zwei Varianten entwickelt, die das Produkt des Marktführers geschmacklich möglichst übertreffen sollen. Im Rahmen eines Geschmackstests werden repräsentativ ausgewählte Intensivverwender dieser Produktart dazu aufgefordert, nacheinander die beiden Varianten des Herstellers und das Produkt des Marktführers zu probieren (wobei die Reihenfolge der Produkte systematisch variiert wird) und anzugeben, welches ihnen am besten schmeckt. Die Schokokekse werden für diesen Test neutral verpackt und geben folglich keinen Hinweis auf den jeweiligen Hersteller. Die Ergebnisse des Geschmackstests liefern Antworten auf folgende Marktforschungsfragen: Welche der beiden Varianten des Herstellers schmeckt den potenziellen Kunden besser? Schmeckt die bevorzugte Variante besser oder schlechter als das Produkt des Marktführers? 15-09-17 11:02:54 -o.mangold- o.mangold 161 4.3Methoden der Primärforschung forschungsinstitute so genannte Minimarkt- Tests an. Das Testsystem GfK-Behavior-Scan der GfK funktioniert folgendermaßen: In dem Ort Haßloch bei Ludwigshafen arbeitet die GfK mit ca. 3500 soziodemografisch repräsentativ ausgewählten Haushalten und allen relevanten Lebensmitteleinzelhandelsgeschäften zusammen, die sich dazu verpflichtet haben, die zu testenden Produkte während der Testphase in ihr Sortiment aufzunehmen. Über die Erkennungscodes der teilnehmenden Haushalte und entsprechende Artikelnummern der Testprodukte lassen sich alle relevanten Informationen über die Scanner-Kassen der Einzelhandelsgeschäfte erfassen. Außerdem erhalten die Haushalte kostenlos eine TV-Programmzeitschrift, in der Werbeanzeigen für Testprodukte platziert werden können. Ein Teil der Haushalte kann per Kabelfernsehen gezielt individuell beworben werden, indem Werbespots des regulären Fernsehprogramms durch Testspots, z. B. für neue Produkte, ersetzt werden. Ein Ziel ist es, die Auswirkungen der TV-Werbung auf das Kaufverhalten durch den Vergleich verkabelter und nicht verkabelter Haushalte zu ermitteln. Vorteilhaft ist zweifellos, dass das Marktgebiet vergleichsweise gut abgegrenzt ist, die Testhaushalte annähernd repräsentativ für die deutsche Gesamtbevölkerung sind und die Wirkung wichtiger Werbemedien einfach und kostengünstig überprüft werden kann. Problematisch ist vor allem, dass den teilnehmenden Haushalten die Testsituation bewusst ist, was zu Verhaltensänderungen führen kann, wodurch die Ergebnisse unter Umständen verzerrt werden. Die Abbildung 4-31 liefert abschließend einen Überblick über den Minimarkt-Test »Behavior-Scan«. 4.3.3.2 Panelerhebung Eine sehr wichtige Informationsquelle für Marketingentscheidungen stellen Panelerhebungen dar. Viele Hersteller von Markenartikeln geben einen beträchtlichen Teil ihres Marktforschungsetats für Paneldaten aus. Nach Angaben des Arbeitskreises Deutscher Markt- und Sozialforschungsinstitute (ADM) entfielen im Jahr 2007 insgesamt 27 Prozent aller durchgeführten Primärerforschungen auf Panelerhebungen (O.V., 2008c). Panelerhebungen liefern dem Anbieter unter anderem kontinuierliche Informa- Abb. 4-31 Minimarkt-Test am Beispiel Behavior-Scan Testgeschäfte Verkaufsförderung am POS Testprodukt Distribution, Preis und Platzierung durch GfK Geschäftsinformationen Verkaufsdaten TV-Werbung TargetableTV alle relevanten TV-Sender Klassische Printwerbung Testrealisation und Kontrolle durch GfK Verkaufsförderung Mailing/Inhome- Sampling/Couponing Haushaltsinformationen Reales Einkaufsverhalten TV- Reichweiten Single-Source-Daten Repräsentative Testhaushalte 1.000 Haushalte ohne GfK-Box Identifikationskarte Kassen/Scanner 2.000 Haushalte mit GfK-Box Teilstichprobe via Modem (Quelle: GfK, 2006, zitiert nach Meffert et al., 2015, S. 399) 15-09-17 11:02:54 -o.mangold- o.mangold 162 4.3 MarktforschungMethoden der Primärforschung tionen über die an Konsumenten abgesetzten Mengen seiner Erzeugnisse sowie über eigene Marktanteile und die Marktanteile der Konkurrenten. Als Panel bezeichnet man einen speziellen, gleichbleibenden und repräsentativen Kreis von Untersuchungseinheiten (Personen, Einkaufsstätten), bei dem in (regelmäßigen) zeitlichen Abständen Befragungen oder Beobachtungen zum gleichen Untersuchungsgegenstand durchgeführt werden (Günther et al., 2006, S. 1 ff.). Charakteristisches Merkmal einer Panelerhebung ist demnach die wiederholte Heranziehung derselben Untersuchungsobjekte, und zwar zu ein- und demselben empirischen Sachverhalt. Analog zum Experiment stellt auch die Panelerhebung keine eigenständige Methode der Primärforschung dar. Aufgrund der wiederholten Befragung oder Beobachtung derselben Personen bzw. Institutionen ist die Panelerhebung vielmehr ein spezieller Ansatz, der in Abhängigkeit davon, ob mögliche Störvariablen kontrolliert werden oder nicht, zur kausalanalytischen oder deskriptiven Forschung herangezogen wird. Mit Hilfe von Paneldaten gelingt es zum einen, Eine Panelerhebung liefert kontinuierlich Informationen durch wiederholtes Befragen derselben Untersuchungsobjekte zu einem bestimmten Sachverhalt. die Strukturen relevanter Märkte detailliert zu beschreiben (Querschnittsanalysen), zum anderen Marktveränderungen im Zeitablauf zu erfassen (Längsschnittanalysen) und dadurch Informationen für Prognosen zu gewinnen (vgl. Böhler, 2004, S. 70). Aufgrund der erheblichen Organisations- und Durchführungskosten werden Panelerhebungen nur von großen Marktforschungsinstituten durchgeführt, die sich auf diese Form der Primärerhebung spezialisiert haben. Hierzu zählen in der Bundesrepublik Deutschland vor allem die Nielsen Company sowie die GfK Panel Services. In Abhängigkeit vom Informationsbedarf unterscheidet man zwischen Handels-, Verbraucher- und Spezialpanels, die sich weiter differenzieren lassen. Die Abbildung 4-32 liefert einen Überblick über die verschiedenen Panelarten. Bei einem Handelspanel handelt es sich um eine repräsentative Auswahl von Betrieben einer Handelsstufe mit einer bestimmten Ausrichtung (z. B. Lebensmittel), deren Bestände, Bestellmengen, Verkaufspreise und weitere Daten regelmäßig durch Fremdbeobachtung festgehal- Es existieren unterschiedliche Panelarten in Abhängigkeit des Informationsbedarfs. Abb. 4-32 Überblick über verschiedene Panelarten Großhandelspanel Einzelhandelspanel Individualpanel Haushaltspanel z.B. Cash&Carry z.B. Fast Moving Consumer Goods z.B. Hausbesitzer Verbrauchsgüterpanel Gebrauchsgüterpanel SpezialpanelVerbraucherpanel Panelarten Handelspanel z.B. Anzeigenpanel (Quelle: in Anlehnung an Homburg, 2015, S. 291; Hüttner/Schwarting, 2002, S. 184) 15-09-17 11:02:54 -o.mangold- o.mangold 163 4.3Methoden der Primärforschung ten werden. Die Mitglieder eines Handelspanels können Groß- oder Einzelhändler sein. Praktisch jedes Panel auf Handelsebene ist jedoch in einer bestimmten Richtung spezialisiert (z. B. Lebensmittel). Die traditionelle Datengewinnung erfolgt durch Beobachtung, das heißt, Mitarbeiter des Marktforschungsinstituts ermitteln alle zwei Monate die Absatzmengen und Verkaufspreise der Produkte durch Inventur. Insbesondere bei den Großbetriebsformen des Einzelhandels werden die Warenverkäufe heute mit Hilfe von Scannerkassen direkt am Point of Sale erfasst. Ein Verbraucherpanel ist eine repräsentative Stichprobe aller Endverbraucher oder aller Personen einer bestimmten Verbrauchergruppe (z. B. Hausbesitzer), die regelmäßig zu ihren Einkäufen bei bestimmten Warengruppen befragt werden. Verbraucherpanels lassen sich weiterhin nach der zu untersuchenden Zielgruppe differenzieren: Individualpanels dienen der Erhebung von Daten über Einkäufe von Einzelpersonen und kommen bei Gütern des persönlichen Bedarfs Abb. 4-33 Beispiel für Verbraucherpaneldaten: Prozentuale Veränderung des Konsums von Fast Moving Consumer Goods in Deutschland im Vergleich zum Vorjahresmonat (Quelle: GfK, 2014, S. 4) FMCG Total (inkl. Fachhandel) Food & Getränke A Food A Frischeprodukte A Fleisch/Wurstwaren A Obst/Gemüse A Brot/Backwaren A Molkereiprodukte, gelbe Linie A Molkereiprodukte, weiße Linie A Süßwaren* A Tiefkühlkost/Eis A Sonstige Nahrungsmittel A Getränke A Heißgetränke (inkl. Milchkonzentrate) A Alkoholfreie Getränke A Alkoholhaltige Getränke Home-/Bodycare A Wasch-/Putz-/Reinigungsmittel A Kosmetik/Körperpflege* A Papierwaren –2,1 –3,0 –2,2 –2,0 –4,2 1,5 –1,2 4,1 5,7 –12,2 –3,4 –1,4 –5,8 –9,5 –2,5 –6,3 1,4 –0,6 3,4 –3,4 VÄ Wert [%] 2014: 2013 März VÄ 2014 01–03 –9,0 –9,8 –9,3 –6,7 –9,3 –1,0 –4,5 –0,2 1,1 –28,1 –13,1 –7,9 –11,4 –14,6 –4,5 –14,3 –4,0 –1,4 –3,8 ©GfK|Quelle: GfK ConsumerScan (rp), *GfK ConsumerScan Individual (rp) 4 – Consumer Index 03|2014 –8,4 Abb. 4-34 Ausgewählte Auswertungsmöglichkeiten für Verbraucherpaneldaten Standardberichte Sonderanalysen Gesamtmarktvolumen Marktanteile der Anbieter Angaben zu Teilmärkten – Verkaufsgebiete – Einkaufsstätten Käuferstrukturen Packungsgrößen/-arten Produktvarianten Durchschnittspreise Einkaufsintensität (Gelegenheits-, Normal-, Intensiv-Verwender) Markentreue Kumulierte Käufer/Wiederkäufer Bedarfsdeckung Käuferwanderungen Einführungsanalysen für neue Produkte Preisanalysen Absatzprognosen (Quelle: Berekoven et al., 2009, S. 130) 15-09-17 11:02:54 -o.mangold- o.mangold 164 4.3 MarktforschungMethoden der Primärforschung (z. B. Kosmetika, Tabakwaren) zum Einsatz. Demgegenüber werden mit Hilfe der bedeutsameren Haushaltspanels Informationen über das Einkaufsverhalten gewonnen, das den gesamten Haushalt betrifft (z. B. Nahrungsmittel, Waschund Reinigungsmittel). Diese Panelart stellt somit ein Spiegelbild der Informationen aus dem Einzelhandelspanel dar. Ferner existiert für interessante Zielgruppen bzw. Warenarten eine Vielzahl von Spezial-Verbraucherpanels. Beispielsweise dokumentieren Mütter, die Mitglied im so genannten »Baby-Panel« sind, ihre Einkäufe im Bereich der Babypflege und Babynahrung. Die Datenerhebung in den Testhaushalten erfolgt heute durch Einscannen des EAN-Strichcodes der eingekauften Artikel mit einem so genannten »Handscanner«. Zusätzlich werden die einkaufende Person, die Einkaufsstätte, das Einkaufsdatum, die eingekaufte Menge und der Produktpreis durch entsprechende Codierungen dokumentiert. Alle Daten werden dann über das Internet an das Marktforschungsinstitut übertragen (Böhler, 2004, S. 70; Berekoven et al., 2009, S. 126 ff.). Hinsichtlich der Auswertung von Verbraucherpaneldaten unterscheidet man zwischen Standardauswertungen, die eine tabellarische Aufbereitung der unmittelbaren Berichtseinzeldaten umfassen, und vielfältigen Sonderanalysen (vgl. Abbildung 4-33 und 4-34; Aus der Praxis 4-19). Die Übertragbarkeit der Ergebnisse von Panelerhebungen auf die Grundgesamtheit ist mit einer Reihe von Problemen behaftet, von denen die wichtigsten abschließend kurz dargestellt werden (vgl. ausführlich Böhler, 2004, S. 72 ff.; Günther et al., 2006, S. 19 ff.): Aus der Praxis 4-19 Verbraucherpanel liefern Daten über Käuferwanderungen und Marktanteile Eine wichtige Information, die ein Verbraucherpanel liefert, besteht in der Ermittlung so genannter Käuferwanderungen und den damit verbundenen Verschiebungen von Marktanteilen. Käuferwanderungen beruhen darauf, dass Konsumenten sich entscheiden, die Marke zu wechseln. Es können folglich Rückschlüsse auf den Grad der Markentreue bzw. auf die Intensität der Konkurrenzbeziehungen zwischen verschiedenen Marken gezogen werden. Die Analyse von Käuferwanderungen verfolgt das Ziel, die zukünftigen Käuferanteile zu prognostizieren, um auf deren Grundlage die richtigen Marketing-Strategien und -Maßnahmen festzulegen. Die Abbildung 4-34 zeigt ein fiktives Beispiel für die Käuferwanderungen zwischen den Marken A und B bei Betrachtung von zwei Erhebungszeitpunkten (t0 und t1). Geht man davon aus, dass sich die beiden Marken das Gesamtmarktvolumen aufteilen, erreicht die Marke A zum Zeitpunkt t0 einen Käuferanteil von 73,5 Prozent und die Marke B von 26,5 Prozent. Bis zum Zeitpunkt t1 wechseln 450 Käufer von der Marke A zur Marke B, jedoch nur 150 von der Marke B zur Marke A, sodass sich der Käuferanteil von Marke B in dem betrachteten Zeitraum um 2,5 Prozent erhöht hat. (Quelle: in Anlehnung an Hammann/Erichson, 2000, S. 176) Abb. 4-35: Käuferwanderung zwischen zwei Marken und zwei Erhebungszeitpunkten Käufer der Marke A Erhebungszeitpunkt t0 Erhebungszeitpunkt t1 Käufer der Marke B Gesamt 7.100 2.900 10.000 7.350 6.950 2.500 400 150 2.650 10.000 15-09-17 11:02:54 -o.mangold- o.mangold 165 4.4Datenanalyse 4.4 Datenanalyse Der Einsatz der im Kapitel 4.3 dargestellten Erhebungsmethoden führt in der Regel zu einer Vielzahl von Einzeldaten. Die Aufgabe der Marktforschung besteht folglich darin, alle vorliegenden Informationen zu ordnen, aufzubereiten und zu analysieren, um sie dann zur Lösung des vorliegenden Marktforschungsproblems zu nutzen. Vor allem aufgrund der guten Verfügbarkeit und hohen Leistungsfähigkeit von Computerhardware und -software kann man heute auf eine große Anzahl unterschiedlichster Auswertungsverfahren zurückgreifen. Die durch den technischen Fortschritt stark vereinfachte Auswertung umfangreicher Datenmengen birgt jedoch auch Gefahren: Zum einen wird häufig vergessen, dass der Einsatz noch so raffinierter Analysemethoden im Rahmen der Datenerhebung begangene Fehler (z. B. unpräzise formuliertes Marktforschungsproblem, unangemessene Fragestellung, falsche Stichprobenbildung) nicht ausgleichen kann (vgl. Knoblich, 1985, S. 1260). Zum anderen kommt es Erhobene Daten werden aufbereitet, analysiert und entsprechend dem formulierten Marktforschungsproblem interpretiert. immer wieder vor, dass die Anwendungsvoraussetzungen für die eingesetzten Auswertungsverfahren verletzt werden. Die aus den Analyseergebnissen gezogenen Schlussfolgerungen sind in solchen Fällen sehr fragwürdig. Aufgrund der Methodenvielfalt müssen sich die Ausführungen in diesem Kapitel auf einen kurzen Überblick über ausgewählte Techniken beschränken. Dabei werden nur ihre wesentlichen Merkmale und Einsatzmöglichkeiten kurz dargestellt, für den an den mathematisch-statistischen Strukturen interessierten Leser befinden sich an den entsprechenden Stellen Hinweise auf die Spezialliteratur. Die gebräuchlichste Klassifizierung der Datenanalysemethoden erfolgt über die Anzahl der gleichzeitig betrachteten Variablen. Man unterscheidet in diesem Zusammenhang drei Kategorien: univariate, bivariate und multivariate Auswertungsverfahren. Eine weitere Unterteilung bezieht sich auf die Zielsetzung der Analyse (vgl. Böhler, 2004, S. 165): Des- Keine vollständige Marktabdeckung: Ein Panel, das heißt die gebildete Stichprobe, repräsentiert in der Regel nicht alle Haushalte bzw. Handelsbetriebe, da sich ein Teil von ihnen der Erfassung entzieht bzw. nur schwer für die Mitarbeit gewonnen werden kann. Das gilt beispielsweise für ausländische Verbraucher oder Konsumenten mit hohem Einkommen oder häufigen Auslandsaufenthalten. Etwa wegen des Wunsches nach Geheimhaltung oder aufgrund schneller Veränderungen der Vertriebsstrukturen (z. B. durch E-Commerce) kann die vollständige Marktabdeckung bei einem Handelspanel gefährdet sein. Panelsterblichkeit: Hierunter versteht man den Ausfall von Panelmitgliedern aus einem laufenden Panel. In manchen Fällen stellt die Hälfte aller teilnehmenden Haushalte ihre Mitarbeit bereits nach kurzer Zeit wieder ein. Bei Einzelhandelspanels liegt die Ausfallquote deutlich niedriger. Weitere Ausfälle kommen durch Tod, Umzug, Geschäftsaufgabe etc. hinzu. Die Marktforschungsinstitute bemühen sich, die entstandenen Lücken durch Ersatzteilnehmer zu schließen, die nach dem Quotenverfahren ausgewählt werden (vgl. Kap. 4.2.3.2). Paneleffekt: Paneldaten werden verzerrt, wenn sich die Untersuchungseinheiten aufgrund ihrer Mitarbeit im Panel anders verhalten, als sie es normalerweise tun. Derartige Paneleffekte treten insbesondere bei Endverbrauchern auf. Die Berichterstattung kann zu einer bewussteren Einkaufstätigkeit führen. Bestimmte Angebote (z. B. neue Produkte) veranlassen den Haushalt gegebenenfalls zu Einkäufen, die er vorher nicht getätigt hat. Aus bestimmten Gründen werden bei einigen Produktarten mehr Einkäufe (gesundes Gemüse, umweltfreundliche Produkte) oder weniger Einkäufe (Alkohol, Zigaretten, Einweg-Verpackungen) angegeben, als tatsächlich vorgenommen wurden. Bei langer Panelzugehörigkeit kommt es zu Lerneffekten und zu Nachlässigkeiten infolge von Ermüdungserscheinungen. 15-09-17 11:02:54 -o.mangold- o.mangold 166 4.4 MarktforschungDatenanalyse kriptive Analysen dienen der Beschreibung eines vorliegenden Datensatzes, der sich normalerweise auf die aus einer Grundgesamt gezogenen Stichprobe bezieht. Die Daten werden mittels geeigneter Verfahren so aufbereitet, dass sich die Entscheidungsträger schnell einen Überblick über die Verteilungen der interessierenden Variablen und deren Beziehungen verschaffen können. Beispielsweise werden in einem Produkttest für eine neue Limonade die Testpersonen danach gefragt, ob sie das neue Produkt kaufen würden, wenn es in ihrer Einkaufsstätte erhältlich wäre. Von 150 Befragten, aus denen die repräsentative Stichprobe besteht, geben 90 Personen, also 60 Prozent, an, das Produkt kaufen zu wollen. Induktive Analysen beruhen hingegen auf der Wahrscheinlichkeitstheorie und verfolgen das Ziel, Hypothesen über die Struktur der Grundgesamtheit auf der Basis der Stichprobendaten zu überprüfen. Wurde beispielsweise eine repräsentative Befragung von 200 Fruchtsaftkäufern zur Markenverwendung bezüglich dieser Produktkategorie durchgeführt und 52 Personen gaben an, mindestens einmal im Monat die Marke X zu kaufen, könnte folgende Hypothese überprüft werden: »25 Prozent aller Fruchtsaftverwender (Grundgesamtheit) kaufen mindestens einmal pro Monat die Marke X.« Die Abbildung 4-36 vermittelt einen Überblick über die univariaten und bivariaten Analyseverfahren der deskriptiven (beschreibenden) und induktiven (schließenden) Statistik. 4.4.1 Univariate Verfahren Im Rahmen der univariaten deskriptiven Verfahren betrachtet man nur eine Variable. Die statistische Analyse beschränkt sich also auf die Beschreibung der Merkmalsausprägungen von Untersuchungsobjekten bezüglich eines einzigen Merkmals. Im Mittelpunkt stehen dabei die absoluten und relativen Häufigkeiten der Merkmalsausprägungen, wobei die Ergebnisse in einer Tabelle oder in einem Schaubild übersichtlich dargestellt und die Häufigkeitsverteilung mit Hilfe geeigneter Parameter beschrieben wer- Univariante deskriptive Verfahren analysieren nur eine Variable. Abb. 4-36 Überblick über wichtige univariate und bivariate Verfahren der Datenanalyse univariat bivariatunivariat deskriptiv induktiv bivariat Uni- und bivariate Analyseverfahren Tests bezogen auf Verteilungsparamter Tests bezogen auf Verteilung Tests bezogen auf Verteilungsparamter Tests bezogen auf Verteilung Ermittlung von Häufigkeits verteilungen Ermittlung von Parametern von Häufigkeitesverteilungen Assoziationsanalyse Regressionsanalyse z.B. Mittelwerttest z.B. χ2- Anpassungstest z.B. t-Test z.B. χ2-Test auf Unabhängigkeit z.B. absolute Häufigkeiten z.B. Median, Standardabweichung z.B. Korrelationsanalyse z.B. lineare Regression (Quelle: in Anlehnung an Homburg et al., 2008, S. 157) 15-09-17 11:02:54 -o.mangold- o.mangold 167 4.4Datenanalyse Aus der Praxis 4-20 Tabellarisch und grafisch dargestellte Häufigkeitsverteilungen Im Rahmen einer Online-Befragung von 587 Studierenden einer Hochschule wurde unter anderem gefragt, wodurch die Studierenden auf das Studienangebot der Hochschule aufmerksam geworden sind. Die verschiedenen Antwortmöglichkeiten wurden in Form einer Liste auf dem Bildschirm präsentiert, und die Befragten hatten die Aufgabe, die zutreffenden Merkmalsausprägungen zu markieren. Die Tabelle in Abbildung 4-37 enthält die absoluten und relativen Häufigkeiten der verschiedenen Merkmalsausprägungen. Die relativen Häufigkeiten ergeben addiert mehr als 100 Prozent, da die Befragten mehrere Antwortkategorien anklicken durften (Mehrfachantworten). Um zu überprüfen, ob die Stichprobe repräsentativ für die Grundgesamtheit, das heißt für alle Studierenden der betreffenden Hochschule ist, wurde unter anderem auch danach gefragt, welchen Studiengang die Befragten studieren. Die Ergebnisse sind in der Abbildung 4-38 als Kreisdiagramm dargestellt. Kreisdiagramme sind zur Visualisierung relativer Häufigkeit geeignet, wenn die Anzahl der Merkmalsausprägungen überschaubar ist und die kumulierten prozentualen Häufigkeiten 100 Prozent ergeben. Abb. 4-37: Tabellarische Darstellung absoluter und relativer Häufigkeiten am Beispiel genutzter Informationsquellen von Studierenden Ausprägungen der Variable »Informationsquellen« Absolute Häufigkeiten Relative Häufigkeiten (in %) Internet 252 42,9 Familie, Freunde, Bekannte 231 39,4 Informationsveranstaltungen 118 20,1 Berufsinformationszentrum 92 15,7 Schule 75 12,8 Flyer/Broschüren 62 10,6 Messe 39 6,6 Presse 25 4,3 Sonstige Informationsquellen 25 4,3 Abb. 4-38: Grafische Darstellung relativer Häufigkeiten mittels Kreisdiagramm am Beispiel des von Befragten belegten Studiengangs Regenerative Energietechnik 25% Gesundheits- und Sozialwesen 19% Betriebswirtschaft 20% Technische Informatik 5% Sozialmanagement 16%Public Management 11% Umwelt- und Recyclingtechnik 4% 15-09-17 11:02:54 -o.mangold- o.mangold 168 4.4 MarktforschungDatenanalyse den können. Bei Merkmalen mit sehr vielen Ausprägungen (z. B. Einkommen) empfiehlt es sich, diese zu Gruppen zusammenzufassen, damit die Darstellung der Ergebnisse übersichtlich bleibt. Auch viele Stellen hinter dem Komma bringen häufig kaum zusätzliche Informationen, können jedoch die Überschaubarkeit der Informationen beeinträchtigen (vgl. ausführlich Hammann/ Erichson, 2000, S. 249 f.). Um die Fähigkeit und Bereitschaft der Entscheidungsträger zur Aufnahme der relevanten Informationen zu erhöhen, stellt man in der Marktforschungspraxis eindimensionale Häufigkeitsverteilungen in der Regel grafisch dar. Dazu bedient man sich eines Histogramms, das heißt eines Säulen-, Balkenoder Kreisdiagramms, bei dem die Häufigkeiten mit Hilfe proportionaler Flächen abgebildet werden (Aus der Praxis 4-20). Von zentraler Bedeutung für die Verdichtung von Daten sind statistische Maßzahlen, die verschiedene Kriterien zu erfüllen haben. Sie müssen den untersuchten Sachverhalt angemessen repräsentieren. So dürfen beispielsweise Häufigkeitsverteilungen ordinal skalierter Merkmale nicht durch Maßzahlen beschrieben Statistische Maßzahlen repräsentieren verdichtete Informationen. werden, die eine arithmetische Operation beinhalten. Die Maßzahlen sollten außerdem eine große Aussagekraft bei möglichst geringem Informationsverlust besitzen, und schließlich muss ihre Berechnung einfach nachvollziehbar sein. Zur Beschreibung empirischer Häufigkeitsverteilungen werden Lage- und Streuungsparameter berechnet. Lageparameter kennzeichnen diejenige Ausprägung eines Merkmals, welche die analysierte Häufigkeitsverteilung am besten repräsentiert. Die wichtigsten Lageparameter sind Mittelwerte. Der gebräuchlichste Mittelwert ist das arithmetische Mittel. Es wird gebildet, indem man die Summe aller Einzelwerte xi bildet und durch die Anzahl n der Beobachtungen teilt. Die Berechnung des arithmetischen Mittels ist nur für Merkmale mit metrischem Skalenniveau sinnvoll. Die Tabelle in der Abbildung 4-39 enthält die Messwerte von 12 Auskunftspersonen, die gefragt wurden, wie wichtig für sie der Preis beim Kauf eines Farbfernsehers ist. Verwendet wurde eine siebenstufige Ratingskala (»7 = sehr wichtig« bis »1 = völlig unwichtig«). Lage- und Streuungsparameter beschreiben empirische Häufigkeitsverteilungen. Abb. 4-39 Beispiel für die Berechnung wichtiger Lage- und Streuungsparameter Untersuchungseinheiten xi X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12 Messwerte (Beobachtungen) 3 5 6 2 4 1 4 4 1 5 4 3 Lageparameter: Arithmetisches Mittel: X = (3 + 5 + 6 + 2 + 4 + 1 + 4 + 4 + 1 + 5 + 4 + 3) / 12 = 42/12 = 3,5 Median: 1 1 2 3 3 4 4 4 4 5 5 6 = 4 (mittlerer Wert der Rangfolge der Beobachtungswerte) Modus: 3 5 6 2 4 1 4 4 1 5 4 3 = 4 (am häufigsten beobachtete Ausprägung eines Merkmals) Streuungsparameter: Varianz: s2 = [(3 – 3,5)2 + (5 – 3,5)2 + (6 – 3,5)2 + (2 – 3,5)2 + (4 – 3,5)2 (1 – 3,5)2 + (4 – 3,5)2 + (4 – 3,5)2 + (1 – 3,5)2 + (5 – 3,5)2 (4 – 3,5)2 + (3 – 3,5)2] / 11 = 2,455 Standardabweichung: Spannweite: 6 – 1 = 5 (Differenz zwischen dem kleinsten und größten Beobachtungswert) x n xi i n 1 1 2 2 1 1 1 n x xi i n Varianz 15-09-17 11:02:54 -o.mangold- o.mangold 169 4.4Datenanalyse Ein weiterer Lageparameter ist der Median (Zentralwert). Die einzelnen Beobachtungen xi werden hierbei zunächst der Größe nach geordnet. Der Median ist dann derjenige Wert, der genau in der Mitte der Rangfolge liegt. Rechts und links vom Median liegen gleich viele Werte. Bei einer Rangfolge mit gerader Anzahl von Beobachtungen wird der Median als arithmetisches Mittel der beiden mittleren Werte gebildet. Für nominalskalierte Daten ist nur die Berechnung des Modus (»dichtes Mittel«) sinnvoll. Das ist diejenige Ausprägung eines Merkmals, welche am häufigsten vorkommt. Streuungsparameter geben an, wie gut eine Verteilung durch einen Lageparameter charakterisiert werden kann, da zwei empirische Häufigkeitsverteilungen trotz ähnlicher Lageparameter sehr unterschiedlich ausfallen können. Nur für metrisch skalierte Daten geeignet ist das in der Marktforschung am häufigsten angewandte Streuungsmaß, die Varianz. Sie ergibt sich als Summe aller quadrierten Abweichungen der einzelnen Messwerte vom Mittelwert, geteilt durch die Anzahl der Messwerte. Die Standardabweichung, die auch als Streuung oder mittlere Abweichung bezeichnet wird, ist die Quadratwurzel aus der Varianz. Mit ihrer Hilfe lassen sich beispielsweise die Mittelwerte unterschiedlicher Teilstichproben hinsichtlich ihrer Streuungen vergleichen. Die Spannweite wird als Differenz zwischen dem größten und dem kleinsten Beobachtungswert berechnet. Dieses Maß, das insbesondere zur Kennzeichnung der Streuung ordinalskalierter Daten zum Einsatz kommt, kann jedoch durch so genannte »Ausreißer« erheblichen Verzerrungen unterliegen. Die Abbildung 4-39 enthält die Berechung der Varianz für das vorliegende Beispiel. Mittels univariater induktiver Verfahren versucht man, für ein interessierendes Merkmal Rückschlüsse von einer Stichprobe auf die Grundgesamtheit zu ziehen. Zu diesem Zweck werden statistische Signifikanztests eingesetzt, deren Durchführung in mehreren Schritten erfolgt, die in der Abbildung 4-40 dargestellt sind. Mit Hilfe eines Signifikanztests lassen sich auf der Grundlage einer Stichprobe Hypothesen über die Verteilung von Merkmalen in der Grundgesamtheit formulieren und anschließend statistisch überprüfen. Die Hypothese, die durch einen Signifikanztest überprüft werden soll, wird als Nullhypothese (Ho) bezeichnet, die gegensätzliche Aussage als Alternativhypothese (H1). In einem zweiten Schritt gilt es, das geeignete statistische Testverfahren auszuwählen. Damit verbunden ist die Bestimmung einer Prüfgröße und der ihr zugrunde liegenden Testverteilung. Es existiert eine Vielzahl von Signifikanztests für unterschiedliche Fragestellungen. Beispielsweise ist der Mittelwerttest ein in der Marktforschung häufig zum Einsatz kommender Signifikanztest, mit dem sich überprüfen lässt, ob aus dem Mittelwert eines Merkmals der Stichprobe eine statistisch signifikante Aussage über den Mittelwert dieses Merkmals in der Grundgesamtheit abgeleitet werden kann. Mit dem 2- Anpassungstest lässt sich die in einer Stichprobe ergebende Verteilung einer nominal skalierten Variablen (z. B. Geschlecht) oder einer in Klassen eingeteilten metrischen Variablen (z. B. Einkommen) überprüfen. Bezüglich der konkreten Mittels univariater Verfahren lassen sich für eine Variable Rückschlüsse von der Stichprobe auf die Grundgesamtheit ziehen. Abb. 4-40 Durchführungsschritte beim Signifikanztest Formulierung geeigneter Hypothesen Auswahl des Testverfahrens Festlegung des Signifikanzniveaus Ermittlung des Ablehnungsbereichs Berechnung des Wertes der Prüfgröße Anwendung der Entscheidungsregel, Interpretation (Quelle: in Anlehnung an Böhler, 2004, S. 177; Homburg, 2015, S. 341) 15-09-17 11:02:54 -o.mangold- o.mangold 170 4.4 MarktforschungDatenanalyse Durchführung von Mittelwerttests sowie weiterer Signifikanztests wird an dieser Stelle auf die einschlägige Literatur verwiesen (Bleymüller, 2012, S. 107 ff.; Bortz/Schuster, 2010, S. 97 ff.). Nach der Auswahl des Testverfahrens muss der Forscher außerdem das Signifikanzniveau festlegen. Es entspricht der Wahrscheinlichkeit, dass die Nullhypothese abgelehnt wird, obwohl sie für die Grundgesamtheit zutrifft. Durch die Angabe eines Signifikanzniveaus, das heißt einer maximalen Irrtumswahrscheinlichkeit, sichert man sich gegen einen derartigen Fehler ab. Aus dem ausgewählten Testverfahren und dem festgelegten Signifikanzniveau ergibt sich der so genannte Ablehnungsbereich, der angibt, bei welchem empirischen Wert der Prüfgröße die Nullhypothese abzulehnen ist. Anschließend wird der empirische Wert der Prüfgröße aus den vorliegenden Daten der Stichprobe berechnet, die vorab formulierte Entscheidungsregel angewendet (z. B. Ablehnung der Nullhypothese für einen bestimmten Wert der Prüfgröße) und das Ergebnis im Hinblick auf das zu lösende Marktforschungsproblem interpretiert. 4.4.2 Bivariate Verfahren In der Marktforschung hat man es häufig mit Fragestellungen zu tun, die eine Analyse der Beziehungen zwischen den untersuchten Merkmalen der Erhebungseinheiten erforderlich machen. Mit Hilfe bivariater deskriptiver Auswertungsverfahren ist es möglich, die Beziehung zwischen zwei Variablen zu analysieren, wobei es nur um die Beschreibung des interessierenden Sachverhaltes geht und nicht darum, statistisch gesicherte Rückschlüsse auf die Die Beziehung zwischen zwei Variablen kann mittels bivariater deskriptiver Analyse beschrieben werden. Grundgesamtheit zu ziehen. Die bivariaten deskriptiven Verfahren können wiederum unterteilt werden in Verfahren der Assoziationsanalyse und der Regressionsanalyse (Homburg et al., 2008, S. 158). Assoziationsanalysen untersuchen den Zusammenhang zwischen zwei Variablen, ohne dass zwischen einer unabhängigen (gegebenen) und einer abhängigen (zu erklärenden) Variable unterschieden wird (Homburg, 2015, S. 332). Zur Aufdeckung von Zusammenhängen zwischen zwei nominal skalierten Merkmalen kommt die Kreuztabellierung zum Einsatz. Voraussetzung hierfür ist die Einteilung der interessierenden Variablen in sich gegenseitig ausschließende Untergruppen. Alle möglichen Ausprägungs- Kombinationen werden in einer zweidimensionalen Matrix, der so genannten Kreuztabelle dargestellt. Für jede Kategorie ermittelt man dann die absoluten bzw. relativen Häufigkeiten. Die Tabelle in Abbildung 4-41 enthält die Ergebnisse einer Online-Befragung zur Kaufbereitschaft für verschiedene TV-Flachbildschirm- Marken. Beantwortet werden soll die Frage, ob ein Zusammenhang zwischen dem Alter der Befragten und der bevorzugten TV-Marke besteht. Die Verteilung der absoluten Häufigkeiten für das Merkmal »Alter« getrennt nach Markenpräferenz zeigt, dass die Marke A eher von jüngeren Käufern, die Marke B hingegen von älteren Käufern präferiert wird. Betrachtet man beispielsweise die jüngste Altersgruppe (18 bis 29 Jahre), fällt auf, dass mehr als 90 Prozent dieser Zielgruppe die TV-Marke A bevorzugen. Ob der Zusammenhang zwischen dem Alter der Befragten und deren Markenpräferenz statistisch gesichert ist, das heißt auf die Grundgesamtheit übertragen werden kann, lässt sich nur mittels induktiver Verfahren (z. B. 2-Test auf Unabhängigkeit) überprüfen, die weiter unten erläutert werden. Weisen die interessierenden Variablen metrisches Skalenniveau auf, erfolgt die Analyse des Zusammenhangs mittels Korrelationsanalyse. Der so genannte Pearsonsche Korrelationskoeffizient r hat einen Wertebereich von –1 bis +1 und gibt die Stärke des linearen Zusammenhangs zwischen zwei metrisch skalierten Merkmalen an. Die Abbildung 4-42 enthält verschiedene Beispiele für mögliche Verteilungen von zwei Assoziationsanalysen unterscheiden nicht zwischen abhängigen und unabhängigen Variablen. Kreuztabellen zeigen Zusammenhänge zwischen zwei nominal skalierten Merkmalen auf. Korrelationsanalyse für Zusammenhänge zwischen metrisch skalierten Merkmalen. Abb. 4-41 Beispiel für eine Kreuztabellierung – Analyse des Zusammenhangs zwischen dem Alter der Befragten und der von ihnen bevorzugten TV-Marke 18 bis 29 30 bis 39 40 bis 49 50 bis 59 60 und älter ∑ TV-Marke A 121 70 55 35 19 300 TV-Marke B 11 32 25 55 77 200 ∑ 132 102 80 90 96 500 15-09-17 11:02:54 -o.mangold- o.mangold 171 4.4Datenanalyse Variablen und den entsprechenden Korrelationskoeffizienten. Ist r = 1, besteht zwischen den beiden Variablen ein vollständig positiver linearer Zusammenhang, das heißt, dass die Erhöhung der Variable X um den Wert x mit einer Erhöhung der Variable Y um den Wert y verbunden ist. Für den Fall, dass r = –1 ist, gilt das Gegenteil: Die Erhöhung der Variablen X um den Wert x ist mit einer Reduzierung der Variable Y um den Wert y verbunden. Bei r = 0 besteht hingegen kein linearer Zusammenhang zwischen den beiden Variablen. Die Abbildung 4-43 enthält ein einfaches Beispiel für den Einsatz der Korrelationsanalyse. Analysiert werden soll der Zusammenhang zwischen den Abiturnoten und den Noten des ersten Hochschulabschlusses (Bachelor) von zehn Hochschulabsolventen. Die Berechnung des Korrelationskoeffizienten ergibt einen Wert von +0,742, was auf einen starken positiven Zusammenhang zwischen der Abiturnote und der Note des Bachelorabschlusses bezogen auf die Stichprobe der zehn analysierten Hochschulabsolventen hinweist. Die einfache lineare Regressionsanalyse untersucht den Einfluss einer unabhängigen (gegebenen) Variablen auf eine abhängige (zu erklärende) Variable, das heißt, es wird eine bestimmte Wirkungsrichtung zwischen zwei metrisch skalierten Merkmalen unterstellt. So ist es zweifellos sinnvoll, davon auszugehen, dass Regressionsanalyse untersucht Wirkungsrichtung zwischen metrisch skalierten Variablen. Abb. 4-43 Beispiel für die Ermittlung des Zusammenhangs zwischen zwei metrisch skalierten Variablen mittels Korrelationsanalyse Absolvent 1 2 3 4 5 6 7 8 9 10 Abiturnote 2,1 3,5 1,7 2,5 3,1 2,5 3,0 4,0 1,3 2,5 Bachelornote 1,9 2,8 2,3 2,5 2,7 2,6 2,6 3,1 1,7 1,4 R = + 0,742 Abb. 4-42 Beispiele für mögliche Verteilungen von zwei Variablen mit entsprechendem Korrelationskoeffizienten r x y x y (a) r=–.80 x y x y (c) r=1.00 x y x y (d) r=0 x y x y (e) r=0 x y x y (b) r=.80 Korrelationskoeffizient r = (Quelle: Aaker et al., 2013, S. 404) 15-09-17 11:02:54 -o.mangold- o.mangold 172 4.4 MarktforschungDatenanalyse Aus der Praxis 4-21 Regressionsanalyse: Der Preis beeinflusst die Absatzmenge Das Unternehmen X möchte eine neue Fertigpizza für das Premium-Segment auf dem Absatzmarkt einführen. In diesem Zusammenhang soll der Einfluss des Verkaufspreises auf die Absatzmenge mit Hilfe eines Storetests ermittelt werden. In zehn vergleichbaren Testgeschäften wird das neue Produkt eine gewisse Zeit lang zu jeweils unterschiedlichen Preisen angeboten und die Absatzmengen anschlie- ßend erfasst. Die Abbildung 4-44 veranschaulicht die Ergebnisse dieses Preistests. Überträgt man die beobachteten Werte in ein Streudiagramm (vgl. Abbildung 4-45), zeigt sich, dass sich der Zusammenhang zwischen den beiden Variablen durch eine Gerade mit negativer Steigung beschreiben lässt. Eine beliebige Gerade kann dargestellt werden durch: y = a + b · x. Y bezeichnet die abhängige Variable (hier: Absatzmenge) und x die unabhängige Variable (hier: Verkaufspreis). Weiterhin steht a für den Punkt, an dem die Gerade die y-Achse schneidet, und b für die Steigung der Geraden. Das Ziel der Regressionsanalyse besteht nun darin, die Regressionsparameter a und b so zu bestimmten, dass sich die Gerade möglichst gut an die beobachteten Werte anpasst. A und b sind so zu bestimmen, dass die Summe der quadrierten Abstände zwischen der Geraden und den wahren Werten minimiert wird. Dieses Vorgehen wird als Methode der kleinsten Quadrate bezeichnet. Für das vorliegende Beispiel ergibt sich folgende Regressionsgleichung: = 105,83 – 22,53x. Setzt man in diese Gleichung für den Verkaufspreis x beispielsweise 3,– D ein, ergibt sich (gerundet) eine Absatzmenge von 38 Einheiten. Tatsächlich wurden jedoch in Testgeschäft 8 zu diesem Preis 40 Einheiten abgesetzt, was zeigt, dass die ermittelte Regressionsgerade nur eine Schätzung der tatsächlichen Verteilung der beiden Merkmale ist (Berekoven et al., 2009, S. 196 ff.). ŷ Preis (x) in Euro2,40 2,50 2,60 2,70 2,80 2,90 3,00 3,10 3,20 3,30 50 48 46 44 42 40 38 36 34 32 30 28 26 Menge (y) in Stk. y=a+bx (6) (3) (7) (10) (2) (8) (1) (5) (9) (4) Abb. 4-45: Verkaufspreise und Absatzmengen einer neuen Fertigpizza in zehn Testgeschäften (Quelle: Berekoven et al., 2009, S. 197) (Quelle: in Anlehnung an Berekoven et al., 2009, S. 197) Abb. 4-44: Verkaufspreise und Absatzmengen einer neuen Fertigpizza in zehn Testgeschäften Testgeschäft 1 2 3 4 5 6 7 8 9 10 Verkaufspreis 3,15 2,65 2,60 2,90 3,05 2,55 2,70 3,00 2,85 2,80 Absatzmenge 37 48 45 38 35 51 44 40 43 41 15-09-17 11:02:54 -o.mangold- o.mangold 173 4.4Datenanalyse der Preis für ein Produkt dessen Absatzmenge beeinflusst und nicht umgekehrt. Der Preis ist also die unabhängige Variable, die Absatzmenge hingegen die abhängige Variable. Gilt es, die Ursache-Wirkungs-Beziehung zwischen nur einer unabhängigen und einer abhängigen Variablen zu untersuchen, handelt es sich um eine bivariate Auswertung (Aus der Praxis 4-21), werden gleichzeitig mehrere unabhängige Variablen betrachtet, kommt die multiple bzw. multivariate Regressionsanalyse zum Einsatz (vgl. Kapitel 4.4.3.2). Auch bezüglich der bivariaten induktiven Verfahren kann man zwischen zahlreichen Varianten zur Beantwortung unterschiedlichster Fragestellungen der Marktforschung unterscheiden. Im Folgenden soll jedoch nur auf ausgewählte Verfahren kurz eingegangen werden. Mit Hilfe des 2-Unabhängigkeitstests wird auf der Grundlage von Stichprobendaten untersucht, ob zwei nominal skalierte Merkmale in der Grundgesamtheit unabhängig voneinander sind oder nicht. Ausgangspunkt für diesen Test ist eine Kreuztabellierung der Häufigkeiten der beiden interessierenden Merkmale, wobei die einfachste Form in einer Verteilung von zwei Merkmalen mit jeweils zwei Ausprägungen be- Chi²-Test untersucht, ob zwei nominalskalierte Merkmale in der Grundgesamtheit unabhängig voneinander sind. steht. Ein Beispiel kann die Vorgehensweise verdeutlichen (Böhler, 2004, S. 180 ff.): Überprüft werden soll, ob die Kaufbereitschaft für eine Automarke und das Geschlecht des Käufers unabhängig sind oder nicht. Die 300 Fälle entstammen einer Zufallsstrichprobe aus einer umfangreichen Grundgesamtheit. Die in der Abbildung 4-46 dargestellten Daten lassen vermuten, dass ein Zusammenhang zwischen dem Geschlecht der Auskunftspersonen und ihrer Kaufbereitschaft für eine bestimmte Automarke besteht. 75 Prozent der 200 Befragten, welche angeben, die Auto-Marke X kaufen zu wollen, sind männlich. Demgegenüber entfallen von den 100 Auskunftspersonen, welche die Automarke Y kaufen würden, nur 40 Prozent auf Männer. Es gilt zu überprüfen, ob sich der beobachtete Zusammenhang nur zufällig innerhalb der üblichen Streuung möglicher Stichprobenresultate ergeben hat oder statistisch gesichert auf die Grundgesamtheit übertragen werden kann. Zu diesem Zweck trifft man zunächst die Annahme (Nullhypothese), dass die Häufigkeitsverteilung des einen Merkmals (hier: Kaufbereitschaft der Befragten für eine bestimmte Automarke) in keinem Zusammenhang zum anderen Merkmal (hier: Geschlecht der Befragten) steht. Abb. 4-46 Beispiel für einen 2-Unabhängigkeitstests Geschlecht ∑ Frauen Männer Automarke X 50 150 200 Automarke Y 60 40 100 ∑ 110 190 300 Zelle Bij Eij Bij – Eij (Bij – Eij)2 (Bij – Eij) 2 Eij — 1–1 50 73,33 – 23,33 545,29 7,44 1–2 150 126,67 23,33 545,29 4,30 2–1 60 36,67 23,33 545,29 14,87 2–2 40 63,63 – 23,33 545,29 8,61 Gesamt 300 300,00 35,22 (Quelle: in Anlehnung an Böhler, 2004, S. 192 ff.) 2 = Bij = beobachtete Häufigkeiten in Zelle ij Eij = erwartete Häufigkeiten in Zelle ij ri = Ausprägung des Merkmals i sj = Ausprägung des Merkmals j Eij = ni = Zeilensumme nj = Spaltensumme ( )B E E ij ij ijj s i r 2 11 n n n i j 15-09-17 11:02:54 -o.mangold- o.mangold 174 4.4 MarktforschungDatenanalyse Zu vergleichen ist der empirische 2-Wert, der aus den Stichprobendaten berechnet wird, mit einer Prüfgröße, dem so genannten kritischen 2-Wert. In Abhängigkeit von den Freiheitsgraden und vom gewählten Signifikanzniveau lässt sich der kritische 2-Wert einer entsprechenden Tabelle entnehmen, die auf der 2-Verteilung beruht. Im vorliegenden Beispiel beträgt der kritische Wert für Chi2 laut Tabelle 6,63 (Signifikanzniveau: 5 Prozent). Der empirische 2- Wert lässt sich – wie in der Abbildung 4-46 dargestellt – berechnen. Zunächst sind die erwarteten Häufigkeiten zu ermitteln, das heißt die Häufigkeiten, die sich ergeben würden, wenn die Merkmale »Geschlecht« und »Kaufbereitschaft für eine Automarke« unabhängig voneinander sind. Sie ergeben sich für jede Zelle der Kreuztabelle allgemein aus dem Produkt der jeweiligen Spalten- und Zeilensumme, geteilt durch die Summe aller Beobachtungen. Die erwartete Häufigkeit für die weiblichen Befragten, welche die Automarke X kaufen würden, lässt sich demnach als Beispiel wie folgt berechnen: Dieser Rechenvorgang wird für alle vier Zellen der Matrix durchgeführt. Der empirische 2- Wert ergibt sich dann aus der in der Abbildung 4-46 aufgeführten Wertetabelle. Die Unabhängigkeitshypothese ist zu verwerfen, da der empirische 2-Wert mit 35,22 erheblich größer ist als der kritische. Es kann also davon ausgegangen werden, dass in der Grundgesamtheit zwischen dem Geschlecht der Befragten und ihrer Kaufbereitschaft für eine der beiden Automarken ein statistisch signifikanter Zusammenhang besteht. Ein weiteres wichtiges bivariates induktives Verfahren zur Analyse von Daten ist der T-Test zum Vergleich der Mittelwerte voneinander un- E1-1 200 110 300 73 33, Der T-Test prüft auf Mittelwertunterschiede voneinander unabhängigen Stichproben. Aus der Praxis 4-22 Regionale Abverkäufe – Vergleich von Mittelwerten mittels T-Test Ein Anbieter von Bierspezialitäten führt in vergleichbaren Filialen des deutschen Lebensmitteleinzelhandels eine Verkaufsförderungsaktion für sein neues Biermischgetränk durch. Er möchte wissen, ob regionale Unterschiede bezüglich der Konsumentenakzeptanz im Zusammenhang mit der Probieraktion bestehen. Zu diesem Zweck vergleicht er die Abverkäufe in den 8 norddeutschen und den 8 süddeutschen Filialen, in denen die Verkaufsförderungsaktion durchgeführt wurde. Die Ergebnisse der Aktion sind in der Abbildung 4-47 dargstellt. Während in Norddeutschland im Durchschnitt pro Filiale 83,6 Einheiten des neuen Biermischgetränks verkauft wurden, waren es in Süddeutschland lediglich 39,1 Einheiten. Der T-Test, das heißt der Vergleich zwischen dem empirisch ermittelten t-Wert und der Prüfgröße, dem theoretischen t-Wert, ergibt in diesem Fall, dass mit mehr als 99-prozentiger Wahrscheinlichkeit ein statistisch signifikanter Unterschied zwischen den Absatzmengen in Nord- und Süddeutschland angenommen werden kann. Die Nullhypothese, also die Annahme, dass der Unterschied zwischen den Mittelwerten, zufällig ist, muss verworfen werden. Folglich kann der Anbieter davon ausgehen, dass seine Aktion in Norddeutschland erfolgreicher war als in Süddeutschland. Abb. 4-47: Beispieldaten für einen T-Test zum Vergleich der Mittelwerte unabhängiger Stichproben Abgesetzte Einheiten Filiale 1 Filiale 2 Filiale 3 Filiale 4 Filiale 5 Filiale 6 Filiale 7 Filiale 8 Mittelwert Norddeutschland 121 94 66 56 77 70 83 102 39,1 Süddeutschland 45 66 32 21 44 16 56 33 83,6 15-09-17 11:02:54 -o.mangold- o.mangold 175 4.4Datenanalyse abhängiger Stichproben. Zunächst werden für beide Stichproben die Mittelwerte des interessierenden Merkmals (z. B. Einkommen) gebildet. Wenn diese Mittelwerte voneinander abweichen, stellt sich die Frage, ob man mit hinreichender Sicherheit unterstellen kann, dass die Mittelwerte in den beiden Grundgesamtheiten, aus denen die Stichproben entnommen worden sind, wirklich unterschiedlich sind. Die Nullhypothese unterstellt, dass beide Mittelwerte gleich sind, also die gemessenen Unterschiede zwischen ihnen auf zufälligen Streuungen beruhen (Aus der Praxis 4-22). 4.4.3 Multivariate Datenanalyse Multivariate Analysemethoden untersuchen definitionsgemäß die Beziehungen zwischen mindestens drei Variablen. Sie sind vor allem dazu geeignet, Datenstrukturen zu analysieren, denen komplexe Marktforschungsprobleme zugrunde liegen. So lässt sich beispielsweise ein niedrigerer Marktanteil für ein bestimmtes Produkt in der Regel auf eine Vielzahl gleichzeitig wirkender Variablen zurückführen. Das gesamte Spektrum multivariater Ansätze ist schwer überschaubar, alle Varianten verfolgen jedoch ein gemeinsames Ziel: die optimale Verdichtung umfangreicher Datensätze, um die in ihnen verborgenen Informationen verfügbar zu machen. Das am häufigsten angewandte Kriterium zur Strukturierung multivariater Analyseverfahren beruht auf der Unterscheidung danach, ob die Variablen vor der Analyse in abhängige und unabhängige unterteilt werden oder nicht. Wie bereits im Zusammenhang mit der bivariaten Regressionsanalyse erläutert wurde, nimmt man bei Anwendung von Verfahren der Dependenzanalyse einen Kausalzusammenhang an, sodass eine oder mehrere abhängige Variablen von unabhängigen Variablen beeinflusst werden. Deshalb spricht man hier auch von Verfahren zur Überprüfung von Datenstrukturen (Backhaus et al., 2011, S. 13). Ziel ist es, den Einfluss der unabhängigen Variablen auf die abhängigen Dependenz- vs. Interdependenzanalyse als Strukturierungskriterium multivariater Analyseverfahren Abb. 4-48 Überblick über die multivariaten Analyseverfahren Variablen metrisch Variablen nicht metrisch Faktorenanalyse Metrische und nicht metrische Varianten Multidimensionale Skalierung (MDS) Clusteranalyse Metrische und nicht metrische Varianten Conjoint-Analyse Korrespondenzanalyse abhängige Variablen metrisch Dependenzanalyse Interdependenzanalyse abhängige Variablen nicht metrisch Multivariate Analyseverfahren unabhängige Variablen metrisch unabhängige Variablen nicht metrisch unabhängige Variablen metrisch unabhängige Variablen nicht metrisch multiple Regressionsanalyse multiple Varianzanalyse multiple Diskriminanzanalyse Logitanalyse (Quelle: in Anlehnung an Berekoven et al., 2009, S. 201 und Homburg et al., 2008, S. 164) 15-09-17 11:02:54 -o.mangold- o.mangold 176 4.4 MarktforschungDatenanalyse Abb. 4-49 Zielsetzung und Anwendungsbereiche wichtiger multivariater Analyseverfahren Multivariate Verfahren der Interdependenzanalyse Analyseverfahren Grundgedanke, Zielsetzung Beispiel für die Anwendung in der Marktforschung Faktorenanalyse Reduzierung einer Vielzahl metrisch skalierter Variablen, welche die interessierenden Objekte beschreiben, zur besseren Interpretation auf wenige wesentliche Dimensionen (Faktoren). Lassen sich die vielen Eigenschaften eines Autos, die Konsumenten beim Kauf berücksichtigen, auf einige wenige Nutzen stiftende Faktoren (z. B. Sicherheit, Wirtschaftlichkeit), die voneinander unabhängig sind, reduzieren? Korrespondenzanalyse Simultane Darstellung von Objekten und der sie charakterisierenden nominal skalierten Merkmale als Punkte in einem gering dimensionierten Raum. Wie lassen sich konkurrierende Automarken und die ihnen von den Konsumenten zugeordneten Eigenschaften (»trifft zu« bzw. »trifft nicht zu«) in einer zwei- oder dreidimensionalen Grafik positionieren? Clusteranalyse Zusammenfassung von Objekten zu Gruppen (Clustern). Die Gruppen sind hinsichtlich der sie beschreibenden Merkmale möglichst homogen, zwischen den Gruppen sollen die Unterschiede möglichst groß sein. Wie können Autokäufer nach kaufverhaltensrelevanten Merkmalen (Soziodemografie, Psychografie, Kaufverhalten) segmentiert werden, um eine differenzierte Bearbeitung der identifizierten Segmente durchzuführen? Multidimensionale Skalierung Darstellung der auf ganzheitlichen Ähnlichkeitsurteilen basierenden Relationen zwischen Objekten in einer gering dimensionierten räumlichen Darstellung. Positionierung konkurrierender Automarken auf der Grundlage von globalen Ähnlichkeitsurteilen der Konsumenten. Multivariate Verfahren der Dependenzanalyse Analyseverfahren Grundgedanke, Zielsetzung Beispiel für die Anwendung in der Marktforschung Multiple Varianzanalyse Analyse des Einflusses einer oder mehrerer nominal skalierter unabhängiger Variablen auf eine oder mehrere metrisch skalierte abhängige Variablen. Gibt es einen signifikanten Unterschied in der Beurteilung eines neuen Automodells in Abhängigkeit der Altersgruppe bzw. Einkommensklasse der Befragten? Multiple Diskriminanzanalyse Analyse von Gruppenunterschieden, indem eine Menge von Objekten vorgegebenen Gruppen oder Klassen zugeordnet und anschließend untersucht wird, durch welche Merkmale sich die Zugehörigkeit der Objekte zu den gebildeten Gruppen erklären lässt. Welche Merkmale (z. B. Haushaltsgröße, Lebensstil) von Autokäufern sind dafür verantwortlich, dass eine Kundengruppe Dieselmotoren, eine andere Benzinmotoren und eine dritte Elektromotoren bevorzugt? Multiple Regressionsanalyse Analyse der Art und der Stärke des Einflusses unabhängiger (gegebener) Variablen auf abhängige (zu erklärende) Variablen. Wie beeinflussen der Verkaufspreis und das Werbebudget die Absatzmenge für ein neues Automodell? Conjoint-Analyse Ermittlung des Einflusses einzelner Merkmale auf die Gesamtbeurteilung von Produkten auf der Basis ganzheitlicher Objektbeurteilungen. Welchen Beitrag leisten verschiedene innovative Eigenschaften (z. B. Kurvenlicht) eines neuen Automodells zu dessen Gesamtbeurteilung? 15-09-17 11:02:54 -o.mangold- o.mangold 177 4.4Datenanalyse Variablen möglichst genau zu beschreiben bzw. zu erklären. Zu den Verfahren der Dependenzanalyse zählen insbesondere die multiplen Varianten der Regressions-, Varianz- und Diskriminanzanalyse sowie die Conjoint-Analyse. Demgegenüber erfolgt bei der Interdependenzanalyse keine Unterscheidung zwischen abhängigen und unabhängigen Variablen, weshalb sie auch als Strukturen entdeckende Verfahren bezeichnet werden. Das Ziel dieser Analyseart besteht vielmehr darin, die wechselseitigen Beziehungen zwischen den Variablen zu untersuchen, ohne die Richtung des Zusammenhangs vorher festzulegen. Zu dieser Gruppe der multivariaten Analyseverfahren zählen Faktorenanalyse, Korrespondenzanalyse, Clusteranalyse und Multidimensionale Skalierung (MDS). Eine weitergehende Unterteilung der multivariaten Analyseverfahren kann danach erfolgen, welches Messniveau die zu untersuchenden Variablen aufweisen müssen, damit ein bestimmtes Verfahren anwendbar ist. Die Abbildung 4-48 liefert einen Überblick über die wichtigsten Verfahren der multivariaten Datenanalyse, strukturiert nach den beiden erläuterten Einteilungskriterien. Die Auswahl des geeigneten multivariaten Verfahrens hängt letztlich jedoch nicht nur von den Beziehungen zwischen den Variablen bzw. Objekten ab, im Mittelpunkt steht das vorliegende Marktforschungsproblem, das gelöst werden soll. Die Abbildung 4-49 enthält eine Übersicht über die Zielsetzungen und Anwendungsbereiche der wichtigsten multivariaten Analyseverfahren, die im Folgenden in der gebotenen Kürze näher erläutert werden. An den entsprechenden Stellen im Text wird auf die weiterführende Literatur verwiesen. 4.4.3.1 Multivariate Verfahren der Interdependenzanalyse Verfahren der Interdependenzanalyse unterscheiden – wie die Abbildung 4-48 zeigt – nicht zwischen abhängigen und unabhängigen Variablen, sondern untersuchen vielmehr die Struktur der wechselseitigen Beziehungen zwischen den interessierenden Variablen. Sie verfolgen das Ziel, komplexe bzw. umfangreiche Datenstrukturen zu verdichten, indem sie entweder die Beziehungen zwischen einer bestimmten An- Strukturierung multivarater Analyseverfahren anhand des Messniveaus der Variablen. Interdependenzanalysen untersuchen die Struktur der wechselseitigen Beziehungen zwischen den interessierenden Variablen. zahl von Objekten nicht auf den ursprünglichen Variablen, sondern auf wenigen neuen Dimensionen abbilden (Faktorenanalyse, Korrespondenzanalyse, Multidimensionale Skalierung), oder indem sie die Objekte entsprechend ihrer Ähnlichkeit zu möglichst homogenen Gruppen zusammenfassen (Clusteranalyse). Zu den wichtigsten Verfahren der Interdependenzanalyse zählt die Faktorenanalyse. Ihr Einsatz ist immer dann sinnvoll, wenn zur Lösung einer Problemstellung eine Vielzahl metrisch skalierter Variablen erhoben wurde, die zu Interpretationszwecken auf wenige wesentliche Dimensionen reduziert werden sollen. Die grundlegende Idee der Faktorenanalyse besteht folglich in der Annahme, dass jeweils hinter mehreren Untersuchungsvariablen, die mehr oder weniger stark zusammenhängen, eine grundlegende, nicht direkt messbare (latente) Variable steht, die als Faktor bezeichnet wird. Die komplexen Beziehungen zwischen den Variablen sollen auf diese Weise auf die zentralen übergeordneten Sachverhalte zurückgeführt werden (Hüttner/Schwarting, 2002, S. 296). Das grundlegende Ziel der Faktorenanalyse besteht folglich darin, aus einer größeren Anzahl beobachteter Merkmale (z. B. Produkteigenschaften), welche die interessierenden Objekte (z. B. konkurrierende Produkte) beschreiben, diejenigen Faktoren abzuleiten, die möglichst einfach und hinreichend genau diese Beobachtungen widerspiegeln und erklären. Die Verdichtung der Ausgangsvariablen zu einigen (wenigen) Faktoren führt gegenüber der Ausgangsmatrix zu einem mehr oder weniger hohen Informationsverlust. Dieser Verlust an erklärter Varianz wird jedoch Mittels Faktorenanalyse wird eine Vielzahl metrisch skalierter Variablen zu Interpretationszwecken auf wesentliche Dimensionen reduziert (Bündelung von Variablen). Abb. 4-50 Ablaufschritte der Faktorenanalyse Erstellung der Datenmatrix Berechnung der Korrelationsmatrix Bestimmung der Anzahl der Faktoren Rotation und Interpretation der Faktoren (Quelle: in Anlehnung an Homburg, 2014, S. 102) 15-09-17 11:02:54 -o.mangold- o.mangold 178 4.4 MarktforschungDatenanalyse bewusst in Kauf genommen, da die Reduzierung der Anzahl an Variablen zur Erhöhung der Aussagekraft umfangreicher Datenmengen beiträgt (Backhaus et al., 2011, S. 333). Im Rahmen der Erforschung des Konsumentenverhaltens werden beispielsweise Einstellungen und Wertesysteme von Konsumenten häufig mit Hilfe umfangreicher Statement-Batterien erfasst. Durch den Einsatz der Faktorenanalyse lassen sich dann die wichtigsten Einstellungs- bzw. Werte-Dimensionen anhand weniger Faktoren beschreiben. Auch zur Positionierung von Produkten im Konkurrenzumfeld kommt die Faktorenanalyse zum Einsatz. Die zahlreichen Eigenschaften, durch die sich die Produkte charakterisieren lassen, können auf wenige Beurteilungsdimensionen (Faktoren) reduziert werden. Der Einsatz der Faktorenanalyse erweist sich bei großen Datenmengen generell als vorteilhaft, da wenige extrahierte Faktoren (so genannte »Supervariablen«) häufig sehr viel besser interpretiert werden können als viele untereinander korrelierende Daten, welche einen fundierten Einblick in die wesentlichen Strukturen verhindern (vgl. Meffert et al., 2015, S. 164). Die Durchführung einer Faktorenanalyse lässt sich idealtypisch in vier Schritte unterteilen, wie sie in der Abbildung 4-50 dargestellt sind. Abb. 4-52 Korrelationsmatrix der Faktorenanalyse – dargestellt am Beispiel Attraktivität Preis Geschmack Vitamingehalt Zuckergehalt Image Kaloriengehalt Attraktivität Verpackung Durstlöschung Attraktivität Preis 1,000 Geschmack – 0,417 1,000 Vitamingehalt – 0,034 – 0,508 1,000 Zuckergehalt – 0,352 0,787 – 0,822 1,000 Image – 0,689 0,121 0,274 0,132 1,000 Kaloriengehalt – 0,615 0,818 – 0,598 0,881 0,131 1,000 Attraktivität Verpackung – 0,566 0,279 – 0,369 0,505 0,745 0,325 1,000 Durstlöschung 0,325 – 0,826 0,718 – 0,850 0,219 – 0,930 – 0,087 1,000 (Quelle: Homburg, 2014, S. 103) Abb. 4-51 Ausgangsdatenmatrix der Faktorenanalyse – dargestellt am Beispiel Attraktivität Preis Geschmack Vitamingehalt Zuckergehalt Image Kaloriengehalt Attraktivität Verpackung Durstlöschung Cola 2 5 1 7 5 7 4 1 Eiskaffee 4 3 1 4 2 5 2 2 Apfelschorle 7 2 6 1 3 1 1 7 Eistee 5 3 2 3 4 2 4 6 Fruchtsaft 2 4 6 2 4 4 2 4 Wellnessdrink 1 2 6 2 6 3 4 7 (Quelle: Homburg, 2014, S. 103) 15-09-17 11:02:54 -o.mangold- o.mangold 179 4.4Datenanalyse Die Vorgehensweise im Rahmen der Faktorenanalyse soll im Folgenden anhand eines einfachen Beispiels verdeutlicht werden (Homburg, 2014, S. 101 ff.). Als Datengrundlage dient die Bewertung verschiedener Erfrischungsgetränke bezüglich acht vorgegebener Variablen anhand einer siebenstufigen Skala (1 = niedrig, 7 = hoch). Zunächst wird eine zweidimensionale Datenmatrix erstellt (vgl. Abbildung 4-51). Die Variablen werden in den Spalten und die Objekte, welche durch die Variablen beschrieben werden, in den Zeilen angeordnet. Trifft die Annahme zu, dass die betreffenden Variablen untereinander in hohem Maße korrelieren, dann lassen sich die Objekte durch wenige hinter den vielen Variablen verborgene Faktoren beschreiben bzw. Unterschiede zwischen den Objekten erklären. Der zweite Schritt besteht in der Erstellung der Korrelationsmatrix. Hierbei handelt es sich um eine quadratische Matrix, in deren Zellen sich die Korrelationskoeffizienten von jeweils zwei Variablen befinden (zur Korrelationsanalyse vgl. Kapitel 4.4.2). Ein hoher positiver bzw. negativer Korrelationskoeffizient deutet auf einen starken positiven bzw. negativen Zusammenhang zwischen zwei Variablen hin. Die berechneten Korrelationen zwischen den Merkmalen, welche die Erfrischungsgetränke charakterisieren, enthält die Abbildung 4-52. Es fällt beispielsweise die starke positive Korrelation (+0,881) zwischen den Variablen Zuckergehalt und Kaloriengehalt auf. Stark zusammenhängende Variablen werden anschließend zu einem ihnen zugrunde liegenden Faktor verdichtet. Im dritten Schritt muss die Anzahl der zu extrahierenden Faktoren festgelegt werden. Ein geeignetes Kriterium ist in diesem Zusammenhang derjenige Anteil der Varianz in den Daten, der durch die Berücksichtigung eines zusätzlichen Faktors erklärt werden kann. Die so genannten Faktorladungen einer Variablen geben dann die Stärke des Zusammenhangs zwischen der Variablen und den extrahierten Faktoren an. Im vorliegenden Beispiel ergeben sich zwei extrahierte Faktoren. Die Faktorladungsmatrix in Abbildung 4-53 zeigt jedoch, dass beispielsweise die Variable »Attraktivität der Verpackung« mit beiden Faktoren positiv zusammenhängt, während die Variable »Attraktivität des Preises« hohe negative Faktorladungen für beide Faktoren aufweist. Die fehlende eindeutige Zuordnung erschwert die Interpretation der Ergebnisse. Um die Interpretation der Faktoren zu erleichtern, werden die extrahierten Faktoren so rotiert, dass jede Variable möglichst nur auf einem Faktor hoch lädt. Die rotierten Faktor- Abb. 4-53 Unrotierte und rotierte Faktorladungsmatrix – dargestellt am Beispiel Unrotierte Faktorladungsmatrix Rotierte Faktorladungsmatrix Faktor 1 Faktor 2 Faktor 1 Faktor 2 Attraktivität Preis – 0,566 – 0,671 Attraktivität Preis – 0,261 – 0,838 Geschmack 0,864 – 0,101 Geschmack 0,835 0,243 Vitamingehalt – 0,724 0,435 Vitamingehalt – 0,836 0,120 Zuckergehalt 0,955 – 0,117 Zuckergehalt 0,926 0,263 Image 0,212 0,954 Image – 0,175 0,961 Kaloriengehalt 0,953 – 0,060 Kaloriengehalt 0,901 0,314 Attraktivität Verpackung 0,527 0,665 Attraktivität Verpackung 0,228 0,817 Durstlöschung – 0,885 0,408 Durstlöschung – 0,974 0,032 (Quelle: Homburg, 2014, S. 104 f.) 15-09-17 11:02:54 -o.mangold- o.mangold 180 4.4 MarktforschungDatenanalyse ladungen bilden schließlich die Grundlage der Interpretation der extrahierten Faktoren. Diejenigen Variablen, die mit einem Faktor in einem starken positiven Zusammenhang stehen, bilden die Grundlage für eine geeignete Beschreibung des betreffenden Faktors. Im vorliegenden Beispiel werden einige Eigenschaften durch den ersten Faktor mit dem »Genusserlebnis« beim Verzehr der Erfrischungsgetränke umschrieben, während die übrigen Variablen unter dem Aspekt »Kauferlebnis« zusammengefasst werden. Ebenso wie die Faktorenanalyse dient die Korrespondenzanalyse dazu, eine größere Anzahl mehr oder weniger stark zusammen- Die Korrespondenzanalyse stellt die Zusammenhänge zwischen nominalskalierten Merkmalen in einem gering dimensionierten Raum dar. hängender Merkmale, welche die interessierenden Objekte beschreiben, auf wenige wesentliche Dimensionen zu reduzieren (Backhaus/Meyer, 1988, S. 295). Die Besonderheit dieses Verfahrens besteht jedoch darin, dass die zu analysierenden Daten nominales Skalenniveau aufweisen. Das Ziel der Korrespondenzanalyse besteht allgemein darin, die Zeilen und Spalten einer zweidimensionalen Kreuztabelle (Kontingenztabelle) so zu analysieren, dass sie simultan als Punkte in einem gering dimensionierten Raum darstellbar sind (Scharf, 1991, S. 199). Die Korrespondenzanalyse kommt in der Marktforschung vor allem zur Konstruktion von Produktpositionierungsmodellen zum Einsatz, das heißt zur räumlichen Darstellung konkurrierender Produkte und der sie charakterisierenden Eigenschaften (vgl. Kapitel 4.4.3.1). Die Möglichkeit, nominal skalierte Daten zu verarbeiten, ist mit dem Vorteil verbunden, zur Datenerhebung das Zuordnungsverfahren einzusetzen zu können. Die Befragten werden folglich dazu aufgefordert, die Produkte danach zu beurteilen, ob sie die vorgegebenen Merkmale aufweisen oder nicht. Auf den Einsatz von Ratingskalen, durch welche die Datenerhebung häufig zeitaufwändig und ermüdend ist, da jedem Produkt für jedes Merkmal ein Skalenwert zugeordnet werden muss, kann also verzichtet werden. Die Abbildung 4-54 enthält ein Beispiel für die Datenerhebung mittels Zuordnungsverfahren. Die Durchführung der Korrespondenzanalyse lässt sich in fünf Schritte unterteilen, die in der Abbildung 4-55 dargestellt sind. Ausgangspunkt für die Analyse ist eine rechteckige Matrix, wobei in jeder Zelle die Abb. 4-54 Beispiel für die Erhebung nominalskalierter Daten mittels Zuordnungsverfahren Auf welche Kleinwagenmarke(n) trifft die folgende Eigenschaft zu? (Bitte kreuzen Sie die entsprechenden Marken an! Sie können eine, aber auch mehrere, alle oder keine Marke ankreuzen) »Diese Kleinwagenmarke zeichnet sich durch ein ansprechendes Design aus.« Nissan Micra Opel Corsa Toyota Yaris VW Polo Suzuki Swift Renault Clio Seat Ibiza Skoda Fabia Abb. 4-55 Ablaufschritte der Korrespondenzanalyse Erstellung der Ausgangs- Datenmatrix Bildung der Spalten- und Zeilenprofile Festlegung der geometrischen Schwerpunkte der Produkte und Merkmale Berechnung der Distanzen zw. den Produkten und zwischen den Merkmalen Berechnung der Gesamtstreuung in den Daten u. Reduzierung der Dimensionen (Quelle: in Anlehnung an Scharf, 1991, S. 210 ff.) 15-09-17 11:02:54 -o.mangold- o.mangold 181 4.4Datenanalyse Häufigkeit abgetragen wird, mit der das betreffende Merkmal dem betreffenden Objekt zugeordnet wird (Hüttner/Schwarting, 2002, S. 289). Die absoluten Häufigkeiten werden dann in relative Häufigkeiten bezüglich der beiden Randverteilungen transformiert. Zur Erstellung dieser so genannten Zeilen- und Spaltenprofile muss man die Häufigkeit jeder Zelle (Spalte) durch die zugehörige Zeilensumme (Spaltensumme) dividieren, um eine Normierung der Ausgangdaten zu erhalten. Aus den relativen Häufigkeiten werden dann die Chi- Quadrat-Distanzen als Maße für die Streuung der beobachteten Werte um die erwarteten Werte berechnet. Anschließend wird die Matrix mit den standardisierten Daten einer Dimensionsreduktion unterzogen, um die Objekte und die Merkmale in einem gering dimensionierten Raum bei minimalem Verlust an Informationen darstellen zu können (vgl. Backhaus et al., 2011, S. 549 f.). Das Ergebnis einer Korrespondenzanalyse besteht in einer zwei- oder dreidimensionalen Abbildung, in der die Objekte und die sie charakterisierenden Merkmale gemeinsam angeordnet sind. Je näher zwei Produkte räumlich positioniert sind, desto ähnlicher werden sie von den Konsumenten wahrgenommen. Ein Produkt zeichnet sich besonders durch diejenigen Eigenschaften aus, die in der gleichen Richtung positioniert sind. Folgendes Beispiel soll die Analyse umfangreicher zweidimensionaler Häufigkeitstabellen mittels Korrespondenzanalyse veranschaulichen. Im Rahmen einer Imageanalyse wurden 120 Konsumenten im Alter von 18 bis 30 Jahren gebeten, insgesamt 8 Kleinwagenmarken anhand von 13 Aussagen zu beurteilen. Die Abbildung 4-56 veranschaulicht das Ergebnis der Datenerhebung mittels Zuordnungsverfahren. Beispielsweise sind nur 7 Befragte der Meinung, dass sich der Nissan Micra durch ein ansprechendes Design auszeichnet. Demgegenüber ordnen 77 Personen dieses Merkmal dem Suzuki Swift zu. Aufgrund unterschiedlicher Randhäufigkeiten (Spaltenund Zeilensummen) lassen sich die absoluten Häufigkeiten in den Zellen der Matrix jedoch Die Korrespondenzanalyse wird häufig für Produktpositionierungsmodelle genutzt. Abb. 4-56 Ausgangsdaten der Korrespondenzanalyse – Kreuztabelle der absoluten Häufigkeiten für das Beispiel Kleinwagenmarken an sp re ch en de s De si gn ho he r Fa hr ko m fo rt ni ed ri ge r Ve rb ra uc h gu te s Pr ei s- Le is tu ng s- Ve rh . be so nd er er Fa hr sp aß fü r be so nd er s sp or tl . Fa hr er he rv or ra ge nd e pa ss iv e Si ch er h. be so nd er s gu te Au ss ta tt un g eh er f ür F ra ue n ge ei gn et ho he V er ar be it un gs qu al it ät ty pi sc he r Zw ei tw ag en vo r al le m f ür ju ng e Le ut e gr oß es Pl at za ng eb ot ∑ Nissan Micra 7 41 88 66 6 12 20 17 71 19 89 23 22 481 Opel Corsa 11 33 93 23 7 25 31 21 56 21 66 6 34 427 Toyota Yaris 30 81 45 67 11 9 77 67 67 81 59 56 50 700 VW Polo 21 89 25 29 29 35 87 43 41 86 88 33 56 662 Suzuki Swift 77 14 22 23 66 93 23 30 21 35 71 87 29 591 Renault Clio 33 32 33 56 33 45 69 69 45 46 55 21 30 567 Seat Ibiza 68 32 19 78 67 76 34 33 14 20 31 88 41 601 Skoda Fabia 45 21 76 81 21 31 23 40 8 31 46 25 45 493 ∑ 292 343 401 423 240 326 364 320 323 339 505 339 307 4522 15-09-17 11:02:54 -o.mangold- o.mangold 182 4.4 MarktforschungDatenanalyse nicht direkt vergleichen, sondern müssen – wie oben beschrieben – transformiert werden. Als Ergebnis der mittels Korrespondenzanalyse analysierten Kreuztabelle erhält man eine zweidimensionale grafische Darstellung, welche die Abbildung 4-57 zeigt. Die prozentualen Angaben an den Achsen geben Auskunft über die Erklärungskraft der räumlichen Darstellung. Der durch die ersten beiden Dimensionen erklärte Anteil der Streuungsinformationen der Ausgangsdaten beträgt hier also 78 Prozent. Die Abbildung 4-57 liefert einen Einblick in die Wahrnehmung der verschiedenen Kleinwagen aus Sicht der Befragten. So werden beispielsweise die Kleinwagenmarken Nissan Micra und Opel Corsa sehr ähnlich wahrgenommen, weil sich beide unter anderem durch einen niedrigen Verbrauch auszeichnen. Die Clusteranalyse zählt ebenfalls zu den Verfahren der Interdependenzanalyse. Im Gegensatz zur Faktoren- bzw. Korrespondenzanalyse versucht man mit ihrer Hilfe die Komplexität von Datensätzen dadurch zu reduzieren, dass man die Objekte zu Gruppen, den so genannten Clus- Mittels Clusteranalyse werden Untersuchungsobjekte zu möglichst homogenen Gruppen zusammengefasst (Bündelung von Objekten). tern, zusammenfasst. Die mittels Clusteranalyse gebildeten Gruppen sollen hinsichtlich der sie beschreibenden Merkmale möglichst homogen sein, und zwischen den Gruppen sollen die Unterschiede möglichst groß sein (vgl. Jensen, 2008, S. 337; Berekoven et al., 2009, S. 212). Das Hauptanwendungsgebiet der Clusteranalyse im Rahmen des Marketing ist die Marktsegmentierung (vgl. Kapitel 5.2.3). Die Klassifikation von Nachfragern nach kaufverhaltensrelevanten Merkmalen bildet die Grundlage jeder differenzierten Marktbearbeitung. Auf der Grundlage von Ähnlichkeiten bezüglich sozio- ökonomischer, psychografischer und/oder verhaltensbezogener Merkmale ist es das Ziel der Clusteranalyse, die Konsumenten in möglichst homogene Segmente zu unterteilen, wobei dann jedes identifizierte Segment mit einem spezifischen Marketing-Mix bearbeitet werden kann. Auch die umfangreichen Analysen zur Bildung von Konsumententypen beruhen auf der Clusteranalyse (vgl. Aus der Praxis 5-15). Der Ablauf der Clusteranalyse kann – analog zu den anderen multivariaten Verfahren – in SP myBook Fallstudie zur Produktpositionierung der Smartphone-Marke htc im Wettbewerbsumfeld sp-mb.de/qr/mark/407 Abb. 4-57 Ergebnis der Korrespondenzanalyse – simultane grafische Darstellung der konkurrierenden Kleinwagen und der ihnen zugeschriebenen Eigenschaften im zweidimensionalen Raum F2 (24,39%) F1 (53,58%) 0,4 0,4 –0,4 0 0,8 –0,8 –0,4 0,8–0,8 1,2–1,2 1,6–1,6 0 passive Sicherh.hohe Qualität hoher Fahrk. gute Ausstattung gr. Platzangebot für junge Leute bes. Fahrspaß sportl. Fahrer anspr. Design niedr. Verbrauch für Frauen typ. Zweitwagen gutes Pr./Leist. VW Polo Nissan Micra Skoda Fabia Toyota Yaris Suzuki Swift Seat Ibiza Opel Corsa Renault Clio 15-09-17 11:02:54 -o.mangold- o.mangold 183 4.4Datenanalyse klar abgrenzbare Schritte unterteilt werden, die in der Abbildung 4-58 dargestellt sind. Nachdem die Entscheidung getroffen wurde, welche Merkmale im Rahmen der Clusteranalyse berücksichtigt werden sollen, muss zunächst die Matrix mit den Ausgangsdaten erstellt werden. Darin sind die Objekte in den Zeilen und die sie charakterisierenden Merkmale in den Spalten angeordnet, in jeder Zelle wird die Ausprägung eines Objektes hinsichtlich eines Merkmals abgetragen. Die Ausgangsdaten können unterschiedliche Skalenniveaus aufweisen, das heißt, die interessierenden Objekte lassen sich auf der Basis metrisch und/oder nicht metrisch skalierter Variablen gruppieren. Falls gleichzeitig Merkmale mit unterschiedlichem Skalenniveau berücksichtigt werden sollen, ist es sinnvoll, vor der Durchführung der Clusteranalyse eine Standardisierung aller Merkmale vorzunehmen (Jensen, 2008, S. 345). Um im nächsten Schritt die Distanzmatrix erstellen zu können, muss ein geeignetes Proximitätsmaß ausgewählt werden, mit dem die Ähnlichkeit bzw. Unähnlichkeit zwischen zwei Objekten im Hinblick auf die sie beschreibenden Merkmale gemessen werden kann. Welches Proximitätsmaß geeignet ist, hängt vom Messniveau der vorliegenden Daten ab. Bei nominal bzw. ordinal skalierten Variablen kommen verschiedene Ähnlichkeitsmaße, bei intervall- oder verhältnisskalierten Daten zusätzlich Distanzmaße zum Einsatz (Backhaus et al., 2011, S. 401). Ein gebräuchliches Distanzmaß zur Ermittlung der Unähnlichkeit zwischen zwei Objekten ist die quadrierte euklidische Distanz. Für jedes Objektpaar wird die Ähnlichkeit bzw. Unähnlichkeit ermittelt und die ermittelten Werte in die Zellen der Distanzmatrix eingetragen. Welche Objekte zu möglichst homogenen Gruppen zusammengefasst werden, hängt entscheidend von der Auswahl des Clusteralgorithmus ab. Es existiert eine Vielzahl von Möglichkeiten, auf die an dieser Stelle jedoch nicht detailliert eingegangen werden kann, sondern auf die einschlägige Literatur verwiesen wird (vgl. z. B. Bacher, 2010, S. 153 ff.; Backhaus et al., 2011, S. 417 ff.; Jensen, 2008, S. 346 ff.). Von großer praktischer Relevanz für die Marktforschung sind die so genannten hierarchischagglomerativen Clusteralgorithmen. Deren Ausgangspunkt bildet die feinste Gruppierung, was bedeutet, dass jedes Objekt ein eigenes Cluster bildet. In einem ersten Clusterungsschritt werden dann die beiden Objekte zu einem neuen Cluster zusammengefügt, welche die geringste Distanz zueinander aufweisen. Die Distanzen zwischen dem neuen Cluster und den restlichen Clustern werden wiederum berechnet und nach dem Kriterium der geringsten Distanz eine weitere Zusammenführung vorgenommen. Diese Vorgehensweise wird solange wiederholt, bis am Ende alle Untersuchungsobjekte in einem Cluster zusammengefasst wurden. Jedes Objekt verbleibt stets in dem einmal zugewiesenen Cluster. Im Verlauf der weiteren Agglomeration wird dieses Cluster lediglich durch neue Objekte bzw. Cluster erweitert (vgl. Meffert, 1992, S. 273; Büschken/von Thaden, 2000, S. 351). Die grafische Darstellung der schrittweisen Zusammenfassung der Objekte zu Clustern erfolgt üblicherweise mittels Dendrogramm. Abb. 4-58 Ablaufschritte der Clusteranalyse (Quelle: in Anlehnung an Homburg, 2014, S. 105 f.) Auswahl der Clustervariablen und Erstellung der Ausgangsdatenmatrix Auswahl des Proximitätsmaßes und Erstellung der Distanzmatrix Auswahl eines geeigneten Clusteralgorithmus Bestimmung der optimalen Clusterzahl Benennung und Beschreibung der Cluster 15-09-17 11:02:54 -o.mangold- o.mangold 184 4.4 MarktforschungDatenanalyse Den Ausgangspunkt bilden die Mittelwerte, welche die Cluster bezüglich der Merkmale aufweisen, auf deren Grundlage die Clusteranalyse durchgeführt wurde. Um den weiteren Umgang mit den Ergebnissen der Clusteranalyse zu erleichtern, empfiehlt es sich, jedes Cluster mit einem griffigen Namen (z.B. die »Genießer«, die »Sparsamen«) und einer kurzen differenzierenden Beschreibung zu versehen. Abschließend soll die Durchführung der Clusteranalyse wiederum anhand eines einfachen Beispiels veranschaulicht werden: Der Anbieter einer bekannten Frischkäse- Marke hat eine neue Variante entwickelt und möchte nun wissen, wie die aktuellen Verwender der Marke dieses neue Angebot beurteilen. Zum leichteren Verständnis der Clusteranalyse werden hier nur 5 der insgesamt 100 befragten Kon- Die Bestimmung der optimalen Clusterzahl ist ein weiteres wichtiges Entscheidungsproblem, für dessen Lösung jedoch keine eindeutige bzw. feststehende Regel existiert. Hilfreich ist bei der Verwendung von Distanzmaßen eine grafische Darstellung, bei der die Fehlerquadratsumme (Koeffizient in der Zuordnungsübersicht) gegen die zugehörige Clusterzahl in einem Koordinatensystem abgetragen wird. Ein Knick im Diagramm zeigt dann an, bei welcher Clusterzahl es im Gruppierungsprozess zu einer überproportionalen Zunahme des Heterogenitätsmaßes kommt. Dieses so genannte »Elbow«-Kriterium unterstützt die Entscheidung bezüglich der Bestimmung der optimalen Clusterzahl (vgl. Backhaus et al., 2011, S. 436 f.). In einem letzten Schritt müssen die identifizierten Cluster benannt und beschrieben werden. Abb. 4-59 Rohdatenmatrix und Distanzmatrix (quadrierte euklidische Distanz) der fünf Verwender Bewertung der sensorischen Eigenschaften (Akzeptanzurteile) Personen (Verwender) Aussehen Geruch Geschmack P1 2 1 1 P2 3 3 2 P3 2 1 3 P4 4 7 5 P5 7 6 6 (1 = sehr schlecht; 7 = sehr gut) P1 P2 P3 P4 P5 P1 – P2 6 – P3 4 6 – P4 56 26 44 – P5 75 41 59 11 – d2P1P3 = 02 + 02 + 22 = 4 d2P1P5 = 52 + 52 + 52 = 75 15-09-17 11:02:54 -o.mangold- o.mangold 185 4.4Datenanalyse sumenten betrachtet, welche die Merkmale »Aussehen«, »Geruch« und »Geschmack« unter Verwendung einer 7-Punkte-Skala (1 = sehr schlecht; 7 = sehr gut) bewerten mussten. Mittels Clusteranalyse lässt sich die Frage beantworten, welche Testpersonen ähnliche bzw. unähnliche Akzeptanzurteile bezüglich der drei sensorischen Dimensionen abgegeben haben. Die obere Tabelle der Abbildung 4-59 enthält die Akzeptanzwerte der fünf betrachteten Verwender. Diese bilden die Grundlage für die Berechnung der quadrierten euklidischen Distanzen zwischen den Personen, das heißt, die Unterschiede zwischen zwei Personen bezüglich der drei Merkmale werden quadriert und anschlie- ßend aufaddiert. Der größte Unterschied besteht zwischen der Person 1, welche die neue Variante besonders schlecht bewertet, und der Person 5, welche die neue Variante besonders gut bewertet. Am ähnlichsten sind sich die Urteile der Personen 1 und 3. In einem Dendrogramm (Abbildung 4-60) lassen sich die Agglomerationsschritte grafisch darstellen. Zuerst werden die beiden Personen mit der kleinsten Distanz zusammengefasst (P1 und P3), im letzten Agglomerationsschritt wird dem Cluster mit den Personen 1, 2 und 3 das Cluster aus den Personen 4 und 5 hinzugefügt. Aus dem Dendrogramm wie auch aus der grafischen Gegenüberstellung der Fehlerquadratsumme und der Clusterzahl (»Elbow«-Kriterium) lässt sich die optimale Anzahl an Clustern abzuleiten. Die Personen P1, P2 und P3 befinden sich in Cluster bzw. Segment 1, weil sie die neue Variante bezüglich aller Merkmale vergleichsweise schlecht beurteilen, während die Personen P4 und P5 dem Cluster bzw. Segment 2 zuzuordnen sind, weil sie die neue Variante überdurchschnittlich gut beurteilen. Dieses Ergebnis deutet darauf hin, dass nur ein Teil der Verwenderschaft die neue Variante akzeptiert. Das Ziel der Multidimensionalen Skalierung (MDS) besteht darin, die Ähnlichkeiten bzw. Unähnlichkeiten zwischen Objekten in einer gering dimensionierten räumlichen Darstellung zu visualisieren. Im Gegensatz zur Faktoren- oder Korrespondenzanalyse erfolgt die Einschätzung der Objekte hier aber nicht attributiv, das heißt anhand einer Reihe vorgegebener Eigenschaften, sondern über ganzheitliche Ähnlichkeitsurteile. Es bleibt folglich den Befragten überlassen, welche Eigenschaften sie heranziehen, um die Ähnlichkeit bzw. Unähnlichkeit zwischen zwei Objekten zu beurteilen. Verzerrungseffekte durch die Vorgabe einer Eigenschaftsliste werden auf diese Weise vermieden. In der Marktforschung gelangt die Multidimensionale Skalierung unter anderem auch zur Konstruktion von Produktpositionierungsmodellen zur Anwendung (vgl. Kapitel 6.4.3.3). Die Multidimensionale Skalierung stellt ganzheitliche (Un-)Ähnlichkeitsurteile zwischen Objekten räumlich dar. Abb. 4-60 Dendrogramm und »Elbow-Kriterium« zur Bestimmung der optimalen Clusterzahl – dargestellt am Beispiel 1 2 3 4 5 Anzahl der Cluster Fehlerquadratsumme Dendrogramm »Elbow«-Kriterium »Elbow«- Kriterium Agglom. Schritt Distanz 1 2 3 4 4 6 26 11 P1 P3 P2 P5 P4 15-09-17 11:02:54 -o.mangold- o.mangold 186 4.4 MarktforschungDatenanalyse Ihr Einsatz ist vor allem dann sinnvoll, wenn keine oder nur unzureichende Informationen über die relevanten Eigenschaften der interessierenden Objekte vorliegen (Backhaus et al., 2011, S. 20). Der Ablauf der Multidimensionalen Skalierung lässt sich – wie die Abbildung 4-61 zeigt – in vier Schritte unterteilen. Die Grundlage der multivariaten Datenanalyse mittels MDS bildet die Ähnlichkeitsmatrix, in der die Ähnlichkeitswerte aller Objektpaare eingetragen sind. Die Messung der Ähnlichkeiten zwischen den Objekten kann auf verschiedene Weise erfolgen. Die Daten können beispielsweise über die Bildung von Ähnlichkeitsrangfolgen gewonnen werden, die Befragte werden also aufgefordert, alle Objektpaare nach der subjektiv empfundenen Ähnlichkeit zu ordnen. Bei der Ankerpunktmethode hingegen dient jedes Objekt einmal als Referenzobjekt für die restlichen Objekte, um diese dann gemäß der Ähnlichkeit zum Ankerpunkt in eine Rangfolge zu bringen. Schließlich haben sich auch Ähnlichkeitsratings bewährt. Jeder Befragte muss in diesem Fall die Ähnlichkeit zwischen jeweils zwei Objekten anhand einer mehrstufigen Ratingskala angeben, und zwar bis er jedes Objekt mit jedem anderen verglichen hat (vgl. Berekoven et al., 2011, S. 544). Um die Objekte in einem grafischen Modell anordnen zu können, müssen die numerischen Ähnlichkeitswerte zwischen zwei Objekten in eine räumliche Distanz transformiert werden, sodass ähnliche Objekte eine geringe Entfernung, unähnliche Objekte hingegen eine große Entfernung zueinander aufweisen. Zu diesem Zweck muss ein geeignetes Distanzmaß ausgewählt werden. Ein gängiges Maß ist die euklidische Distanz, bei der die Relation zwischen zwei Abb. 4-62 Ähnlichkeitsrating und Ähnlichkeitsmatrix für sechs konkurrierende Cola-Marken Coca Cola Wie ähnlich sind sich die beiden folgenden Cola-Marken? Pepsi Cola Afri Cola Sinalco Cola River Cola Vita Cola Coca Cola Pepsi Cola 1 sehr unähnlich 1 2 3 4 5 6 7 sehr ähnlich 15 2 12 8 14 3 11 13 5 9 6 10 7 4 Afri Cola Sinalco Cola River Cola Vita Cola Abb. 4-61 Ablaufschritte der Multidimensionalen Skalierung Erstellung der Ähnlichkeitsmatrix Auswahl des Distanzmodells Berechnung der Konfiguration Interpretation des Wahrnehmungsraumes (Quelle: in Anlehnung an Backhaus et al., 2006, S. 627) 15-09-17 11:02:54 -o.mangold- o.mangold 187 4.4Datenanalyse Objekten im Raum durch ihre kürzeste Entfernung (»Luftweg«) beschrieben wird (Backhaus et al., 2006, S. 511). Der dritte Schritt betrifft die Berechnung der Konfiguration. In einem Raum mit möglichst geringer Dimensionalität sollen die Objekte so angeordnet werden, dass die räumlichen Distanzen zwischen den Objekten möglichst exakt den Werten in der Ähnlichkeitsmatrix entsprechen. Die Bestimmung der besten Konfiguration erfolgt iterativ, als Gütekriterium für die Anpassung verwendet man das so genannte »Stress- Maß«. Geprüft werden muss schließlich anhand des Stress-Wertes, ob eine Transformation der Ähnlichkeiten zwischen den Objekten in räumliche Distanzen in einem zwei- bzw. dreidimensionalen Raum gelungen ist. Die Produktpositionierung mittels Multidimensionaler Skalierung ist in der Marktforschungspraxis mit zwei Problemen behaftet: Erstens steigt der Datenerhebungsaufwand mit der Anzahl der Objekte dramatisch an, da alle Produktpaare miteinander verglichen werden müssen. Zweitens liefert das Verfahren keine Informationen über die Ursachen, das heißt die Eigenschaften, die für die wahrgenommenen Ähnlichkeiten bzw. Unähnlichkeiten und die daraus resultierenden räumlichen Distanzen zwischen den Produkten verantwortlich sind. Abschließend soll der Einsatz der Multidimensionalen Skalierung wiederum anhand eines einfachen Beispiels veranschaulicht werden. 100 Testpersonen wurden aufgefordert, die Ähnlichkeiten zwischen sechs verschiedenen Cola- Marken einzuschätzen. Die ganzheitlichen Ähnlichkeitsurteile zwischen den Objektpaaren wurden mit Hilfe einer siebenstufigen Ratingskala erhoben, die oben in der Abbildung 4-62 dargestellt ist. Die über alle Befragten gemittelten Ähnlichkeitswerte wurden anschließend in eine Ähnlichkeitsrangfolge transformiert, wobei das ähnlichste Produktpaar den Rang 1, das unähnlichste Produktpaar den Rang 15 erhielt. Die entsprechenden Werte enthält die Ähnlichkeitsmatrix in der Abbildung 4-62. Die zweidimensionale Konfiguration, die gemäß Stress-Maß eine sehr gute Anpassung an die Ausgangsdaten in der Ähnlichkeitsmatrix aufweist, lässt erkennen, dass die beiden Marken Coca Cola und Pepsi Cola von den Befragten am ähnlichsten wahrgenommen werden, während sich Afri Cola durch eine vergleichsweise große Distanz zu allen anderen Marken auszeichnet (vgl. Abbildung 4-63). 4.4.3.2 Multivariate Verfahren der Dependenzanalyse Ein Verfahren der Dependenzanalyse, das in der Marktforschung häufig zum Einsatz kommt, ist die Varianzanalyse. Dieses Verfahren ist vor allem zur Auswertung experimenteller Untersuchungen geeignet, insbesondere zur Überprüfung des Einflusses bestimmter Marketingmaßnahmen (z. B. unterschiedliche Verpackungsdesigns für ein neues Produkt) auf relevante Marketingzielgrößen (z. B. Kaufwahrscheinlichkeit) mit Hilfe eines Experimentes (vgl. Kapitel 4.3.3.1). Ob verschiedene Marktsegmente (z. B. ältere Kunden im Vergleich zu jüngeren Kunden) unterschiedlich auf eine Marketingaktivität (z. B. Radiowerbung) reagieren, ist eine weitere wichtige Fragestellung, die sich mittels Varianzanalyse beantworten lässt. Aus Gründen der Vereinfachung erfolgt die Darstellung der Schritte der Varianzanalyse sowie des Beispiels zur Veranschaulichung der Vorgehensweise nicht anhand der multivariaten Varianzanalyse untersucht, ob ein Einfluss der nominal skalierten, unabhängigen Variable (z.B. Marketingmaßnahme) auf die metrisch skalierte, abhängige Variable (Marketingzielgröße) besteht. Abb. 4-63 Räumliche Anordnung der sechs Cola-Marken in der zweidimensionalen Konfiguration Dim 2 Sinalco Cola Afri Cola River Cola Vita Cola Coca Cola Pepsi Cola Dim 2 –10 –8 –6 –4 –2 2 4 6 80 2 –2 4 –4 6 –6 15-09-17 11:02:54 -o.mangold- o.mangold 188 4.4 MarktforschungDatenanalyse Varianzanalyse, sondern auf der Grundlage des einfachsten Falls – der Analyse des Einflusses einer unabhängigen Variablen auf nur eine abhängige Variable. Die Abbildung 4-64 zeigt den Ablauf der Varianzanalyse im Überblick. Den Ausgangspunkt der Analyse bildet die Spezifizierung des Modells, das heißt die Festlegung der unabhängigen und der abhängigen Variablen nach sachlogischen Überlegungen, welche die Grundlage für die Erstellung der Untersuchungshypothese bilden. Im nächsten Schritt wird die Gesamtstreuung in den Daten in die erklärte und die nicht erklärte Streuung zerlegt und anschließend die Varianz berechnet. Um zu überprüfen, ob ein statistisch gesicherter Einfluss der unabhängigen Variable auf die ab- Abb. 4-65 Ausgangsdaten für das Beispiel zur Varianzanalyse Haushalt Testprodukt Vanilleeis mit Aroma A Vanilleeis mit Aroma B Vanilleeis mit Aroma C 1 10 – – 2 8 – – 3 9 – – 4 9 – – 5 – 8 – 6 – 7 – 7 – 9 – 8 – 8 – 9 – – 5 10 – – 7 11 – – 6 12 – – 5 Mittelwerte 9 8 5,57 Gesamtmittelwert = 7,58 Abb. 4-66 Zerlegung der Gesamtstreuung für das Beispiel zur Varianzanalyse Gesamte Streuung = Erklärte Streuung + Nicht erklärte Streuung Summe der quadrierten Gesamtabweichungen Summe der quadrierten Abweichungen zwischen den Gruppen Summe der quadrierten Abweichungen innerhalb der Gruppen Gesamte Streuung = (10 – 7,58)2 + (8 – 7,58)2 + (9 – 7,58)2 + (9 – 7,58)2 + (8 – 7,58)2 + (7 – 7,58)2 + (9 – 7,58)2 + (8 – 7,58)2 + (5 – 7,58)2 + (7 – 7,58)2 + (6 – 7,58)2 + (5 – 7,58)2 = 28,92 Erklärte Streuung = (9 – 7,58)2 + (9 – 7,58)2 + (9 – 7,58)2 + (9 – 7,58)2 + (8 – 7,58)2 + (8 – 7,58)2 + (8 – 7,58)2 + (8 – 7,58)2 + (8 – 7,58)2 + (5,75 – 7,58)2 + (5,75 – 7,58)2 + (5,75 – 7,58)2 + (5,75 – 7,58)2 = 22,17 Nicht erklärte Streuung = (10 – 9)2 + (8 – 9)2 + (9 – 9)2 + (9 – 9)2 + (8 – 8)2 + (7 – 8)2 + (9 – 8)2+ (8 – 8)2 + (5 – 5,75)2 + (7 – 5,75)2 + (6 – 5,75)2 + (5 – 5,75)2 = 6,75 Abb. 4-64 Ablaufschritte der einfachen Varianzanalyse Berechnung der Varianz in den Daten Spezifizierung des Models und Formulierung der Hypothese Interpretation des Ergebnisses im Hinblick auf die Hypothese Zerlegung der Gesamtstreuung in den Daten Durchführung des Signifikanztests (Quelle: in Anlehnung an Herrmann/Landwehr, 2008, S. 585) 15-09-17 11:02:54 -o.mangold- o.mangold 189 4.4Datenanalyse hängige Variable besteht, wird der empirische F-Wert ermittelt und mit dem kritischen F-Wert aus der F-Tabelle verglichen. Ist der empirische F-Wert größer als der kritische F-Wert, kann die Nullhypothese abgelehnt werden. Anhand eines einfachen Beispiels lässt sich die Durchführung der Varianzanalyse abschlie- ßend veranschaulichen: Zur Herstellung einer neuen Vanilleeis-Marke stehen drei verschiedene Vanille-Aromen zur Auswahl. Um zu klären, welches Aroma aus Sicht der Konsumenten das beste ist, wird ein Haushaltstest durchgeführt, bei dem jeweils vier Haushalte eine Familienpackung Vanilleeis (mit Aroma A, B oder C) zum Verzehr und anschließender Beurteilung erhalten. Die Akzeptanz wird mittels einer Rating- Skala gemessen (1 = »schmeckt sehr schlecht«; 10 = »schmeckt sehr gut«). Die Fragestellung, die es mit Hilfe der Varianzanalyse zu beantworten gilt, lautet: Bestehen signifikante Akzeptanzunterschiede (abhängige Variable) bei potenziellen Käufern in Abhängigkeit von dem im Eis verwendeten Vanillearoma (unabhängige Variable)? Die Nullhypothese besagt in diesem Fall, dass das Vanillearoma keinen Einfluss auf das Akzeptanzurteil der Befragten hat bzw. die Mittelwerte für die drei Testgruppen gleich sind. Die Ausgangsdaten sind in der Abbildung 4-65 dargestellt, während die Abbildung 4-66 veranschaulicht, wie die Gesamtstreuung in den Daten in die erklärte und die nicht erklärte Streuung zerlegt wird. Die Abbildung 4-67 verdeutlicht schließlich, wie man die Varianzen berechnet und den Signifikanztest durchführt. Der auf der Grundlage der vorliegenden Daten berechnete empirische F-Wert ist größer als der kritische F-Wert, der sich auf eine Irrtumswahrscheinlichkeit von einem Prozent bezieht. Die Nullhypothese kann also nicht bestätigt werden, mit mehr als 99-prozentiger Wahrscheinlichkeit werden die Akzeptanzurteile der Befragten durch das Vanillearoma beeinflusst, die Unterschiede zwischen den Mittelwerten sind folglich nicht zufällig zustande gekommen. Wegen der vor der Analyse zu erfolgenden Unterscheidung zwischen unabhängigen und abhängigen Variablen zählt auch die Diskriminanzanalyse zu den multivariaten Verfahren der Dependenzanalyse. Ihr grundlegendes Ziel ist die Analyse von Gruppenunterschieden. Eine Menge von Objekten wird vorgegebenen Gruppen oder Klassen zugeordnet und anschließend untersucht, durch welche Variablen bzw. Merkmale sich die Zugehörigkeit der Objekte zu den gebildeten Gruppen erklären lässt (Frenzen/Krafft, 2008, S. 610). Im Gegensatz zur Regressionsanalyse ist die abhängige Variable bei der Diskriminanzanalyse jedoch nominal skaliert. Der Unterschied zur Clusteranalyse besteht darin, dass die Gruppierung durch die Clusteranalyse erst erzeugt wird, während bei der Diskriminanzanalyse die Gruppen vor der Analyse festgelegt werden müssen (Backhaus et al., 2011, S. 189). In der Marktforschung kommt die Diskriminanzanalyse vor allem zum Einsatz, um das unterschiedliche Verhalten vorher abgegrenzter Kundengruppen zu erklären. Beispielsweise lässt sich aufdecken, welche Merkmale von Nachfragern (z. B. Einkommen, Alter, Lebensstil) dafür verantwortlich sind, dass eine Kundengruppe ein Produkt regelmäßig, eine andere hingegen nur gelegentlich und eine dritte grundsätzlich gar nicht kauft (Homburg, 2015, S. 406 f.). Die Durchführung der Diskriminanzanalyse lässt sich in mehrere Schritte unterteilen, die in der Abbildung 4-68 dargestellt sind. In einem ersten Schritt ist zunächst die abhängige Variable festzulegen und die zu analysierenden Gruppen zu bestimmen. Die Gruppenbildung kann das Ergebnis sachlogischer Überlegungen (z. B. Käufer versus Nicht-Käufer eines Produktes) Mit Hilfe der Diskriminanzanalyse werden vorab definierte Gruppen auf signifikante Unterscheidungen ihrer Merkmale geprüft. Abb. 4-67 Berechnung der Varianz und Durchführung des Signifikanztests für das Beispiel zur Varianzanalyse Streuung Freiheitsgrade Varianz Gesamt 28,92 (12–1) = 11 28,92/11 = 2,63 Erklärt 22,17 (3–1) = 2 22,17/2 = 11,09 Nicht erklärt 6,75 3(4–1) = 9 6,75/9 = 0,75 Femp > Fkrit Nullhypothese kann nicht bestätigt werden 14,8 > 8,0* → (signifikanter Einfluss des Aromas auf die Akzeptanz) * Irrtumswahrscheinlichkeit = 1 % Femp erklärte Varianz nicht erklärte Varianz 11 09 0 75 14 8 , , , 15-09-17 11:02:54 -o.mangold- o.mangold 190 4.4 MarktforschungDatenanalyse oder einer vorab durchgeführten Analyse (insbesondere Clusteranalyse) sein. Im zweiten Schritt ist die Diskriminanzfunktion so zu wählen, dass sie eine optimale Trennung zwischen den Gruppen ermöglicht. Die Diskriminanzfunktion ergibt sich aus der linearen Verknüpfung der unabhängigen Variablen. Unter theoretischen oder sachlogischen Gesichtspunkten werden diejenigen Variablen ausgesucht, die mit hoher Wahrscheinlichkeit zur Differenzierung zwischen den Gruppen beitragen und somit die Gruppenunterschiede erklären können. Die unbekannten Koeffizienten der Diskriminanzfunktion müssen so geschätzt werden, dass sie die Gruppen möglichst gut trennen. Die Unterschiedlichkeit (Diskriminanz) wird anhand des so genannten Diskriminanzkriteriums bestimmt. Es ist definiert als Quotient aus der erklärten und der nicht erklärten Streuung. Schritt drei der Diskriminanzanalyse umfasst die Beurteilung der Güte der Diskriminanzfunktion zur Trennung der Gruppen, und im letzten Schritt lässt sich mit Hilfe eines statistischen Tests die Trennfähigkeit für jede Merkmalsvariable überprüfen. Ein einfaches Beispiel zur Einstufung von potenziellen Kreditnehmern einer Bank soll abschließend die Bedeutung der Diskriminanzanalyse für die Marktforschung verdeutlichen (vgl. Abbildung 4-69): Die Kreditkunden einer Bank lassen sich nach ihrem Zahlungsverhalten in kreditwürdig und nicht kreditwürdig einstufen. Unter Anwendung der Diskriminanzanalyse wird dann geprüft, hinsichtlich welcher Variablen (z. B. Alter, Einkommen, Anzahl weiterer Kredite, Vermögenswerte) sich diese beiden Gruppen signifikant voneinander unterscheiden. Wenn ein Bankkunde einen Kredit beantragt, versucht das Institut anhand eines Kataloges von relevanten diskriminatorisch bedeutsamen Merkmalen auf die zukünftige Zahlungsfähigkeit und -willigkeit des Kunden zu schließen (Backhaus et al., 2011, S. 188 f.). Ein Verfahren der Dependenzanalyse, das in der Marktforschung häufig zur Anwendung gelangt, ist die multiple Regressionsanalyse. Im Gegensatz zur bivariaten Variante, bei der lediglich eine unabhängige und eine abhängige Variable betrachtet wird, untersucht die multiple Regressionsanalyse den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable, wobei alle Variablen metrisches Skalenniveau aufweisen müssen. Die multiple Regressionsanalyse dient vor allem der Schätzung des Einflusses verschiedener Marketingmaßnahmen auf Zielgrößen wie die Absatzmenge oder den Marktanteil (Skiera/Albers, 2008, S. 469). Wie die Ab- Abb. 4-69 Unabhängige und abhängige Variablen der Diskriminanzanalyse dargestellt am Beispiel »Kreditwürdigkeit« Alter Einkommen Anzahl weiterer Kredite Vermögenswerte hoch Kreditrisiko abhängige Variable (nominal skaliert) unabhängige Variablen (metrisch skaliert) niedrig (Quelle: Berekoven et al., 2009, S. 207) Abb. 4-68 Ablaufschritte der Diskriminanzanalyse Festlegung der Gruppen Schätzung der Diskriminanzfunktion Beurteilung der Güte der Diskriminanzfunktion Prüfung und Interpretation der einzelnen Merkmalsvariablen (Quelle: in Anlehnung an Frenzen/Krafft, 2008, S. 614) Abb. 4-70 Beispiel für die multivariate Regressionsanalyse Verkaufspreis für Produkt X Absatzmenge für Produkt X Verkaufsförderung für Produkt X 15-09-17 11:02:54 -o.mangold- o.mangold 191 4.4Datenanalyse bildung 4-70 zeigt, lässt sich beispielsweise mittels eines Storetestes untersuchen, in welcher Weise die Absatzmenge für ein neues Produkt X durch verschiedene Verkaufspreise und Ausgaben für handelsgerichtete Verkaufsförderung am Point of Sale beeinflusst wird. Da Problemstellung und grundlegende Vorgehensweise der bivariaten Regressionsanalyse entsprechen, soll auf die multiple Regressionsanalyse an dieser Stelle nicht weiter eingegangen werden. Die Conjoint-Analyse, die auch als Conjoint Measurement bezeichnet wird, zählt ebenfalls zu den multivariaten Verfahren der Dependenzanalyse. Ihr grundlegendes Ziel besteht darin, den Einfluss einzelner Merkmale bzw. Merkmalsausprägungen von Objekten (z. B. neue Produkte) auf den Gesamtnutzen dieser Objekte mittels eines linear-additiven Modells zu ermitteln. Die abhängige Variable ist der Gesamtnutzen, den eine Testperson einem Objekt zuschreibt, die unabhängigen Variablen sind die einzelnen Merkmale bzw. Merkmalsausprägungen des Objektes und weisen nominales Skalenniveau auf. Genauer betrachtet handelt es sich bei der Conjoint-Analyse nicht um eine einzige in sich geschlossene Methode, sondern um eine Gruppe von Erhebungs- und Analyseverfahren, mit denen man auf der Grundlage eines experimentellen Designs und ganzheitlicher Urteile der Befragten den Beitrag einzelner Merkmale und deren Ausprägung zum wahrgenommenen Gesamtnutzen von Objekten ermitteln kann (Teichert et al., 2008, S. 653). Der wesentliche Vorteil der Conjoint-Analyse beruht darauf, dass die Befragten nicht einzelne Produkteigenschaften beurteilen, sondern ganzheitliche Präferenzurteile abgeben müssen. Die Conjoint-Analyse Multiple Regressionsanalyse untersucht den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable (metrisches Skalenniveau). Conjoint-Analyse analysiert den Einfluss von Merkmalen und Merkmalsausprägungen von Objekten auf den Gesamtnutzen dieser Objekte. zählt folglich zu den so genannten dekompositionellen Analyseverfahren. Unterstellt wird, dass sich die erhobene Gesamtpräferenz für ein Objekt additiv aus den Präferenzen für die einzelnen Merkmale und deren Ausprägungen ableiten lässt. In der Marktforschung wird die Conjoint-Analyse insbesondere eingesetzt, um Präferenzen von Konsumenten für neue Produkte bzw. Produktkonzepte zu ermitteln (vgl. Kapitel 6.5.3), indem die Beiträge einzelner Produktmerkmale zur Gesamtpräferenz berechnet werden. Beispielsweise ist es für einen Getränkehersteller wichtig zu wissen, ob bzw. welche Ausprägungen des Etiketts, der Flaschenform und des Verschlusses seines neuen Produkts die höchste Präferenzwirkung bei der Zielgruppe erreichen. Die Conjoint-Analyse ist ebenfalls dazu geeignet, Informationen über die voraussichtliche Preis-Absatzfunktion eines neuen Produktes im Konkurrenzumfeld bereitzustellen. Auch die Zahlungsbereitschaft der Konsumenten für neue Produktmerkmale, die einen Zusatznutzen stiften (z. B. Service- und Garantieleistungen), lässt sich zuverlässig ermitteln. Analog zu den anderen multivariaten Verfahren der Datenanalyse kann man die Vorgehensweise im Rahmen der Conjoint-Analyse in verschiedene Schritte unterteilen, die in der Abbildung 4-71 dargestellt sind. Zunächst gilt es, die Merkmale und deren Ausprägungen festzulegen. Die Merkmale bzw. Merkmalsausprägungen sollten möglichst unabhängig voneinander sein, eine hohe Relevanz für die Kaufentscheidung der zu befragenden Zielgruppe aufweisen und vom Unternehmen tatsächlich realisiert werden können. Zu beachten ist außerdem, Abb. 4-71 Ablaufschritte der Conjoint-Analyse Bestimmung der Merkmale und Merkmalsausprägungen Festlegung des Erhebungsdesigns Erhebung der Präferenzdaten Schätzung der individuellen Teilpräferenzwerte Berechnung aggregierter Teilpräferenzwerte u. relativer Wichtigkeit 15-09-17 11:02:54 -o.mangold- o.mangold 192 4.4 MarktforschungDatenanalyse dass der Aufwand der Datenerhebung und damit die Belastung der Befragten mit der Anzahl der Merkmale und deren Ausprägungen drastisch ansteigen. Liegen zwei Merkmale mit zwei Ausprägungen vor, lassen sich daraus vier (22) Konzepte konstruieren, bei drei Merkmalen mit drei Ausprägungen müssen bereits 27 (33) Konzepte von den Testpersonen beurteilt werden. Allerdings ist es auch möglich, die Anzahl der zu beurteilenden Konzepte nach bestimmten Regeln zu reduzieren (Schubert, 1991, S. 140). Im zweiten Schritt ist das Erhebungsdesign festzulegen, wobei in der Regel die Profilmethode zum Einsatz kommt. Hier werden jeder Auskunftsperson verschiedene Stimuli zur Beurteilung vorgelegt, die aus Kombinationen jeweils einer Ausprägung aller Eigenschaften bestehen. In der Datenerhebungsphase müssen die Befragten dann die ihnen vorgelegten ganzheitlichen Stimuli bewerten, wobei die Bildung einer Präferenzrangfolge der üblichen Vorgehensweise entspricht, aber auch Ratingurteile oder Paarvergleiche können als Input für die Datenanalyse dienen. Aufgrund der weiten Verbreitung entsprechender Technik erfolgt die Datenerhebung heute meistens computergestützt, das heißt, den Testpersonen werden die aus den entsprechenden Merkmalsausprägungen zusammengesetzten Produktstimuli auf dem Computerbildschirm präsentiert. Der Vorteil besteht darin, dass man auch multimediale Elemente (z. B. Bilder, Töne) berücksichtigen kann. Die erhobenen Präferenzdaten bilden die Grundlage der sich anschließenden Datenanalyse. Die individuellen Teilpräferenzwerte der Abb. 4-72 Datenerhebung für das Beispiel zur Conjoint-Analyse Merkmale Merkmal 1: »Schokolade« Merkmal 2: »Füllung« 1 Vollmilch Nüsse Merkmalsausprägungen 2 Zartbitter Flakes KONZEPT 1: Schokoriegel Vollmilch Nüsse Rangplatz 3 KONZEPT 2: Schokoriegel Vollmilch Flakes Rangplatz 1 KONZEPT 3: Schokoriegel Zartbitter Nüsse Rangplatz 4 KONZEPT 4: Schokoriegel Zartbitter Flakes Rangplatz 2 Abb. 4-73 Aggregierte Teilpräferenzwerte der Merkmalsausprägungen und relative Wichtigkeiten der Merkmale für das Beispiel zur Conjoint-Analyse Schokolade 28,6% Füllung 71,4% Merkmal »Füllung« Relative Wichtigkeiten Flakes Nüsse Teilpräferenzwert 10 20 30 40 50 60 Merkmal »Schokolade« Vollmilch Zartbitter Teilpräferenzwert 10 20 30 40 50 60 15-09-17 11:02:54 -o.mangold- o.mangold 193 4.4Datenanalyse Befragten werden zusammengefasst und dann die Teilpräferenzwerte für alle Merkmalsausprägungen sowie die relativen Beiträge der Merkmale zur Gesamtpräferenz der Befragten auf aggregiertem Niveau berechnet. Analog zu den anderen multivariaten Verfahren soll die Vorgehensweise bei der Conjoint- Analyse anhand eines Beispiels veranschaulicht werden. Ein Hersteller von Süßwaren plant die Einführung eines neuen Schokoriegels. Zur Vereinfachung soll davon ausgegangen werden, dass lediglich die Präferenzwirkung von zwei Merkmalen mit jeweils zwei Ausprägungen überprüft werden soll, die in der Tabelle der Abbildung 4-72 aufgeführt sind. Im zweiten Schritt werden alle Merkmalsausprägungen systematisch miteinander kombiniert. Das Ergebnis bezeichnet man auch als vollständiges faktorielles Design (hier: 22 = 4 Kombinationen). Die auf diese Weise konstruierten verbalen Teststimuli müssen die Befragten in eine Präferenzrangfolge bringen. Das in der Abbildung 4-72 dargestellte Ergebnis für eine beliebige Testperson zeigt, dass sie das Konzept 2, also die Merkmalsausprägungen »Vollmilch« und »Flakes«, präferiert. Die Wahl des zweitbesten Konzeptes legt offen, bei welchem Merkmal die Testperson eher bereit ist, auf die bevorzugte Ausprägung zu verzichten. Die betrachtete Testperson macht Kompromisse eher bei der Vollmilchschokolade als bei den Flakes, das heißt, die Eigenschaft »Füllung« ist ihr wichtiger als die Eigenschaft »Schokolade« (vgl. Abbildung 4-73). Aus der Praxis 4-23 Beispiel zur »Choice Based«- Conjoint-Analyse Mit dem Einsatz der Conjoint-Analyse in der Marktforschungspraxis sind folgende Probleme verbunden: Viele Merkmale und deren Ausprägungen erhöhen zwar die Realitätsnähe der Beurteilungssituation, führen aber schnell zu einer kognitiven Überlastung der Befragten. Außerdem entspricht die Beurteilungsaufgabe (Ranking, Rating oder Paarvergleich) nicht dem tatsächlichen Entscheidungsprozess der Konsumenten am Point of Sale. Diese Nachteile der klassischen Conjoint-Analyse haben zur Entwicklung neuerer Ansätze geführt, von denen die so genannte »Choice Based«-Conjoint- Analyse (CBC) die größte empirische Relevanz aufweist. Nahezu die Hälfte aller im deutschsprachigen Raum durchgeführten Präferenzmessungen erfolgen mittels dieses Verfahrens (Völckner et al., 2008, S. 689). Die Besonderheit der »Choice Based«-Conjoint-Analyse besteht darin, dass die Auskunftspersonen diskrete Wahlentscheidungen treffen müssen, das heißt, es ist jeweils eine Alternative aus einem Alternativen-Set auszuwählen. Es besteht jedoch auch die realitätsnahe Möglichkeit, keinen der präsentierten Stimuli zu wählen. Theoretische Grundlage der »Choice Based«- Conjoint-Analyse ist die so genannte Zufallsnutzentheorie (vgl. McFadden, 1974, S. 105 ff.). Die Vorgehensweise lässt sich anhand des folgenden Beispiels veranschaulichen. Mit Hilfe eines Online-Konzepttests sollte die Präferenzwirkung verschiedener Eigenschaften von »Smoothies« überprüft werden. Bei Smoothies handelt es sich um Ganzfruchtgetränke, die einen neuen Teilmarkt bei Fruchtsäften bilden. Beantwortet werden sollten folgende Fragen: Welchen Einfluss üben verschiedene Ausstattungsmerkmale von Smoothies auf die Kaufentscheidung der Konsumenten aus? Welche Ausprägungen der Merkmale werden von der Zielgruppe besonders präferiert? Befragt wurden 300 Personen, die angeben, bereits Smoothies gekauft zu haben. Die zu untersuchenden Merkmale und deren Ausprägungen sind in der Abbildung 4-74 dargestellt. Mit Hilfe eines geeigneten Einführungsszenarios wurden die Befragten in eine realitätsnahe Entscheidungssituation versetzt und anschließend nacheinander mit 12 Einkaufssituationen mit jeweils drei Smoothie-Produkten konfrontiert. Jeder Stimulus bestand aus systematisch kombinierten Ausprägungen der 15-09-17 11:02:54 -o.mangold- o.mangold 194 4.4 MarktforschungDatenanalyse vier zu überprüfenden Merkmale. Die Beurteilungsaufgabe der Befragten bestand lediglich darin anzugeben, welches der drei gezeigten Produkte sie wählen würden. Die Option »Ich würde keines der gezeigten Produkte kaufen,« konnte angeklickt werden, wenn keine der gezeigten Alternativen als akzeptabel eingeschätzt wurde. Die Abbildung 4-75 zeigt beispielhaft eine der Auswahlsituationen. Die relativen Wichtigkeiten der Ausstattungsmerkmale für die Wahlentscheidungen der Auskunftspersonen sind auf der linken Seite der Abbildung 4-76 dargestellt. Der »Preis« hat die größte Bedeutung mit einer relativen Wichtigkeit von mehr als 50 Prozent, während die Produktauslobung, das heißt der verbale »Claim«, für die Entscheidung eher eine untergeordnete Rolle spielt. Abb. 4-75: Auswahlsituation des Beispiels zur »Choice Based«-Conjoint-Analyse 100% natürlich – 100% Genuss 100% REINE FRUCHT OHNE ZUSATZ VON KONSERVIERUNGSSTOFFEN, ZUCKER UND AROMEN OHNE ZUSATZ VON KONSERVIERUNGSSTOFFEN, ZUCKER UND AROMEN EUR 0,99 EUR 1,59 Ich würde keines dieser Produkte kaufen Welches dieser Produkte würden Sie kaufen? EUR 1,29 je 200ml je 200ml je 200ml Auswahl Auswahl Auswahl Auswahl Abb. 4-74: Merkmale und Merkmalsausprägungen des Beispiels zur »Choice Based«-Conjoint-Analyse Schwartau Mövenpick Viva Vital true fruits Naturis 0,69 e 0,99 e 1,29 e 1,59 e 1,89 e 2,19 e Glas 100% reine Frucht mit mildem Joghurt 100% natürlich – 100% Genuss keine Auslobung Tetrapack ohne Zusatz von Konservierungsstoffen Zucker und Aromen 100% reine Frucht ohne Zusatz von Konservierungsstoffen Zucker und Aromen Plastikbecher Plastikflasche 1 (gerade Variante) Plastikflasche 1 (geschwungene Variante) Marke Claim PreisVerpackung 15-09-17 11:02:54 -o.mangold- o.mangold 195 4Kontrollfragen Die Teilpräferenzwerte der Merkmalsausprägungen geben Aufschluss darüber, welche Ausprägung eines Merkmals die Befragten besonders bevorzugen. Auf der rechten Seite der Abbildung 4-76 sind als Beispiel die Teilpräferenzwerte für das Merkmal ›Verpackung‹ dargestellt. Die Befragten bevorzugen eindeutig die Plastikflasche in der geschwungenen Variante, während der Tetrapack die geringste Präferenzwirkung aufweist. Kontrollfragen Kapitel 4 Abb. 4-76: relative Wichtigkeiten der Merkmale und Teilnutzenwerte des Merkmals Verpackung Claim 11,4% Preis 52,3% Verpackung 20,3% Marke 16,0% Plastikflasche-Lidl (geschwungene Variante) Relative Wichtigkeit in % n = 300 Plastikflasche-Schwartau (gerade Variante) Glas Plastikbecher 27,4 18,8 17,2 1,7 0,0Tetrapack Teilpräferenzwerte n = 300 1. Grenzen Sie die Begriffe »Marktforschung« und »Marketingforschung« gegeneinander ab! 2. Skizzieren Sie die verschiedenen Aufgabenbereiche der Marktforschung am Beispiel eines Herstellers von Gartenmöbeln! 3. Geben Sie jeweils zwei Vorteile der innerbetrieblichen Marktforschung sowie der Marktforschung durch externe Dienstleister an! 4. Erläutern Sie die wesentlichen Merkmale und Ziele der verschiedenen Forschungsansätze im Rahmen der Marktforschung! Geben Sie für jeden Forschungsansatz ein typisches Marketingproblem an, für dessen Lösung der entsprechende Forschungsansatz geeignet ist! 5. Durch welche Phasen ist der idealtypische Marktforschungsprozess gekennzeichnet? Skizzieren Sie die Aufgaben, die in den einzelnen Phasen bewältigt werden müssen, anhand eines konkreten Beispiels! 6. Erläutern Sie den Unterschied zwischen der Primär- und der Sekundärforschung! Welche spezifischen Vor- und Nachteile sind mit diesen beiden Methoden der Primärerhebung verbunden? 7. Geben Sie jeweils zwei interne und zwei externe Informationsquellen der Sekundärforschung an! Argumentieren Sie am Beispiel eines Reiseveranstalters! 8. Welche Chancen und welche Risiken sind mit der Nutzung der Sekundärquelle »Internet« verbunden? 9. Zeigen Sie anhand eines konkreten Beispiels auf, wie sich Eigenschaften angemessen operationalisieren lassen! 10. Erläutern Sie kurz die verschiedenen Messniveaus und deren Eigenschaften! Geben Sie für jedes Messniveau ein typisches Beispiel für dessen Einsatz in der Marktforschung an! 15-09-17 11:02:54 -o.mangold- o.mangold 196 4 MarktforschungKontrollfragen 11. Was versteht man unter der Reliabilität und der Validität einer Messung? Argumentieren Sie anhand eines selbst gewählten Beispiels! Worin besteht der Unterschied zwischen interner und externer Validität? 12. Worin besteht der Unterschied zwischen einer Vollerhebung und einer Teilerhebung? Unter welchen Rahmenbedingungen kommt die jeweilige Erhebungsart zum Einsatz? 13. Was versteht man unter einer repräsentativen Stichprobe? Geben Sie ein Beispiel an für eine Stichprobe, die repräsentativ bzw. die nicht repräsentativ ist! 14. Welche Vor- und Nachteile sind mit der Zufallsauswahl grundsätzlich verbunden? Grenzen Sie die einfache und die geschichtete Zufallsauswahl gegeneinander ab! Geben Sie jeweils ein sinnvolles Beispiel für den Einsatz dieser beiden Auswahlverfahren an! 15. Erläutern Sie die Vorgehensweise im Rahmen der Quotenauswahl! Welche Gründe sind dafür verantwortlich, dass die Quotenauswahl das Auswahlverfahren ist, welches in der Marktforschungspraxis am häufigsten zum Einsatz kommt? 16. Erläutern Sie die Vor- und Nachteile der schriftlichen und der mündlichen Befragung! 17. Welche Besonderheiten sind bei der Durchführung einer Online- Befragung zu beachten? 18. Grenzen Sie quantitative und qualitative Interviews gegeneinander ab! Für welche Marktforschungsprobleme sind quantitative bzw. qualitative Interviews geeignet? 19. Erläutern Sie den Grundgedanken der Gruppendiskussion! Welche Vorteile und welche Nachteile sind mit diesem Verfahren verbunden? 20. Geben Sie jeweils ein Beispiel für eine direkte und eine indirekte Frage sowie für eine offene und eine geschlossene Frage an! 21. Skizzieren Sie kurz die verschiedenen Formen der Beobachtung! Welche Vorteile und welche Nachteile weist die Beobachtung gegenüber der Befragung auf? Geben Sie zwei Beispiele aus der Marktforschungspraxis für den sinnvollen Einsatz von Beobachtungen an! 22. Was versteht man unter einem Experiment? Skizzieren Sie die verschiedenen Elemente eines Experiments! 23. Grenzen Sie Labor- und Feldexperimente gegeneinander ab! Geben Sie für jede Art ein Beispiel aus der Marktforschungspraxis an! 24. Ein Hersteller möchte wissen, wie sich die Absatzmenge in Abhängigkeit verschiedener Verkaufspreise verändert. Stellen Sie dar, wie diese Fragestellung mit Hilfe eines EBA-CBA Experimentes – angelegt als Storetest – untersucht werden kann! Welche Rolle spielen in diesem Zusammenhang so genannte Störvariablen? 25. Erläutern Sie die charakteristischen Merkmale von Panelerhebungen sowie die mit dieser Erhebungsform verbundenen Probleme! 26. Welche Informationen liefert ein Handelspanel bzw. ein Verbraucherpanel? 27. Erläutern Sie, welche Informationen das arithmetische Mittel und die Standardabweichung über die empirische Verteilung eines Merkmals liefern? 28. Was versteht man unter einem Signifikanztest? Welche Bedeutung hat der Signifikanztest für die Marktforschung? 29. Skizzieren Sie, wie sich der Zusammenhang zwischen zwei metrisch skalierten Variablen mittels Korrelationsanalyse analysieren lässt? 30. Erläutern Sie anhand eines selbst gewählten Beispiels, welche Informationen der 2-Unabhängigkeitstest im Rahmen der bivariaten Auswertung liefert! 31. Worin besteht der grundlegende Unterschied zwischen multivariaten Verfahren der Dependenzanalyse und der Interdependenzanalyse? 32. Welche Problemstellungen der Marktforschung lassen sich mittels Faktorenanalyse lösen? Argumentieren Sie anhand eines konkreten Beispiels! 33. Erläutern Sie die Vorgehensweise bezüglich der Positionierung konkurrierender Produkte mittels Korrespondenzanalyse! Gehen Sie in diesem Zusammenhang auch auf die Besonderheiten bezüglich der Datenerhebung ein! 34. Zur Analyse welcher typischen Marketing-Fragestellung kommt die Clusteranalyse zum Einsatz? Erläutern Sie kurz die Vorgehensweise im Rahmen dieses multivariaten Verfahrens! 15-09-17 11:02:54 -o.mangold- o.mangold 197 4Kontrollfragen 35. Skizzieren Sie den Grundgedanken der Multidimensionalen Skalierung! Gehen Sie in diesem Zusammenhang auch auf die Besonderheiten bezüglich der Datenerhebung ein! Mit welchem Problem ist der Einsatz der MDS verbunden? 36. Ein Spirituosenhersteller hat vier Varianten einer neuen Softspirituose für Frauen entwickelt. Die gemittelten Akzeptanzwerte für jede Variante liegen vor. Mit welchem multivariaten Verfahren wird überprüft, ob die Mittelwertunterschiede statistisch signifikant sind oder nicht? Begründen Sie Ihre Antwort! 37. Stellen Sie den Grundgedanken sowie die Zielsetzung der Diskriminanzanalyse dar! Argumentieren Sie am konkreten Beispiel! 38. Erläutern Sie die Vorgehensweise im Rahmen der Schätzung einer funktionalen Beziehung zwischen einer unabhängigen Variablen und einer abhängigen Variablen mittels Regressionsanalyse am Beispiel der Preis-Absatz-Funktion! 39. Beschreiben Sie die Überprüfung innovativer Produktkonzepte mittels Conjoint-Analyse! Welchen wesentlichen Vorteil weist dieses Verfahren der Präferenzmessung auf? 15-09-17 11:02:54 -o.mangold- o.mangold

Chapter Preview

Schlagworte

Patrick Hehn, Bernd Schubert, Andreas Scharf, Bachelorstudium, Werbung, Konsumentenverhalten, Verhaltensökonomik, Marketinginstrumente, SocialMedia, B2B-Marketing, Industriegüter-Marketing, Marketing-Mix, Marktforschung, Strategie, Marketing

References

Zusammenfassung

Ob Strategie, Marktforschung oder Marketing-Mix, das Lehrbuch führt verständlich und konzentriert durch das Marketing-Know-how von heute. Zahlreiche Beispiele und Abbildungen, einprägsame Marginalien und Themenkästen sowie klare Lernziele und Verständnisfragen machen den Marketing-Einstieg leicht. Dazu trägt auch das große Format mit vierfarbigem Innenlayout bei.

Studierende und Marketing-Praktiker in der Aus- und Weiterbildung bekommen jedoch noch mehr Stoff: Für die Neuauflage wurde das Buch durchgängig aktualisiert und um die Themen Industriegüter- und B2B-Marketing sowie Social Media als Marketinginstrument ergänzt. Verhaltensökonomische Erkenntnisse vertiefen das Kapitel über das Konsumentenverhalten.

Neu sind ausgewählte Videobeispieleund Fallstudien, die die Darstellung im Buch medial ergänzen und zeitgemäß veranschaulichen. Über QR-Codes direkt im Buch und über das Online-Portal sp-mybook.de kann auf diese Zusatzinformationen zugegriffen werden.

Schlagworte

Patrick Hehn, Bernd Schubert, Andreas Scharf, Bachelorstudium, Werbung, Konsumentenverhalten, Verhaltensökonomik, Marketinginstrumente, SocialMedia, B2B-Marketing, Industriegüter-Marketing, Marketing-Mix, Marktforschung, Strategie, Marketing