Content

§ 4. Kriminologische Forschungsmethoden in:

Bernd-Dieter Meier

Kriminologie, page 92 - 118

6. Edition 2021, ISBN print: 978-3-406-76343-4, ISBN online: 978-3-406-76958-0, https://doi.org/10.17104/9783406769580-92

Series: Grundrisse des Rechts

Bibliographic information
§ 4. Kriminologische Forschungsmethoden I. Die Notwendigkeit der adäquaten Erfassung der Wirklichkeit Von ihrem Anspruch her zielt die Kriminologie darauf ab, wissenschaftlich begründete, dh systematisch gewonnene und intersubjektiv überprüfbare Aussagen über die soziale Wirklichkeit zu treffen. Die Kriminologie bedient sich dabei eines besonderen, in der sozialwissenschaftlichen Methodologie verankerten Arsenals an Erhebungs-, Untersuchungs- und Forschungsmethoden. Um die Vorgehensweise der Kriminologie richtig verstehen und die ermittelten empirischen Befunde besser einordnen zu können, ist deshalb ein etwas genauerer Blick auf die Grundlagen der kriminologischen Methodik erforderlich. Dabei kann es im Folgenden nur um eine erste Grundorientierung gehen, die die Beschäftigung mit dem Spezialschrifttum zu den Methoden der empirischen Sozialforschung nicht ersetzen kann.1 Grundsätzlich gibt es zwei Möglichkeiten, sich auf wissenschaftlichem Weg einen Zugang zur sozialen Wirklichkeit zu verschaffen. Der naheliegende Weg besteht in dem Versuch, die Wirklichkeit in ihren jeweils interessierenden Merkmalen in ihrer Gesamtheit zu erfassen, also eine Total- (Voll-) Erhebung aller interessierenden Merkmale und Merkmalsträger durchzuführen. Beispiele für derartige Totalerhebungen bilden die amtlichen Statistiken, die von den dafür zuständigen Behörden zB über das Kriminalitätsaufkommen (Polizeiliche Kriminalstatistik) oder die Aburteilungspraxis der Gerichte (Strafverfolgungsstatistik) veröffentlicht werden. Auch die in unregelmäßigen Abständen stattfindenden Volkszählungen gehören hierzu. Der Vorteil dieser Vorgehensweise besteht darin, dass sämtliche interessierenden Merkmalsträger erfasst werden, also zB sämtliche in Deutschland ermittelten Tatverdächtigen oder sämtliche Abgeurteilten. Der Nachteil besteht darin, dass sich diese Totalerhebungen stets nur auf eine geringe Zahl von Merkmalen beziehen können (zB Alter und Geschlecht); der Einbeziehung einer größeren Anzahl von 1 Vgl. etwa Baur/Blasius 2019; Döring/Bortz 2016; Schnell/Hill/Esser 2013; Flick 2014; Walter/Brand/Wolke 2009. 1 2 Merkmalen stehen die begrenzten Kapazitäten der die Daten erhebenden Stellen entgegen. In den meisten Fällen muss man deshalb, um sich einen Zugang zur sozialen Wirklichkeit zu verschaffen, einen anderen Weg einschlagen: Man muss versuchen, die Wirklichkeit nur in einem Ausschnitt zu erfassen, um aus den insoweit ermittelten Merkmalen Rückschlüsse auf die Gesamtheit zu ziehen. In diesem Fall spricht man von einer Teilerhebung, die nur an einer Teilmenge der Grundgesamtheit (Stichprobe) durchgeführt wird. Das zentrale Problem bei dieser zweiten, meist ökonomischeren Vorgehensweise besteht darin sicherzustellen, dass der Rückschluss auf die Gesamtheit der interessierenden Phänomene wirklich zulässig ist; das ist nur dann der Fall, wenn die Stichprobe für die Grundgesamtheit repräsentativ ist. Dieser zweiten Herangehensweise soll im Folgenden das Augenmerk gelten. Anders als bei den Kriminalstatistiken ist der Erkenntnisgegenstand von Teilerhebungen nicht von vornherein festgelegt; grundsätzlich kann jede empirisch fassbare Erscheinung in der sozialen Wirklichkeit zum Gegenstand einer Stichprobenuntersuchung gemacht werden. Entscheidend ist – und hierin besteht neben dem Problem der Repräsentativität das zweite Hauptproblem der empirischen Forschungsmethodik –, dass man mit Hilfe der Untersuchung den interessierenden Gegenstand möglichst adäquat erfasst. Hierzu kann man sich prinzipiell zweier unterschiedlicher Herangehensweisen bedienen: quantitativer und qualitativer Verfahren. II. Quantitative und qualitative Verfahren Quantitative Verfahren versuchen, den interessierenden Gegenstandsbereich durch Klassifizieren, Messen, Tabellieren und die Anwendung statistischer Methoden zu erfassen. Beispiel: Um Art und Ausmaß von Gewalt in der Schule zu erfassen, wird eine Fragebogenaktion unter Schülern durchgeführt. Gefragt wird zB nach der Häufigkeit von Gewalthandlungen eines bestimmten Typs sowie nach dem Alter und Geschlecht von Tätern und Opfern. Die erhobenen Daten werden nach mathematisch-statistischen Prinzipien ausgewertet. Im Hintergrund dieser Verfahren steht die wissenschaftstheoretische Vorstellung, dass sich die Sozialwissenschaften (zu denen auch die Kriminologie gehört) bei der Ermittlung sozialer Tatbestände die II. Quantitative und qualitative Verfahren 93 3 4 5 6 Naturwissenschaften zum Vorbild nehmen sollten. Anzustreben sei die nomothetische (dh gesetzmäßige) Erklärung sozialer Tatbestände mittels Aussagen, die in ihrem jeweiligen Anwendungsbereich allgemeingültig seien. – So überzeugend dieser Ansatz auf den ersten Blick wirkt, so unübersehbar sind die Nachteile, die sich bei genauerer Betrachtung zeigen: Indem die quantitativen Verfahren die soziale Wirklichkeit als eine vorgegebene Größe betrachten, die nur statistisch ausgemessen zu werden braucht, um sie zu verstehen, blenden sie die individuellen Wahrnehmungs- und Bewertungsprozesse aus, die in der sozialen Wirklichkeit eine entscheidende Rolle spielen (" § 1 Rn. 23 ff.; " § 3 Rn. 91 ff.). Zudem verlieren die quantitativen Verfahren bei ihrer Suche nach den allgemeinen Strukturen unvermeidlich die individuellen Besonderheiten von Einzelfällen aus dem Blick. Beispiele: Mit Hilfe quantitativer Erhebungs- und Auswertungsmethoden lässt sich die Bedeutung seltener individueller Ereignisse (zB der den Unterricht belastenden Hyperaktivität eines Schülers oder ungewöhnlicher intellektueller Fähigkeiten) für die Entwicklung einer an der Untersuchung teilnehmenden Person nicht erfassen. Auch individuelle Relevanzbezüge können nicht richtig eingeschätzt werden. Man denke einerseits an die Mofaleidenschaft eines Schülers, dessen Eltern ein Motorradgeschäft haben, und andererseits an die gleiche Eigenschaft eines anderen, mittellosen Schülers, der sich kein Mofa leisten kann. Qualitative Verfahren versuchen demgegenüber, den interessierenden Gegenstandsbereich sinnverstehend zu erfassen. Das klassische Instrument dieser Herangehensweise ist die Einzelfallstudie, mit deren Hilfe der Forscher Aufschluss über individuelle Lebenswelten und Sinnzusammenhänge gewinnen will. Beispiel: Mit einzelnen Jugendlichen werden biografisch-narrative Interviews durchgeführt, dh Interviews, bei denen die Jugendlichen in ihrer eigenen Sprache (also ohne die Einschränkungen, die sich aus durch präzise vorformulierten Fragestellungen ergeben können) über Ereignisse aus ihrem Leben berichten. Diese Vorgehensweise erlaubt es, die für den einzelnen Jugendlichen maßgeblichen Zusammenhänge, Prozesse und Entwicklungen nachzuvollziehen. Bei der Auswertung mehrerer Interviews lassen sich Regelmäßigkeiten und typische Entwicklungsverläufe erkennen, die sich zur Begehung von Gewalttaten in der Schule in Beziehung setzen lassen. Im Hintergrund der qualitativen Verfahren stehen die Ablehnung des naturwissenschaftlichen Vorbilds und die Betonung der idiografischen (das Eigentümliche, Einmalige, Singuläre beschreibenden) Methode. Das Geflecht des sozialen Lebens ist nach Auffassung der Ver- 94 § 4. Kriminologische Forschungsmethoden 7 8 treter der qualitativen Sozialforschung nur in seiner einzel- und ganzheitlichen Komplexität verstehbar; mit den quantitativen Methoden werde die Analyse der individuellen Lebenswelt einer wesensfremden Form und Struktur unterworfen. – In ihrer Bezugnahme auf den Einzelfall weisen die qualitativen Erhebungsmethoden große Ähnlichkeiten zu der Vorgehensweise des Gerichts im Strafverfahren auf: Auch im Strafverfahren geht es ausschließlich um den Einzelfall.2 Für die Kriminalpolitik haben die Ergebnisse der qualitativen Forschung demgegenüber häufig nur eine eingeschränkte Bedeutung, denn die Kriminalpolitik orientiert sich vorzugsweise an „harten Daten“ und allgemeingültigen, über den Einzelfall hinausweisenden Zusammenhängen. Die Unterscheidung zwischen quantitativen und qualitativen Methoden darf nicht überbewertet werden; die Gemeinsamkeiten sind größer als die Unterschiede. Auf der einen Seite muss man feststellen, dass die quantitativen Verfahren die Kontextabhängigkeit jeden situativen Handelns nicht ernsthaft leugnen können. Die Gewinnung und Deutung quantitativer Daten ist methodologisch nichts anderes als die Anhäufung und Deutung qualitativer Einzelbeobachtungen über den Gegenstandsbereich, einschließlich aller Probleme von Einseitigkeit, Selektivität und Subjektivität, die im allgemeinen mit den qualitativen Verfahren verbunden sind. Auf der anderen Seite muss man feststellen, dass sich in den qualitativ beobachteten situativen Handlungen situationsübergreifende Regelhaftigkeiten und Strukturen abbilden können, die in den jeweiligen Handlungen als „objektive Realität“ berücksichtigt und zugrundegelegt werden. Das Verständnis sozialer Erscheinungen kann sich dementsprechend nicht auf die Analyse von Sinnkomplexen beschränken, sondern muss den gegebenen sozialen oder historischen Kontext in die Analyse einbeziehen. In vielen Fällen lässt sich deshalb erst mit der Kombination von quantitativen und qualitativen Methoden, den mixed methods, ein klares, abgerundetes Bild von der sozialen Wirklichkeit erlangen.3 Quantitative und qualitative Verfahren folgen in der Konzeptualisierung und Auswertung ihrer eigenen Methodik. Wegen ihrer größeren Bedeutung in der Kriminologie wird im Folgenden zunächst das Vorgehen bei der Konzeptualisierung, Durchführung und Auswertung einer quantitativen Untersuchung beschrieben, ehe auf die Vorgehensweise bei einer qualitativen Untersuchung genauer eingegangen wird. II. Quantitative und qualitative Verfahren 95 2 Zu den Unterschieden von qualitativen Interviews und polizeilichen Vernehmungen Lehmann/Leimbach NK 2020, 293 ff. 3 Weiterführend Seipel/Rieker 2003, 213 ff., 251 ff.; Kuckartz 2014, 27 ff.; Fuchs/Hofinger/Pilgram KrimJ 2016, 5 ff. 9 9a III. Probleme der Konzeptualisierung empirischkriminologischer Untersuchungen 1. Auswahl des Forschungsgegenstands Quantitative kriminologische Untersuchungen werden meist nach einem allgemeinen, in den empirischen Sozialwissenschaften bewährten Schema durchgeführt. Am Anfang eines konkreten Projekts steht zwangsläufig die Auswahl des Forschungsgegenstands, also die Festlegung desjenigen Problembereichs, über den empirische Aussagen getroffen werden sollen. Der Anlass, der zu einem Forschungsprojekt führt, kann verschieden sein; den Anstoß kann ein soziales (praktisches) Problem, ein Problem der kriminologischen Theoriebildung oder auch ein Auftrag geben. Ist ein Forschungsprojekt initiiert, so muss der Gegenstandsbereich meist zunächst im Tatsächlichen noch genauer strukturiert werden. Hierbei helfen frei assoziierende Ideensammlungen, Gespräche und Explorationen, also noch eher unsystematische Erkundungen des Gegenstandsbereichs. Beispiel: Geplant wird eine Untersuchung über die Kriminalitätsbelastung in unterschiedlichen Stadtteilen, denn es hat sich herausgestellt, dass die Kriminalitätsbelastung in einem Stadtteil („Nordstadt“) deutlich größer ist als in einem anderen („Südstadt“). Bei der Strukturierung eines solchen Ausgangspunkts wird man sich die betreffenden Stadtviertel genauer ansehen und sich erste Eindrücke verschaffen. Beobachtungen, Gespräche, Lektüre von Statistiken etc. erweitern das Vorwissen des Forschers. 2. Formulierung der Hypothesen Den zweiten Schritt bildet die theoretische Vorbereitung der Untersuchung: die begriffliche Strukturierung des Gegenstandsbereichs und die Formulierung der Forschungsfragen in Form von forschungsleitenden Hypothesen. Die Funktion dieses zweiten Schritts, der meist als „Konzeptualisierung“ bezeichnet wird, besteht in der Transformation des gewählten Gegenstandsbereichs in empirisch überprüfbare Aussagen. Der zweite Arbeitsschritt beginnt mit der systematischen Auswertung des Erkenntnisstands zu dem zu untersuchenden Problem. 96 § 4. Kriminologische Forschungsmethoden 10 11 12 13 Man muss prüfen, ob und welche empirischen Untersuchungen zu dem betreffenden Problem bereits vorliegen und ob es theoretische Überlegungen gibt, an denen sich die Untersuchung orientieren kann. Beispiel: In der fiktiven Untersuchung über die Kriminalitätsbelastung in unterschiedlichen Stadtteilen muss danach gefragt werden, warum die Kriminalitätsbelastung in der „Nordstadt“ höher sein kann als in der „Südstadt“: Ist die Sozialstruktur in den betreffenden Gebieten eine andere? Ist die Bevölkerungsdichte höher? Ist die Bauweise eine andere? Die Untersuchung kann dabei eingebettet werden in den Kontext allgemeinerer Kriminalitätstheorien, zB zur sozialen Desorganisation (" § 3 Rn. 46 ff.). Dabei wird es in der Regel erforderlich sein, auch andere empirische Studien heranzuziehen und daraufhin auszuwerten, ob und inwieweit sie einen Beitrag zur Beantwortung der Forschungsfrage leisten. Im Anschluss an die Auswertung des bereits vorhandenen Erkenntnisstands werden Hypothesen über den zu untersuchenden Gegenstand gebildet, also Annahmen über die erwarteten Verteilungen und Zusammenhänge in dem betreffenden Bereich. Voraussetzung der Hypothesenformulierung ist dabei, dass sie widerspruchsfrei formuliert und die für den Gegenstandsbereich relevanten Begriffe operationalisiert (definiert) werden. Solange Begriffe noch nicht präzise definiert sind, können sie ihre Ordnungs- und Kommunikationsfunktion nicht erfüllen. Beispiel: Man muss sich zB Klarheit darüber verschaffen, wie der Begriff „Stadtteil“ definiert werden soll. Durch Wohnzusammenhänge und -strukturen? Durch Bezugnahme auf die Verwaltungsgrenzen? Und was soll „Kriminalität“ bedeuten? Bekanntgewordene Kriminalität? Strafbares Verhalten im Dunkelfeld? Bei der Formulierung der Hypothesen ist zwischen zwei Arten von Forschungsfragen zu unterscheiden: jenen, die nach der Beschaffenheit eines sozialen Phänomens fragen, und jenen, die nach Kausalzusammenhängen zwischen verschiedenen sozialen Phänomenen fragen. Forschung, die von Fragen der ersten Art geleitet wird, nennt man deskriptiv, die von Fragen der zweiten Art geleitete Forschung verifizierend (vgl. hierzu auch bereits " § 3 Rn. 5). Das Ergebnis deskriptiver Forschung ist die Beschreibung und Klassifikation sozialer Phänomene einschließlich der Feststellung von Häufigkeitsverteilungen. Deskriptive Forschung drückt sich etwa in dem Satz aus: „Im Stadtteil ,Nordstadt' gibt es eine erhebliche (wie wird der Begriff definiert?) Kriminalitätsbelastung“. Das Ergebnis verifizierender Forschung ist demgegenüber die Erklärung so- III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 97 14 15 16 zialer Phänomene, das Bemühen um die Identifizierung derjenigen Bedingungen, bei deren Vorliegen das untersuchte Phänomen auftritt oder nicht auftritt. Wenn die Annahmen über die vermuteten oder erwarteten Zusammenhänge als Hypothesen formuliert werden, müssen immer mindestens zwei Merkmale (Variablen) angesprochen werden. Eine Hypothese könnte also bspw. lauten: „Jugendliche, die in prekären wirtschaftlichen Verhältnissen leben, werden häufiger straffällig als andere Jugendliche.“ Dabei bezeichnet man die Variable, die in dem untersuchten Zusammenhang als vermutlicher Bedingungsoder Kausalfaktor fungiert, als unabhängige Variable (im Beispiel also die prekären wirtschaftlichen Verhältnisse), während die sich in Abhängigkeit von ihr verändernde Variable abhängige Variable genannt wird (im Beispiel die Straffälligkeit).4 3. Wahl der Untersuchungsanordnung und der Methoden Im dritten Schritt ist zu entscheiden, wie die Untersuchung durchgeführt werden soll, um möglichst aussagekräftige Ergebnisse zu erhalten. Dabei muss man sich überlegen, welche Untersuchungsanordnung man wählen und mit welchen Methoden man die Daten erheben will. „Untersuchungsanordnung“ und „Methoden“ sind zu unterscheiden. a) Experimentelle und nicht-experimentelle Designs Die Untersuchungsanordnung (das „Design“ der Studie) entscheidet darüber, ob und in welchem Ausmaß die zu untersuchenden Variablen kontrolliert und manipuliert (verändert) werden können, was für die Feststellbarkeit von Kausalbeziehungen von Bedeutung ist. Kausalbeziehungen lassen sich ausschließlich mit Experimenten nachweisen. Als „Experiment“ wird die wiederholbare Beobachtung eines Phänomens unter kontrollierten Bedingungen bezeichnet. Die Kontrolle der Bedingungen erfolgt dabei durch die forschende Person.5 Im Untersuchungsmaterial müssen mindestens zwei Gruppen gebildet werden, in denen der experimentelle Stimulus, dessen Einfluss geprüft werden soll, entweder vorhanden oder nicht vorhanden ist (Untersuchungs- und Kontrollgruppe). Erforderlich ist, dass die 98 § 4. Kriminologische Forschungsmethoden 4 Weiterführend zur Hypothesenbildung Döring/Bortz 2016, 145 ff.; 161 ff. 5 Schnell/Hill/Esser 2013, 215 ff.; Diekmann 2012, 337 ff. 17 18 19 Zuweisung der Versuchspersonen zu den beiden Gruppen allein in den Händen der forschenden Person liegt und von dieser allein nach Zufallskriterien vorgenommen wird; in der sozialwissenschaftlichen Terminologie wird insoweit von „randomisieren“ gesprochen. Nur wenn eine Zufallszuweisung erfolgt, lässt sich postulieren, dass sich die sonstigen auf die Situation einwirkenden Faktoren (die „Moderator-“ oder „Störvariablen“) zwischen den beiden Gruppen ebenfalls gleichmäßig und nach Zufall verteilen und damit für etwaige Unterschiede in der abhängigen Variablen bedeutungslos sind. Zeigen sich nach dem Setzen des Stimulus in der abhängigen Variablen zwischen den beiden Gruppen signifikante Unterschiede, kann dieser Unterschied unter den genannten Voraussetzungen allein auf dem Stimulus, konkret: auf dem Einfluss der geprüften unabhängigen Variablen beruhen. Beispiel: Es soll untersucht werden, ob ein kriminalpädagogisches Schülerprojekt, das in der „Südstadt“ durchgeführt wird (unabhängige Variable), Auswirkungen auf das Legalverhalten der Jugendlichen (abhängige Variable) hat. In diesem (fiktiven) Schülerprojekt werden Straftaten, die von Schülern gegenüber anderen Schülern begangen werden, nicht wie in der „Nordstadt“ zur Anzeige gebracht, sondern es werden in der Schule mit Tätern und Opfern Gespräche geführt, die auf eine einvernehmliche Konfliktlösung abzielen. – Die Durchführung eines Experiments setzt voraus, dass zwei Gruppen gebildet werden: Schüler, die das schulinterne Verfahren der Konfliktlösung durchlaufen (Untersuchungsgruppe), und Schüler, die es nicht durchlaufen, gegen die also die sonst übliche Strafanzeige erstattet wird (Kontrollgruppe). Wird bekannt, dass ein Schüler eine Straftat begangen hat, muss die Zuteilung zur Untersuchungs- oder Kontrollgruppe nach Zufallskriterien erfolgen (also zB der 1., 3., 5. (…) Schüler zur Untersuchungsgruppe, der 2., 4., 6. (…) Schüler zur Kontrollgruppe). Wenn eine derartige Zufallsauswahl gewährleistet ist, kann davon ausgegangen werden, dass eine signifikant bessere Legalbewährung derjenigen Jugendlichen, die das Schülerprojekt durchlaufen haben, seine Ursache in dem Schülerprojekt und nicht in irgendwelchen anderen Einflüssen hat. Echte Experimente, bei denen die forschende Person sämtliche maßgeblichen Umstände kontrollieren und beeinflussen kann, sind in der Kriminologie selten.6 Aus rechtlichen und ethischen Gründen ist der Spielraum für Experimente im Bereich der Deliktsbegehung und der strafrechtlichen Kontrolle begrenzt. Insbesondere dann, wenn die Auswirkungen von Maßnahmen geprüft werden sollen, die III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 99 6 Vertiefend Kroher/Wolbring MschrKrim 101 (2018), 297 ff. 20 mit Eingriffen in grundrechtlich geschützte Bereiche verbunden sind, darf sich die Verhängung der entsprechenden Maßnahmen allein an Recht und Gesetz, nicht aber am Zufall orientieren. Experimente sind darüber hinaus in der Regel mit einem hohen Forschungsaufwand verbunden, der ihre Durchführbarkeit zusätzlich begrenzt. Anstelle von Experimenten werden in der Praxis deshalb gelegentlich versuchsähnliche Forschungsanordnungen durchgeführt. Beim Quasi-Experiment fehlt der forschenden Person die Möglichkeit, auf die Bildung einer Kontrollgruppe und die Zuweisung der Teilnehmer auf die jeweiligen Gruppen, Einfluss zu nehmen. Man kann auch sagen, Quasi-Experimente sind Experimente ohne Randomisierung.7 Konsequenz ist, dass man durch Vorher-nachher- Messungen und den Vergleich der Gruppen, bei denen der Stimulus wirksam bzw. nicht wirksam war, nur zu einer groben Einschätzung über die Kausalität der unabhängigen Variablen gelangen kann. Nicht auszuschließen ist, dass etwaige Unterschiede in der abhängigen Variable auf anderen Umständen beruhen, die von der forschenden Person nicht kontrolliert werden können. Beispiel: Die Polizei führt in der „Südstadt“ ein neuartiges kriminalpräventives Projekt ein: Alle Jugendlichen, die strafrechtlich auffällig werden und gegen die ein Ermittlungsverfahren eingeleitet wird, werden von der Polizei im Anschluss an die Vernehmung zur Sache in einem jugendgemäßen normverdeutlichenden Gespräch über den Sinn und Zweck des betreffenden Verbots, die Folgen der Tat für das Opfer und die den Täter erwartenden schul-, zivilund strafrechtlichen Konsequenzen aufgeklärt. – Eine experimentelle Untersuchung der Auswirkungen dieses Gesprächs (unabhängige Variable) auf das weitere Legalverhalten der Jugendlichen (abhängige Variable) kommt unter den genannten Voraussetzungen nicht in Betracht, da sich das Projekt in der „Südstadt“ auf alle strafrechtlich in Erscheinung getretenen Jugendlichen bezieht und damit keine Kontrollgruppe gebildet werden kann. In Betracht kommt jedoch eine quasi-experimentelle Untersuchungsanordnung, wenn man davon ausgeht, dass die Jugendlichen in der „Südstadt“ mit den Jugendlichen in der „Nordstadt“, wo das Projekt nicht durchgeführt wird, verglichen werden können. Die Frage, welche Jugendlichen in der „Südstadt“ und welche in der „Nordstadt“ wohnen, ist dem Einfluss des Forschers allerdings entzogen. Die forschende Person kann lediglich darauf hoffen, dass sich die Jugendlichen in den beiden Stadtteilen „irgendwie“ gleich verteilen; sicher ist das jedoch keineswegs. Wenn die Jugendlichen in der „Südstadt“ eine signifikant bessere Legalbewährung aufweisen, kann das bspw. auch darauf beruhen, dass die Jugendlichen in der „Südstadt“ sozial besser eingebunden sind oder 100 § 4. Kriminologische Forschungsmethoden 7 Diekmann 2012, 356; Schnell/Hill/Esser 2013, 220 f. 21 dass die Gelegenheitsstruktur zur Begehung von Straftaten eine andere ist. Die forschende Person kann zwar versuchen, diesen Einfluss dieser weiteren Variablen (der „Moderator-“ oder „Störvariablen“) in der statistischen Auswertung zu berücksichtigen ("Rn. 44 f.). Ganz gelingen wird das jedoch nie, da die Anzahl dieser weiteren Variablen theoretisch unbegrenzt ist. Die Aussagekraft von Quasi-Experimenten ist damit deutlich geringer als die der zuvor beschriebenen „echten“ Experimente. Soweit im Zusammenhang mit dem Setzen eines Stimulus keine Vorher-nachher-Messungen, sondern nur Nachher-Messungen durchgeführt werden können, spricht man von einer „Ex-Post- Facto-Anordnung“ der Untersuchung. Bei dieser Anordnung werden die mutmaßlichen unabhängigen und abhängigen Variablen nur zu einem Zeitpunkt – nämlich im Nachhinein – gemessen und auch die Vergleichsgruppenbildung erfolgt erst im Nachhinein. Über die Kausalität des Einflusses der geprüften unabhängigen Variablen können bei diesem nicht-experimentellen Design keine Aussagen gemacht werden.8 Beispiel: In einer Untersuchung zur Jugendgewalt werden Jugendliche zu Art und Ausmaß ihres Medienkonsums (vermutete unabhängige Variable) sowie zu Art und Ausmaß ihres Gewalthandelns (vermutete abhängige Variable) gefragt. Entsprechend den Antworten zum Medienkonsum (Nutzung gewalthaltiger Computerspiele ja/nein) werden zwei Gruppen gebildet und zum Gewalthandeln der Jugendlichen (Anzahl der begangenen Körperverletzungen innerhalb der letzten 12 Monate) in Beziehung gesetzt. Auch wenn sich zeigt, dass die Jugendlichen, die gewalthaltige Computerspiele nutzen, signifikant mehr Körperverletzungen begehen, sagt dies nichts über die Kausalität des Medienkonsums aus; es handelt sich um eine bloße Korrelation (s. u. Rn. 40, 43), die vielerlei Gründe haben und letztlich nur theoretisch plausibel gemacht werden kann. b) Querschnitt- und Längsschnittdesign Eng mit der Frage, ob ein experimentelles, quasi-experimentelles oder nicht-experimentelles Design gewählt wird, ist die Frage verbunden, ob die Erhebung einmal oder mehrmals durchgeführt werden soll. Zwei Untersuchungsanordnungen sind insoweit zu unterscheiden: Querschnitt- und Längsschnittdesigns.9 Bei Querschnittuntersuchungen werden die relevanten Variablen nur einmal, gleichzeitig erhoben. Querschnittuntersuchungen liefern III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 101 8 Schnell/Hill/Esser 2013, 222 ff. 9 Diekmann 2012, 303 ff.; Schnell/Hill/Esser 2013, 229 ff. 22 22a 22b zu dem betreffenden Bereich eine Bestandsaufnahme, können zur zeitlichen Abfolge von Ereignissen aber nur begrenzte Aussagen machen. Beispiel: In einer Untersuchung zur Jugendgewalt können Jugendliche zwar danach gefragt werden, ob sie zu einer Zeit, als sie noch in den Kindergarten gingen, von ihren Eltern geschlagen wurden. Die Zuverlässigkeit der entsprechenden Angaben ist jedoch gering: An leichte oder gelegentliche Schläge werden sich die meisten Jugendlichen nicht mehr erinnern; bei schwereren Misshandlungen ist mit Verdrängungseffekten zu rechnen. Bei Längsschnittuntersuchungen finden wiederholte Erhebungen statt; die relevanten Variablen werden wenigstens zu zwei unterschiedlichen Zeitpunkten erhoben. Je nachdem, ob die Erhebungen dabei an unterschiedlichen Stichproben durchgeführt oder in derselben Stichprobe wiederholt werden, spricht man von Trend- oder Paneldesign. Beim Trenddesign wird dieselbe Erhebung zu unterschiedlichen Zeitpunkten an unterschiedlichen Stichproben durchgeführt. Beispiel sind die Schülerbefragungen des KFN, bei denen die Schülerinnen und Schüler der 9. Jahrgangsstufen befragt werden. Die Befragungen fanden zum ersten Mal in den 1990er Jahren statt und sind seitdem mehrfach wiederholt worden.10 Bei diesem Erhebungsdesign können auf der Ebene der Aggregatdaten (dh der aufsummierten Daten) über die Zeit Veränderungen festgestellt werden. So kann bspw. festgestellt werden, dass sowohl der Medienkonsum als auch das Ausmaß des Gewalthandelns gestiegen ist. Hieraus kann zwar nicht auf einen Kausalzusammenhang geschlossen werden, da die ausgewerteten Stichproben unterschiedlich sind (es handelt sich um zwei hintereinander geschaltete expost-facto-Anordnungen; "Rn. 22); bei entsprechender theoretischer Begründung kann hierin aber doch eine Richtung, ein Trend, gesehen werden. Beim Paneldesign wird dieselbe Erhebung an derselben Stichprobe zu unterschiedlichen Zeiten wiederholt. Beispiel ist die in Münster und Duisburg durchgeführte Schülerstudie, bei der Schülerinnen und Schüler erstmals in der 7. Jahrgangsstufe befragt wurden und seitdem regelmäßig jährlich befragt werden.11 Bei dieser Untersuchungsanordnung können auf der Ebene der Individualdaten (dh der auf jeden einzelnen Schüler bezogenen Daten) über die Zeit Veränderungen festgestellt werden. So kann bspw. festgestellt werden, dass bei einem Teil der Schüler im Verlauf eines Jahres der Medienkonsum steigt und im Verlauf des nächsten Jahres bei denselben Schülern eine signifikant höhere Zahl begangener Körperverletzungen festgestellt wird. Auf der Individualdatenebene lassen sich damit kriminologisch relevante Entwicklungen erkennen, die bei Querschnitt- und Trenduntersuchungen nicht zu ermit- 102 § 4. Kriminologische Forschungsmethoden 10 Zuletzt Bergmann/Kliem/Krieg/Beckmann 2019. 11 Zuletzt Boers/Reinecke 2019. 22c 22d teln wären. Es kann deshalb nicht überraschen, dass Paneluntersuchungen in der Kriminologie derzeit als das bestangesehene Forschungsdesign gelten. Ein nicht zu unterschätzender praktischer Nachteil ist freilich, dass Paneluntersuchungen sehr aufwendig sind und ihr Ertrag erst nach langer Zeit sichtbar wird. c) Die Grundformen der Datenerhebung Der zweite Schritt nach der Wahl der Untersuchungsanordnung ist die Wahl der Erhebungsmethode(n). In der empirischen Sozialforschung werden zahlreiche unterschiedliche Methoden angewandt. Sämtliche Methoden lassen sich jedoch auf drei Grundformen reduzieren: die Befragung (Interview), die Beobachtung und die Inhaltsbzw. Dokumentenanalyse (in der Kriminologie häufig in Form von Aktenanalysen).12 Beispiel: Um Art und Ausmaß von Gewalt in der Schule zu erfassen, können unterschiedliche Methoden angewandt werden: Befragung von Schülern und Lehrern; Beobachtung des Geschehens auf dem Pausenhof; Analyse von Aufsätzen, die die Schüler zu dem Thema angefertigt haben; Auswertung der Schulakten über einzelne Schüler und besondere Vorkommnisse; Auswertung von Strafakten, soweit einzelne Vorfälle den Strafverfolgungsbehörden angezeigt worden sind. Ein abgerundetes Bild wird man vermutlich erst dann erhalten, wenn man die genannten Methoden miteinander kombiniert. 4. Operationalisierung der Variablen Wenn die Untersuchungsanordnung und die Methode(n) festgelegt sind, müssen die zu untersuchenden Variablen operationalisiert, dh erhebbar und messbar gemacht werden. Die Operationalisierung von Begriffen bereitet unterschiedliche Schwierigkeiten, je nachdem ob der Begriff einen direkten oder einen indirekten empirischen Bezug hat. Von Begriffen mit einem direkten empirischen Bezug spricht man, wenn das von ihm bezeichnete Phänomen unmittelbar beobachtet werden kann wie zB „Graffiti“, „zerbrochene Fenster“ oder bestimmte Verhaltensweisen wie „Alkohol trinken“ oder „am Straßenrand liegen“. Bei der Operationalisierung dieser Begriffe braucht lediglich festgelegt zu werden, unter welchen Voraussetzungen vom Vorhandensein des begrifflich bezeichneten Phänomens aus- III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 103 12 Schnell/Hill/Esser 2013, 311 ff.; Diekmann 2012, 434 ff.; zu Aktenanalysen vertiefend Leuschner/Hüneke MschrKrim 99 (2016) 464 ff.; Klopp MschrKrim 102 (2019), 119 ff. 23 24 gegangen werden soll. Oft aber hat man es mit Begriffen zu tun, deren empirischer Bezug nur indirekt ist, dh sich nicht unmittelbar beobachten lässt. Zu denken ist etwa an Persönlichkeitsmerkmale wie „Intelligenz“ oder „Aggressivität“, an politische Einstellungen, an sozialstrukturelle Merkmale wie „Wohlstand“ oder an Merkmale wie „Lebensqualität“ oder „Zufriedenheit mit den Wohnverhältnissen“. Auch diese Begriffe müssen, wenn sie in die Formulierung von empirischen Forschungsfragen eingehen, irgendwie „greifbar“ gemacht werden. Beispiel: In einer Untersuchung sollen Aussagen zum Grad der sozialen Integration von Personen gemacht werden. Dabei soll mit dem Begriff der „sozialen Integration“ die Eingliederung einer Person in die für sie wichtigsten Beziehungsbereiche bezeichnet werden. Dieses Phänomen ist nicht unmittelbar wahrnehmbar. Fraglich ist deshalb, an welchen unmittelbar wahrnehmbaren Tatbeständen sich das Vorliegen eines solchen Zustands beobachten lässt. Vermutlich sind zur Kennzeichnung der sozialen Integration eines Menschen die familiäre, die berufliche und die örtliche Integration am bedeutsamsten. Die persönlichen/familiären Bindungen, die Existenz eines Beschäftigungsverhältnisses und die Beständigkeit des Wohnsitzes können deshalb als Indikatoren für das gemeinte, unmittelbar nicht wahrnehmbare Phänomen angesehen werden. Mit der bloßen Benennung solcher Indikatoren ist der Begriff indessen noch nicht operationalisiert. Erforderlich ist vielmehr, dass angegeben wird, unter welchen Voraussetzungen vom Vorliegen persönlicher/ familiärer Bindungen etc. ausgegangen werden soll. Hierfür kann man zB darauf abstellen, ob eine Person ständig mit einem festen Partner (zB einem Ehepartner) zusammenlebt oder ob sie ggf. auch noch (zB bei jüngeren Personen) in der Elternfamilie lebt. Diese und andere Einzelfragen können durch unmittelbare Wahrnehmung beantwortet werden. Die Operationalisierung von Variablen ist mit zwei Problemen konfrontiert: dem Problem der Gültigkeit (Validität) und dem der Zuverlässigkeit (Reliabilität).13 Eine Operationalisierung ist gültig (valide), wenn man durch Vollzug der in der operationellen Definition angegebenen Messoperationen genau das erfasst, worauf der Begriff mit seinem Bedeutungsinhalt verweist. Beispiel: In einer Untersuchung soll die Häufigkeit des sexuellen Missbrauchs innerhalb der Familie erhoben werden. Der zentrale Begriff des sexuellen Missbrauchs kann ganz unterschiedlich operationalisiert werden, je nachdem welche Ziele man mit der Untersuchung verfolgt. Bei einem weiten Begriffsverständnis kann man daran denken, auch sexualisierte Blicke, heimliches Beobachten oder beiläufige Berührungen über der Kleidung als „sexuel- 104 § 4. Kriminologische Forschungsmethoden 13 Zum Folgenden Schnell/Hill/Esser 2013, 141 ff.; Diekmann 2012, 247 ff. 25 len Missbrauch“ einzuordnen, obwohl solche Verhaltensweisen aus der Sicht des Gesetzgebers mangels Erheblichkeit (vgl. § 184h Nr. 1 StGB) dem Straftatbestand des sexuellen Missbrauchs (§ 176 StGB) nicht unterfallen. Für eine Untersuchung, die die justizielle Reaktion auf Kindesmissbrauch im Blick hat, wäre eine solche weit gefasste Operationalisierung nicht valide, denn es würden nicht ausschließlich solche Verhaltensweisen erhoben, die der Gesetzgeber mit Strafe bedroht hat. Eine Operationalisierung ist zuverlässig (reliabel), wenn das Erhebungsinstrument bei wiederholter Anwendung die gleichen Ergebnisse bringt (Wiederholbarkeit), und zwar auch bei Anwendung durch verschiedene Forscher (Objektivität). Beispiel: Beschränkt man sich in einer Untersuchung zum sexuellen Missbrauch auf die vom Gesetzgeber in § 176 StGB mit Strafe bedrohten Verhaltensweisen, so muss man dieses Verhalten auf eine Weise benennen und beschreiben, die für jeden an der Untersuchung Beteiligten eine eindeutige Zuordnung und Abgrenzung erlaubt. Die im Gesetz verwendete Umschreibung („Wer sexuelle Handlungen an einer Person unter vierzehn Jahren vornimmt…“) kann dabei nicht verwendet werden, denn sie gibt nicht an, was genau unter einer „sexuellen Handlung“ zu verstehen ist. Divergierende Gerichtsentscheidungen, bei denen bestimmte Verhaltensweisen (zB der Gute- Nacht-Kuss oder das sexuelle Experimentierhandeln nahezu Gleichaltriger) unterschiedlich eingeordnet werden, verdeutlichen das Problem. In der sozialwissenschaftlichen Terminologie ausgedrückt kann man sagen, dass das Gesetz zwar eine valide (weil immer zutreffende), aber keine reliable (dh immer zu eindeutigen Ergebnissen führende) Definition des mit Strafe bedrohten Vorgangs liefert. Um in einer empirischen Untersuchung zu einer zuverlässigen Operationalisierung zu gelangen, muss deshalb zunächst die Bandbreite der in Betracht kommenden Verhaltensweisen ermittelt und für die Zuordnung von Zweifelsfällen eine klare Anweisung gegeben werden. 5. Konstruktion der Messinstrumente Eng mit dem Schritt der Operationalisierung der Variablen hängt der nächste Schritt, die Konstruktion der Messinstrumente, zusammen. Mit dem Begriff des „Messinstruments“ bezeichnet man den standardisierten Teil der jeweils angewandten Methode. Die Grundform aller Messinstrumente ist die Skala. Eine Skala gibt die in einer Dimension aufgetragenen Ausprägungen des untersuchten Merkmals an. Man unterscheidet also bei einem bestimmten zu untersuchenden Objekt (zB bei einer Person oder auch einer von einem Gericht verhängten Sanktion) zwischen den verschiedenen Dimensionen dieses III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 105 26 27 28 Objekts (also zB Geschlecht, Schulleistungen, Alter etc. oder Strafart und -höhe) und analysiert diese Dimensionen auf ihre Merkmalsausprägungen (Werte) hin (also zB männlich – weiblich; Durchschnittsnote 3,7 etc.). Die Einteilung und Anordnung der Merkmalsausprägungen kann man grafisch auf einer horizontalen Achse darstellen, auf deren einzelnen Abschnitten die Ausprägungen aufgetragen sind. Den einzelnen Ausprägungen werden systematisch, dh für alle Merkmale gleich und nach einer gleichbleibenden Zuordnungsregel, eine Menge von Zahlen oder auch Symbolen zugeordnet (zB männlich = 1, weiblich = 2; Schulnoten = 01 (…) 15 oder „sehr gut“, „gut“, „befriedigend“ (…) „ungenügend“). Die Achse mit den zugeordneten Ausprägungen bildet dann eine Skala; den Vorgang des Zuordnens nennt man „Messen“. Die Genauigkeit einer Messung hängt einerseits von der Systematisierung der Zuordnung, andererseits von der Qualität der Skala ab. Die vier wichtigsten Arten von Skalen sind: – Nominalskala: Die Ausprägungen schließen sich nur logisch aus; das Kriterium ist Gleichheit – Verschiedenheit (zB ja – nein; männlich – weiblich; evangelisch – katholisch – andere). – Ordinalskala: Die Ausprägungen lassen sich in eine Rangordnung bringen; das Kriterium ist größer – kleiner (zB häufig, selten, nie; sehr zufrieden, zufrieden, unzufrieden). – Intervallskala: Die Unterschiede zwischen den Ausprägungen sind gleich groß; das Kriterium ist die Gleichheit der Intervalle (zB Temperatur nach Celsius, Intelligenzquotient oder der Kontostand). – Ratio-Skala: Die Verhältnisse der Werte sind gleich, zudem hat der Wert „Null“ einen empirischen Sinn (zB Zeit, Geschwindigkeit, Prozentsatz). Die genannten Skalen unterscheiden sich hinsichtlich ihrer mathematischen Eigenschaften und der statistischen Operationen, die man mit ihnen durchführen kann ("Rn. 42). Jede höhere Skala schließt die niedrigere ein und lässt sich ihrerseits auf ein niedrigeres Niveau verringern. So lässt sich das Alter nicht nur auf einer Intervallskala angeben (zB auf einer Skala von 0 bis 99 Jahren), sondern auch auf einer Ordinalskala (zB Kind bis 14 Jahre, Jugendlicher 14 bis 18 Jahre, Heranwachsender 18–21 Jahre, Erwachsener älter als 21 Jahre) oder auf einer Nominalskala (zB jung – alt). Die Verringerung des Skalenniveaus ist stets mit einem Informationsverlust verbunden. Auch die Messinstrumente müssen den Kriterien der Validität und Reliabilität genügen. Um die Validität oder die Reliabilität zu überprüfen, stehen verschiedene statistische Verfahren zur Verfügung.14 106 § 4. Kriminologische Forschungsmethoden 14 Schnell/Hill/Esser 2013, 141 ff. 29 30 6. Bestimmung der Stichprobe Ist die Grundgesamtheit, über die Aussagen getroffen werden sollen, so groß, dass eine Totalerhebung nicht in Betracht kommt, oder sind die Datenquellen, die über die Grundgesamtheit existieren, in den interessierenden Punkten unvollständig, muss eine Teilerhebung durchgeführt werden. Eine Teilerhebung erfordert die Konstruktion einer Stichprobe, worunter die nach bestimmten Regeln erfolgende Entnahme einer begrenzten Anzahl von Einheiten aus der Grundgesamtheit verstanden wird, die das Ziel verfolgt, Aussagen über die Grundgesamtheit zu machen. Das mit der Konstruktion einer Stichprobe verbundene Ziel, Aussagen über die Verteilung bestimmter Merkmale in der Grundgesamtheit zu machen, setzt die Repräsentativität der Stichprobe voraus. Eine Stichprobe bzw. die auf ihrer Grundlage gewonnenen Ergebnisse sind in dem Maß für die Gesamtheit, aus der die Stichprobe entnommen wurde, repräsentativ, in dem sich die Ergebnisse auf die Gesamtheit verallgemeinern lassen. Eine Teilerhebung ist nie völlig repräsentativ, sondern bildet die Grundgesamtheit immer nur annähernd ab. Beispiel: Wenn in der Grundgesamtheit aller Bewohner eines Stadtteils (ausweislich der Angaben im Einwohnermelderegister) eine Geschlechterproportion von 45:55 besteht, dann wird in einer Teilerhebung vielleicht eine Proportion von 47:53 auftreten. In dieser Situation ist es wichtig angeben zu können, dass der „wahre“ Wert der Grundgesamtheit mit einer bestimmten Sicherheit (zB mit 99%-iger Sicherheit) in einem Intervall (Vertrauensintervall) von zB ± 5% ober- bzw. unterhalb des in der Teilerhebung gefundenen Wertes liegt. Eine derartige Aussage ist möglich und zulässig, wenn die Teilerhebung so durchgeführt wird, dass sie den Forderungen der mathematisch-statistischen Stichprobentheorie entspricht. Das ist dann der Fall, wenn es sich bei der Teilerhebung um eine „Zufallsstichprobe“ (random sample) handelt. Eine „Zufallsstichprobe“ ist dann gewährleistet, wenn jede Einheit der Grundgesamtheit eine berechenbare (für den Fall der einfachen Zufallsstichprobe: die gleiche) Chance besitzt, in die Teilerhebung aufgenommen zu werden. Um diese Forderung zu erfüllen, müssen folgende Regeln eingehalten werden:15 III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 107 15 Schnell/Hill/Esser 2013, 263 ff.; Döring/Bortz 2016, 291 ff.; Walter/Brand/Wolke 2009, 47 f. 31 32 33 34 1. Die Grundgesamtheit muss physisch oder symbolisch gegenwärtig und manipulierbar sein. Bei einer Untersuchung zur Kriminalität im Stadtteil kann insoweit zB auf die Einwohnermeldedatei zurückgegriffen werden; hierbei besteht allerdings die Gefahr, dass man diejenigen Personen nicht erfasst, die nicht gemeldet sind (zB sich illegal aufhaltende Migranten). 2. Die Einheiten der Grundgesamtheit müssen gut durchgemischt sein. Man kann den Mischvorgang dabei symbolisch durchführen, etwa indem man sich vom Computer eine Liste mit Zufallszahlen erstellen lässt oder indem man zB aus der Einwohnermeldedatei jede 100. Eintragung für die Auswertung heranzieht. 3. Jede Einheit darf nur einmal (bzw. alle Einheiten müssen gleich häufig) in der Grundgesamtheit oder in der die Grundgesamtheit repräsentierenden Datei enthalten sein. Sind die Voraussetzungen für eine Zufallsstichprobe nicht erfüllt, müssen die sich hieraus ergebenden Verzerrungen im Datenmaterial bei der Auswahl der anzuwendenden statistischen Prüfverfahren sowie bei der Dateninterpretation berücksichtigt werden. 7. Konzeptualisierung qualitativer Untersuchungen Die Durchführung qualitativer Untersuchungen (s. o. Rn. 7 f.) folgt keinem vergleichbar festgelegten Schema, wie es vorstehend für quantitative Untersuchungen dargestellt wurde. Zwar gilt auch bei qualitativen Studien, dass die einzelnen Arbeitsschritte aufeinander aufbauen und die Vorgehensweise insofern strukturiert ist. Während sich quantitative Untersuchungen jedoch durch einen linearen Forschungsprozess auszeichnen, in dessen Rahmen es um die statistische Überprüfung der am Anfang stehenden Hypothese geht, ist das Kennzeichen qualitativer Untersuchungen der zirkuläre Prozess, bei dem das Ergebnis aus der Interpretation und Verdichtung von Einzelbeobachtungen gewonnen wird. Die Vorgehensweise ist induktiv, nicht deduktiv: Im Einzelfall wird nach dem Verallgemeinerbaren gesucht; Interpretationen des Materials werden zu Vorannahmen in Beziehung gesetzt und durch die wiederholte Konfrontation mit dem Untersuchungsgegenstand fortentwickelt. Die Datenerhebung und die Datenauswertung, die beim quantitativen Forschungsprozess streng voneinander getrennt werden können ("Rn. 12 ff., "Rn. 36 ff.), gehen bei der qualitativen Vorgehensweise ineinander über.16 Beispiel: In einer Studie über junge rechte Gewaltstraftäter interessiert die Frage, wie sich allgemeine Gewaltbereitschaft und rechtsextreme Einstellun- 108 § 4. Kriminologische Forschungsmethoden 16 Flick 2014, 122 ff.; Döring/Bortz 2016, 25 ff., 67 ff. 34a gen zueinander verhalten.17 Denkbar ist sowohl, dass sich zunächst durch spezifische Bedingungen des Aufwachsens allgemein die Bereitschaft zur Gewaltausübung entwickelt und die Hinwendung zum Rechtsextremismus mit der Übernahme rechts gerichteter Einstellungen erst später erfolgt. Denkbar ist aber auch der umgekehrte Weg, dass zunächst der Anschluss an rechts orientierte Gruppen erfolgt und die Gewaltbereitschaft hierdurch erst ausgelöst wird. Mit einem standardisierten, quantitativen Vorgehen lassen sich die Zusammenhänge nur unzureichend aufklären. Weiterführend ist jedoch eine Vorgehensweise, die die einzelnen Entwicklungsverläufe in den Mittelpunkt stellt und aus der Rekonstruktion einzelner Abläufe und ihrer Bedeutung für die weitere Entwicklung zu neuen, allgemeinen Einsichten in die Zusammenhänge und Wechselwirkungen von Gewaltbereitschaft und rechtsextremen Einstellungen gelangt. Auch wenn am Anfang des qualitativen Forschungsprozesses keine Hypothesen stehen, muss die Fragestellung der Untersuchung genau formuliert und die forschende Person für das Untersuchungsthema sensibilisiert werden. Qualitative Forschung ist nicht mit Beliebigkeit des Vorgehens gleichzusetzen; vielmehr muss zu Beginn eine Verständigung darüber stehen, welche Aspekte zutage gefördert werden sollen. Anders als Hypothesen, die nur widerlegt oder bestätigt werden können, werden die Forschungsfragen in qualitativen Untersuchungen offen gehalten für neue, nicht vorhergesehene Erkenntnisse. In der Offenheit gegenüber dem Untersuchungsgegenstand besteht der wesentliche Strukturunterschied zu den quantitativen Vorgehensweisen. Die Offenheit des qualitativen Ansatzes schlägt sich im Vorgehen bei der Datenerhebung nieder. Zwar wurzeln auch die qualitativen Erhebungsmethoden in den drei Grundformen der Befragung, der Beobachtung und der Inhaltsanalyse ("Rn. 23). Die Datenerhebung wird jedoch auf eine Weise ausgestaltet, die den Untersuchungsgegenstand in seinen Eigenheiten möglichst vollständig erfasst. Typische Herangehensweisen sind das offene, dh nicht standardisierte, sondern lediglich leitfadengestützte Interview, bei dem die Befragten die Gelegenheit zur Darstellung ihrer subjektiven Sicht auf das jeweilige Thema erhalten, die Beobachtung von Personen und Interaktionen im natürlichen Lebensumfeld sowie die hermeneutische Analyse von Bildern oder Texten (Tagebüchern, Leserbriefen, Chatverläufen etc.). Beispiel: In einer in den 1930er Jahren im Kontext der „Chicagoer Schule“ (" § 2 Rn. 18) entstandenen Studie lebte der Soziologe William Whyte (1914– III. Konzeptualisierung empirisch-kriminologischer Untersuchungen 109 17 Krüger 2008. 34b 34c 2000) mehr als 3 Jahre in „Cornerville“, einem von italienischen Einwanderern geprägten Stadtteil von Boston.18 Sein Ziel war es, die Strukturen in dem gemeinhin als undurchsichtig und gefährlich angesehenen Viertel genauer aufzuklären. Whyte identifizierte zwei Gruppen von jungen Männern (die „Corner Boys“ und die „College Boys“), analysierte die Gruppenstrukturen und wies auf die Anpassungsleistungen der jungen Männer und die Zusammenhänge mit ihrem beruflichen und gesellschaftlichen Aufstieg hin. Whytes Studie gilt als eine der ersten und wichtigsten Untersuchungen, die mit der Methode der teilnehmenden Beobachtung durchgeführt wurde. Noch weitgehend ungeklärt ist die Frage, nach welchen Kriterien sich die Qualität einer qualitativen Untersuchung beurteilen lässt. Die bei quantitativen Untersuchungen eingeführten Kriterien der Validität und Reliabilität ("Rn. 25 f.) lassen sich nur eingeschränkt übertragen; sie gehen davon aus, dass der untersuchte Gegenstandsbereich über eine „objektive“ Dimension verfügt, die gültig und zuverlässig erhoben werden kann, während es das Kennzeichen des qualitativen Forschungsprozesses ist, dass hier gerade die „subjektive“ Sicht auf den Gegenstand in Rede steht. Zum Teil wird deshalb dafür plädiert, bei qualitativen Untersuchungen mit eigenen Gütekriterien zu arbeiten. Hierzu gehören etwa die Glaubwürdigkeit einer Studie, die durch die Kombination unterschiedlicher Perspektiven (Triangulation) erreicht werden kann, die Übertragbarkeit der Ergebnisse auf andere Situationen sowie die Verlässlichkeit und Bestätigbarkeit des Forschungsprozesses.19 IV. Auswertung der erhobenen Daten Die Auswertung des in einer Untersuchung erhobenen Datenmaterials setzt ein umfassendes Spezialwissen voraus. Im vorliegenden Zusammenhang kann lediglich auf die Grundstruktur des Auswertungsprozesses hingewiesen werden. Dabei wird auch hier zunächst auf die meist rechnergestützt erfolgende mathematisch-statistische Auswertung des in einer quantitativen Untersuchung erhobenen Datenmaterials eingegangen, ehe der Blick auf die Auswertung qualitativer Untersuchungen gerichtet wird. – Im quantitativen Auswertungsprozess kommt der Unterscheidung von deskriptiver und ana- 110 § 4. Kriminologische Forschungsmethoden 18 Whyte 1943. 19 Seipel/Rieker 2003, 128 ff.; Flick 2014, 487 ff.; ders., in: Baur/Blasius 2019, 473 ff.; Döring/Bortz 2016, 106 ff.; Lamnek 2010, 127 ff. 34d 35 lytischer (Prüf-)Statistik maßgebliche Bedeutung zu. Damit wird die bereits im Zusammenhang mit der Hypothesenbildung angesprochene Unterscheidung von deskriptiver und verifizierender Forschung ("Rn. 16) wieder aufgegriffen. 1. Deskriptive Statistik Die beschreibende oder deskriptive Statistik verfolgt das Ziel, die Häufigkeit der erhobenen sozialen Phänomene darzustellen und Verteilungen zu beschreiben. Die Beschreibung erfolgt anhand statistischer Maßzahlen. Dabei kommen namentlich in Betracht: – das arithmetische Mittel, das aus der Summe der Messwerte, geteilt durch ihre Anzahl gebildet wird und das den Durchschnitt einer Verteilung angibt, – der Median als derjenige Wert in der nach ihrer Größe geordneten Rangreihe, der die Reihe halbiert, – der Modalwert als der in einer Verteilung am häufigsten vorkommende Messwert, – die Variationsweite, die die Differenz zwischen dem größten und dem kleinsten Messwert einer Verteilung bezeichnet, – die Varianz, die die mittlere quadratische Abweichung aller Messwerte einer Verteilung von ihrem arithmetischen Mittel angibt, – die Standardabweichung, die Wurzel der Varianz, die bei normalverteilten Messwerten Aussagen über den Bereich erlaubt, in dem ein bestimmter Anteil aller Messwerte liegt (zB befinden sich im Bereich des arithmetischen Mittels ± 1 Standardabweichung ca. 68% aller Messwerte). Beispiel: Die Befragung der Bewohner im Stadtteil „Nordstadt“ führt zu dem Ergebnis, dass 52,1% der Befragten angeben, im letzten Jahr (mindestens) einen Ladendiebstahl begangen zu haben. Die Spannbreite der Angaben (Variationsweite) reicht dabei von einem bis zu 15 Diebstählen. Der Durchschnittswert (arithmetisches Mittel) liegt bei 1,8 Diebstählen, der Median (= die 50% – Marke) bei 1,3 Diebstählen, der Modalwert (der am häufigsten genannte Wert) bei 1. Trägt man die ermittelten Werte in ein Schaubild ein (die Anzahl der Diebstähle von 0 bis 15 auf der horizontalen X-Achse, die Häufigkeit der entsprechenden Nennungen auf der vertikalen Y-Achse), so zeigt sich ein in der Kriminologie immer wiederkehrendes Grundmuster: Die Werte verteilen sich in der Grafik in Form einer umgekehrten J-Kurve. Die meisten Befragten (47,9%) geben an, keinen Diebstahl begangen zu haben, viele haben nur eine IV. Auswertung der erhobenen Daten 111 36 37 Tat begangen, manche zwei, noch weniger drei, und nur sehr wenige Befragte geben sich als „Intensivtäter“ zu erkennen, die mehr als drei Taten bis hin zu 15 Diebstählen begangen haben. Der umgekehrt J-kurvenförmige Verlauf der Werte in der Grafik deutet an, dass das Verhalten der Befragten einem sozialkulturellen Normdruck unterliegt, der normabweichendes Verhalten zu einem nach Häufigkeit, Dauer und Schwere zunehmend seltener werdenden Ereignis macht.20 Da sich die Werte in der Grafik nicht nach dem Muster einer statistischen Normalverteilung verteilen (denn dann müsste sich der am häufigsten genannte Wert in der Mitte der Kurve befinden), ist es nicht möglich bzw. nicht sinnvoll, die Standardabweichung zu berechnen. 2. Statistische Hypothesenprüfung Im Mittelpunkt der Auswertung des Datenmaterials steht in der Regel nicht die beschreibende Darstellung der erhobenen Daten, sondern die statistische Prüfung der die Untersuchung leitenden Forschungshypothesen, also die Prüfung der zu Beginn der Untersuchung ("Rn. 16) aufgestellten Annahmen über den Zusammenhang zwischen den untersuchten Merkmalen (analytische, Prüf- oder Inferenzstatistik). Die in der Hypothese formulierte Erwartung geht bei sozialwissenschaftlichen Fragestellungen regelmäßig dahin, dass der angenommene Zusammenhang lediglich mit einer gewissen Wahrscheinlichkeit auftritt; anders als bei naturwissenschaftlichen Zusammenhängen wird von vornherein nicht erwartet, dass die Hypothese immer und unter allen Umständen zutrifft. Einzelne Gegenbeispiele, in denen der angenommene Zusammenhang nicht zutrifft, können die Hypothese deshalb nicht widerlegen. Bedeutung kommt den Gegenbeispielen erst dann zu, wenn sie überzufällig häufig auftreten und daher anzunehmen ist, dass sie einer anderen als der in der Hypothese formulierten Gesetzmäßigkeit folgen. Bei der statistischen Hypothesenprüfung werden die Grundsätze der mathematischen Wahrscheinlichkeitsrechnung angewandt. a) Bivariate Analysen Der Blick sei zunächst auf die vergleichsweise einfache statistische Prüfung des Zusammenhangs zwischen zwei Merkmalen gerichtet (zweidimensionale oder bivariate Analyse). Angenommen, die Hypothese lautet „Jugendliche, die in prekären wirtschaftlichen Verhältnis- 112 § 4. Kriminologische Forschungsmethoden 20 Vgl. Kaiser 1996 § 31 Rn. 44 f. 38 39 sen leben, werden häufiger straffällig als andere Jugendliche“ ("Rn. 16), dann wird die Untersuchung Daten sowohl zu den wirtschaftlichen Verhältnissen der Jugendlichen (prekär/nicht prekär) als auch zur Straffälligkeit (straffällig/nicht straffällig) erbracht haben. Die Daten lassen sich in diesem vergleichsweise einfachen Fall in einer Vierfeldertafel darstellen. Bei der statistischen Prüfung der Hypothese (H1) wird von der Frage ausgegangen, wie die Verteilung aussehen müsste, wenn zwischen den Merkmalen kein Zusammenhang bestünde (sog. Nullhypothese, H0); mit dieser bei Geltung der Nullhypothese zu erwartenden Verteilung wird die tatsächliche Verteilung verglichen. Wenn sich mathematisch-statistisch feststellen lässt, dass die tatsächliche Verteilung mit einer über 95%-igen Wahrscheinlichkeit nicht auf einer zufälligen Varianz der untersuchten Stichprobe beruht ("Rn. 33), wird die Nullhypothese als widerlegt angesehen und es wird davon ausgegangen, dass die eigentliche Hypothese (H1, sog. Alternativhypothese) beibehalten werden kann. Die Sicherheit, mit der die Nullhypothese zurückgewiesen und die Alternativhypothese angenommen werden kann, wird durch das Signifikanzniveau angegeben.21 In der Statistik hat man sich darauf verständigt, für die Widerlegung der Nullhypothese eine Sicherheit von 95% als erforderlich, aber auch ausreichend anzusehen. Üblicherweise wird bei der statistischen Analyse allerdings nicht die Sicherheit, sondern die Irrtumswahrscheinlichkeit angegeben. Die Angabe p < 0,05 bedeutet also, dass die Wahrscheinlichkeit dafür, dass ein festgestellter Zusammenhang zufällig ist (die Irrtumswahrscheinlichkeit), weniger als 5% beträgt, die Nullhypothese also mit einer mehr als 95%-igen Sicherheit zurückgewiesen werden kann. Signifikanztests können lediglich eine Aussage über die Sicherheit von Zusammenhängen zwischen zwei Merkmalen treffen, aber nicht über die Stärke der Zusammenhänge. Obwohl eine Untersuchung zu signifikanten Ergebnissen führt, können die ermittelten Zusammenhänge schwach und damit bedeutungslos sein. Um Aussagen über die Stärke eines Zusammenhangs zu treffen, müssen andere statistische Verfahren durchgeführt werden, die ein Maß für die Effektstärke liefern. Bei der bivariaten Hypothesenprüfung leistet diese Aufgabe der Korrelationskoeffizient.22 IV. Auswertung der erhobenen Daten 113 21 Döring/Bortz 2016, 52 ff., 657 ff.; Schnell/Hill/Esser 2013, 437 ff.; Walter/Brand/ Wolke 2009, 50 ff. 22 Sedlmeier/Renkewitz 2011, 288 ff.; Schnell/Hill/Esser 2013, 442 ff.; Döring/Bortz 2016, 816 ff. 40 41 Der Wertebereich von Korrelationskoeffizienten bewegt sich zwischen –1 und +1, wobei +1 eine vollständige funktionale Abhängigkeit zwischen den beiden geprüften Variablen und –1 einen der geprüften Hypothese entgegengesetzten Zusammenhang angibt, während bei 0 kein Zusammenhang zwischen ihnen besteht. Bei einem Wert von 0,1 kann man von einem kleinen, bei 0,3 von einem mittleren und bei 0,5 schon von einem großen Effekt sprechen. Für die Berechnung des Korrelationskoeffizienten und des Signifikanzniveaus stehen jeweils mehrere Verfahren zur Verfügung. Die Auswahl des für die Lösung des einzelnen Problems richtigen Verfahrens ist dabei von verschiedenen Faktoren abhängig wie zB dem Skalenniveau der untersuchten Variablen ("Rn. 29), der Verteilung ihrer Messwerte (Normalverteilung?), der Größe der Stichproben oder auch der Frage, ob verschiedene Messwerte ein und desselben Falls miteinander verglichen werden (abhängige Stichproben) oder gleiche Messwerte verschiedener Fälle (unabhängige Stichproben). Hinsichtlich der Einzelheiten muss an dieser Stelle auf die Lehrbücher der Statistik verwiesen werden.23 b) Multivariate Analysen Die statistische Prüfung kann sich nur in den seltenen Fällen auf den Zusammenhang zwischen zwei Merkmalen beschränken. Erforderlich ist in der Regel die Einbeziehung einer dritten und noch weiterer Variablen in die Prüfung, um auch komplexere Zusammenhänge statistisch deutlich machen zu können. Beispiel: In einer Untersuchung über die Straffälligkeit Jugendlicher wird man sich nicht darauf beschränken können, lediglich nach dem Zusammenhang zwischen wirtschaftlich prekären Lebensverhältnissen und Kriminalität zu fragen ("Rn. 39). Die Darstellung der Kriminalitätstheorien hat gezeigt, dass es eine Vielzahl weiterer Umstände gibt, die sich mit Straffälligkeit in Zusammenhang bringen lassen; erinnert sei etwa an die prosozialen Bindungen, über die ein Jugendlicher verfügt und die ihn möglicherweise auch dann von Straftaten abhalten können, wenn er in prekären Verhältnissen lebt, an die Kontakte, die er zu anderen delinquenten Jugendlichen hat, und die Erfahrungen, die er bereits mit den Strafverfolgungsorganen gesammelt hat (" § 3 Rn. 66, 80 f., 92 ff.). Zur Prüfung der mehrdimensionalen Zusammenhänge stehen zahlreiche multivariate Verfahren zur Verfügung, zB die Regressions-, die Diskriminanz- oder die Faktorenanalyse. Hier gilt es in besonde- 114 § 4. Kriminologische Forschungsmethoden 23 Vgl. etwa Bortz/Schuster 2010, 97 ff. 42 43 44 45 rer Weise, auf die Anwendungsvoraussetzungen für die einzelnen Analyseverfahren zu achten. Auf die Einzelheiten mehrdimensionaler Testverfahren kann hier wiederum nicht näher eingegangen werden; auch insoweit muss auf die Lehrbücher der Statistik verwiesen werden.24 3. Metaanalysen Zu bestimmten Fragestellungen wird in der Regel nicht nur eine einzige Untersuchung erstellt, die sämtliche interessierenden Fragen abschließend beantwortet, sondern es werden von verschiedenen Forschungsgruppen Untersuchungen durchgeführt, die sich in ihrer Fragestellung und methodischen Anlage möglicherweise leicht unterscheiden und in ihren Ergebnissen zuweilen auch kein konsistentes Bild vermitteln. Um sich in diesen Fällen dennoch vom Forschungsstand einen zuverlässigen Eindruck zu verschaffen, können Metaanalysen durchgeführt werden. Bei einer Metaanalyse werden nicht die für die Forschungsfrage unmittelbar relevanten Daten auf der Objektebene (zB die psychosozialen Belastungsfaktoren von Schülern und ihr Zusammenhang mit Delinquenz), sondern die zu der betreffenden Frage erstellten Studien als Untersuchungsgut genommen und nach den für eine quantitative Untersuchung geltenden Prinzipien ausgewertet. Eine Metaanalyse ist mithin eine Auswertung bereits vorliegender Primärstudien auf einer übergeordneten (Meta-) Ebene, die mit dem Ziel erfolgt, ein statistisch gesichertes, „objektives“ Bild vom jeweiligen Forschungsstand zu erhalten. Bei einer Metaanalyse müssen sämtliche zu der betreffenden Frage vorliegenden Studien erfasst werden. Die jeweiligen Untersuchungsergebnisse sowie die zur Beschreibung der methodischen Anlage der jeweiligen Studie notwendigen Merkmale (zB Untersuchungsdesign, Operationalisierung der Variablen, Stichprobengröße) bilden in der Metaanalyse den Datensatz.25 In Metaanalysen können auch die für die Überprüfung der Wirksamkeit von Maßnahmen ermittelten Effektgrößen miteinander verglichen werden. Die Qualität der Ergebnisse ist freilich in allen Fällen von der Güte der zugrunde liegenden Primärstudien abhängig. IV. Auswertung der erhobenen Daten 115 24 Backhaus/Erichson/Plinke/Weiber 2016; Bortz/Schuster 2010, 337 ff.; Schnell/Hill/Esser 2013, 444 ff. 25 Sedlmeier/Renkewitz 2011, 662 ff.; Schnell/Hill/Esser 2013, 457 f.; Döring/Bortz 2016, 191 ff., 893 ff. 45a 4. Qualitative Datenanalyse Während die statistische Datenauswertung das Kennzeichen des quantitativen Forschungsprozesses ist, wird das erhobene Material beim qualitativen Vorgehen sinnverstehend interpretiert. Um bei der Interpretation regelgeleitet und intersubjektiv überprüfbar vorgehen zu können, werden die durchgeführten Befragungen und Beobachtungen zunächst verschriftlicht (transkribiert). Die Auswertung des hierdurch entstehenden meist sehr umfangreichen Textmaterials kann durch spezielle Programme unterstützt und erleichtert werden. Für das Vorgehen bei der qualitativen Datenanalyse gibt es verschiedene Techniken, unter denen die Auswahl entsprechend der Fragestellung und Zielsetzung der jeweiligen Untersuchung erfolgt. Vor allem zwei Strategien werden in der Forschungspraxis häufig angewandt: die qualitative Inhaltsanalyse, die darauf abzielt, das Textmaterial auf seine wesentlichen Strukturen zu reduzieren, um hierdurch zu allgemeinen Aussagen über den untersuchten Forschungsgegenstand zu gelangen, und die gegenstandsbegründete Theoriebildung, die den umgekehrten Weg geht und nicht auf die Reduzierung des Textmaterials, sondern auf die Zuordnung von Begriffen und Codes, das Herausarbeiten von Beziehungen zwischen ihnen und die hieraus folgende Formulierung von Kategorien und Theorien abzielt.26 Wesentliche Schritte bei der qualitativen Inhaltsanalyse sind die Zusammenfassung, die Explikation und die Strukturierung. Bei der Zusammenfassung geht es um die Reduzierung des Materials mit dem Ziel, hierdurch zu Aussagen auf höheren Abstraktionsebenen zu gelangen. Die Explikation verfolgt das Ziel, unklare und interpretationsbedürftige Textstellen durch die Berücksichtigung ihres Kontextes verständlich zu machen. Mit Strukturierung ist gemeint, dass das Material unter inhaltlichen Gesichtspunkten geordnet wird, dass Kategorien gebildet werden und sich hieraus die Struktur des Textes erschließt.27 Die gegenstandsbegründete Theoriebildung, die auch als „Grounded-Theory“-Ansatz bezeichnet wird, geht davon aus, dass die zu entwickelnden Kategorien und Theorien in dem erhobenen Material verankert („grounded“), aber nicht sichtbar sind, sondern durch Codierung erst herausgearbeitet werden müssen. Die im Textmaterial enthaltenen Aussagen werden in ihre Sinneinheiten zergliedert (segmentiert) und mit abstrakteren Begriffen, den Codes, belegt. Die Codes werden dann untereinander verglichen und ausdifferenziert, auf das Textmaterial zurückbezogen und auf erkennbare Struk- 116 § 4. Kriminologische Forschungsmethoden 26 Flick 2014, 386 ff.; Döring/Bortz 2016, 607 ff.; Seipel/Rieker 2003, 189 ff. 27 Mayring 2015, 54 ff. 45b 45c turen hin ausgewertet. Aus der zunehmenden Abstrahierung der Begriffe erwachsen neue Einsichten und Theorien.28 Beispiel: In der erwähnten Studie über junge rechte Gewaltstraftäter ("Rn. 34a) wurden die durchgeführten Interviews mit einer qualitativen Inhaltsanalyse ausgewertet. Bei der Strukturierung des Materials erfolgte die erste Orientierung anhand zeitlicher Abläufe und der Zuordnung einzelner Textpassagen zu den verschiedenen Sozialisationsinstanzen. Hiervon ausgehend wurden weitere Kategorien und Subkategorien gebildet, die sich auf Personen, Themen und Einstellungen bezogen und zu denen Paraphrasen und Zusammenfassungen gefertigt wurden, die jeweils aus den einzelnen Interviews abgeleitet wurden. Auf diese Weise konnten die individuellen Biografien mit Blick auf die untersuchte Fragestellung auf sehr hohem Abstraktionsniveau zusammengefasst werden. Durch den Vergleich individueller Entwicklungsverläufe mit den Biografien anderer Gewalttäter und die Beobachtung von Gemeinsamkeiten und Unterschieden konnte schließlich festgestellt werden, dass es für die Entwicklung von Gewaltbereitschaft und rechtsextremen Einstellungen mehrere typische Verlaufsmuster gibt, an die mit präventiven Überlegungen angeknüpft werden kann.29 V. Theoretische Schlussfolgerungen An die Auswertung der Ergebnisse schließen sich in den meisten Untersuchungen theoretische Schlussfolgerungen an, deren Inhalt und Charakter je nach der Art der Untersuchung variiert. Allgemein kann man sagen, dass in diesem Stadium des Forschungsprozesses der Geltungsbereich der gewonnenen Aussagen abgesteckt wird, dass die Ergebnisse eventuell verallgemeinert oder in einen Zusammenhang mit einer bereits bestehenden Theorie gestellt werden. Kriminologische Arbeiten schließen oft damit ab, dass sie die rechtspolitischen Konsequenzen der Untersuchungsergebnisse diskutieren. Lässt sich etwa in einer empirischen Untersuchung ein Zusammenhang zwischen dem Stadtteil und der Kriminalitätsbelastung herstellen, so können sich hieraus Konsequenzen für Veränderungen in dem höher belasteten Stadtteil ergeben (zB Maßnahmen der kommunalen Kriminalprävention; " § 10 Rn. 18 ff.). Die kriminalpolitischen Überlegungen müssen sich dabei aus den empirischen Befunden ableiten lassen; sie unterliegen in weitergehendem Maß der Kontrolle und Kritik als die empirischen Ergebnisse der Untersuchung. V. Theoretische Schlussfolgerungen 117 28 Flick 2014, 387 ff. 29 Krüger 2008, 70 ff. 46 Empfehlungen zur vertiefenden Lektüre: Döring/Bortz, Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften, 5. Aufl., 2016; Diekmann, Empirische Sozialforschung, 23. Aufl., 2012; Flick, Qualitative Sozialforschung, 6. Aufl., 2014; Schnell/Hill/Esser, Methoden der empirischen Sozialforschung, 10. Aufl., 2013; Walter/Brand/Wolke, Einführung in kriminologisch-empirisches Denken und Arbeiten, 2009. 118 § 4. Kriminologische Forschungsmethoden

Chapter Preview

References

Zusammenfassung

Der Grundriss behandelt die wichtigsten kriminologischen Probleme, Befunde und Konzepte. Nach einer Darstellung von Geschichte, Theorie und Methoden der Kriminologie werden anhand ausgewählter empirischer Befunde die zentralen Sachkomplexe Kriminalität, Täter, Opfer, Kontrolle und Prävention und die daraus folgenden kriminalpolitischen Konsequenzen erörtert. Kapitel zu Wirtschaftskriminalität und zur Kriminalität in Europa schließen das Werk ab.

Die Vorteile des Buches:

  • viele Beispiele und Übersichten

  • prägnante Darstellungsweise

  • auch für Nicht-Juristen interessant

In der gleichen Reihe lieferbar:

Meier/Bannenberg/Höffler, Jugendstrafrecht