Handbuch der Soziologie. Группа авторов

Handbuch der Soziologie - Группа авторов


Скачать книгу
Theorieprüfung in der Praxis gerecht werden, weil soziologische Theorien häufig keine operationalisierbaren Aussagen aufweisen, die hinreichend konkret sind, um einen lokalen Gegenstandsbereich angemessen zu erkunden. Kelle schlägt aus diesem Grund einen doppelten Theoriebegriff vor, der zwei Theoriesorten voneinander unterscheidet: empirisch gehaltvolle, gut operationalisierbare und raum-zeitlich klar limitierte Konzepte (a) und empirisch gehaltsarme und universalistisch ausgerichtete Konzepte (b). Die quantitativen Studien sind auf Theorievariante (a) angewiesen, denn nur aus ihnen lassen sich Hypothesen ableiten, die in der Konfrontation mit der empirischen Realität scheitern bzw. falsifiziert werden können. Die qualitativen Studien benötigen hingegen jene heuristischen Suchscheinwerfer, die ihnen durch empirisch gehaltsarme Großtheorien (b) zur Verfügung gestellt werden (ebd.: 271–277).

      (4.) Kelle entwickelt auf dieser kategorialen Grundlage ein dreiphasiges Forschungsprogramm. Der erste Schritt besteht in der Deskription empirisch anzutreffender Struktur- und Handlungsmuster. Auf diese Weise wird bestimmt, was überhaupt als Explanandum in Frage kommt. Hierfür ist eine Analyse auf der statistischen Aggregatebene erforderlich, wofür quantitative Verfahren nach Auffassung Kelles am besten geeignet sind. Der zweite Schritt besteht in dem Versuch, die beschriebenen Handlungs- und Strukturmuster verstehend zu erklären. Mithilfe detaillierter Daten über feldspezifische Situationsdeutungen, Handlungsorientierungen und kulturellen Regeln werden typische Akteurmodelle gebildet. An diese Kontextinformationen gelangt man am besten auf qualitativem Wege. Schließlich wird in einem dritten und letzten Schritt die Geltungsreichweite der generierten Theorie überprüft. Aufgrund der geringen Fallzahlen in qualitativen Studien bietet sich hierbei eine quantitative Untersuchung an (ebd.: 281).

      Kelle skizziert einen integrativen Forschungsrahmen, an den qualifizierende und quantifizierende Studien gleichermaßen andocken können, da er Kausalität und Freiheit, Erklären und Verstehen sowie Theoriebildung und Theorietest aufeinander bezieht. Grundsätzlich bleibt es zwar innerhalb dieses Rahmens möglich und legitim, monomethodische Untersuchungen durchzuführen, sei es für ausgewählte Phasen des Forschungsprozesses oder über alle drei Phasen hinweg. Doch das Phasenmodell legt eine arbeitsteilige Analyse nahe, indem es die Stärken und Schwächen der jeweiligen Instrumente in neuer Schärfe hervortreten lässt.

      [75]Demzufolge eignet sich das quantitative Methodenarsenal am besten, um empirische Evidenzen für Zusammenhangshypothesen zu liefern und um erklärungsbedürftige Tatbestände auf den Bildschirm der Soziologie zu bringen. Qualitative Instrumente sind hingegen dazu in der Lage, mikrofundierte Tiefenerklärungen für schwer interpretierbare Zusammenhänge auf der Aggregatebene anzubieten, durch die Entdeckung neuer Variablen zur Aufklärung von Varianz beizutragen oder durch die Aufdeckung von Drittvariablen zur Vermeidung von Fehlinterpretationen zu sorgen (Kelle 2008: 282–284).

3.2Mixed-Methods-Designs

      Der Mixed-Methods-Ansatz hat sich seit den 1980er-Jahren im angelsächsischen Raum entwickelt. Neben der im Kontext der Triangulation bereits erwähnten Studie von Denzin (1978) haben die britische Studie »Quantity and Quality in Social Research« (1988), in der Alan Bryman das Spannungsverhältnis zwischen dem Wissenschaftsparadigma der qualitativen und quantitativen Sozialforschung exploriert, und die US-amerikanische Studie »Research Design: Qualitative and Quantitative Approaches« (1994), in der John W. Creswell erste idealtypische Verfahren skizziert, die Entwicklung des Mixed-Methods-Research als eigenes Forschungsfeld maßgeblich beeinflusst. Diese Entwicklung wurde wesentlich dadurch begünstigt, dass die qualitative Methodik neben der bereits etablierten quantitativen Methodik ein eigenes Profil entwickelt hatte (Denzin/Lincoln 2005).2

      Weil divergierende erkenntnistheoretische und methodologische Prämissen in das Design qualitativer und quantitativer Forschung einfließen, wurde besonders in den Anfangsjahren der Mixed-Methods-Bewegung debattiert, ob die Kombination der Methoden durch ein dialektisches Verhältnis, die Dominanz eines Paradigmas oder den gleichberechtigten Einfluss beider Paradigmen in Abhängigkeit von der jeweiligen Forschungsfrage geprägt sein sollte (einen Überblick geben z. B. Creswell/Plano Clark 2011).

      Auf einer eher forschungspragmatischen Ebene haben in den Folgejahren zahlreiche Studien versucht, Mixed-Methods-Designs als eigenständige methodische Perspektive zu etablieren. Dabei lassen sich Fälle, in denen quantitative und qualitative Methoden systematisch kombiniert werden (z. B. Greene 2007; Tashakkori/Teddlie 2009), von solchen Ansätzen unterscheiden, die eine von Fragestellung und Forschungsprozess abhängige dynamische Kombination beider Methoden vorsehen (z. B. Maxwell/Loomis 2003; Hall/Howard 2008). Im Zuge dessen wurden Kriterien formuliert, die einen Methodenmix begründen können, wie die Bereitstellung komplementärer Erklärungsmodelle, die Steigerung der Glaubwürdigkeit und die Vergrößerung der empirischen Reichweite (vgl. Bryman 2006; Greene et al. 1998).

      Creswell und Plano Clark (2011) formulieren folgende Leitfragen für die Entwicklung eines konkreten Mixed-Methods-Designs: 1.) Sind die qualitativen und quantitativen Teilschritte unabhängig voneinander, so dass die Befunde erst bei der Interpretation integriert werden, oder interdependent, so dass sie sich im Zuge des Forschungsprozesses direkt aufeinander beziehen? 2.) Hat eine der beiden Methoden Priorität vor der anderen, oder sind beide Methoden gleichberechtigt? 3.) In welchem zeitlichen Verhältnis stehen die qualitativen und quantitativen Teilschritte des Forschungsprozesses zueinander? 4.) In welchem Forschungsschritt werden beide [76]Methoden kombiniert, d. h. während der Interpretation, der Datenanalyse oder bereits während der Datenerhebung? (Creswell/Plano Clark 2011: 64 ff.)

      Auf dieser Grundlage unterscheiden die Autoren sechs unterschiedliche Typen eines Mixed-Methods-Forschungsdesigns, und zwar ein convergent parallel design, in dem die Datenerhebung und -analyse der quantitativen und qualitativen Daten unabhängig voneinander erfolgt und beide Methoden im systematischen Vergleich der Befunde zusammengeführt werden; ein explanatory sequential design, das eine quantitative Datenerhebung und -analyse durch eine qualitative Datenerhebung und -analyse vertieft, während ein exploratory sequential design eine qualitative Studie durch eine quantitative Studie ergänzt, um die Reichweite ihrer Gültigkeit zu steigern; embedded designs sind demgegenüber dadurch gekennzeichnet, dass eine quantitative oder qualitative Studie bereits bei der Datenerhebung und -analyse durch ein Element der jeweils anderen Methodik ergänzt wird. Demgegenüber zielen sowohl das transformative design als auch das multiphase design auf einen Methodenmix ab, der sich im ersten Fall im Zuge des Forschungsprozesses ergibt und im zweiten Fall bereits als ergänzende Durchführung quantitativer und qualitativer Teilstudien, insbesondere im Rahmen von Evaluationsstudien, als Methodenmix angelegt ist, in dem sich beide Methoden mehrfach abwechseln können (ebd.: 69 ff.). Für jedes der Designs können eigene methodische Stärken, methodologische Grundlagen und methodische Herausforderungen unterschieden werden.3

4.Aktuelle Herausforderungen empirischer Sozialforschung

      Zum Abschluss wollen wir auf die wichtigsten Herausforderungen hinweisen, mit denen sich die Methoden der empirischen Sozialforschung gegenwärtig konfrontiert sehen.

a)In den letzten Jahren hat die Diskussion um Forschungsstandards und Gütekriterien in den qualitativen Methoden an Bedeutung gewonnen. Derzeit ist nicht absehbar, ob die Auseinandersetzung zu einer stärkeren Integration der verschiedenen Ansätze oder zur internen Fragmentierung und Spaltung des Feldes führen wird. Im Zuge der zu erwartenden Konflikte sollte man nicht übersehen, dass sich im Rahmen methodischer Reflexionen und praktischer Studien bereits ein weithin geteiltes Sortiment an impliziten Regeln und expliziten Qualitätskriterien herausgebildet und etabliert hat (vgl. Abschnitt 2.2 und 2.3).
b)Die zunehmende Technisierung des Alltags macht auch vor sozialwissenschaftlichen Verfahren nicht halt. Man darf gespannt darauf sein, wie der vermehrte Einsatz computer- bzw. internetgestützter Verfahren die Erhebung, Analyse, Auswertung und Dokumentation gerade im Bereich der qualitativen Sozialforschung verändern wird. Durch die Etablierung öffentlich zugänglicher Datenarchive – wie »Qualiservice« (Universität Bremen) – dürfte außerdem das bislang kaum bestellte Feld der qualitativen Sekundäranalyse enormen Auftrieb bekommen.
c)Die quantitative Forschung hat mittlerweile einen erfreulich hohen Grad der Spezialisierung erreicht. Allerdings
Скачать книгу
Librs.Net