Handbuch der Soziologie. Группа авторов

Чтение книги онлайн.

Читать онлайн книгу Handbuch der Soziologie - Группа авторов страница 26

Handbuch der Soziologie - Группа авторов

Скачать книгу

während das dritte Kausalitätskriterium ein Längsschnittdesign erfordert. Die Entwicklung von Panelstudien hat die quantitative Sozialforschung in Deutschland während der letzten beiden Jahrzehnte stark geprägt, das Interesse an Zeitreihen- und Ereignisdatenanalysen hat stetig zugenommen (vgl. Diekmann 2004).

      c) Datenerhebung

      Aufgrund der Randständigkeit experimenteller Designs beschränken sich die folgenden Ausführungen auf die sozialwissenschaftliche Umfrageforschung. Die Datengewinnung erfolgt über mündliche, schriftliche, telefonische oder internetgestützte Formen der Befragung. Im Mittelpunkt steht zunächst die Entwicklung des Fragebogens. Dabei sind alle für den Hypothesentest erforderlichen Indikatoren zu berücksichtigen. Je mehr eindimensionale Indikatoren man verwendet, desto mehr Informationen können insgesamt erfragt werden. Bei eindimensionalen Indikatoren kann eine missverständliche Frageformulierung allerdings auch zu einer falschen Klassifizierung der Befragten führen, und dieser Fehler kann weder korrigiert noch das Ausmaß des Fehlers eingeschätzt werden. Mit ihrem Interesse an einer möglichst differenzierten Messung ihrer Konzepte durch komplexe multidimensionale Indikatoren laufen Forscher umgekehrt aber auch möglicherweise Gefahr, Befragte zu überfordern, was ebenfalls fehlerhafte Antworten, fehlende Antworten oder sogar den Abbruch des Interviews zur Folge haben kann (z. B. Schnell et al. 2011: 199 ff.; Neuman 1997: 132 ff.).

      Bei der Frageformulierung spielen messtheoretische Gesichtspunkte der Reliabilität und Validität eine entscheidende Rolle. Beide Gütekriterien lassen sich anhand standardisierter Verfahren in Pretests prüfen. So kann die Stabilität eines Indikators durch wiederholte Messungen innerhalb derselben Untersuchungsgruppe geprüft werden (Test-Retest-Methode). Für multidimensionale Indikatoren gilt es auch, die Konsistenz der Messergebnisse zwischen den Indikatoren zu testen (klassischer Test: Cronbachs Alpha). Die Replizierbarkeit der Ergebnisse hängt eng mit der Reliabilität der Indikatoren zusammen. Die Validität stellt quantitative Studien vor größere Herausforderungen, denn es gibt keine absolute Sicherheit darüber, dass ein Indikator auch wirklich das gemeinte Konzept abbildet (Neuman 1997: 141). Die inhaltliche Validität eines Indikators kann durch das Urteil anderer Experten oder möglicher Probanden über seinen Sinngehalt geprüft werden. Er sollte außerdem möglichst viele relevante Dimensionen des zugrunde liegenden Konzeptes abbilden. Aber auch der Vergleich mit bereits etablierten alternativen Indikatoren oder seine Vorhersagekraft können dazu dienen, die Validität eines Indikators zu steigern (ebd.: 144).

      Um die Objektivität bzw. Replizierbarkeit der Messungen sicherzustellen, gilt es auszuschließen, dass Messfehler einen unkontrollierten Einfluss auf die Datengewinnung ausüben. Mögliche Fehlerquellen werden daher nacheinander eliminiert, indem der Fragebogen auf den Effekt der Fragenreihenfolge, den Einfluss von Suggestivfragen oder die Rolle sozialer Erwünschtheit überprüft wird.

      Seit dem Zweiten Weltkrieg hat die quantifizierende Bestimmung des Sozialen stark zugenommen. Die Einrichtung großer Forschungsdatenzentren (Statistische Bundes- und Landesämter, GESIS, ICPSR, etc.), die Ausbreitung von Markt- und Meinungsforschungsinstituten (Allensbach, Emnid, Forschungsgruppe Wahlen, Infratest Dimap, etc.) sowie die regelmäßige Durchführung großer Bevölkerungsumfragen (ALLBUS, SOEP, ISSP, Eurobarometer, etc.) haben die wissenschaftliche Sekundäranalyse prozessproduzierter statistischer Daten vereinfacht. Während kosten- und zeitintensive Primärerhebungen die Freiheit lassen, Forschungsdesigns eng an eigenen Forschungsinteressen und Methodenkenntnissen zu entwickeln, setzt die freie bzw. [66]kostengünstige Nutzung unterschiedlicher Sekundärdatensätze ein breiteres Methodenwissen voraus (Fleck 2010).

      d) Datenanalyse

      Die Auswertung empirischen Datenmaterials wurde in den letzten Jahrzehnten durch die explosionsartige Steigerung der Rechnerkapazitäten (von der Hollerith-Lochkarte bis zum modernen Supercomputer) und die Implementierung leistungsfähiger Softwarepakete (wie Stata, SPSS, R oder LISREL) erheblich vereinfacht, so dass mittlerweile riesige Informationsmengen und komplexe Modelle innerhalb kürzester Zeit verarbeitet werden können (»Big Data«).

      Die Datenanalyse erfolgt in der Regel in zwei Schritten: Univariate Analysen sollen anhand von Häufigkeitsverteilungen und Maßen der zentralen Tendenz darüber Aufschluss geben, a) wie häufig die unterschiedlichen Ausprägungen einer Variable in der Stichprobe vorkommen und b) welche Ausprägung für die Verteilung einer Variable charakteristisch sind und daher am häufigsten vorkommen. Die multivariate Analyse untersucht dann die Stärke und Richtung der in den Forschungshypothesen postulierten Kausaleffekte unter Kontrolle möglicher weiterer Ursachen. Aber auch intervenierende Variablen, welche die Stärke des Effekts beeinflussen, und moderierende Variablen, die seine Richtung verändern können, gehen in diesen Forschungsschritt ein. Zu den klassischen Instrumenten der multivariaten Datenanalyse gehören die Faktorenanalyse sowie die lineare und die logistische Regression.

      In der Regel sind Wissenschaftlerinnen nicht allein an der deskriptiven Vermessung ihrer Stichprobe interessiert, sondern versuchen, ihre Befunde mit Hilfe inferenzstatistischer Verfahren zu verallgemeinern. Die gemeinsame Logik inferenzstatistischer Testverfahren besteht darin, eine Nullhypothese zu formulieren, die davon ausgeht, dass zwischen abhängiger und unabhängiger Variable kein Zusammenhang besteht, es wird also versucht, die erkenntnisleitende Theorie aktiv zu falsifizieren (vgl. Schnell et al. 2005: 447–454). Zu diesem Zweck wird anhand geltender Konventionen ein Signifikanzniveau festgelegt, und auf dieser Basis wird a) die Wahrscheinlichkeit getestet, mit der die Nullhypothese fälschlicherweise abgelehnt wird (»Alpha-Fehler«). Wenn der Forscher nun b) ein möglichst rigides Signifikanzniveau wählt, um den unter a) beschriebenen Fehler zu vermeiden, erhöht er damit zugleich aber auch die Wahrscheinlichkeit, die Nullhypothese anzunehmen, obwohl sie hätte verworfen werden müssen – d. h. er geht irrtümlicherweise davon aus, dass seine Forschungshypothese empirisch widerlegt ist (»Beta-Fehler«). Dabei beruhen alle statistischen Tests allerdings auf der Grundannahme, dass das gewählte lineare Modell den untersuchten Kausalzusammenhang richtig modelliert (Aachen 1982). Auch elaborierte statistische Prüfkriterien der richtigen Modellspezifikation und des richtigen statistischen Schätzers können Überlegungen über die inhaltlich-theoretische Validität des Modells nicht ersetzen.

      Da Längsschnittdesigns kostspielig sind, greifen quantitativ ausgerichtete Forschungsprojekte häufig auf nationale Panelstudien oder die amtliche Statistik zurück. Während die Qualitätsstandards dieser Studien hoch sind, konfrontieren sie die Forscher zugleich mit der Herausforderung der Sekundäranalyse: Sie müssen ihre Forschungsfrage so modifizieren, dass sie auf Grundlage der bereitgestellten Daten angemessen bearbeitet werden kann, und sie müssen sich mit den Stärken und Schwächen des von anderen erhobenen Datenmaterials vertraut machen (Bryman 2008: 297 ff.). Insgesamt erfordern Längsschnittuntersuchungen ein hohes Maß an Methodenwissen und haben die Spezialisierung innerhalb der quantitativen Methodik verstärkt (für einen Überblick siehe z. B. Ruspini 2002).

      [67]e) Theoretische Schlussfolgerungen

      Die Befunde der empirischen Datenanalyse müssen in einem abschließenden Untersuchungsschritt auf ihre Implikationen für das zugrunde gelegte Theoriemodell geprüft werden. Falls sich eine Forschungshypothese im Rahmen der Analyse bestätigt, gibt es keinen Revisionsbedarf des Erklärungsmodells, wird eine Hypothese dagegen falsifiziert, so ist die erkenntnisleitende Theorie zu modifizieren oder zu verwerfen. Moderationseffekte haben zur Folge, dass der postulierte Kausalzusammenhang zwar durchaus bestätigt wird, aber nur für eine Teilpopulation. Die Theorie muss dann entsprechend ausdifferenziert werden. Schließlich können Hinweise auf unerwartete und überraschende Zusammenhänge auftreten, die nicht im Mittelpunkt des ursprünglichen Forschungsinteresses standen. Es besteht die Möglichkeit, diese Elemente im Rahmen einer Folgestudie anhand einer neuen Stichprobe zu testen.

2.2Methodik qualitativer Forschungsprozesse
2.2.1Methodologische Grundlagen und Qualitätsstandards

      Die als qualitativ, interpretativ oder rekonstruktiv bezeichneten Methoden der Sozialforschung sind ein heterogenes

Скачать книгу