Digitale Evolution, Revolution, Devolution?. Brendan Erler

Чтение книги онлайн.

Читать онлайн книгу Digitale Evolution, Revolution, Devolution? - Brendan Erler страница 4

Автор:
Серия:
Издательство:
Digitale Evolution, Revolution, Devolution? - Brendan Erler

Скачать книгу

      In diesem Zusammenhang spielt die Logik der Abduktion eine zentrale Rolle. Dieses schon Jahrhunderte alte und von Stuart Peirce im Rahmen des amerikanischen Pragmatismus adaptierte Konzept beklagt die mangelnde Innovationsfähigkeit der etablierten Konzepte der Induktion und Deduktion, betont die Bedeutung der Erfahrung und fordert ein kreatives Erschließen neuer Ideen (vgl. Peirce 1991). Erst durch freies, spekulatives, jedoch nicht willkürliches Vermuten und Geistesblitze, die zusammenbringen, was „zusammenzubringen "wir uns vorher nicht hätten träumen lassen“ (Peirce 1991, 400), entstehen wahrlich neue Hypothesen und Theorien und findet eine wirkliche Wissensmehrung statt, die nicht nur verifiziert und falsifiziert, was schon bekannt ist (vgl. Reichertz 2007, 214ff.; Breuer 2009 53f.): „Die Abduktion ist der Vorgang, in dem eine erklärende Hypothese gebildet wird. Es ist das einzige logische Verfahren, das irgendeine neue Idee einführt, denn die Induktion bestimmt einzig und allein den Wert und die Deduktion entwickelt nur die notwendigen Konsequenzen einer reinen Hypothese“ (Peirce 1991, 400).

      In der Logik der Abduktion sollte besonders zu Beginn einer Untersuchung, weitestgehend losgelöst von logischen Regeln und Konventionen, eine ungehinderte Suche nach Erklärungen stattfinden für „such combinations of features for which there is no appropriate explanation or rule in the store of knowledge that already exists“ (Reichertz 2007, 219). Es geht um die Kunstfertigkeit „im richtigen Moment, sich abzeichnende neue Elemente zu erkennen und – durch den theoretischen Blick inspiriert – in bestimmter Weise zu verknüpfen, um auf die sie bildende Praxis zu schließen“ (Diaz-Bone 2010, 195). Mit den Prinzipien der Induktion, Deduktion und Verifikation lassen sich die gewonnenen Erkenntnisse dann überprüfen, editieren und gegebenenfalls wieder verwerfen. Auch wenn die Grounded Theory einen zunächst induktiven, also im Material geerdeten Ansatz verfolgt, so spielt Theorie, wie gesehen, dennoch eine wichtige Rolle. Jedoch soll eine Theorie im Gegensatz zu klassisch deduktiven Verfahren „den zu analysierenden Daten“ nicht „übergestülpt [werden] wie eine Haube“ (Strauss 1994, 40), sondern unter Kontrolle und im steten Austausch mit den Daten entdeckt oder weiterentwickelt werden. Schließlich geht es um die Erschließung neuer Sachverhalte, mithin neuer Wahrheiten, während „deductions are not only tautological but also truth-conveying: if the rule offered for application is valid, then the result of the application of the rule is also valid” (Reichertz 2007, 218).

      2.3.2 Grundgesamtheit, Korpus und Analyse

      Grundsätzlich muss unterschieden werden zwischen dem Korpus der Diskursanalyse und anderen Informationsmaterialien (von Gesetzestexten zu Verbandstexten der Spezialdiskurse), die der Vertiefung des Wissens zu den erörterten Themen dienen. Als vorläufige Grundgesamtheit der eigentlichen Diskursanalyse dienen als Ausgangsbasis alle Artikel der Tageszeitungen Süddeutsche Zeitung, Frankfurter Allgemeine, WELT und TAZ, sowie die Wochenmagazine ZEIT und SPIEGEL, jeweils inklusive Online-Ablegern zwischen 2000-2012. Diese Grundgesamtheit wird in einem ersten Schritt durch eine kombinierte Stichwortsuche mit sich in der Vorrecherche als relevant herausgestellten Schlüsselbegriffen auf ein überschau- und bearbeitbares Maß reduziert. Die Einzelsuche aller Begriffe erwies sich als zu grob, aufwendig und diese Kombination aus jeweils mindestens einem Kultur- und Technik- bzw. Rechtsbegriff als gute Mischung aus Quantität und Qualität. Im nächsten Schritt werden für jedes Jahr aus diesen Artikeln alle Fehltreffer aussortiert, also alle Artikel, die keinerlei Bezug zum aktuellen Thema haben, z.B. eindeutige Fehltreffer [11] oder Artikel, die zwar z.B. irgendwie Urheberrechte zum Thema haben, aber in einem eindeutig anderen Kontext stehen.[12]

      Grundgesamtheit: Alle Artikel der Tageszeitungen Süddeutsche Zeitung, Frankfurter Allgemeine, WELT und TAZ, sowie die WochenmagazineZEIT und SPIEGEL, jeweils inklusive Online-Ablegern. Zeitung des neuen Jahrtausends (2000-2012) [13].

      1. Selektionsschritt: Kombinierte Stichwortsuche aus jeweils mindestens einem Kultur- (Kultur, Musik, Literatur etc.) und Technik- bzw. Rechtsbegriff (Digitalisierung, Urheber, Copyright etc.) bei SZ und FAZ.[14] Gleiches Prozedere mit angepasster Stichwortliste[15], wiederholt für die Tageszeitungen WELT und TAZ, sowie die Wochenmagazine ZEIT und SPIEGEL jeweils inklusive Online-Ablegern. Der Korpus umfasst 5064 Artikel.

      Der übrig gebliebene „Rest“ der Artikel jeden Jahres bildet das vorläufige theoretische Sample der Diskursanalyse, wobei im Sinne des „theoretical sampling“ der GT jederzeit gezielt neue Daten zu einem bestimmten Themenaspekt erhoben werden können, da im Gegensatz zum statistischen sampling das Ziel der theoretischen Stichprobe kein verkleinertes Abbild der empirischen Fälle einer Grundgesamtheit ist, sondern „ein Abbild der theoretisch relevanten Kategorien“ (Hermanns zit. nach Rosenthal 2005, 85). Vollständigkeit entwickelt sich erst im Laufe der Untersuchung. Fällt ein Begriff oder Ereignis vollständig durch das Raster, so kann man entweder davon ausgehen, dass er keine größere Relevanz besitzt, oder, falls dies nicht der Fall ist, es sich um typische strukturelle Exklusionsmechanismen handelt, denen man in der Folge nachspüren kann (vgl. Keller 2003, 228). Im Laufe der Untersuchung identifizierte neue Schlüsselwörter können jederzeit in die kombinierte Suche der folgenden Jahre integriert werden oder gezielt zur Anreicherung eines Diskursstranges in einer Einzelsuche verwendet werden.

      Bei der ersten Durchsicht der Artikel eines Jahres lassen sich diskursive Ereignisse bzw. Diskursstränge, also thematisch verwandte Artikel, identifizieren.[16] Diese Schlüsselereignisse dienen dann als Wegweiser des Diskursverlaufes, um die herum sich diskursive Positionen im Kampf um Deutungshoheit gruppieren.[17] Reiner Keller orientiert sich in seiner Diskursanalyse der bundesdeutschen Abfalldiskussion an den „wesentlichen Stationen der gesetzlich-administrativen Bearbeitung des Abfalls in diesem Zeitraum“ (Keller 2009, 97), also an den zum Thema verabschiedeten Gesetzen und Verordnungen. Für die Zusammenstellung des Korpus griff er weitgehend auf die Pressedokumentation beim Presse- und Informationsamt der Bundesregierung und auf die Dokumentationsstelle der Landeszentralbibliothek Düsseldorf zurück. Diese Strategie der Vorauswahl bietet sich aus pragmatischen Gründen der Zeitersparnis sicher an, jedoch würde dies für unseren Fall eventuell einen erheblichen Verlust spannender und relevanter Auseinandersetzungen mit sich bringen.

      Außerdem ist es doch gerade interessant, welche Ereignisse überhaupt im Diskurs eine Rolle spielen im Sinne des „was wird gesagt und kann gesagt werden“, welche Ex- und Inklusionsmechanismen dabei am Werk sind. Zu diesem Zweck wäre es sicherlich spannend zu sehen, inwiefern bestimmte Ereignisse in den „seriösen“ Medien gerade keine Rolle spielen, z.B. im Vergleich zu Netzpublikationen. Da es sich eben nicht um die Analyse eines abseits des Diskurses erfass- oder messbaren „Gegenstandes“ oder klar definierbaren Themas handelt, wäre eine starre Vorabfestlegung des Datenmaterials oder der Themendefinition kontraproduktiv und -intuitiv, da ja gerade die Frage von Bedeutung ist, wie das Phänomen / Thema / Ereignis diskursiv konstruiert wird. Daher ist die „Identifikation der Daten für eine Diskursanalyse […] deswegen ein eher offener Suchprozess in verschiedene Richtungen, der sich immer nur vorläufig an Themen, Referenzphänomenen, Schlüsselbegriffen usw. orientieren kann. Denn ein wesentliches Ziel der Diskursforschung ist ja gerade die Beantwortung der Frage, welche(s) Wissen, Gegenstände, Zusammenhänge, Eigenschaften, Subjektpositionen usw. durch Diskurse als ,wirklich’ behauptet werden“ (Keller 2008, 265).[18]

      2. Selektionsschritt: Identifikation von Schlüsselereignissen und Themen, Sortierung der Artikel.[19] Mittels der Identifikation von Deutungsmustern[20], „typisierte Schemata, die für individuelle und kollektive Deutungsarbeit im gesellschaftlichen Wissensvorrat zur Verfügung stehen“ (Keller 2003, 209), lässt sich ein „diskurstypisches Interpretationsrepertoire“, ein typisierbarer Kernbestand an Grundaussagen erarbeiten, welches sich über eine „story line“ zu einem Diskurs zusammenfügt (Keller 2008, 274): „Während der Begriff des Interpretationsrepertoires das Gesamt der spezifischen und typisierten Grundannahmen eines Diskurses bezeichnet, bezieht sich ,story line‘ auf die in-terne Strukturierung des Zusammenhangs dieser Grundannahmen“ (Keller 2009, 47).

Скачать книгу