Das Netz ist politisch – Teil I. Adrienne Fichter
Чтение книги онлайн.
Читать онлайн книгу Das Netz ist politisch – Teil I - Adrienne Fichter страница 4
Das liegt unter anderem am Erwartungsmanagement der Plattformen. Auf Facebook präsentieren Algorithmen ein Kunterbunt an Filmchen, Memes, Status-Befindlichkeiten oder Boulevard-Artikeln. Das Überraschungselement ist gross, die Empörung über verstörende Propagandainhalte ebenso. Man fühlt sich fremdgesteuert.
Youtube suchen wir hingegen gezielt auf. Hier navigieren wir uns mit Klicks und Suchstichworten durch den Kosmos und schreiben uns eine grössere Eigenverantwortung an den Resultaten zu. Dabei ist unsere Autonomie aufgrund des ausgeklügelten Algorithmus genauso beschränkt.
Kosmetische Verbesserungen
Es ist nicht so, dass dem dreizehnjährigen Konzern diese negativen Entwicklungen unbekannt wären. Das Netzwerk reagierte bei jeder negativen Schlagzeile. Doch oft nur zögerlich und mit minimalen Verbesserungen. Ein Beispiel: 2017 listete die Londoner «Times»[20] in einem brisanten Bericht Werbespots auf, die im Vorfeld islamistischer Propagandavideos automatisch ausgespielt wurden.
Die Opfer – darunter der britische Rundfunk BBC und die Bank JP Morgan Chase – stoppten sofort ihre Werbegelder. Daraufhin kündigte Youtube-Chefin Susan Wojcicki, die das Unternehmen seit 2014 führt, Massnahmen[21] an: Kanäle, die weniger als tausend Abonnentinnen und wenig Verweildauer aufweisen, sollten gekappt werden. Damit sollten die problematischen Hetzerkanäle wegen fehlender kommerzieller Anreize von allein verschwinden.
Der Schritt verfehlte sein Ziel: Verschwörungstheoretiker wie Paul Joseph Watson haben ein Millionenpublikum. Nach der Logik von Wojcickis Massnahme bietet Watson Videos von «hoher Qualität».
Es wird wieder am Algorithmus geschraubt
Es brauchte Damores Google-Manifest und die verstörende Frage ihrer Tochter, die Youtube-Chefin Wojcicki zum Umdenken bewegte. Vor einigen Wochen präsentierte sie endlich einen Erfolg versprechenden Lösungsansatz: Sie lässt an den Komponenten ihres Erfolgsmodells[22], dem Empfehlungsalgorithmus, schrauben.
Neu ist nicht mehr nur die Verweildauer der wichtigste Parameter. Auch der Absender wird relevant. Seriöse Video-Anbieter wie Vox, SRF oder CNN sollen immer bevorzugt werden.
Bevorzugung nützt jedoch wenig, wenn kein Filmmaterial vorhanden ist. Die traditionellen Medien sind zu träge. Auch wenn Youtube die attraktivsten Produktionsbedingungen[23] bietet: Die meisten Medienhäuser priorisieren im Netz immer noch Textformate, weil die Videoproduktion zu aufwendig ist.
Rechte Vlogger sind dynamischer
Ihr Publikationsrhythmus ist länger als derjenige der Videoblogger (Vlogger). Um beim Beispiel Justin Trudeau zu bleiben: Einer der letzten Beiträge[24] von «Guardian» und CNN stammt vom 10. Juni, als der kanadische Premier am G7-Gipfel öffentlich Kritik an Donald Trumps Handelsrestriktionen führte.
Danach sorgte er kaum noch für Schlagzeilen. Dies bevorteilte wiederum die Youtube-Stars Ben Shapiro und Paul Joseph Watson. Die beiden konservativen Youtube-Berühmtheiten sind agiler, hauen im Wochentakt Filme raus und leben sogar davon.
Um den Medien Bewegtbildinhalte schmackhafter zu machen, gibt es eine einfache Lösung: mehr Geld. Es muss sich lohnen, Filmchen zu produzieren. Youtube hat das nun begriffen. Und Mitte Juli beschlossen, 25 Millionen Dollar[25] in den Aufbau von Video-Know-how in Medienhäusern zu investieren.
Gut für die Bürgerin
CEO Susan Wojcicki möchte aus Youtube eine seriöse Nachrichten-Bibliothek[26] formen. Auch andere Plattformen wie Facebook bekämpfen virale Fake-News-Videos, indem sie traditionelle Medien mit finanziellen Anreizen locken. Ironischerweise kopieren die sozialen Netzwerke damit immer mehr das totgeschriebene lineare Fernsehen.
Das Buhlen um etablierte Medien kommt immerhin uns Bürgerinnen zugute und damit der Demokratie. Vorausgesetzt, wir schauen uns die Nachrichtenvideos tatsächlich bis zum Schluss an. Und bleiben nicht beim pseudowissenschaftlichen Erklärungsversuch eines Professors hängen, weshalb Frauen ungeeignet für Management-Positionen sein sollten.
Recherche-Update vom September 2020
Das Radikalisierungsproblem wurde mit Wojcickis Initiative noch nicht aus der Welt geschafft, jedoch in grossem Umfang reduziert. In der Zwischenzeit bestätigte eine Reihe weiterer publizierter Berichte das Extremismusproblem der populärsten Videoplattform: Im August 2019 – also im darauffolgenden Jahr – publizierte das FBI einen Report[27], der die Zunahme der Verschwörungstheorien und damit verbundenen Gefahren für die Meinungsbildung in Demokratien bestätigte. Guillaume Chaslot und seine Gruppe der University of California und der Mozilla Foundation stellen in einer neuen Studie[28] einen regelrechten Boom von Verschwörungsinhalten im Jahr 2018 fest. Weitere wissenschaftliche Evidenz lieferte ein Paper der brasilianischen Universität UFMG und der Lausanner EPFL, das im Herbst 2019 erschien. Im Beitrag «Auditing Radicalization Pathways on YouTube»[29] versuchten die Forscherinnen und Forscher sogenannte Radikalisierungspfade auf Youtube nachzuzeichnen. Ihr Fazit: Wer konservativere oder patriotische Gesinnung hat, bekommt nach einer gewissen Zeit nur noch extremere Alt-Right-Videos vorgeschlagen. Die Forscher haben dies unter anderem anhand des Kommentarverhaltens von Youtube-Nutzerinnen nachzeichnen können. Mit dem im August 2020 lancierten neuen Projekt von Tomo Kihara «Their.Tube»[30] kann man die einzelnen Personalisierungs- und Radikalisierungspfade nachverfolgen. Das Projekt kreierte dafür 6 verschiedene «Persona» etwa den Verschwörungstheoretiker, die Konservative, den Linken, die Klimaleugnerin etc. Je nach angewähltem Profil sieht man unterschiedliche Startseiten auf Youtube. Their.Tube ist Open Spurce und ein Teil der Mozilla Creative Media Awards 2020[31], einem Kunst und Advocacy Projekt für die Untersuchung von KI und ihrem Effekt auf Medien und die Wahrheit.
Zwar bestritt Chief Product Officer von Youtube, Neal Mohan, dass die Betrachtungszeit ein Treiber für die Empfehlungsalgorithmen darstelle.[32] Doch bis heute verweigert der Konzern Transparenz darüber, wie genau die Empfehlungen ablaufen. Welche weiteren Variablen genau wie die Resultate beeinflussen, bleibt also eine Black Box. Youtube-CEO Susan Wojcicki kündigte zu Beginn 2019[33] an, neben der Einführung