Kämpf um deine Daten. Max Schrems

Чтение книги онлайн.

Читать онлайн книгу Kämpf um deine Daten - Max Schrems страница 10

Kämpf um deine Daten - Max Schrems

Скачать книгу

Orte, an denen nach den neuesten Daten vermehrt Straftaten auftreten werden, die Polizeikräfte patrouillieren dort präventiv und kontrollieren vermehrt Leute. In den USA werden Verbrechensrückgänge von bis zu 30% kolportiert. Was vor 10 Jahren also noch Science-Fiction war, ist heute schon zu einem gewissen Grad real.

      Nicht alle theoretisch möglichen Prognosesysteme werden uns morgen in der Realität beschäftigen. Wenn Sie aber an die Verbrechensbekämpfung denken, ist sowas wie in »Minority Report« nicht mal so absurd: IT-Systeme können heute schon mit einer respektablen Trefferwahrscheinlichkeit unser Verhalten berechnen und damit unter Umständen auch Verdachtsmomente gegen einzelne Personen liefern. Diese Systeme werden auch immer weiter verbessert. Wenn sie gut genug funktioniert, kann eine solche Analyse durchaus einen ernstzunehmenden Verdacht darstellen, dass jemand etwas getan hat oder zukünftig tun wird.

      Genau so ein begründeter Verdacht oder ähnliche Ansatzpunkte sind in demokratischen Ländern üblicherweise die Basis, um Maßnahmen gegenüber den einzelnen Bürgern zu erlauben (zum Beispiel Hausdurchsuchungen, Identitätsfeststellungen, DNA-Tests oder der Ausspruch von Wohnungsverboten gegenüber potenziell gewalttätigen Ehemännern). Solche Maßnahmen werden heute schon gesetzt, um in der Folge überhaupt feststellen zu können, ob jemand tatsächlich ein Täter ist oder um zukünftige Gefahren zu vermeiden. Heute braucht man dazu einen begründeten Verdacht, also einen analogen Anhaltspunkt.

      Wenn die Recherche eines Polizisten, eine Meldung bei der Polizei oder der Tipp eines Hinweisgebers als Verdachtsmoment für solche Maßnahmen ausreichen, warum soll dann nicht auch eine zu 95% korrekte Computerprognose so ein begründeter Verdacht sein? Im Kern ist eine Big Data-Analyse ja auch nichts anderes als das, was die Polizei heute schon tut. Man sucht Informationen, kombiniert diese, vergleicht sie mit Erfahrungswerten und zieht seine Schlüsse in vielen Fällen auch im Hinblick auf zukünftige Entwicklungen. Der Unterschied ist nur, dass man das mit Hilfe der Technologie noch viel umfangreicher, genauer und flächendeckender machen kann. Ein permanentes Analysesystem könnte also eine richtiggehende Verdachts-Fabrik werden und permanent Tipps über Aktuelles und Zukünftiges absondern. Der Überwachungsdruck würde damit um ein Vielfaches steigen, die Aufklärungsraten aber eventuell auch.

      Was wir heute schon sehen, sind erste Ansätze einer solchen Entwicklung in einzelnen Bereichen, oder zumindest, dass die Technologie dafür Einzug hält. Wenn es aber billig genug ist, betrifft die digitale Glaskugel dann nicht mehr nur potenzielle Straftäter, Häftlinge oder Ihre Zahlungsmoral, sondern einen Großteil Ihres täglichen Lebens. Sie werden klassifiziert und abgestempelt, bevor Sie selbst noch eine Entscheidung getroffen haben. Alles andere wäre auch unlogisch. Ein Bauer wartet auch nicht, bis es wirklich regnet und gibt dem Wetter damit eine zweite Chance, wenn der Wetterbericht eindeutig und üblicherweise korrekt ist. Warum sollten Unternehmen oder der Staat Ihnen gegenüber anders handeln?

      Auf einer moralischen Ebene sieht es aber ganz anders aus: Ihr freier Wille wird von diesen Prognosen einfach negiert. Der freie Wille, die Unberechenbarkeit des Menschen ist nach dieser Logik nur eine Fehlerquote. Der Mensch ist in einer solchen Zukunft generell ein berechenbares Ding und kein freies Wesen mehr.

      Das ist natürlich ein ethisch und philosophisch höchst problematisches Minenfeld: Wie frei sind Ihre Entscheidungen überhaupt? Hat der Mensch eigentlich einen wirklich freien Willen, so wie wir uns das landläufig vorstellen? Sind wir nicht alle irgendwie Sklaven von Logik, berechenbaren biologischen Abläufen in unserem Gehirn, unserer Erziehung oder Sozialisation? Bildet eine digitale Prognose dann nur unsere freien Gedanken ab oder unsere inneren Zwänge?

      Wie viel Macht haben Einrichtungen und Experten, die das berechnen können? Sollen Private das überhaupt dürfen? Soll der Staat das dürfen? Wer kontrolliert das? Wollen wir, dass irgendjemand so viel Macht hat? Wollen wir, dass jemand in unser Hirn blickt und berechnen kann, was darin vermutlich zukünftig passieren wird?

      Was passiert, wenn der Algorithmus falsch liegt? Wer haftet für eine Fehlprognose? Wie kann eine Fehlprognose überhaupt bewiesen werden, wenn schon wegen der Prognose eine mögliche Tat, ein Vertrag oder ein Kredit nie zustande kommt? Trifft dann nicht der Algorithmus schon vorab eine Entscheidung, die im Einzelfall faktisch nicht mehr als die falsche enttarnt werden kann?

      Konkret bei Straftaten: Wenn ein Computer vorab mit hoher Wahrscheinlichkeit berechnen kann, dass jemand eine Straftat begehen wird, müssten wir dann nicht schon aus moralischen Gründen präventiv eingreifen und die Tat verhindern? Hat der Täter dann aber noch eine persönliche Schuld, wenn wir doch schon vorab berechnen konnten, dass er sich so entscheidet und insofern die Entscheidung gar nicht frei, sondern irgendwie vorgezeichnet war? Würde ein Eingriff nicht die berechnete Zukunft verändern und damit die Prognose irrelevant werden lassen? Ist ein Täter nicht genauso schuldig, wenn er nur versucht, eine Tat zu begehen, aber durch einen Eingriff von außen abgehalten wurde? Muss man diese Täter dann wegen der versuchten Tatbegehung einsperren?

      Was ist gleichzeitig mit den braven Bürgern? Wenn ein Verbrechen zu 99% aufgedeckt oder verhindert wird, dann wäre es einfach nur noch dumm, ein solches zu begehen. Wenn Sie in einer solchen Welt dann vor der Entscheidung zwischen einem richtigen und einem verwerflichen Verhalten stehen, sind Sie de facto gezwungen, richtig zu handeln. Vernichten wir damit nicht auch die Möglichkeit, zwischen Gut und Böse frei zu entscheiden und damit unsere persönliche Verantwortung? Wie kann ich mich noch aus Überzeugung ethisch korrekt verhalten, wenn ich de facto keine andere Möglichkeit habe? Verkümmert unsere Ethik dann mangels eines praktischen Anwendungsbereichs? Wo ist die Balance zwischen einer hohen Aufklärungsquote und der Freiheit, sich zwischen Gut und Böse zu entscheiden? Ist das Problem der Kriminalität wirklich gelöst, wenn man sie einfach unterdrückt?

      Begreifen wir uns in einer Welt, in der die Analysen und Prognosen unseres Verhaltens überhand nehmen, überhaupt noch als Individuum oder nur noch als Teil einer berechenbaren Masse, ohne Anspruch auf relevante individuelle Abweichungen? Machen wir uns in einem solchen System nicht zu einem total willenlosen und berechenbaren Objekt? Ist das alles noch ethisch tragbar und mit der Würde des einzelnen Menschen vereinbar?

      Fühlen Sie sich hier etwas wie bei den theoretischen Fragen aus diversen fiktionalen Filmen? Ja? Ich mich auch! Aber genau diese Fragen, und viele andere mehr, diskutieren Experten schon heute ganz ernsthaft. So extrem abgehoben sind diese Überlegungen auch nicht, denn viele der aktuellen Entwicklungen führen genau in diese Zukunft. Viele Elemente dieser Zukunft existieren heute schon und werden in Teilen auch bereits eingesetzt. Diese technische Entwicklung lässt sich auch mit einer gewissen Sicherheit fortschreiben. Die Grenze wird daher keine technische, sondern maximal eine gesellschaftspolitische sein.

      8. Computer says »No«

      Haben Sie schon mal die Fernsehserie »Little Britain« gesehen? Diese etwas skurrile Ausformung von britischem Humor hat eine für uns recht spannende Szene, die regelmäßig wiederholt wird: Eine Sachbearbeiterin namens Carol arbeitet in einer Bank und sitzt hinter ihrem Computer. Menschen kommen zu ihr, die dringend einen Kredit brauchen. Sie tippt kurz auf ihrer Tastatur herum, sieht die Kunden fadisiert an und verkündet: »Computer says No«.

      Jede weitere Diskussion erübrigt sich. Der Computer hat den Traum vom Haus, den dringend nötigen Überbrückungskredit oder den Start einer tollen Geschäftsidee mit einem einfachen Nein zerstört. Carol braucht sich um den Kunden nicht weiter zu kümmern und schiebt die Entscheidung des Computers vor. Keiner weiß, wie es zur Entscheidung kommt, warum man abgewiesen wird und ob man etwas tun kann. Der Computer sagt einfach nein, und Carol muss nicht weiterarbeiten.

      Natürlich ist das auf den ersten Blick stark überspitzt, aber in vielen Bereichen läuft es genau so: Irgendwelche intransparenten Systeme errechnen, ob wir etwas bekommen, die Kriterien und auch die Datenbasis dürfen wir nicht wissen. Wir dürfen nur wissen, dass das System nein gesagt hat.

      Die

Скачать книгу