Predictive Analytic und die Haftung für fehlerhafte Ergebnisse gegenüber betroffenen Einzelpersonen. Susanne Mentel

Чтение книги онлайн.

Читать онлайн книгу Predictive Analytic und die Haftung für fehlerhafte Ergebnisse gegenüber betroffenen Einzelpersonen - Susanne Mentel страница 19

Predictive Analytic und die Haftung für fehlerhafte Ergebnisse gegenüber betroffenen Einzelpersonen - Susanne Mentel @kit-Schriftenreihe

Скачать книгу

fehlerhafte Ausgangsdaten nicht zwingend zu einem unbrauchbaren Ergebnis führen. Die Muster und Zusammenhänge, die in Big Data enthalten sind, würden schon von sich aus aussagekräftige Ergebnisse zu Tage bringen.164 Hinter dieser Erkenntnis steht der Bruch mit traditionellen statistischen Methoden und Grundannahmen. Dazu zählt auch der Aspekt, dass Big Data-Verfahren keine Kausalitäten, sondern nur Korrelationen hervorbringen.165 Es zählt nicht das Wissen darüber, warum ein Zusammenhang besteht. Ausschlaggebend ist allein, dass ein solcher besteht. Diesem Dogma entsprechend veränderte sich auch die Herangehensweise an Analysen. Während es bisher üblich war, dass Analysten eine geeignete Analysemethode auswählen, die nach ihrem Wissen und ihren Erfahrungen zur Analyse der Daten geeignet ist, ist es nun umgekehrt: Die Daten suchen sich die geeignete Methode und ihr statistisches Modell selbst.166 Auch das bisherige Grundprinzip, wonach statistische Methoden auf statistischer Signifikanz beruhen, wird mit Big Data ignoriert. Denn es wird nicht zunächst aus einer kleinen Stichprobe eine Wahrscheinlichkeit errechnet, die dann auf ihre Übereinstimmung mit weiteren Datensätzen geprüft und bei fehlender Übereinstimmung gegebenenfalls wieder verworfen wird.167 Vielmehr wird die Wahrscheinlichkeit für ein gewisses Ereignis direkt aus der Vielzahl an Daten heraus entwickelt. Bei Predictive Analytic-Anwendungen, die schon in der Lage sind, Big Data zu verarbeiten und dementsprechende Analysemethoden nutzen, ist der soeben ausgeführte Aspekt bei der Prüfiung der Haftung im Hinterkopf zu behalten. In diesen Fällen kann nicht ohne weiteres von einer fehlerhaften Datenbasis auf die Fehlerhaftigkeit des Ergebnisses geschlossen werden. Es darf jedoch nicht übersehen werden, dass nicht jede Predictive Analytic-Anwendung bereits mit Big Data angewandt wird.168 Mangels ausreichender Kapazitäten und entsprechendem Know-How sind viele Unternehmen bisher nicht in der Lage, Big Data zu händeln. Der Umgang mit Massendaten im Sinne der Definition von Big Data ist bisher noch Unternehmen vorbehalten, die über die erforderliche Infrastruktur verfügen. Eine fehlerhafte Datenbasis kommt bei gewöhnlichen Predictive Analytic-Anwendungen daher durchaus als mögliche Ursache fehlerhafter Ergebnisse in Betracht. Aus diesem Grund sollen Datenfehler im Folgenden näher spezifiziert werden.

      Bei der Beschäftigung mit einer fehlerhaften Datengrundlage stellt sich unweigerlich die methodische Frage, wann ein Datensatz überhaupt als fehlerhaft eingestuft werden kann. Dies ist aus mehreren Gründen schwer zu bestimmen. Zum einen existiert schon keine einheitliche Definition was Daten sind. Ebenso existiert keine verbindliche Vorgabe, wann ein Datensatz fehlerhaft ist. Eine der oftmals zitierten Definitionen von Daten ist die der „kleinsten realisierbaren Repräsentationen von Sachverhalten, die in einem gegebenen kommunikativen Zusammenhang für sich interpretiert und dauerhaft fixiert werden können.“169 Andere stellen auf Daten als „fixierbare Repräsentationen von Sachverhalten“170 oder „maschinenlesbar codierte Information“ ab.171 Ganz anders wird der Begriff der Daten im Rahmen des Datenschutzrechts verstanden. Dort kommt es nicht auf die Umstände an, wie Daten repräsentiert werden, sondern allein auf deren Inhalt.172 So bezeichnet Art. 4 Nr. 1 der Datenschutz-Grundverordnung (DS-GVO) den Ausdruck personenbezogene Daten als „alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person (…) beziehen“. Dabei wird der Begriff Information mit dem der Daten synonym verwendet und zur Bestimmung des jeweils anderen benutzt, ohne eine Abgrenzung zu schaffen. Gerade durch den Bezug von Rechten, und sogar Grundrechten,173 auf die beiden Begrifflichkeiten wäre eine allgemeingültige Definition sowie eine Unterscheidung zwischen Daten und Information aber wünschenswert.174 Ebenfalls im Bereich des Datenschutzrechts finden sich erste Regelungsansätze für die Bestimmung der Fehlerhaftigkeit von Daten.175 Bereits die 1995 erlassene EU-Datenschutz-Richtlinie (DS-RL) enthielt in einem ihrer Grundsätze die Vorgabe, dass Daten „sachlich richtig und, wenn nötig, auf dem neuesten Stand gebracht“ sein müssen.176 Das Bundesdatenschutzgesetz (BDSG) hat diese Vorgabe der Richtlinie bis zuletzt nicht übernommen. Eine entsprechende Bestimmung enthält erst Art. 5 Abs. 1 lit. d) der DS-GVO, die in Deutschland unmittelbar gilt.177 Neben den bereits seit der DS-RL 1995 bekannten Kriterien der Richtigkeit, Aktualität und Vollständigkeit trat i.R.d. zeitgleich mit der DS-GVO erlassenen RL (EU) 2016/680 und der entsprechenden Umsetzungsnorm des BDSG n.F. auch die Zuverlässigkeit von Daten als ein Aspekt der Datenrichtigkeit hinzu.178 Zu vage ist demgegenüber die bloße Erwähnung des Schlagwortes „Datenqualität“ innerhalb der Datenschutzgesetze. Bereits die DS-RL betitelte die von ihr geforderten Eigenschaften der Richtigkeit und Aktualität von Daten unter der Überschrift der „Grundsätze in Bezug auf die Qualität der Daten“. Auch die EU-Straf-RL,179 die DS-GVO180 sowie das BDSG n.F.181 verwenden das Schlagwort der Datenqualität als Überschrift oder beziehen sich auf dieses, ohne es jedoch näher zu umschreiben. So kann nur angenommen werden, dass die bereits angesprochenen Kriterien innerhalb der Normen von dem Schlagwort erfasst sein sollen. Diese decken jedoch bei weitem nicht alle Dimensionen ab, die nach dem heutigen Stand der Forschung „Datenqualität“ ausmachen.182 Die genannten Vorgaben der Datenschutzgesetze schreiben nur ein „qualitatives Mindestlevel“ vor.183 Vereinzelt finden sich zwar auch rechtliche Verankerungen von Datenqualität außerhalb des Datenschutzrechts, so als Anforderung für Telekommunikationsanbieter,184 für die Speicherung von Luftfahrtdaten sowie für Daten bei Statistikbehörden und Finanzdienstleistern.185 Trotz der Tatsache, dass die Datenqualität in vielen Bereichen essentiell ist, wird der Frage, wie Datenqualität zu definieren ist, in den Gesetzen nicht nachgegangen. Zu einem umfassenden Konzept von Datenqualität würden neben der Richtigkeit und Vollständigkeit auch Kriterien wie Sicherheit, Klarheit, Schlüssigkeit, Aufnehmbarkeit oder Nützlichkeit zählen.186 Eine noch umfassendere Aufzählung enthält das vielzitierte Konzept von Wang und Strong aus dem Jahre 1996.187 Die durch eine Umfrage unter IT-Nutzern zusammengetragenen Kriterien fassen die Merkmale von Informationsqualität aus Anwendersicht zusammen.188 Die Merkmale dieses sog. fit for use-Konzeptes umfassen neben Fehlerfreiheit, Vollständigkeit und Aktualität auch die Zugänglichkeit, den angemessenen Umfang, die Glaubwürdigkeit, die Übersichtlichkeit, die einheitliche Darstellung, die Bearbeitbarkeit, die eindeutige Auslegbarkeit, die Objektivität, die Relevanz, das hohe Ansehen, die Verständlichkeit sowie die Wertschöpfung.189

      Die genannten Gesetze können nicht zur abschließenden Bestimmung aller Facetten von fehlerhaften Daten herangezogen werden. Die dortigen Kriterien können aber als Anhaltspunkte für die spätere Haftungsfrage verwendet werden.190 Trotz des Bestehens unterschiedlichster Ansätze, sowohl der fragmentarischen Ansätze der Datenschutzgesetze als auch der in anderen Rechtsgebieten bestehenden Regelungen zu Datenqualität, ist festzuhalten, dass in keinem der genannten Rechtsgebiete ein ausgereifter Kriterienkatalog besteht, an den eine Anlehnung zu Zwecken der Bestimmung einer Fehlerhaftigkeit möglich wäre. Die genannten Datenschutzgesetze bestimmen zwar, dass Daten richtig und aktuell – teilweise auch vollständig und zuverlässig – sein sollen, sie legen aber keine Kriterien fest, wann dies der Fall ist. Gleiches gilt hinsichtlich einer ausreichenden Konkretisierung des Begriffes Datenqualität. Auch hier reicht der Verweis auf die Einhaltung eines nicht näher beschriebenen Schlagwortes nicht zur Definition desselben aus. Festzuhalten bleibt aber, dass die Frage nach der Qualität von Daten über die Frage ihrer nachweisbaren Richtigkeit hinausgeht.191 Die Anforderungen der verschiedenen Qualitätsdimensionen müssen dabei in eigens hierfür bestimmten Normen niedergelegt sein.192 Es kann damit auf rechtlicher Basis nur auf das im allgemeinen Zivilrecht sowie im Datenschutzrecht anerkannte Kriterium der sachlichen Richtigkeit abgestellt werden. Daneben können die Kriterien der Aktualität und Vollständigkeit, wie sie durch die DS-GVO bzw. bereits durch die DS-RL eingeführt wurden, zur Bestimmung unrichtiger Daten herangezogen werden.

      aa) Datenfehler im technischen Sinne

      Ein Fehler innerhalb eines Datensatzes kann mehrere Ursachen haben. Ein Datensatz kann dadurch unrichtig sein, dass die in ihm enthaltenen Informationen unzutreffend sind, aber auch durch einen technischen Vorgang so verändert worden sein, dass der Datensatz aus diesem Grund fehlerbehaftet ist.193 Denkbar ist ein technisch verursachter Datenfehler z.B. durch eine

Скачать книгу