Machtmaschinen. Viktor Mayer-Schonberger
Чтение книги онлайн.
Читать онлайн книгу Machtmaschinen - Viktor Mayer-Schonberger страница 5
Unumstritten aber ist, dass Google und Baidu zurzeit nicht nur Spitzenreiter sind, ihre Systeme verbessern sich zudem auch oft schneller als jene der Konkurrenz. Dies hat einen zentralen Grund: Beiden Unternehmen ist es gelungen, ein technisches Umfeld zu schaffen, in dem ihre Fahrzeuge mehr Lerndaten erzeugen als die der Konkurrenten. Mit jeder gefahrenen Meile, mit jeder Intervention des Sicherheitsfahrers, mit jeder kniffligen Situation ohne Intervention lernen die Fahrzeuge dazu und schaffen es so, immer weiter zu fahren und leichter neue Lerndaten zu generieren. Google-Autos fuhren in Kalifornien im Jahr 2017 350 000 Meilen, im Jahr darauf 1,2 Millionen und 2019 schließlich die besagten knapp 1,5 Millionen Meilen. Die Unternehmen sehen, dass sich der Ansatz lohnt. Sie können in größere Flotten investieren und parallel virtuelle Testwelten aufbauen, die wiederum auf den real gesammelten Daten der Testflotten gründen. In diesen künstlichen Verkehrswelten fahren die digitalen Zwillinge der Fahrzeuge Abermilliarden Meilen jährlich, bei Google mithilfe der Technologie der Google-Tochter für Künstliche Intelligenz DeepMind. Die Daten aus Kalifornien wiederum geben nur einen kleinen Ausschnitt wieder, wie groß Googles Testdatenmaschine für autonomes Fahren insgesamt ist. Denn autonome Google-Fahrzeuge gleiten in 25 Städten der USA durch öffentlichen Verkehr. Die meisten davon im sonnigen Phoenix, Arizona. Dort ist ein Teil der Fahrzeuge bereits im realen Robotaxibetrieb ohne Sicherheitsfahrer unterwegs. Spätestens bei Fahrzeugen ohne Menschen als Backup auf dem Fahrersitz ist dann eine Schwelle überschritten, von der die Alchemisten des Mittelalters nur hätten träumen können. Aus selbstfahrenden Autos werden selbstlernende Autos. Den Rohstoff, mit dem sie sich selbst verbessern, erzeugen die Fahrzeuge selbst: maschinenlesbare Informationen.
Selbstlernende Maschinen
Diese Form des Datenalchemismus ist die Königsdisziplin des mit Abstand wichtigsten Bereichs in der Entwicklung von sogenannter Künstlicher Intelligenz der letzten zehn Jahre: das Maschinelle Lernen. Informationstechnologisch ist »ML« ein historischer Durchbruch, der trotz allem Hype um sogenannte Künstliche Intelligenz in seiner Wirkung zurzeit eher unter- als überschätzt wird. Denn wenn aus Daten lernende Systeme nach einer ersten Trainingsphase die Daten selbst erzeugen, mit denen sie ihre Algorithmen weiter trainieren und die Anwendungen verbessern, bedeutet das eine Teilautomatisierung von Innovation. Wir werden im folgenden Kapitel intensiv darauf eingehen, was dies für Marktkonzentration bedeutet. An dieser Stelle ist zunächst wichtig zu verstehen, warum Maschinelles Lernen Informationsasymmetrien in bisher ungekanntem Ausmaß verstärkt und Wissensvorsprünge für die Anbieter und Betreiber von aus Daten lernenden Systemen schafft, die für Nutzerinnen und Nutzer unangenehme Abhängigkeiten schafft, und die Vorsprünge für das Konkurrenzangebot kaum noch einholbar sind.
Die Lernfortschritte der selbstlernend-selbstfahrenden Autos von Waymo und Baidu sind für den Datenalchemismus ein besonders eindrückliches Beispiel. Wir finden das Phänomen aber in ähnlicher Form in fast allen Anwendungen, deren digitale Maschinenräume von Kräften des Maschinellen Lernens betrieben werden. Mit jedem Suchwort, das wir bei einer Suchmaschine eingeben, lernt uns das System ein bisschen besser kennen. Mit jedem Klick auf einen Link geben wir der Suchmaschine das Feedback: Diese Information ist relevant für uns, jene nicht. Wenn wir gar nicht klicken, ist das natürlich auch ein wertvolles Signal, und je öfter wir und viele andere Menschen mit der Maschine suchen, desto besser kann das System seine Suchalgorithmen kalibrieren und uns (und allen anderen) mit höherer Wahrscheinlichkeit für uns relevante Suchergebnisse zuspielen. Die Empfehlungsalgorithmen der großen Onlinehändler funktionieren nach dem gleichen Prinzip. Sie sind de facto Produktsuchen, die Amazon oder Zalando freundlicherweise für uns übernehmen. Je mehr Kunden den Empfehlungen folgen (oder auch gerade nicht), desto besser kann das IT-System des Händlers mithilfe maschineller Mustererkennung sein Sortiment optimieren, Preise kalkulieren und Marketingaktionen planen.
Eine Krebsdiagnosesoftware, die auf Maschinellem Lernen fußt, wird mit jeder Diagnose besser, die sie stellt und deren Ergebnis maschinell lesbar nachgehalten und in das System zurückgefüttert wird. Die Betrugserkennungssysteme von Kreditkartenanbietern lernen von jeder verdächtigen Transaktion, die sie blockieren oder autorisieren. Ein beraubter Kunde gibt in der Regel heftiges Feedback; wer an der Kasse mit der eigenen Karte wie ein Betrüger dasteht, ebenfalls. Je mehr Daten über Zahlungsausfälle ein Kredit-Scoring-System einer Bank kennt, desto genauer kann es vorhersagen, ob ein bestimmter Kreditantragsteller seinen Kredit voraussichtlich zurückzahlen wird und wie hoch der angebotene Zinssatz sein muss, damit sich das Geschäft für die Bank rechnerisch lohnt.
Eine Spracherkennungssoftware versteht die menschliche Sprache immer genauer, je öfter Menschen mit ihr gesprochen und fehlerhafte Eingaben korrigiert haben. Eine Smart Factory wird effizienter, je öfter die Maschinen in ihr interagieren, ihre Interaktionen aufzeichnen und die zentrale Steuerungssoftware die Lernerfahrungen daraus akkumuliert. Je mehr Verträge ein LegalBot prüft, desto öfter können wir uns den teuren Anwalt sparen. Warum? Weil moderne IT-Systeme ähnlich lernen wie wir Menschen. Sie sammeln Informationen, werten sie aus und ziehen dann die richtigen Schlussfolgerungen auf Grundlage von datenbasierten Prognosen. Durch eingebaute Feedbackschleifen automatisieren sie Informationsbeschaffung und Lerneffekte. Das Prinzip des Datenalchemismus bei aus Daten lernenden Systemen ist dabei aber nur die jüngste Volte einer viel größeren und tieferen Entwicklung der ökonomischen Machtverschiebung durch Informationstechnologie.
Daten ungleich Öl
Wir haben in den letzten Jahren viel über den Aufstieg der digitalen Superstarfirmen mit ihren agilen Organisationsformen und ihren disruptiven Geschäftsmodellen diskutiert. CEOs klassischer Unternehmen und ihre Beraterstäbe haben sich die Köpfe zerbrochen, wie sie dieses Erfolgsmodell übernehmen könnten, und nannten diesen Versuch dann »digitale Transformation«. In diesen Diskussionen fielen zwar regelmäßig und in inflationärer Verwendung die Begriffe »Big Data«, »Advanced Analytics« und »Künstliche Intelligenz«. Doch zugleich blieben die fundamentalen Unterschiede in der Nutzung von maschinenlesbaren Informationen zwischen digitalen Unternehmen mit datenzentrierten Produkten und Geschäftsmodellen einerseits und großen traditionellen Unternehmen auf dem Weg zur digitalen Transformation andererseits seltsam unreflektiert.
In klassischen Industrien wie Maschinenbau und Automobil, bei Finanzdienstleistern und Telekommunikationsunternehmen, bei Restaurantketten oder beim stationärem Handel, von Konsumgüterherstellern oder Logistikern wurden und werden Daten meist als eine Ressource verstanden und genutzt, um Prozesse auf vorgegebene Weise zu optimieren, Produkte inkrementell zu verbessern, oder als Schmiermittel für die Marketingmaschine, also um Kundinnen und Kunden mehr Produkte zu verkaufen. Das ist natürlich sinnvoll. Wo immer ein Unternehmen mit digitalen Systemen Effizienz steigern, Kosten sparen und Umsätze erhöhen kann, sollte es dies tun. Aber dieser Ansatz funktioneller Datennutzung unterscheidet sich grundlegend von der Herangehensweise der im Internetzeitalter entstandenen Erfolgsunternehmen.
Die heute wertvollsten Unternehmen haben Daten weder als strukturelle Überforderung noch als Kostenfaktor für Kostensenkung oder messbaren Hebel zur Absatzsteigerung gesehen. Für sie sind Daten die wichtigste Investition in die eigene Zukunft. Es ist kein Zufall, dass die windschiefe Metapher von den »Daten als das neue Öl« beim Management alter Industrien so beliebt war wie das Mantra der digitalen Transformierer, das da lautet: »Wir müssen die Datenschätze heben.« Das Bild passte in die Denkschablonen alter Wertschöpfungslogiken. Ein vorhandener Rohstoff muss bloß gefördert werden, um damit eine Maschine anzufeuern, die irgendetwas vorantreibt und dabei dann Geld verdient. Die digitalen Champions wiederum haben sich hingegen nie als ExxonMobils oder BPs des Datenzeitalters gesehen. Sie wussten, dass Daten nicht wie Öl oder Schätze irgendwo tief in der Erde schlummern und darauf warten, gefördert oder gehoben zu werden. Sie wussten, dass Daten durch Gebrauch und unter Entstehung hoher externalisierter Kosten nicht verbrennen, sondern ihr Wert gerade durch unterschiedliche, mehrfache und kombinierte