Musterbrecher. Dominik Hammer
Чтение книги онлайн.
Читать онлайн книгу Musterbrecher - Dominik Hammer страница 6
Letztlich ist unser Leben durch nie endende Episoden des Versuchens und Ausprobierens geprägt.
Wenn wir Unsicherheit oder Ungewissheit über den Ausgang einer in komplexem Umfeld zu treffenden Entscheidung als den Kern des Experimentierens ansehen, dann befinden wir uns eigentlich in einem permanenten Versuchsstadium. Auch in der Managementliteratur und in Sonntagsreden wird längst das Ende der stabilen und eindeutigen Welt betont.
Das Wissen, Komplexität im wirtschaftlichen, sozialen und politischen Umfeld 13 niemals eindeutig und absolut sicher handhaben zu können, ist vorhanden. Doch mit den in den Fokus des Managements rückenden neuen Formen der Zusammenarbeit – häufig im Kontext der agilen Bewegung oder im Rahmen von New Work – bekommt dieses Bewusstsein zeitgleich einen wirkmächtigen »Antagonisten«: die künstliche Intelligenz (KI).
Ihr Versprechen ist, mit der Komplexität der Welt – neuerdings auch mit dem Akronym VUCA für die englischen Begriffe volatility, uncertainty, complexity und ambiguity gekennzeichnet – umgehen, sie sogar reduzieren zu können. Gerade im ökonomischen Umfeld trifft dieses Versprechen auf einen äußerst fruchtbaren Boden. Denn Lager- und Prozessoptimierung, Energieeinsparung oder auch die Vorhersagbarkeit von Konsumentenverhalten erzielen Effizienzgewinne von bisher nicht vorstellbarem Ausmaß. So hat Google die Kühlung des eigenen Rechenzentrums so optimieren können, dass eine Energieeinsparung von bis zu 40 Prozent möglich wurde.14 Und die US-amerikanische Bank J.P. Morgan Chase konnte sogar die Zeit, die Sachbearbeiter mit der Prüfung von Kreditverträgen verbrachten, von 360 000 Stunden auf wenige Sekunden reduzieren.15 All das gelingt mithilfe künstlicher Intelligenz oder kurz: KI.
Dieser etwas unklare, teilweise umstrittene, andererseits »hochgejazzte« Begriff »KI« ist bereits 1955 von dem Mathematikprofessor John McCarthy geprägt worden. Doch als die Visionen und Versprechen der damit aufkommenden Wissenschaft sich nicht erfüllten, fiel diese in einen Dornröschenschlaf, aus dem die KI aufgrund neuer computertechnischer Möglichkeiten erst Mitte der 1990er-Jahre wiedererweckt wurde. Es kam zu rasanten Entwicklungen, von denen wir alle mittlerweile betroffen sind, und nicht selten haben wir diese fest in unserem Alltag verankert: vom Navigationssystem mit Stauwarnung über die individuell optimierte Reiseplanung bis hin zu Sprachassistenzsystemen wie Siri, Alexa und Co. Überall stecken Algorithmen dahinter, die Problemlösungen liefern, die vor wenigen Jahrzehnten in ähnlicher Form nur von Menschen hätten geliefert werden können.
Es ist beeindruckend, wie die bisher realisierten KI-Systeme in großen Datenmengen (Big Data) Muster erkennen und Zusammenhänge herstellen. In manchen Ländern ist die Mustererkennung so weit im Einsatz, dass der biometrische Scan des Gesichts ausreicht, um eine Zahlung zu tätigen.
Ob diese Systeme wirklich mit Komplexität umgehen können, bleibt allerdings fraglich. Mit Sicherheit kann gesagt werden, dass Machine Learning und Deep Learning sowie tiefe neuronale Netze Korrelationen in Daten erkennen und statistische Aussagen treffen können, zu denen Menschen nicht fähig sind. Zweifellos ist es beeindruckend, dass als AlphaGo den Weltmeister im chinesischen Strategiespiel Go schlug. Ein Sieg, den eine ganze Reihe von IT-Wissenschaftlern kurz davor noch für unmöglich gehalten hatte. Erreicht wurde dies, weil eine KI mit 30 Millionen Spielzügen trainiert worden war. Dieser Erfolg wurde im Jahr darauf noch gesteigert, als AlphaGo Zero sich selbst trainiert hatte, also nicht mehr von menschlichen Daten lernte, und gegen AlphaGo mit hundert zu null gewann.16
Doch diesem Hype sollte man durchaus mit einer gewissen Distanz begegnen – ohne damit die Möglichkeiten etwa in der medizinischen Diagnostik, der Spracherkennung oder in der Prozessoptimierung zu verteufeln. Denn solange wir noch keine starke KI entwickelt haben,17 also eine künstliche Intelligenz sozusagen auf Augenhöhe mit dem Menschen, solange ist sie dem Menschen in vielerlei Hinsicht unterlegen. Es kann im Umgang mit Komplexität hilfreich sein, auf der Basis von Statistik bisher unbeachtete Zusammenhänge zu erkennen.18 Doch Komplexität wird dadurch noch lange nicht reduziert. Vielmehr entstehen neue komplexe Fragestellungen: Wie entscheidet eine KI im Zweifelsfall? Wer haftet, wenn sie sich irrt? Welche Lösungen bietet die KI, wenn über viele Krankheiten wenig bis kaum Daten vorhanden sind? Ist es noch nachvollziehbar, wie die KI entschieden hat, oder war möglicherweise »maschinelle Willkür« im Spiel? Durch solche und ähnliche Fragen, die durch den Versuch der Komplexitätsreduzierung entstehen, wird das Gegenteil bewirkt: Komplexität wird (sogar noch) erhöht.
Noch muss in der Regel die vorhandene schwache künstliche Intelligenz auf wechselnde Situationen vorbereitet werden.19 Menschen können Inhalte in neue Kontexte übertragen. Sie können bisher ungestellte Fragen stellen, und sie können über den Status quo hinausblicken.20 Aus diesem Grund lassen wir uns nach heutigem Stand zu der Aussage hinreißen:
KI experimentiert nicht mit Ungewissheit.
Vielleicht wäre es besser zu sagen: noch nicht. Aber bisher ist nicht zu erkennen, wo und wie KI wirkliche Antworten auf Ungewissheit geben sollte. Denn es sind Entscheidungssituationen, in denen Momente von Überraschungen enthalten sind.
Gerhard Wohland bezeichnet Überraschungen als Ereignisse ohne erkennbaren Grund – als enttäuschte Erwartungen. Bezogen auf Organisationen lösen diese meist durch eigene oder fremde Ideen bewirkten Ereignisse Dynamik aus. Je enger Märkte sind, desto häufiger müssen wir davon ausgehen, dass fremde Ideen entstehen. Ein Kennzeichen einer globalisierten Welt ist Dynamik beziehungsweise sind Überraschungen – und das bedeutet, dass Probleme erzeugt werden.
Was folgt daraus? Man kann nicht nach Prozessen und Strukturen rufen, wie man es bisher immer dann tat, wenn ein Problem festgestellt wurde. Ließen sich nämlich geeignete Prozesse und Strukturen finden, dann läge keine Überraschung vor. Menschen müssen zusammenkommen und etwas tun, was nur sie können, und nach einer Antwort oder einer »Gegenüberraschung« suchen. Management und Führung – die wir im Weiteren nicht gedanklich trennen wollen – müssen somit eine andere Rolle als bisher einnehmen. Sie müssen bewusst zu einem Anwalt der Ungewissheit werden. Bewusst deshalb, weil sie schon längst unbewusste »Ambivalenzprofis« sind.
Führung und Management bringen in gleichem Maße Ungewissheit in die Organisation, wie sie Sicherheit versprechen.
Sie stören eingefahrene Abläufe, verkünden neue operative und strategische Ziele, verändern die Ressourcenzuteilung – in Zukunft immer mehr mithilfe künstlicher Intelligenz – oder setzen beispielsweise Projektteams neu zusammen. Dies alles sind Eingriffe, die die Sicherheit zerstören und Verwirrung stiften. Und dabei ist es egal, ob diese Handlungen auf einer gut begründeten Entscheidung fußen oder nicht. Interessanterweise werden diese Interventionen als logisch und objektiv geplant deklariert. Durch die Hintertür schleicht sich so das Argument der Sicherheit wieder ein. Obwohl von Sicherheit keine Rede sein kann.
Hier kann die Vorstellung von einem Experiment weiterhelfen. Das Experiment hat die Ungewissheit sozusagen automatisch im Gepäck und lässt Management und Führung die eigene Rolle wahren. Es kann aber im Grunde nicht scheitern, denn es ist darauf ausgelegt, aus Unerwartetem zu lernen. Und man lernt immer etwas. Bitte nicht falsch verstehen! Experimente in diesem Sinne animieren das Management nicht zu fahrlässigem Herumprobieren. Managementexperimente sind kein russisches Roulette. Sie gefährden nicht die Organisation als Ganzes.
Das Experiment ist die sichere Einführung der Ungewissheit in die Organisation.
Es kennzeichnet eine Haltung und keine Methode. Experimentieren gelingt nicht nur dann, wenn man in der Position