Data Intelligence. Manfred Kulmitzer

Чтение книги онлайн.

Читать онлайн книгу Data Intelligence - Manfred Kulmitzer страница 5

Data Intelligence - Manfred Kulmitzer

Скачать книгу

zahlreichen surrenden Bienen umschwärmt werden. Noch vor wenigen Tagen waren hier nur kleine grüne, teilweise auch rötlich eingefärbte Knospen zu sehen und nun hat die Natur innert dieser kurzen Zeit ein so klares und kräftiges Zeichen gesetzt.

      Nachdem ich einen mächtigen Schluck des braunen Kaffees aus meiner Tasse genommen habe, entfacht mein dunkelgrünes Feuerzeug aus Plastik die Glut von einer dieser braunen Zigarillos mit Filter und ich nehme einen ersten, tiefen Zug. Den Rauch blase ich als kaum sichtbare, gräuliche Wolke aus, denn es ist bereits zu warm für klar sichtbare Rauchschwaden an diesem stillen und lauwarmen Morgen. Dabei erinnere ich mich an die letzte Krise im Jahr 2008, damals eine durch spekulative Banken ausgelöste Finanzkrise, welche die Welt unglaublich stark erschüttert hat.

      Es hat vorab schon zahlreiche Warnungen gegeben - davor, dass der Immobilienboom bald enden würde und vor dem Handel mit riskanten Krediten, die allzu leichtfertig vergeben wurden.

      Dennoch ist es an den Börsen wie in einem Spielkasino zugegangen, mit bekannten, fatalen Folgen und viele Menschen haben mit der Geldgier einfach ihren Verstand weggeworfen wie einen alten Lumpen.

      Nach der Lehmann-Pleite wurde aus der Finanzkrise eine weltweite Wirtschaftskrise - der Welthandel brach ein, die Zahl der Arbeitslosen fiel ins Bodenlose und ganze Staaten standen vor dem verheerenden Finanzkollaps. Rasch entschlossen sich die führenden Industriestaaten zu einem koordinierten Vorgehen, um eine langanhaltende Depression und eine allfällige Deflation abzuwenden. Dafür wurden die Staatsschulden in einem bislang nicht gekannten Ausmaß erhöht und ein baldiges Ende der Finanzkrise ist - zumindest in Europa - noch immer nicht in Sicht.

      Bei dieser Weltkrise hätte «Data Intelligence» eine wichtige Rolle spielen können - womöglich wären mit der Aufbereitung und Nutzung passender Daten sowie dem zielgerichteten Einsatz moderner Technologien die allzu riskanten Spekulationen der Finanzinstitute zeitgerecht erkannt und rechtzeitig eingedämmt worden? Aber wäre dann jemand bereit gewesen, die notwendigen Schritte zu unternehmen - ohne gleich Gewinn zu machen?

      Daten waren genügend vorhanden, die Technologien ebenso und Experten haben vor der Krise gewarnt. Nur haben die verantwortungsvollen Manager respektive der Wille dazu gefehlt.

      Auch die wesentlichen Institutionen - beispielsweise die Europäische Zentralbank EZB oder die Schweizerische Bankenaufsicht FINMA - und die Politik haben nicht interveniert, sondern nur (und das spät) reagiert. Das müssen wir beim nächsten Mal besser hinkriegen!

      «Es sind eine Million kleine Dinge erforderlich, um eine effektive Data Intelligence zu erreichen.»

      Dies ist eine für dieses Buch und das Thema sehr bedeutende und wichtige Aussage - aber was meine ich damit eigentlich? Es existieren unglaublich viele (primäre und sekundäre) Fachbücher, Web-Seiten, Blogs, Meinungen und Aussagen über die Informationstechnologie im Allgemeinen und das Daten- und Informationsmanagement im speziellen.

      Überdies gibt es eine schier unglaublich große Anzahl von Fachbegriffen in diesem Kontext, die mehr oder weniger richtig - und leider in vielen Fällen missbräuchlich oder falsch - benutzt werden. In diesem Zusammenhang verweise ich nochmals auf das umfangreiche Glossar in diesem Buch, wo ich im Rahmen meiner langjährigen Erfahrung und schrittweise aufgebauten Expertise viele dieser Fachbegriffe gesammelt, definiert und beschrieben habe.

      Allein die gewaltige Anzahl von Treffern bei einer Suchanfrage im Internet und das gleichzeitig beträchtliche Angebot an Literatur machen das Unterfangen, ein grundsätzliches Verständnis über den Nutzen und die Nutzung von Daten und die angestammten, teilweise kognitiven Technologien zu erlangen, eine schier unlösbare Aufgabe.

      Nach einiger Zeit des Nachdenkens an meinem Schreibtisch wende ich für dieses Buch das Pareto-Prinzip an, benannt nach Vilfredo Pareto und 80-zu-20-Regel genannt, um mit einem pragmatischen Ansatz die wesentlichen Aspekte, also 80 Prozent der Grundbegriffe und Themen mit 20 Prozent des Gesamtaufwandes zu finden und zu beschreiben.

      Mir ist bewusst, dass es aus einer perfektionistischen Sicht darüber hinaus noch weitere Aspekte, Begriffe und Zusammenhänge gibt; diese verbleibenden 20 Prozent der Grundbegriffe zu finden und zu beschreiben würde jedoch mit 80 Prozent des Gesamtaufwandes die quantitativ meiste Arbeit erfordern und das Gesamtergebnis dabei meines Erachtens nicht wesentlich verbessern.

      «Daten sind der neue Grund und Boden.»

      Die in der Literatur, auf zahlreichen Internet-Seiten, in Blogs und Vorträgen oftmals zitierte Aussage „Daten sind das neue Öl“ soll auf die scheinbar unverkennbare Tatsache hinweisen, dass Erdöl die Wirtschaft wesentlich schmiert und daraus ganz neue Ökonomien entstanden sind. Man denke nur an den ersten Einsatz von Öllampen, welche eine ganz andere Lebensqualität für Menschen ermöglicht haben und gleichzeitig der durch John D. Rockefeller [04] gegründeten „Standard Oil Company“ zu einem beträchtlichen Wohlstand verholfen haben.

      Öl ist allerdings aufgrund der heute bekannten und vorhandenen Ressourcen, welche nicht erneuert werden können, durchaus begrenzt. Es verbraucht sich in einem klassischen Produktnutzungskreislauf, bis die Vorräte völlig aufgebraucht sind, nichts mehr vorhanden ist und neues Öl beschafft werden muss. Zudem fluktuiert der Ölpreis stark aufgrund der Marktkräfte sowie politischer Ereignisse und wird sich zukünftig nachhaltig verteuern, je weniger davon vorhanden ist.

      «Mit Daten verhält es sich anders.»

      Die meisten Kosten fallen zu Anfang bei der Datenerzeugung an, analog dazu ist das Grundstück der größte Kostenfaktor bei einem Hauskauf, zumindest in der Schweiz. Die Kosten reduzieren sich mit jeder weiteren Datennutzung und die mehr- oder vielmalige Datenverwendung beschädigt oder vernichtet Daten nicht, ganz im Gegenteil verbessert sich das Kosten-Nutzen-Verhältnis bei jeder zusätzlichen Nutzung. Somit sind Daten und die daraus gewonnene Informationen - wie die meisten Häuser - langlebig und nach der einmaligen Entstehung langfristig nutzbar.

      Die von mir in diesem Buch genutzte Analogie für Daten ist der Acker, also Grund und Boden, welcher zwar ebenfalls in bestimmten Masse und nach den jeweiligen Gegebenheiten eines Landes beschränkt sein kann, aber nach dem Erwerb - und den damit verbundenen einmaligen, hohen Kosten - bleibt Grund und Boden beim Eigentümer. Die grundlegende Basis für einen Acker bildet der Boden mit seinen einzelnen Bestandteilen wie erodiertes und verwittertes Gestein, organische Reste, Mineralien sowie Nährstoffe.

      Dies entspricht in meiner Analogie der Basis für alle digitalen Fakten, aus denen schlussendlich die elektronischen Daten und Dokumente entstehen und gleicht der Datenbereitstellung von gespeicherten, digitalen Daten sowie dem Records Management für physische (in Papierform) und gespeicherte, digitale Dokumente und Aufzeichnungen.

      Im Idealfall werden elektronische Daten und Dokumente zukünftig in Form von «Smart Data» bereitgestellt, was ich in einem späteren Abschnitt in diesem Buch noch im Detail darstellen werde. Wichtig ist die richtige Auswahl und eine gute Kenntnis über den entsprechenden Zustand des Ackers, beispielsweise ist der Boden sandig oder gibt es das ganze Jahr über eine gute Besonnung (analog dem Datendesign).

      Pflegt man den Acker nicht, so entstehen Gräser und Unkraut spontan (analog zu schlecht bewirtschafteten Daten und daher das Kennzeichen für eine schlechte Datenqualität), welches dann kosten- und zeitaufwändig bereinigt werden muss (analog der Datenbereinigung). Man kann selbst darüber entscheiden, welche Art von Gemüse oder Früchten man zu welchem Zeitpunkt und an welchem Ort im Acker anpflanzen möchte (analog zu den Informationen, welche man aus den vorhandenen Daten durch Kombination und Interpretation ableiten will, was der gewünschten Datenaktualität und Datentransparenz entspricht).

      Mit

Скачать книгу