Nicht alles ist Gold
Trumps Erfolg darf nicht darüber hinwegtäuschen, dass nicht alles Gold ist, was in Big Data steckt. So helfen die großen Datenmengen im Bereich der Terror-Bekämpfung offenbar nur selten Anschläge zu verhindern. Regelmäßig nach einem Anschlag berichten die Medien, dass die Attentäter bereits in Datenbanken von Verdächtigen oder Schläfern registriert waren. Niemand konnte sie aber aufhalten. (erschienen im Unternehmermagazin in A3 ECO 5/2017)
Auch Unternehmen, die gerne aus dem unendlichen Datenpool punktgenau ihre Kunden herausfiltern würden, sind noch weit davon entfernt. Sogar McKinsey musste kürzlich zu optimistische Prognosen aus dem Jahr 2011 revidieren. So erreichen heute Retail-Unternehmen nur 30 bis 40 Prozent des damals geschätzten Wertzuwachses durch Big Data und Produktionsbetriebe schöpfen nur zu 20 bis 30 Prozent ihres Potenzials aus. Immerhin konnte das Potenzial im Segment der ortsbezogenen Daten zu 50 bis 60 Prozent realisiert werden. Ein Hindernis sei hier laut neuester Studie die zu geringe Durchdringung des Smartphone-Marktes mit GPS-Technologie. McKinsey stellt auch fest, dass sich die Zahlen in den USA und der Europäischen Union kaum unterscheiden.
"Viele Unternehmen tun sich damit schwer, datengetriebene Erkenntnisse in die alltäglichen Geschäftsprozesse einzuspeisen. Eine weitere Herausforderung ist das Rekrutieren und Binden der richtigen Talente - nicht nur Data Scientists, sondern auch Business Translators, die einen profunden Umgang mit Daten sowie branchenspezifische und funktionale Expertise kombinieren", so die Autoren der neuesten McKinsey-Studie "The Age of Analytics: Competing in a Data-Driven World". (Quelle: CIO.de)
Vielleicht kann die TU Wien hier demnächst Abhilfe schaffen, denn derzeit läuft die Ausschreibung für eine neue Stiftungsprofessur „Data Intelligence“, finanziert von der T-Mobile Austria. Damit will die TU ab Oktober einen Schwerpunkt auf grundlagen- sowie anwendungsorientierter Forschung in den Bereichen Data Analytics und Intelligent Interaction setzen. Schon jetzt hat die TU international anerkannte IT-Experten. Einer von ihnen, Prof. Edurad Gröller, relativiert aber die Erwartungshaltung: „Das Thema Künstliche Intelligenz ist nach dem zweiten Weltkrieg aufgekommen. Alle zehn Jahre wurde ein großer Fortschritt versprochen, aber die Versprechen wurden nie eingelöst.“
Anhand von zwei Beispielen entzaubert Gröller alle Utopien, dass künstliche Intelligenz in absehbarer Zeit die menschliche Intelligenz ersetzen könnte. 1996 war es eine Weltsensation, dass der Schachcomputer Deep Blue den amtierenden Weltmeister Garri Kasparow geschlagen hat. Der Sieg war nur möglich, weil Deep Blue mit tausenden Meisterpartien gefüttert wurde, und neben einer Bewertung der optimalen Züge auch einen schnellen Datenabgleich mit den Meisterpartien machen konnte. Eduard Gröller: „Ein Schachcomputer ist keine künstliche Intelligenz, sondern rohe Rechenleistung.“
Komplexer als ein Schachcomputer ist ein Übersetzungsprogramm. Eine Sprache kann nie linear in eine andere übersetzt werden, jede Sprache hat ihre eigenen Regeln. Syntax und Semantik unterscheiden sich in jeder Sprache. Die neuesten Übersetzungsprogramme funktionieren nicht aufgrund genialer Algorithmen zur Lösung dieses Problems, sondern aufgrund von Texten in unterschiedlichen Sprachen, die in Sekundenbruchteilen miteinander abgeglichen werden. „Die Dokumente, die das EU-Parlament in 15 Sprachen ausfertigt, sind dafür ein großes Reservoir“, so Gröller. „Je mehr Dokumente in mehreren Sprachen verfügbar sind, umso größer wird die Wahrscheinlichkeit, dass die richtige Entsprechung gefunden wird.“ Anders gesagt: ein gutes Übersetzungsprogramm übersetzt nicht, sondern vergleicht bereits vorhandene Texte in unterschiedlichen Sprachen, die in der Cloud aufgefunden werden. Am Ende zählt das Ergebnis, nicht der mehr oder weniger intelligente Weg dahin.
So realisiert sich durch Big Data das dialektische Konzept der Umwandlung von Quantität in Qualität: die Qualität von Übersetzungsprogrammen steigt automatisch von Jahr zu Jahr, denn immer noch kann man davon ausgehen, dass sich das Datenvolumen alle zwei bis drei Jahre verdoppelt. Das Geheimnis von Big Data besteht somit lediglich in den Speichermedien, die fast nichts kosten, und den ständig wachsenden Datenmengen. Ergänzend dazu bedeutet Datamining nichts anders als das Zusammenführen und das Abgleichen dieser Daten. „Das hat nichts mit Intelligenz, und schon gar nicht mit Artificial Intelligence zu tun“, meint Gröller. Die Intelligenz der Business Translators besteht folglich darin, die Abweichungen und Ausreißer zu sehen und richtig zu interpretieren.
Big Data ist somit eine Goldgrube für all jene Bereiche, die einfach strukturiert sind. Die führerlose Lokomotive ist dafür ein Beispiel. Gröller ist auch überzeugt, dass Lkw bald auf den klar strukturieren Autobahnen autonom unterwegs sein werden. Beim Pkw wird es schwieriger, dafür müssen noch wesentlich mehr Bewegungsdaten und andere Straßeninformationen wie Baustellen und Umleitungen erfasst und verarbeitet werden.
Ablaufdatum für Daten
Viele Facebook-User wünschen sich ein Ablaufdatum ihrer Einträge. So wie im richtigen Leben möchte man später nicht an seine Jugendsünden erinnert werden. In einem Jahr tritt die EU Datenschutz-Grundverordnung (DSGVO) in Kraft. Damit wird die aktuelle Richtlinie 95/46/EG, die noch aus dem Jahr 1995, somit aus der Zeit vor Google und Facebook stammt, abgelöst. In der DSGVO ist auch das Recht auf Datenlöschung enthalten.
Grundsätzlich sollen mit der Verordnung die Rechtsgrundlagen der Datenverarbeitung, die Rechte der Betroffenen und die Pflichten der Verantwortlichen EU-weit vereinheitlicht werden. Doch viele Unternehmen wissen noch nicht, was auf sie zukommt. Anton Jenzer, Vorsitzender des Dialogmarketing-Verbandes (DMVÖ) kritisiert: „Es gibt rund 60 Öffnungsklauseln, über deren Inhalt noch Unklarheit besteht. Es ist völlig inakzeptabel, dass die verantwortlichen staatlichen Stellen hinter verschlossenen Türen an Regelwerken arbeiten, ohne die österreichische Wirtschaft einzubinden.“
Wolfgang Zankl, Leiter des e-center, Zentrum für E-Commerce und Internetrecht, beanstandet einerseits einen „Regelungsexzess (Strafen bis 20 Millionen Euro), auf der anderen Seite Rechtsunsicherheit durch eine Vielzahl unbestimmter Begriffe.“
Moralisches Resümee
Aus moralischer Sicht stellt sich die Frage, wie viele der gespeicherten Daten Müll sind und wie man mit Datenmüll umgehen soll. Wenn ich beispielsweise bei einer Ausstellungseröffnung 100 Fotos mache, so brauche ich maximal 10 davon, bearbeite sie und stelle sie ins Internet – auf die eigene Webseite und/oder auf Facebook. Den Rest könnte ich eigentlich gleich löschen. Mache ich aber nicht, aufgrund des leisen Verdachtes, ich könnte das eine oder andere Foto doch noch brauchen. Passiert aber nie. Genau genommen sind 90 Prozent der Fotos schon Müll, während ich sie auf die Festplatte überspiele. Ein automatisches Ablaufdatum für solche Daten, wäre somit sinnvoll.
Dieses kleine Beispiel kann man sicher nicht linear hochrechnen auf die große Welt von Big Data, doch bin ich überzeugt, dass auch in den großen Betrieben und der weltweiten Datencloud mindestens 50 Prozent der Daten von den Urhebern nach einem Jahr nicht mehr genutzt werden.
Wenn ich das Urheberrecht in den Datenschutz einbringe, so müsste ein Urheber jederzeit das Recht haben zu entscheiden, was mit seinem Content passiert. De facto ist aber jede Publikation im Internet eine Enteignung – denn die Daten verselbstständigen sich im www und können nie wieder total gelöscht werden. Der Jurist Wolfgang Zankl verweist auf Artikel 5 DSGVO, wonach personenbezogene Daten – und dazu würde ich ich alle Einträge in sozialen Medien rechnen - nach „Treu und Glauben“ verarbeitet werden müssen. Es ist leicht vorherzusagen, dass diese schwammige Bestimmung nicht wirklich zum Datenschutz beitragen wird. Bleibt nur ein Ausweg: wer digitale Sicherheit will, muss sich davon befreien, alles zu posten, was ihm gerade durch den Kopf oder auf den A... geht.
Ergänzung 21.8.2107: CIO.de entmystifiziert 15 Mythen über die Künstliche Intelligenz