Künstliche Intelligenz ist in aller Munde, aber ihre Ergebnisse bleiben hinter allen Erwartungen
von René Pfeiffer, DeepSec GmbH
Wien (pts007/16.02.2023) - Wäre es nicht schön, wenn Computer aus allerlei unstrukturierten Datensammlungen ohne Mühe sinnvolle Ergebnisse auf alle Arten von Fragen geben könnten? Periodisch werden in der Informationstechnologie Algorithmen gefeiert, die Unglaubliches leisten. Momentan sind die Algorithmen der Künstlichen Intelligenz an der Reihe. Suchmaschinen rüsten KI nach. Das vermeintliche Produkt ist aber weit von echten kognitiven Leistungen entfernt. Es bleiben viele offene Fragen.
Geschichte der Algorithmen
Die ersten Expertinnen und Experten, die sich mit Algorithmen zur Nachbildung menschlicher Gedankengänge beschäftigt haben, stammten aus den Bereichen der Mathematik und Philosophie. Man wollte analytisches Denken aus dem Teilgebiet der Logik formalisieren und in Modellen beschreiben. In den 1950er Jahren kam die Implementation der Algorithmen auf den damals aufkommenden Computern dazu. Mangels Speicherplatz und Rechenleistung mussten komplexe Umsetzungen auf moderne Hardware warten, die erst in jüngster Vergangenheit die Komplexität in erträglichen Zeitspannen berechnen kann.
Die Frustration über die Diskrepanz zwischen Erwartungen und tatsächlicher Umsetzung führte in den 1980er Jahren zum sogenannten "KI-Winter", in dem Budgets für Projekte in diesem Bereich stark gekürzt wurden. Liest man heutige Schlagzeilen, so erscheinen alle Probleme gelöst und die Antworten der Algorithmen suggerieren Treffsicherheit in allen Lebenslagen. Dem ist nicht so. Hohe Erwartungen werden geschürt, und Wunschdenken bestimmt den Weg.
Sprachsimulationen sind keine Künstliche Intelligenz
Die Generative Pre-trained Transformer (GPT)-Algorithmenfamilie hat für viele sich überstürzende Meldungen gesorgt. Die Versionen GPT-1, GPT-2 und GPT-3 sind Sprachmodelle, die menschliche Kommunikation nachahmen. Im Kern der Modelle befinden sich einerseits die zugrundeliegenden mathematischen Algorithmen und die zum Training verwendeten Textvorlagen. Die Versionen unterscheiden sich in Anzahl der Parameter (bei GPT-3 sind es 175 Milliarden Variablen) und dem Korpus des Trainingsinhalts, welche bei den GPT Versionen stetig gestiegen sind. ChatGPT wird gerade gefeiert, weil es sehr gut formulieren kann. Die gelieferten Antworten entstehen aber ohne jegliche Kognition, d.h. der Code denkt nicht beim Generieren einer Antwort. Er ist lediglich ein Modell zur Erzeugung von flüssig lesbaren Texten. Das soll den Aufwand hinter dem Modell nicht kleinreden, aber es ist wichtig zu wissen, dass ChatGPT keine Texte aus eigenen Gedanken erzeugen kann. Es verlässt sich auf die Inhalte der "gelernten" Vorlagen, welche auch letztlich die Ausrichtung der Antworten wesentlich bestimmen. Aussagen oder Fakten, die nicht im gelernten Textkorpus enthalten sind, kann der Algorithmus nicht liefern.
Der Begriff Künstliche Intelligenz (KI) ist daher irreführend. Sie ist ein Forschungsgebiet der Mathematik, und die Definition und das Messen von natürlicher Intelligenz beim Menschen ist nicht klar definiert. Es existieren Tests sowie Metriken, dennoch gibt es die Eigenschaft Intelligenz in verschiedenen Repräsentationen. Die unscharfe Vorlage der Beurteilung von Intelligenz beim Menschen nun bei Computern anzuwenden enthält per Definition große Unschärfe. Algorithmen der Künstlichen Intelligenz müsste man beispielsweise daher eigentlich mit Problemstellungen aus der Philosophie testen, und nicht nur mit auswendig gelernten Formeln, Bildvorlagen oder Telefonbüchern, plakativ gesprochen. Abgesehen davon enthalten viele Produkte, die sich mit Künstlicher Intelligenz bewerben, ganz normale, wenn auch komplexe, statistische Analysen (bekannt unter dem Begriff Machine Learning), die auch gute Auswertungen liefern können.
Magische Lösungen für Informationssicherheit
Mit dem Eingangs beschriebenen Hintergrund werden gelegentlich Sicherheitsprodukte für die Informationssicherheit angeboten, die sich mit dem Prädikat "KI" schmücken. Häufig wird damit eine Sammlung von Methoden zur automatischen Auswertung von sicherheitsrelevanten Parametern beworben, die mit einer Kombination aus gelernten Datensätzen und vorgegebenen Analysen eine Einschätzung über richtig und falsch abgibt. Automatisierte Auswertung von vielen Daten ist eine Stärke von KI- und Machine Learning-Algorithmen. Man kann sie auch sehr gut für die Analyse von Zugriffsmustern, Netzwerkverkehr oder als Basis für eine tiefer gehende Untersuchung verwenden. Dabei darf man nie vergessen, dass die Applikationen keine kognitive Leistung bei der Auswertung erbringen. Sie bilden entweder etwas nach, was sie während der Trainingsphase gelernt haben, oder reagieren auf Muster, die erkannt wurden. Der Kontext entgeht dem Algorithmus, wenn dieser nicht explizit bei der Eingabe als Regelsatz mitgeliefert wird.
Die speziellen Fragestellungen in der Informationssicherheit leben von Querverbindungen und Zusammenhängen. Meist sind die Ursachen für Sicherheitsvorfälle in der Verschränkung zwischen verschiedener Teilbereichen zu finden. In bestimmten Situationen sind diese für Menschen leichter zu erkennen als für Maschinen. Man darf sicher daher nie in Sicherheit wiegen. Selbst bei einem Erfolgsfaktor von 90 %, 99 % oder 99,9 % bleibt noch genügend Spielraum für erfolgreiche Attacken.
KI und Suchmaschinen sind die letzten Kunden für Big Data
Kernfeature von KI-Algorithmen sind jene Daten, welche für das Training verwendet wurden. Der Aufwand dafür ist beträchtlich. GPT-3 hatte als Eingabe die Ergebnisse des Common-Crawl-Projekts, welches öffentliche Webseiten abfragt. Die Menge ist schwer zu beschreiben, weil die Texte beim Lernprozess zu sogenannten Tokens reduziert werden, welche dann im Sprachmodell Verwendung finden. Zusätzlich wurden ausgewählte Texte aus dem Web, die komplette Wikipedia und zwei Selektionen von im Internet publizierten Büchern für die Lernphase verwendet. Damit ist das Sprachmodell auf diese Vorlagen eingeschränkt. Die schiere Menge an Daten ist natürlich zu groß, um diese Beschränkung bei wenigen Konversationen zu bemerken. Die Euphorie über ChatGPT zeigt dies sehr deutlich. Die Datenmenge zeigt auch, dass Sprachmodelle wie GPT-3 und speziell deren Nachfolger ohne massive Rechenleistung und Speicherplatz nur mit den entsprechenden Ressourcen betrieben werden können. Diese Algorithmen sind daher ein sehr zugkräftiges Mittel, um Cloud Plattformen zu bewerben. Am anderen Ende passiert ohne Datenverbindung zur Implementation der Algorithmen und ihren Trainingsdaten nichts.
Rechtliche Konsequenzen von Algorithmen
Gemäß einer Befragung von Unternehmen in der Finanzbranche durch das World Economic Forum setzen 85 % der Unternehmen Algorithmen aus dem Bereich der Künstlichen Intelligenz und von Machine Learning in mindestens einem Anwendungsbereich ein. Der im Januar 2020 publizierte Bericht stellt eine Stimmungslage dar. Es drängt sich die Frage auf was die befragten Firmen mit den Ergebnissen der Algorithmen planen. In bestimmten Bereichen wird die maschinell erstellte Aussage wohl direkt weitergereicht und entscheidet über Anfragen von Kunden. Bei Produkten im Bereich der IT-Sicherheit entscheiden Systeme dann automatisch, ob ein digitaler Angriff vorliegt oder nicht. Wenn alles korrekt entschieden wurde, dann gibt es keine kritische Hinterfragung. Was passiert aber mit den falschen Entscheidungen? In der britischen Komödienserie Little Britain aus dem Jahre 2004 wurde das später geflügelte Wort "computer says no" in einem Sketch verwendet. Wenn die Entscheidung eines Algorithmus ernsthafte Konsequenzen hat, dann stellt sich die Frage nach der Verantwortung. Seit langem werden Internetsuchmaschinen beispielsweise für medizinische Selbstdiagnosen verwendet. Nun besteht die Möglichkeit dasselbe durch einen Dialog mit einem Gesprächssimulator durchzuführen. Die Folgen bei Fehlleistungen könnten schwerwiegend sein. Der Fortschritt bei computergesteuerten Sprachmodellen darf nicht dazu führen, dass dadurch die Verantwortung für potentiell falsche Aussagen ins Nichts delegiert werden könnte.