Hey! Sie scheinen aus United States zu kommen, möchten Sie auf die Englisch Webseite wechseln?
Switch to Englisch site
Skip to main content

Künstliche Intelligenz (KI) beherrscht die Nachrichten, weckt aber auch viele Befürchtungen. Man kann kaum überbewerten, wie viel in diesem Bereich insbesondere in den letzten zehn Jahren schon geleistet wurde. Doch jede Technologie hat ihre Unzulänglichkeiten und Grenzen. Und man muss Kompromisse eingehen, um kostengünstige Lösungen für echte Probleme zu finden. Das gilt auch für KI. In diesem Artikel wird deshalb die Kehrseite der KI-Erfolgsgeschichte untersucht, um das, was letztendlich nicht mehr als ein Rechenwerkzeug ist, etwas nüchterner betrachten zu können.

Die Anfänge

Was bedeutet künstliche Intelligenz eigentlich genau? Um das zu beantworten, lohnt ein Blick in die Geschichte. Los geht's.

Wir schreiben das Jahr 1956 und befinden uns am Dartmouth College in New Hampshire. An der mathematischen Fakultät sitzen im obersten Stockwerk einige Mathematiker und Informatiker zusammen, die gerade eine Hypothese des jungen Professors John McCarthy diskutieren, derzufolge sich jeder Aspekt des Lernens und der Intelligenz so genau beschreiben lasse, dass eine Maschine hergestellt werden könne, um ihn zu simulieren.

Dartmouth Conference Participants 1956

Teilnehmer der Dartmouth-Konferenz 1956

August 1956. V. l. n. r.: Oliver Selfridge, Nathaniel Rochester, Ray Solomonoff, Marvin Minsky, Trenchard More, John McCarthy, Claude Shannon.

Acht Wochen der Diskussion und Reflexion brachten dann eine allgemeine Theorie dessen hervor, was heute als KI bezeichnet wird. In den Jahren darauf entstanden zwei Lager. Das erste konzentrierte sich auf Expertensysteme, bei denen eine Inferenzmaschine eine heuristische Form der symbolbasierten logischen Argumentation auf einen bestimmten Datenpool anwendet, der als Wissensdatenbank bezeichnet wird. Im zweiten Lager wurde dagegen versucht, biologische Gehirnen durch künstliche neuronale Netzwerke nachzubilden.

Expertensysteme

Expertensysteme erlebten ihren ersten großen Bruch im Stanford Heuristic Programming Project von 1965 unter der Leitung von Edward Feigenbaum.

Dabei wurden zwei verschiedene Expertensysteme entwickelt: "Dendral" war auf die Analyse und Bestimmung chemischer Verbindungen spezialisiert und gilt als das erste Expertensystem überhaupt. "MYCIN" baute auf Dendral auf und wurde dazu verwendet, Krankheitserreger zu identifizieren und passende Antibiotika zu empfehlen. Dank der Konzentration auf eine begrenzte (aber tiefgreifende) Wissensgrundlage waren es die ersten gelungenen Versuche, eine KI-Software zu entwickeln.

Die goldenen Zeiten der Expertensysteme kamen in den 80ern, als sie von bis zu zwei Dritteln der Fortune-500-Unternehmen eingesetzt wurden. Die Expertensysteme erweckten internationales Interesse, und viele Mittel flossen auf der ganzen Welt in ihre Erforschung. Es gab jedoch Schwierigkeiten sowohl bei der Verwaltung und Pflege der Wissensdatenbanken als auch bei der Aufstellung entsprechender Regeln. Letztendlich blieben die Expertensysteme also hinter den Erwartungen zurück. Und ohne Ausichten, sich zu einer allgemeineren Form der KI ausbauen zu lassen, wurden sie bereits Anfang der 90er wieder verworfen.

Künstliche neuronale Netzwerke

Das US Office of Naval Research stellte im Juli 1958 das erste künstliche neuronale Netzwerk vor. Der Psychologe Frank Rosenblatt von der Cornell University hatte mit Geld der US-Marine das Perceptron entwickelt, das er als "Mustererkennungsgerät" bezeichnete. Die fünf Tonnen schwere Maschine besaß 400 Lichtsensoren, die wie eine Netzhaut funktionierten und Daten an ca. 1.000 "Neuronen" übermittelten, die diese zu einem Ausgabesignal verarbeiteten. Rosenblatts Vorhaben wurde jedoch durch die geringen Rechnerkapazitäten seiner Zeit vereitelt. So musste er eingestehen, dass die Belastung für einen herkömmlichen digitalen Computer bei wachsender Verbindungsanzahl im Netzwerk schnell zu groß wird.

Frank Rosenblatt with the perceptron

Frank Rosenblatt mit dem Perceptron im Jahr 1958

Der Optimismus der 60er brachte Forschungsgelder von Regierungsbehörden der Vereinigten Staaten und Großbritanniens, die aber in den 70ern wieder versiegten, da die KI-Forschung die hohen Erwartungen nicht erfüllen konnte. Die KI befand sich in ihrer ersten Krise.

Die dritte Welle

Drei Jahrzehnte später hat sich die Anzahl der Berechnungen, die Computer pro Sekunde durchführen können, um ungefähr das Zehnmillionenfache erhöht. Anfang der 2000er wurde all diese zusätzliche Leistung für neue Algorithmen mit symbolischer Argumentation für Anwendungen wie Simultaneous Locating and Mapping (SLAM) eingesetzt. Die ermöglichen es mobilen Robotern, bei der Erkundung der Welt Karten zu erstellen (in denen sie sich selbst verorten können).

Im folgenden Jahrzehnt verstärkte sich die Dynamik mit dem Aufkommen neuer, tiefer neuronaler Netzwerke weiter, die mithilfe riesiger Datensätze trainiert werden. Dabei wurden einige atemberaubende Leistungen erzielt: 2005 gewann ein Stanford-Team die DARPA Grand Challenge, indem es autonom 211 km auf einer unbekannten Offroad-Strecke fuhr; 2011 gewann der Watson von IBM bei der Quizshow "Jeopardy!"; und 2015 schlug der Alphago von DeepMind einen Meister in dem komplexen Spiel Go.  Inzwischen schlägt DeepMind bei StarCraft II den Menschen und sagt voraus, wie sich Proteine falten, während andere KIs radiologische Aufnahmen auswerten.

DeepMind's AlphaGo beating world champion Lee Sedol

AlphaGo von DeepMind schlägt Weltmeister Lee Sedol

 

Trotz all des Erfolgs gibt es Wolken am Horizont, die KI bald wieder auf den Tiefpunkt des Hype-Zyklus zurückwerfen könnten. Und je nachdem, wie tief genau dieser liegt, könnte es der Beginn einer weiteren Durststrecke werden.

Graue Wolken am Horizont

Doch was könnte die wunderbare Welt der KI derart überschatten? Es gibt zwei Faktoren, die sich in naher Zukunft überschneiden und die KI-Forschung stark beeinträchtigen werden. Der erste sind die sehr realen Grenzen dessen, was Deep Learning zuverlässig beherrscht. Der zweite sind die rasant steigenden Rechenkosten jeder Weiterentwicklung bei sinkendem Ertrag. Was diese Probleme noch verschärft, sind die übertriebenen Erwartungen der Öffentlichkeit, dass es nur eine Richtung gibt: nämlich nach oben.

Grenzen

Ein wichtiger Aspekt der aktuellen KI, der fast immer übersehen wird: Bei jeder erfolgreichen Implementierung ist entweder irgendwo in der Steuerungsschleife ein Mensch eingebunden oder aber die Fehlerkosten sind so niedrig, dass sie zu vernachlässigen sind.

Wenn Ihrem autonomen Rasenmäher oder Staubsauger ein Quadratmeter entgeht, ist das wohl zu verkraften. Wenn Ihnen eine KI Anzeigen anzeigt, die für Sie völlig irrelevant sind, ist das auch kein Problem.

Aber wenn Leib und Leben auf dem Spiel stehen, muss ein Mensch das letzte Wort haben. Aus diesem Grund gehören alle selbstfahrenden Systeme in Serienfahrzeugen (trotz der Werbeversprechen) zu Level 2. Die Fahrer müssen also weiterhin die Hände am Steuer behalten und aufmerksam genug sein, um es jederzeit zu übernehmen. Es gab bereits mehrere Todesfälle, bei denen die Fahrer dies nicht getan hatten und das Fahrzeug sich selbst überließen.

Doch Fehler passieren und die zunehmende Präsenz von KI bedeutet, dass sie nicht nur einige wenige, sondern Millionen Menschen betreffen können. Es ist beunruhigend genug, dass die KI-Community diese Fehler erst erfassen muss, um das volle Ausmaß der daraus entstehenden Risiken überhaupt zu begreifen. Ausfälle sind unangenehm und können sogar rechtliche Folgen haben. Doch es liegt im besten Interesse der Branche, sie offen anzugehen. Denn die größte Gefahr für die KI als Ganzes besteht darin, dass sie das Vertrauen der Öffentlichkeit verspielt.

Eines der größten Probleme ist dabei, dass die neuronalen Netzwerke, die hinter den meisten KI-Systemen stehen, die genauen Fehlerursachen verschleiern. Vor diesem Hintergrund werden im Folgenden einige bekannte Mängel beschrieben.

Voreingenommenheit

Der zunehmende Einsatz von KI für wichtige Entscheidungen, etwa in der Kreditvergabe, im Gesundheitswesen oder in der Strafverfolgung, bereitet Bürgerrechtlern große Sorgen. Denn Vorurteile können hier tiefgreifende Folgen für eine große Anzahl an Menschen haben.

Zu den am besten dokumentierten Vorurteilen gehört hier die geringere Genauigkeit von Gesichtserkennungssystemen bei Menschen mit dunkler Hautfarbe, die sehr reale negative Folgen haben kann.

Auch im Gesundheitswesen haben rassistische Vorurteile, die sich aus fehlerhaften Annahmen über Patienten ergeben, bereits dazu geführt, dass schwarze Patienten in Intensivpflegeprogramme gegenüber weniger kranken weiße Patienten benachteiligt werden. Denn der Algorithmus ging davon aus, dass Menschen mit hohen Gesundheitskosten auch besonders krank und daher am pflegebedürftigsten seien. Tatsächlich haben schwarze Patienten jedoch tendenziell einen geringeren Versicherungsschutz, so dass sie mit geringerer Wahrscheinlichkeit hohe Kosten verursachen.

Nur selten stecken böse Absichten hinter derartigen Vorurteilen. Doch ihre Auswirkungen können so weitreichend sein, dass man in Berkeley eine Handreichung für Staaten, Unternehmen und andere Akteure erstellt hat, mit dem sich Vorurteile in KI-Software erkennen und korrigieren lassen.

Katastrophales Vergessen

Katastrophales Vergessen ist die Neigung der KI, bereits erlernte Informationen plötzlich komplett zu vergessen, sobald sie mit neuen Informationen gefüttert wird. Das neue Wissen überschreibt sozusagen das frühere Wissen.

Die offensichtliche Lösung für dieses Problem besteht darin, die alten Daten erneut zu trainieren, wenn etwas Neues vermittelt wird. Das kann das katastrophale Vergessen zwar einigermaßen verhindern, ist aber äußerst ineffizient und führt zu einem exponentiell wachsenden Speicherbedarf.

Eine elegante Lösung für dieses Problem zu finden, ist für die weitere Entwicklung daher unerlässlich.

Unzuverlässigkeit

Nehmen Sie ein Bild eines Gegenstand (etwa eines Autos oder einer Katze) auf, den ein neuronales Netzwerk korrekt identifizieren kann, und drehen Sie es um 90 Grad. Führen Sie das Bild nun erneut durch die KI. Eine Studie dazu ergab, dass die KI das Objekt in 97 % der Fälle nicht mehr erkennt. Ohne explizit darin trainiert zu werden, ist die KI nicht zur mentalen Rotation in der Lage, wie sie jedes dreijährige Kind beherrscht. Dies ist ein Beispiel für die Unzuverlässigkeit von KI, wenn sie in unbekanntes Terrain (wie einen kontradiktorischen Input) gebracht wird.

Derartige Ausfälle können bereits durch winzige Veränderungen verursacht werden, sodass sogar ein einziges Pixel dazu führen kann, dass die KI ein Schiff für ein Auto oder ein Pferd für einen Frosch hält. Ein Bereich, in dem dies große Auswirkungen haben könnte, ist die medizinische Bildgebung, in der viel darüber berichtet wurde, wie genau Deep Learning sein kann. Doch schon die kleinsten Änderungen an Bildscans – die für das menschliche Auge nicht wahrnehmbar sind – können dazu führen, dass Krebs in 100 % der Fälle falsch diagnostiziert wird.

Undurchsichtigkeit

Wenn eine KI denkt, dass ein Patient an Krebs leide oder jemand einer Straftat schuldig sei, hat das rechtliche, medizinische und andere Implikationen. Doch wie bereits erwähnt wurde, sind die Schlussfolgerungen der KI eine Art Black Box. Dies könnte das Vertrauen der Öffentlichkeit in die Schlussfolgerungen der KI stark beeinträchtigen. Allerdings wird gerade versucht, Licht in die besagte Black Box zu bringen.

Kosten

Wie schon Frank Rosenblatt nähert sich die heutige Forschung vielleicht schon bald der Grenze des Mach- und finanziell Darstellbaren. So wurde AlexNet, das erste Modell, das 2012 die Leistungsstärke von Deep-Learning-Bilderkennungssystemen in Verbindung mit Grafikverarbeitungseinheiten (GPUs) demonstrierte, fünf Tage lang mit zwei GPUs geschult. 2018 hatte ein anderes Modell, NASNet-A, die Fehlerrate von AlexNet bereits halbiert, aber dafür mehr als die tausendfache Rechenleistung benötigt.

Deep-Learning-Modelle sind in der Regel überparameteriert, enthalten also mehr Parameter, als es Datenpunkte für das Training gibt. Deep Learning vermeidet ein Overfitting, indem die Parameter zufällig initialisiert und dann satzweise mittels stochastischem Gradientenabstieg angepasst werden. Dadurch wird sichergestellt, dass das erstellte Modell gut verallgemeinerbar ist. Doch leider ist diese Flexibilität äußerst rechnenintensiv.

Die Ursache dafür trifft auf alle statistischen Modelle zu: Um die Leistung um den Faktor k zu verbessern, müssen mindestens k2 mehr Datenpunkte verwendet werden, um das Modell zu trainieren. Aber der größte Teil der Rechenkosten entfällt ausdrücklich auf die Überparameterisierung. Wenn dies berücksichtigt wird, belaufen sich die Berechnungskosten für die Verbesserung auf mindestens k4. Und dieser Exponent ist sehr teuer: Eine zehnfache Verbesserung erfordert eine Erhöhung der Rechenleistung mindestens um den Faktor 10.000.

Moores Gesetz hilft da auch nicht weiter. Die gigantische Differenz zwischen der Rechenleistung von AlexNet und NASNet-A wurde nur zu einem verschwindend geringen Teil durch bessere Hardware, der Rest durch den Einsatz von mehr Prozessoren und deren längere Laufzeit überbrückt.

Dabei sollte man bedenken, dass OpenAI das hochgelobte Deep-Learning-Sprachsystem GPT-3 für mehr als 4 Mio. Dollar trainiert hat. Und obwohl bekannt war, dass man bei der Implementierung des Systems einen Fehler gemacht hatte, wurde dieser nicht behoben: "Aufgrund der hohen Trainingskosten war es nicht möglich, das Modell neu zu trainieren."

Dann ist da noch die Google-Tochter DeepMind. Als dort AlphaGo darin trainiert wurde, Go zu spielen, kostete das schätzungsweise 35 Mio. Dollar. Derartige Kosten für stufenweise Verbesserungen werden von Unternehmen meist nicht gerne geschultert. Und die Umweltkosten der Stromversorgung dieser riesigen Systeme sind darin noch nicht einmal berücksichtigt.

Fazit

Viele in der KI-Branche wissen, dass sich die Dinge ändern müssen − wenn auch nur, weil man sich bereits an der Grenze des Machbaren bewegt. Dies führt bereits zur Erforschung effizienterer Algorithmen und neuer Ansätze.

So hat Deep Learning zwar unglaubliche Fortschritte gemacht und ist Expertensystemen offenbar deutlich überlegen. Doch die Wirklichkeit ist komplizierter. Das zeigt sich am Beispiel der Roboterhand von OpenAI, die den Zauberwürfel lösen kann. Der Roboter nutzte dazu neuronale Netze und symbolische KI. Damit steht er für eine neue Art neuro-symbolischer Systeme, die neuronale Netze zur Erkennung und symbolische KI zur Argumentation verwenden − ein hybrider Ansatz, der sowohl Effizienz- als auch Erklärbarkeitsgewinne bieten kann.

Vielleicht schwingt das Pendel aber auch zurück und die kommenden Systeme werden sich wieder stärker auf Experten verlassen, um so die enormen Trainingskosten zu senken.

Dass neue, effizientere Methoden entwickelt werden, ist relativ sicher. Die Frage ist nur, ob das bald genug gelingt, um eine erneute Stagnation zu verhindern. Die Zeit wird es zeigen.

Mark completed his Electronic Engineering degree in 1991 and worked in real-time digital signal processing applications engineering for a number of years, before moving into technical marketing.

Kommentare