Hey! Sie scheinen aus United States zu kommen, möchten Sie auf die Englisch Webseite wechseln?
Switch to Englisch site
Skip to main content

Wie intelligent ist die künstliche Intelligenz?

In den letzten Monaten lässt sich in Artikeln und Kolumnen zum Thema künstliche Intelligenz ein deutlich nachlassender Optimismus feststellen. Tatsächlich stellen viele inzwischen die Zeitpläne der Anbieter komplexer Anwendungen wie des autonomen Fahrens per KI in Frage. Und wenn Sie in einem bestimmten Alter sind, haben Sie vielleicht das Gefühl, dass es das alles schon einmal gab.

Atlas the running robot
Atlas der rennende Roboter
Image credit: Boston Dynamics

Der Hype

Im Gegensatz zu den meisten anderen neuen Technologien haben künstliche Intelligenz und Robotik mehr als einen "Hype-Zyklus" durchgemacht – eine übersteigerte Begeisterung für die Möglichkeiten, gefolgt von einer schnellen Entwicklung und einer anschließenden Phase der Ernüchterung vor dem nächsten Durchbruch. Erfindungen wie etwa das Flugzeug funktionierten meist von Beginn an. Die ersten Flugversuche der Gebrüder Wright gelangen tatsächlich; zwar nicht sehr weit, aber sie erreichten das, was sie wollten, und beeindruckten die breite Öffentlichkeit. Visionäre sahen sicherlich das Potenzial einer Zukunft von Massentransporten über große Entfernungen, lange bevor diese Realität wurden. Die Entwicklung von Flugzeugen ist seitdem ein fast ununterbrochener Prozess, in dem Träume in einem atemlosen Tempo Wirklichkeit werden − gipfelnd in der Concorde und Senkrechtstartern. Die Kommunikation ist ein weiteres Beispiel: In nicht einmal 50 Jahren ging es von einem einfachen Telefonnetz bis zu Smartphone und Internet. Roboter mit Fähigkeiten, wie man sie sich in den goldenen 20ern vorgestellt hat, gibt es dagegen bis heute nicht.

Roboterintelligenz damals und heute

Der erste humanoide Roboter in Großbritannien wurde 1928 vorgestellt. Leider ist die Urversion von Eric the Robot verloren gegangen. Hier ein Video von einem Nachbau für das Londoner Science Museum:

Die ursprünglichen Motoren und Hebel von Eric wurden durch moderne Elektronik und Servomotoren ersetzt. Hier zeigt die neue Version, was sie kann. Man bedenke: Das Original hatte weder ein elektronisches Gehirn noch einen Sprachsynthesizer. Eric konnte nicht einmal laufen. Es wurde also eine Menge erreicht. Das nächste Video zeigt Atlas von Boston Dynamics und seine Freunde Ende 2020:

Atlas ist natürlich viel weiter als Eric. Schon seine Bewegungen muten menschlich an. Leider ist dies kein Beispiel für maschinelle Intelligenz: Alle Tanzbewegungen sind die Leistung eines menschlichen Programmierers/Choreographen. Das heißt nicht, dass hier nicht eine enorme Menge an Rechnerleistung im Einsatz ist. Roboter nutzen in der Regel Computersoftware, um die Sensor-Motor-Steuerschleifen ihrer Gelenke einzeln zu steuern, manchmal auch mit einem PID-Algorithmus. Der Sensor kann ein einfacher Wellenrotations-Encoder (Quadratur) sein oder ein 3-Achsen-Beschleunigungsmesser/Gyroskopgerät zur direkten Überwachung der Bewegungen, das als Trägheitsmessgerät (IMU) bekannt ist. Atlas hat 28 Gelenke und ist dank Hydraulikmotoren in der Lage, seine beträchliche Masse reibungslos und präzise zu bewegen. Aber um diese natürliche Bewegung herbeizuführen, sind einige sehr anspruchsvolle kinematische Algorithmen und leistungsfähige Computer erforderlich. Natürlich funktioniert alles in Echtzeit. Es gibt sogar Kameras und ein Lidar, sodass Atlas mit seiner Umgebung interagieren kann. Es ist offensichtlich, dass Atlas viel weiter ist als Eric. Und wenn man ihn zurück in das Jahr 1928 transportieren könnte, wäre das Publikum vermutlich überwältigt. Oder es hieße nach einer Weile vielleicht eher: „Ist das schon alles?“

Künstliche Intelligenz

Der Mensch hat eine zwiegespaltene Einstellung zu Robotern. Auf der einen Seite schaut man sich Atlas beim Tanzen an und denkt: "Tolle Bewegungen, aber auch kein Terminator." Auf der anderen Seite glaubt man plötzlich, dass demnächst alle von Robotern durch die Gegend gefahren werden, sobald man nur einmal „Künstliche Intelligenz“ sagt. KI ist ein Bereich der modernen Technologie, in dem zumindest seit dem letzten Jahrhundert sowohl Laien als auch Wissenschaftler unrealistische Erwartungen gehegt haben. Vielleicht liegt das daran, dass es sich um ein Konzept handelt, das jeder zumindest oberflächlich nachvollziehen kann: eine künstliche Version von uns selbst zu schaffen.

In den 1930er Jahren wussten nur eine Handvoll Menschen etwas über Kernphysik und Atomspaltung. Noch weniger erkannten, dass Ingenieure dieses neue Wissen innerhalb eines Jahrzehnts nutzen würden, um eine extrem zerstörerische Waffe zu liefern: die Atombombe. Doch danach war die Welt nicht mehr dieselbe. Seit Eric auf der Bühne stand, ist die Erschaffung eines mechanischen Menschen ein viel gehegter Wunsch (oder eher eine Angst?). Wie schwer kann das schon sein? Wie sich herausstellte: sehr schwer. Und es zeigt, wie wenig man über die Funktionsweise des menschlichen Gehirns weiß. Versuche, eine künstliche Version von etwas so Komplexem wie der menschlichen Intelligenz zu schaffen, ohne viel darüber zu wissen, sind letztlich zum Scheitern verurteilt.

Erste Phase

1932 vermutete Edward Thorndike, ein Psychologe an der Columbia University in den USA, dass menschliches Lernen durch noch unbekannte Verbindungen zwischen Neuronen im Gehirn entsteht. 1949 postulierte dann Donald Hebb, wieder ein Psychologe, dass das Lernen die Stärkung bestimmter neuronaler Muster beinhalte. Dadurch werde die Wahrscheinlichkeit (das Gewicht) eines induzierten Neuronenverkehrs zwischen den beteiligten Verbindungen erhöht. Die Forscher, die sich für künstliche Gehirne interessierten, glaubten damals, dass sie die menschliche Version einfach per Hardware nachahmen könnten. Dieser Ansatz, basierend auf einem neuronalen Netzwerk, ist als Konnektionismus bekannt und wird auch als "Bottom-up"-Methode bezeichnet. Ein alternativer "Top-Down"-Ansatz wurde zur selben Zeit populär. Diese Theorie, die als Computational Theory of Mind (CTM) bekannt ist, geht davon aus, dass der menschliche Geist ein Computersystem mit Gedankenprozessen ist, die bei Computern der Software entsprechen. 1936 erfand Alan Turing dann die "Turing-Maschine", ein mathematisches Modell eines physikalischen Geräts, das beliebige Berechnungen durchführen kann. Informatiker nutzten es als Grundlage für ihre Auffassung der natürlichen Intelligenz; Turing sah es als eine Möglichkeit, künstliche Intelligenz zu erschaffen.

In den 1950er Jahren wurde viel an der CTM gearbeitet, vor allem weil sich theoretische Rechenmaschinen zu praktischer Hardware – digitalen Computern – entwickelt hatten, auf denen die ersten "intelligenten" Programme ausgeführt werden konnten. Das erste "KI"-Programm lief dann 1951 mit einem Ferranti Mark 1 an der Universität von Manchester. Es konnte Dame gegen einen menschlichen Gegner in einem vernünftigen Tempo spielen. Das Spielen gegen menschliche Gegner ist mittlerweile zum Standard geworden, um der Öffentlichkeit Fortschritte in der Computer-"Intelligenz" vorzuführen: Deep Blue spielte 1996 Schach und AlphaGo 2015 Go.

Währenddessen konzentrierte sich der Konnektionismus auf die Erfindung des Perceptron im Jahr 1956. Der KI-Hype ging mit der Perceptron-Maschine, die auf einem künstlichen Neuron basierte, erst so richtig los. In meinem Artikel zu DSP wird eine einfache Implementierung eines einzelnen Perceptron-Neurons beschrieben. Dieses wird auch als linearer binärer Klassifizierer bezeichnet, da es "wahr" ausgibt, wenn das auf den Input angewandte binäre Muster mit dem Muster übereinstimmt, das es zuvor "erlernt" hat. Gespeichert wird dieses Muster dabei in den Werten der Eingabegewichtung. Das Gerät kann sich selbst unterrichten, d. h. die Gewichtungswerte ableiten, wenn das gewünschte Muster erstmals auf die Eingabe angewendet wird. Ein Fehlersignal – also eine Diskrepanz zwischen den erwarteten und tatsächlichen Outputs – wird verwendet, um die Gewichtung anzupassen, bis der Fehler auf Null reduziert ist.

Eine offensichtliche Anwendung für Perceptron-Maschinen ist die optische Zeichenerkennung (OCR). Die Maschine benötigt mindestens 26 Neuronen, von denen jeder für die Erkennung eines Buchstabens im Alphabet und zehn weitere für Zahlen zuständig sind. Ein optischer Scanner könnte aus einer 8x8-Matrix aus Phototransistoren bestehen, die insgesamt 64 gewichtete Eingaben für jedes Neuron erfordern. Das wäre ein gutes DSP-Projekt!

Bis in die frühen 70er konzentrierte sich die staatlich finanzierte KI-Forschung auf die Sprachverarbeitung. Perceptron-Netzwerke wurden damals als beste Methode für automatisierte Übersetzungen angesehen. Riesige Summen wurden ausgegeben, bis man erkannte, dass die Sprache einfach zu komplex für Mustererkennungssysteme war. Das Interesse am konnektivistischen Ansatz verblasste und läutete damit die erste dunkle KI-Ära ein, die bis in die 80er andauerte.

Zweite Phase

Die nächste Phase der Begeisterung beruhte auf einer Methode zur Programmierung herkömmlicher Computer, damit diese sich wie ein "Expertensystem" verhalten, das beispielsweise medizinische Diagnosen erstellen kann. Das Programm besteht aus zwei Teilen: der Wissensdatenbank mit Fakten, Behauptungen und Regeln, wie z. B. Krankheitssymptomen, und der Inferenzmaschine, die Patientendaten aufnimmt und die Datenbank abfragt. Dazu wurden die Programmiersprachen LISP und Prolog entwickelt, die ganz anders als herkömmlicher Verfahrenscode funktionieren. Es gab sogar eine Version von Prolog für den Sinclair Spectrum. Die Entwicklung von Experten- oder wissensbasierten Systemen wurde in den 90ern fortgesetzt. Aber es wurde schnell deutlich, dass sie keine künstliche Intelligenz darstellten. Eine kommerzielle Nutzung wurde aufgrund des hohen Aufwands bei der Übertragung von Fachwissen in die Wissensdatenbanken verhindert. Diese waren trotz ihrer immensen Größe auf einige wenige Themenbereiche beschränkt. Ein RoboGP, der den Hausarzt ersetzt, blieb also eine Illusion. Ein weiteres Problem war die Steuerung: Denn um falsche Annahmen und Regeln zu beseitigen, brauchte es eine sorgfältige Prüfung. Wieder einmal begann eine dunkle Phase, diesmal bis Mitte der 2000er.

Dritte Phase

In den 70ern wurde erkannt, dass eine einzelne Schicht künstlicher Neuronen höchstens eine Handvoll einfacher, klar definierter und auf Eindeutigkeit geprüfter Objekte klassifizieren konnte. Die Ergänzung einer weiteren, "versteckten" Neuronenschicht ermöglichte dagegen weitaus komplexere Klassifizierungen. Tatsächlich können viele Schichten verwendet werden, wobei die Aktivierungsfunktionen erst beim endgültigen Output erfolgen. Ein solches neuronales Netzwerk mit mehreren Schichten bildet die Grundlage für das, was heute als "Deep Learning" (DL) bezeichnet wird. So dachte man wieder einmal, man könne eine Maschine mit der Komplexität des menschlichen Gehirns bauen. Immer größere Netzwerke werden aktuell auf der Grundlage einer neuen Generation von Mehrkern-Prozessoren aufgebaut. Der Konnektivismus ist also wieder voll im Trend. Trotz aller Verbesserungen in der Hardware begann Mitte der 2000er wieder die gewohnte KI-Ernüchterung um sich zu greifen. Denn es wurde offensichtlich, dass Deep Learning nicht ausreichte, um einen "denkenden" Roboter zu erschaffen. Und bis zur künstlichen allgemeinen Intelligenz war es noch ein weiter Weg. Die erfolgreiche Voführung von Prototypen autonomer Fahrzeuge bei der DARPA Grand Challenge im Jahr 2007 führte jedoch zur Bereitstellung beträchtlicher Forschungsmittel zur Entwicklung eines serienreifen fahrerlosen Fahrzeugs. Ein wesentlicher Bestandteil von Roboterautos ist das Sichtsystem, das Objekte in Echtzeit "sehen" und richtig einordnen kann. Und dieses ist ein klarer Fall für die erweiterte Objekterkennung und -klassifizierung durch künstliche neuronale Netzwerke (ANN) auf Basis von Deep Learning.

Neue Wege

Seit 2015 versprechen die Automobilhersteller, "in den nächsten ein oder zwei Jahren" ein fahrerloses Auto einzuführen. Inzwischen schreiben wir das Jahr 2023 und es ist noch nicht viel passiert. Das Vorhaben ist bereits an der ersten Hürde gescheitert: ein Sichtsystem zu entwickeln, das Objekte außerhalb des Autos in mindestens 99 % der Fälle richtig erkennt – eine offensichtliche Sicherheitsvoraussetzung. Derzeit werden DL-Netzwerke im Sehen "trainiert", wobei enorme Mengen an Bildern verwendet werden, die mit dem dargestellten Objekt verschlagwortet sind: Auto, Fußgänger, Fahrrad usw. Die Ausgabedatei enthält dabei alle Gewichtungen sämtlicher Neuronenverbindungen im Netzwerk. In der Regel wird das Netzwerk dann im Labor getestet und aufgefordert, Objekte aus einem völlig anderen Bilddatenatz zu klassifizieren. Oft werden dabei Trefferquoten von 95 % erzielt. So kann das System anhand von Livebildern einer Videokamera trainiert werden. Doch dann geschieht etwas Merkwürdiges: Die Trefferquote fällt schon nach wenigen Minuten auf unter 50 %. Die Ursache dafür ist offensichtlich: Der Trainingsalgorithmus funktioniert wie ein Bildkompressionsalgorithmus, der das Mindestmaß an Informationen extrahieren und kodieren will, um Autos in allen Farben, aus jedem Winkel aus jeder Entfernung zu erkennen. Doch das gelingt ihm nicht. Denn der Blick aus dem Autofenster ist unendlich vielfältig. So müsste der Trainingsdatensatz vermutlich unendlich viele Bilder enthalten, um eine nahezu hundertprozentige Trefferquote zu erreichen. Ein Deep-Learning-fähiger KI-Computer kann zwar menschliche Profis in Spielen wie Go schlagen − aber ansonsten nichts. Schlimmer noch: Es ist ihm nicht einmal bewusst, dass er nur eine Maschine ist, die ein Brettspiel spielt. _ _

Woran also fehlt es heutigen KI-Robotergehirnen? Gesunder Menschenverstand

Das menschliche Gehirn reagiert nicht nur auf das, was es gerade wahrnimmt. Sensorische Informationen werden auch mit zuvor erworbenem Wissen (Erfahrung) kombiniert, um eine Entscheidung darüber zu treffen, was als Nächstes zu tun ist. Jeder weiß, was gesunder Menschenverstand ist. Man fasst keine heiße Herdplatte an, weil man sich verbrennen kann. Wenn man an einer Schule vorbeifährt, bremst man ab. Das Gedächtnis ist voll von solchem Wissen, das automatisch abgerufen wird.

Wie also kann man einem Computer gesunden Menschenverstand vermitteln? Der ist ja zumindest teilweise angeboren. Das Maschinenequivalent gibt es aber auch schon: das Betriebssystem, das beim Einschalten gestartet wird. Erfahrung wird allerdings erst im Laufe der Zeit durch Versuch und Irrtum gesammelt (erlernt). Man kann aber nicht abwarten, bis ein autonomes Auto durch Unfälle lernt, wie man richtig fährt. Und wie sollte man überhaupt sicherstellen, dass es die richtigen Dinge lernt? Könnte es sich nicht auch schlechte Gewohnheiten aneignen, so wie der Mensch? Vermutlich müsste jedem neu gefertigten Autogehirn per Simulation Fahrerfahrung vermittelt werden, gefolgt von einem Fahrtest. Genau so werden DL-Bildsysteme schließlich bis heute trainiert. Und es ist klar, dass das nicht ausreicht. Der künstliche gesunde Menschenverstand ist Gegenstand vieler Studien und könnte bei erfolgreicher Kombination mit DL den nächsten Hype einleiten.

Neuromorphes Computing und gepulste neuronale Netze

Wie genau das menschliche Gehirn funktioniert, wird weiter erforscht und auf eine mögliche Anwendung in der KI untersucht. Ein Aspekt ist dabei die Art und Weise, wie natürliche Neuronen miteinander kommunizieren. Ihre Nachrichten bestehen offenbar aus elektrischen Impulsen, deren zeitlicher Abstand den Informationsgehalt ausmacht. Ein auf diesem Prinzip basierender neuromorpher Computer erfordert deshalb eine völlig andere Programmiermethode als gewöhnliche Computer. Möglicherweise liegt die Antwort in analogen Komponenten, die die binäre Logik ersetzen. Eine wichtige Komponente ist wahrscheinlich der Memristor, dessen Ausgangswiderstand durch die zeitliche Abfolge der Impulssequenz an den Eingängen bestimmt wird. Er verfügt außerdem über einen nichtflüchtigen Speicher. Wenn künstliche Neuronen beginnen, wie ihre natürlichen Gegenstücke auszusehen und sich zu verhalten, wäre eine deutliche Verbesserung der Verarbeitungsleistung und des Stromverbrauchs gegenüber der traditionellen Von-Neumann-Architektur digitaler Computer zu erwarten. Das physikalische Verhältnis zwischen Größe und Leistung einer solchen Maschine sollte zudem mit dem menschlichen Gehirn vergleichbar sein. Bis dahin können Prototypen wie SpiNNaker mit simulierten Impulsneuronen verwendet werden, um herauszufinden, wie die neue Generation der KI programmiert werden kann.

SpiNNaker is a 1 million neuron Spiking Neural Network Computer
SpiNNaker ist ein gepulster neuronaler Netzwerkcomputer mit einer Million Neuronen

Bildnachweis: Manchester University

Gibt es Anwendungen für die heutige KI?

Selbstverständlich. Allerdings sollte man den ganzen Hype rund um Roboter, die Millionen Arbeitsplätze ersetzen, die Welt beherrschen oder unser Leben verbessern, für einen Moment vergessen. Denn das alles liegt in ferner Zukunft. Wenn überhaupt. Klein-KI löst seit Jahren scheinbar triviale Probleme. Ein Smartphone, das sich beim Hochheben einschaltet, nutzt ein kleines neuronales Netzwerk, um die Datensequenz der integrierten Beschleunigungsmesser und Gyroskope zu erkennen, die eine solche Bewegung anzeigt. Und auf das Wort "anzeigen" kommt es hier an. Denn das Telefon leitet aus den Sensordaten ab, was genau vor sich geht. Es kann aber auch falsch liegen und den Hauptprozessor nicht einschalten, wenn man es hochhebt. Das passiert vielleicht in einem von 20 Fällen. Diese Fehlerquote ist gering und fällt meist auch nicht auf. KI ist ideal für Ja/Nein-Entscheidungen auf der Grundlage "unscharfer" Eingangsdaten mit akzeptablen Werten. Ein Anwendungsbeispiel dafür stammt aus den frühen 80ern. In der Londoner U-Bahn wurden Aufnahmen einer Bahnhofskamera mit drei Outputs verwendet: einem Bahnsteig voller Menschen, einem halbvollen und einem leeren Bahnsteig. Das Netzwerk bestand vermutlich aus drei Perceptron-ähnlichen Neuronen. Die Outputs wurden evtl. von der Bahnhofstüren gesteuert. Die KI fällte dann ein flexibles "Urteil" zu den drei Bahnsteigzuständen. Ob dort ein paar Leute mehr oder weniger herumstanden, war dabei irrelevant.

Das zeigt, dass auch das Internet der Dinge von KI profitieren könnte. So wie eigentlich alles, was keine offensichtlichen Sicherheitsprobleme birgt. Fahrerlose Fahrzeuge, die potenziell gefährlich werden könnten, sind eindeutig nicht möglich – zumindest bislang. Eine kleine KI kann auf recht bescheidenen Computerplattformen implementiert werden, und es gibt eine Reihe von erschwinglichen Systemen auf dem Markt. Erhältlich bei RS Components: NVIDIA Jetson Nano (204-9968) und BeagleBone AI (190-1825) . Und Adafruit Industries hat gerade eine Erweiterungsplatine für den Raspberry Pi 4 mit dem Namen BrainCraft Machine Learning HAT veröffentlicht.

Das Neueste: Der Raspberry Pi Pico mit einem Dual-Core Cortex M0+-Mikrocontroller in eigenem Design ist gerade für ca. 4 GBP (212-2162) erhältlich. Und ein Port für TensorFlow Lite ist ebenfalls schon verfügbar!

Das Konzept, ML im kleinen Maßstab zu verwenden, ist als TinyML bekannt und wird bei Ingenieuren, die an Edge-Anwendungen arbeiten, immer beliebter.

Caenorhabditis Elegans

C.Elegans ist eine durchsichtige Nematode (also ein Wurm) mit einer Länge von ca. 1 mm, die in gemäßigten Bodenumgebungen lebt. Diese kleine Kreatur bekommt gerade unglaublich viel Aufmerksamkeit von KI-Forschern, da sich ihr gesamtes "Gehirn" und Nervensystem nachbilden lässt. Es besteht aus genau 959 Zellen, von denen 302 Neuronen und andere Nervenzellen sind − eine komplette biologische Einheit also, die man per Computer simulieren können sollte. Das Open-Source-Projekt OpenWorm wurde 2011 ins Leben gerufen, um zu herauszufinden, ob sich die Simulation wie ihr reales Vorbild verhält. Das Projekt läuft noch und jeder kann sich über die OpenWorm-Website beteiligen. Doch wie stehen die Chancen, das menschliche Gehirn mit seinen 100 Milliarden Neuronen nachzubilden?

Ausblick

Steht nun, da die Grenzen des Deep Learning offensichtlich werden, eine weitere Phase der Ernüchterung bevor? Vielleicht nicht, sofern es einen Durchbruch in unserem Verständnis des menschlichen Gehirns gibt. Doch selbst wenn der gelingt: Ist die aktuelle Halbleitertechnologie der Aufgabe überhaupt gewachsen? Die Antwort könnte in der Quantenmechanik liegen. Aber sie wird vermutlich nicht mehr zu unseren Lebzeiten gefunden.

Lektüreempfehlungen

Rodney Brooks, one of the pioneers of AI and robotics, has a very informative website featuring blog posts that read more like tutorials. One, in particular, is a regular update on predictions he made for technology in 2018. Very much an antidote to hype.

Der KI- und Robotikpionier Rodney Brooks betreibt eine sehr informative Website mit Beiträgen, die sich wie Tutorials lesen. In einem davon geht er seinen Vorhersagen aus dem Jahr 2018 nach. Er empfiehlt sich als Gegenmittel gegen den Hype.

Der Aufsatz von Alan Turing zu intelligenten Maschinen von 1948.
 
Eine hilfreiche Übersicht über Probleme der Sicherheit, Zuverlässigkeit und Anfälligkeit aktueller ML-Anwendungen. Robust Machine Learning Systems: Challenges, Current Trends, Perspectives, and the Road Ahead. 2021
 

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.

Kommentare