Hey! Sie scheinen aus United Kingdom zu kommen, möchten Sie auf die Englisch Webseite wechseln?
Switch to Englisch site
Skip to main content

Generative KI: Das Ende der menschlichen Kreativität?

Better Images of AI - Alexa Steinbruck

BIldnachweis: Alexa Steinbrück / Better Images of AI / Explainable AI / CC-BY 4.0

Es scheint, als stünden wir am Anfang einer neuen Phase der KI-Hysterie. Die derzeitige Deep-Learning-Technologie liefert noch keine künstliche allgemeine Intelligenz (AGI), aber plötzlich steht die generative KI bereit, mit der all unsere Arbeitsplätze ersetzt werden und das menschliche Denken überflüssig wird. Ich denke, dass der Durchschnittsbürger, der kein KI-Enthusiast ist, sehr schnell das Interesse verliert, wenn in der nichtwissenschaftlichen Presse der neueste „Fortschritt“ auf dem Gebiet der künstlichen Intelligenz verkündet wird, der gewöhnlich als „bahnbrechend“ bezeichnet wird. Doch dann kam ChatGPT, eine Art Internet-Suchmaschine, die mit großem Tamtam klare Antworten auf komplexe Fragen liefern kann, und die Öffentlichkeit wurde mit Schlagzeilen wie „KI“ auf neue Entwicklungen aufmerksam gemacht:„Computer schlägt Schach-Großmeister“ oder danach „Computer besiegt Weltmeister im Go-Spiel“.

KI mit begrenztem Speicher

In den letzten Jahren wurden große Forschungsanstrengungen unternommen, um KI-Systeme so „ intelligent “ zu machen, dass sie die vollständige Automatisierung des Verkehrs („fahrerlose“ Fahrzeuge) und der Fabriken (Industrie 4.0) ermöglichen. Der Schlüssel zum Erreichen eines Automatisierungsgrades, der den Wegfall des menschlichen Bedieners oder Aufsehers rechtfertigt, ist die Entwicklung von Sensorsystemen, in der Regel Videosystemen, und eines „Gehirns“, welches das Gesehene charakterisieren und entsprechend reagieren kann. Ein neuronales Netz wird darauf „trainiert“, eine begrenzte Anzahl relevanter Objekte zu erkennen, und sendet diese Informationen an ein herkömmliches Computersystem, das dann die Steuerung übernimmt. Diese Form der KI, die durch Begriffe wie „Deep Learning“ charakterisiert wird, ist im Grunde ein glorifiziertes Mustererkennungssystem. Diese Art von KI ist nicht kreativ; wenn sie einmal trainiert ist, lernt sie nichts Neues, so dass es sehr unwahrscheinlich ist, dass sie zu einer existenziellen Bedrohung für die menschliche Spezies wird. Das einzige, was sie leistet, ist, Muster in den Daten zu erkennen – Signaturen der Objekte, die sie gelernt hat zu identifizieren. Ein großes Problem besteht darin, dass es bei einem Erkennungsfehler zur „Laufzeit“ unmöglich ist, die Schwachstelle im trainierten Datensatz ausfindig zu machen, die den Fehler verursacht hat. In einer Umgebung mit unendlich vielen Möglichkeiten, wie z. B. bei einem Bildverarbeitungssystem für ein autonomes Fahrzeug, das versucht, alles zu erkennen, was es auf der Straße sieht, kann das System nie zu 100 % zuverlässig sein. In Echtzeit. Mit seinem Blickwinkel und den zu erkennenden Objekten in ständiger Bewegung. Sie verfügt über keine Erfahrung, die ihr bei der Entscheidungsfindung helfen könnte, über wenig „Fähigkeiten“, keinen „gesunden Menschenverstand“, kein „Querdenken“ und keine Fähigkeit, mit unerwarteten Situationen umzugehen. Sie ist eigentlich ziemlich dumm. Auslöschung der Menschheit? Eher nicht.

Generative KI

Die Arbeit an der Entwicklung von Large-Language-Models (LLM) findet schon seit Jahren im Hintergrund statt. Ihr Ziel ist es, das Verständnis natürlicher Sprache zu mechanisieren, so dass Roboter von ungeschultem Personal mit schlechter Aussprache oder starkem Akzent angewiesen werden können, Aufgaben mündlich zu erledigen. Im Gegenzug sollte der Roboter wie ein Mensch sprechen und nicht wie ein Roboter klingen. Darüber hinaus könnte die Maschine in der Lage sein, Gefühlszustände zu erkennen und entsprechend zu reagieren. Eine weitere Anwendung ist die zuverlässige Sofortübersetzung von einer Sprache in eine andere. In ihrer Grundstruktur ähneln sie der speicherbegrenzten KI und bestehen aus riesigen neuronalen Netzen, die auf ebenso großen Textmengen aus Datenbanken wie Wikipedia trainiert werden. Dabei werden ganze Wörter, Wortteile und sogar Phrasen in Zahlen umgewandelt (in Token umgewandelt), um die Weiterverarbeitung zu beschleunigen und den Massenspeicherbedarf auf ein überschaubares Maß zu reduzieren. Diese Art von KI ist deshalb so leistungsfähig, weil den in Token umgewandelten Wörtern eine umfangreiche Sammlung von parametrischen Daten zugeordnet ist, die in der Trainingsphase berechnet wurden. Diese Daten bestehen aus Statistiken darüber, wie oft ein Token im Datensatz vorkommt, wie oft es mit einem anderen Wort paarweise vorkommt, und so weiter. ChatGPT nutzt all diese Daten, um eine perfekt ausgearbeitete Antwort auf eine Frage oder eine „Aufforderung“ oder sogar einen kompletten Aufsatz zu erstellen. Der grundlegende Algorithmus ist recht einfach: Er baut Sätze Token für Token auf und stellt jedes Mal die Frage: „Welches Wort soll als nächstes kommen?“ In der Praxis ist das natürlich nicht so einfach, aber so ist das Grundprinzip. In früheren Softwareversionen wurden die Wörter der Eingangsfrage und der bisher konstruierte Satz betrachtet und dann der riesige Datensatz nach Wörtern mit der höchsten Wahrscheinlichkeit für das nächste Wort durchsucht. Anschließend wurde das Token mit der höchsten Wahrscheinlichkeit ausgewählt und der Vorgang wiederholt. Das Ergebnis: akkurate und „sichere“, wenn auch langweilige Antworten in einer eher leblosen, uninspirierten Sprache. Die Ergebnisse wären identisch, wenn derselbe Input erneut verwendet würde. Gut für Suchmaschinenergebnisse, aber nicht sehr „kreativ“. Nicht sehr „natürlich“. Die von ihnen gefundene Lösung war einfach und könnte als Geniestreich bezeichnet werden, aber wie sich herausstellte, könnte man auch davon sprechen, den „Geist aus der Flasche zu lassen“ oder die „Büchse der Pandora zu öffnen“. Was Ihnen besser gefällt. Langweilige, repetitive Antworten gibt es nicht mehr, da die Software nicht immer das Token mit der höchsten Wahrscheinlichkeit aus der Liste auswählt, sondern eines mit einer niedrigeren Wahrscheinlichkeit. Durch eine sorgfältige Optimierung dieser Funktion kann ein angenehmer, nicht-roboterhafter Text entstehen, der dem Leser vielleicht neue Denkanstöße gibt. Aber denken Sie daran, es versteht nichts, es hat keine Ideen. Es liegt an Ihnen, dem menschlichen Leser, das zu interpretieren, was wie ein origineller Gedanke aussieht.

ChatGPT Plus basiert auf dem generativen vortrainierten Transformer 4 (GPT-4), einem multimodalen LLM (es kann sowohl Bilder als auch Text verarbeiten). Wenn Sie mehr über die Funktionsweise wissen wollen, ist das Buch von Stephen Wolfram [1] ein sehr guter Ausgangspunkt. Aber Sie benötigen dennoch ein Grundwissen über KI-Techniken und statistische Mathematik, um Ihr natürliches Gehirn nicht zu überfordern. Es stellt sich die Frage, warum gerade diese Entwicklung Wissenschaftler und Politiker in helle Aufregung versetzt hat, die fordern, dass KI-Anwendungen gesetzlich stark reguliert werden müssen.

Das Gute, das Schlechte und das Hässliche

Internet-Inhalte lassen sich grob in diese drei Kategorien einteilen: gute Inhalte, die nützliche Sachinformationen enthalten, die zumindest harmlos unterhaltsam, wenn nicht sogar lehrreich sind; schlechte Inhalte, die fehlerbehaftet oder unbeabsichtigt irreführend sind („Anti-Wissen“) und sich negativ auf das Verständnis auswirken; und schließlich böswillige Inhalte, die darauf abzielen, die Unvorsichtigen zu betrügen, die Leichtgläubigen zu vergiften oder kriminelle Neigungen zu bedienen, die in einer modernen Gesellschaft inakzeptabel sind. Die Sorge, dass der uneingeschränkte Zugang zu generativen KI-Anwendungen zu einem massiven Anstieg schädlicher Inhalte im Internet führen wird, ist meiner Meinung nach völlig berechtigt. Nicht nur das, sondern auch die illegale Nutzung von urheberrechtlich geschütztem Material und die Verletzung der Privatsphäre (und der Sicherheit) werden zum Alltag gehören. Diese Bedenken haben dazu geführt, dass die „Bosse der Technologiebranche“ wie Elon Musk einen offenen Brief an die Regierungen der Welt unterzeichnet haben, in dem sie eine Pause bei der weiteren Entwicklung von KI fordern. Selbst der Deep-Learning-Pionier Geoffrey Hinton hat seine Bedenken für die Zukunft geäußert.

Wir sind alle (mal wieder) dem Untergang geweiht

Der Aufschrei, der durch die Medien geht, wenn es einen neuen „Durchbruch“ der KI gibt, ist immer derselbe:

  • Eine große Anzahl von Arbeitsplätzen wird verloren gehen und
  • Die künstliche Intelligenz wird bald die der Menschen übertreffen, und „sie“ wird uns nicht länger brauchen...

Dies wäre nicht das erste Mal, dass die Erfinder einer neuen Technologie befürchten, dass ihre Erfindungen missbräuchlich verwendet werden könnten. Erinnern Sie sich an Alfred Nobel und das Dynamit oder an Robert Oppenheimer und die Atombombe? Aber es ist wohl das erste Mal, dass moderne kreative Köpfe wie Sam Altman, der Chef von OpenAI, dem Unternehmen, das GPT-4 auf den Markt gebracht hat, eine staatliche Regulierung für ihre eigenen Produkte fordern.

Möglicherweise haben die Medien bei jeder neuen Entwicklung in den Bereichen Computer, KI und Robotik so oft den „Wolf“ gerufen und eine bevorstehende Katastrophe prophezeit, die dann doch nicht eingetreten ist, so dass KI-Entwickler und -Ingenieure selbstgefällig auf das reagieren, was eines Tages passieren könnte.

Der Faktor Mensch

Was den besonderen Reiz der generativen KI ausmacht – oder auch die Angst, je nachdem, wie man zu Robotern steht – ist die Tatsache, dass sie scheinbar originelle Gedanken hervorbringt. Das ist ein Problem: Bislang gingen wir allgemein davon aus, dass nur das menschliche Gehirn in der Lage ist, neue „Ideen“ zu produzieren. GPT-4 hat einige neue Verhaltensweisen gezeigt, von denen einige zu erwarten waren, viele aber nicht. In Verbindung mit einer Suchmaschine besteht die naheliegendste Aufgabe darin, Antworten auf Informationsanfragen zu geben und nicht nur Listen von URLs, unter denen die Informationen gefunden werden können. Das ist natürlich gewollt, und wenn es richtig funktioniert und eine korrekte Antwort mit eindeutiger Erklärung liefert, ist das großartig. Außerdem kann Computercode generiert werden und es können Aufsätze zu beliebigen Themen verfasst werden, wenn man ihm die entsprechenden Anweisungen gibt. Mit ihrem klaren, natürlichen und äußerst selbstbewussten Stil sind die Antworten von ChatGPT sehr überzeugend. Wie bei den besten menschlichen Betrügern wird jegliche Skepsis außer Kraft gesetzt – man möchte glauben, dass es wahr ist. Vor allem, wenn man mit wenigen Tastendrücken eine fertige Antwort erhält, die scheinbar stundenlanges Suchen in einer Suchmaschine erspart. Genau wie ein Trickbetrüger kann sie leider nicht mit „Ich kenne die Antwort nicht“ antworten; stattdessen scheint sie eine Antwort zu „erfinden“. Die Ausgabe kling zwar immer noch gut, aber sie ist faktisch Unsinn. Die Entwickler nennen diesen Effekt „Halluzinieren“, um einen gravierenden Softwarefehler zu vermenschlichen. Vielleicht sollte man besser von einer „Lüge“ sprechen. Ein hervorragendes Beispiel für die vorbehaltlose Akzeptanz von ChatGPT-Ergebnissen ist die Demütigung von Anwälten vor Gericht, die versuchen, eine lächerliche Schadensersatzforderung zu begründen.Schadenfreude oder was? Die Lehre hieraus ist, dass der Benutzer genug über die wirkliche Antwort wissen sollte, um zu vermeiden, dass der vom Computer produzierte Abfall akzeptiert wird. Im Idealfall sollten Sie das Tool nur nutzen, um die Tatsachen zu bestätigen, die Sie bereits im Kopf haben.

Eine große Sorge der Lehrkräfte ist, dass die Schüler diese Tools nutzen, um ihre gesamten Aufgaben zu erledigen. Sie recherchieren nicht nur die Fakten, sondern erstellen den gesamten Aufsatz oder die Hausaufgabe „fix und fertig“ und umgehen so die Notwendigkeit, das Thema zu verstehen, was dazu führt, dass sie nichts mehr lernen. Jede Hochschule wird bestreiten, dass dies ein Problem ist, aber wenn die Tutoren nicht auf dem neuesten Stand der Technik sind, woher sollen sie es dann wissen? Kürzlich ließ ein Hochschullehrer eine Klasse von Studenten ChatGPT verwenden, um Aufsätze vorzubereiten und sie anschließend auf Richtigkeit und Relevanz zu bewerten. Die Ergebnisse waren wirklich ein Augenöffner, denn alle Aufsätze enthielten eine erhebliche Anzahl von „Halluzinationen“ und sachlichen Ungenauigkeiten. Gefälschte Texte sind schon schlimm genug, aber diese Art von Software kann auch unechte Bilder und sogar unechte Videos erzeugen.Die Deepfake-Technologie ist bereits in die Hände von Betrügern und Erpressern gefallen, die Geld erpressen, indem sie sich in einem Echtzeit-Videoanruf als Freund oder Verwandter ausgeben. Ich sehe eine Zeit voraus, in der sich niemand mehr auf das verlässt, was er im Internet sieht, hört oder liest – und wo stehen wir dann?

Das Fazit ist einfach: Generative KI ist kreativ und kann erstaunliche Kunstwerke, Gedichte und Romane hervorbringen. Beim Umgang mit Fakten muss das menschliche Gehirn das letzte Wort haben. Das ist so ähnlich wie der aktuelle Stand der Technik beim autonomen Fahren. Schalten Sie die Funktion ein, aber lassen Sie die Hände am Lenkrad und die Augen auf der Straße. Der Faktor Mensch muss immer noch in die Gleichung einbezogen werden.

Zum Schluss

Befindet sich die menschliche Gesellschaft an einem Wendepunkt, an dem der Prozess der Übergabe der Kontrolle über unser Schicksal an Maschinen mit weit überlegener Intelligenz nicht mehr aufzuhalten ist? Nicht, solange es keinen echten Durchbruch gibt und nicht nur eine schrittweise Verbesserung der bestehenden Technologie, wie es hier der Fall ist. Albert Einstein war für die klassische Gleichung E=mc2 verantwortlich, ein echter Durchbruch, der unmittelbar zur Entwicklung sowohl der friedlichen als auch der zerstörerischen Nutzung der Kernenergie führte. Er verbrachte den Rest seines Lebens damit, an seinen Gleichungen für die Allgemeine Relativitätstheorie zu tüfteln, wobei ihm seine Suche nach einer „Theorie von allem“ fast, aber nicht ganz gelang. Genau an diesem Punkt befinden wir uns bei der künstlichen Intelligenz, wo wir versuchen, unfehlbare Systeme mit neuronalen Netzen mit begrenztem Speicher zu schaffen, und jetzt ein Orakel, eine Quelle allen Wissens, welche die menschliche Kreativität und das menschliche Denken überflüssig machen wird. Die Idee mag verlockend erscheinen, vorausgesetzt, die Maschine ist wohlwollend. Aber so wird es nicht kommen; sie wird auf einer sehr unvollkommenen Datenbank vergangener menschlicher Ideen und Handlungen beruhen, auf guten, schlechten und absolut böswilligen. Wir alle wissen, wie das ausgehen wird. Unterdessen versuchen die Unternehmen weiter, die generative KI zu perfektionieren, indem sie Funktionen hinzufügen, um zu verhindern, dass Chatbots beleidigende (rassistische, sexistische usw.) oder geradezu gefährliche Informationen (wie man eine Bombe baut, Napalm herstellt usw.) ausgeben. Das wird ihnen nicht gelingen. Genau wie Einstein und seine Nachfolger wollen sie das Unmögliche beschreiben: Im Fall der generativen KI haben es die Entwickler mit der scheinbar unendlichen Fähigkeit des menschlichen Geistes zu tun, eine Entdeckung oder Erfindung von einer nützlichen Anwendung in eine letztlich zerstörerische zu verwandeln. Die Zukunft liegt in unseren Händen; wir Menschen haben noch immer die Wahl. Eine Software mit der Fähigkeit zu neuartigem Verhalten einfach ins Internet zu stellen, ist vergleichbar damit, einen Virus ohne bekanntes Gegenmittel aus einem Labor in die freie Wildbahn zu entlassen. Wir sollten davon absehen, es auf die harte Tour herauszufinden.

Referenz

[1] What is ChatGPT Doing…and Why Does It Work? Stephen Wolfram.  https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

Wenn Sie nicht weiterkommen, folgen Sie meinen Beiträgen auf Twitter. Ich verweise auf interessante Artikel über neue elektronische und verwandte Technologien und retweete Beiträge, die ich über Roboter, die Erforschung des Weltraums und andere Themen entdecke. Um mein Gesamtverzeichnis der letzten DesignSpark-Blogbeiträge zu sehen, geben Sie „billsblog“ in das Suchfeld oben ein.

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.
DesignSpark Electrical Logolinkedin