Hey! Sie scheinen aus United States zu kommen, möchten Sie auf die Englisch Webseite wechseln?
Switch to Englisch site
Skip to main content

Starling_swarm_d7d02a2287884a02d797f83fb77777bdad037429.jpgEin Starenschwarm Bild von: John Holmes

Das Verhalten von Insekten- und Vogelschwärmen hat Wissenschaftler schon immer fasziniert, da die kollektive Intelligenz der eines einzelnen Mitglieds überlegen zu sein scheint. Ein klassisches Beispiel dafür sind Starenschwärme, wenn Tausende von Vögeln sich im Formationsflug zusammenfinden und schnelle Kurven mit unglaublicher Präzision fliegen.

Was macht einen Schwarm aus?

Ein Schwarm ist eine große Gruppe identischer Organismen, natürlich oder künstlich, die jeweils nur begrenzte Intelligenz besitzen und zusammenarbeiten, um ein höheres Ziel zu erreichen, das über ihre individuellen Fähigkeiten hinausgeht. Die Schlüsselbegriffe sind hier identische Organismen mit begrenzter Intelligenz. Zu den offensichtlichen Kandidaten in der natürlichen Welt gehören Ameisen, Bienen und Termiten. Jedes dieser Insekten scheint keine Denkfähigkeit zu haben: Sie reagieren lediglich auf einfache Art und Weise auf den Kontakt mit ihren unmittelbaren Nachbarn in der Gruppe und die Umgebung. Doch wenn sie als Gruppe arbeiten, sind sie dennoch in der Lage, unglaublich ausgeklügelte Nester zu Brutzwecken zu bauen. Eine direkte Interaktion untereinander ist jedoch nicht erforderlich: Ameisen markieren beispielsweise einen Weg von einer Lebensmittelquelle zurück zum Nest, indem sie Pheromone absondern, denen ihre Kollegen folgen sollen. Dieser Vorgang der Veränderung der Umgebung (mit codierten Markierungen) zur Beeinflussung des Handelns nachfolgender Akteure wird als Stigmergie bezeichnet. Sie führt zu einer leistungsstarken kollektiven Intelligenz, die keine zentrale Führung oder Planung erfordert: Schwarmintelligenz.

Natürlich vs. künstlich

Das Konzept der Schwarmintelligenz entstand aus der Notwendigkeit, die Fähigkeit großer Insektenkolonien zu erklären, scheinbar als Einheit zu „denken“. Angesichts der einfachen Verhaltensmuster der natürlichen Individuen hatten Wissenschaftler das Gefühl, dass sie mithilfe eines relativ kleinen Satzes mathematischer „Regeln“ modelliert werden könnten. Die Regeln waren so einfach, dass Schwarmsimulationen in Form von Programmen auf den damaligen, relativ leistungsschwachen Computern ausgeführt werden konnten. 1970 entwickelte ein Mathematiker namens John Conway eine Simulation einer Kolonie imaginärer Einzeller. Das Spiel des Lebens, wie es genannt wurde, löste eine ganze Reihe von Forschungen dazu aus, wie ausgeklügeltes Gruppenverhalten entstehen kann, wenn ziemlich dumme künstliche Individuen interagieren. Solange sie nahezu identisch sind und dieselben Regeln einhalten – eine homogene Gruppe.

Forscher hatten bereits in den 1950er-Jahren die Möglichkeit gesehen, mit Robotern das Verhalten eines Schwarms nachzuahmen, aber es war einfach zu schwierig und teuer, genügend Einheiten für einen Schwarm mit einer sinnvollen Größe zu fertigen. Dank Mikroelektronik ist es jetzt aber möglich, künstliche Schwärme aus sehr kostengünstigen Robotern zu erstellen. Sie sind in der Regel mobil und können ihre unmittelbaren Nachbarn erkennen und direkt mit ihnen kommunizieren. Natürlich können sie nicht alle Funktionen eines Lebewesens modellieren, sondern nur bestimmte spezifische Verhaltensweisen wie das Gruppieren, um bestimmte Muster oder Formen zu bilden, das Folgen eines Anführers und das Umschließen einer „Bedrohung“. Im Jahr 2011 demonstrierten Forscher an der Harvard University ihr Design für einen einfachen, kostengünstigen Schwarmroboter: den Kilobot (der so genannt wurde, weil er zur Erstellung künstlicher Schwärme mit mehr als tausend Einheiten entwickelt wurde).

 

Im folgenden Video sehen Sie einen Schwarm Kilobots, der so programmiert ist, dass er eine Vielzahl von Cluster-Formen bildet. Jeder Roboter ist mit denselben Regeln programmiert und interagiert nur mit seinen unmittelbaren Nachbarn: Es gibt keine zentrale Steuerung (außer Gruppenprogrammierung und Start/Stopp).

Schwarm-Engineering

Welche Vorteile bietet die Verwendung einer großen Anzahl von relativ primitiven Robotern, die als Schwarm für eine bestimmte Aufgabe agieren, gegenüber einer kleinen Anzahl von wesentlich leistungsstärkeren, vollständig autonomen Maschinen, die zusammenarbeiten? Das hängt von der Anwendung ab. Betrachten Sie die folgenden praktischen Vorteile des Schwarm-Engineerings:

  • Einfachheit: Ein Schwarmroboter ist autonom, kann aber nur eine begrenzte Anzahl von Aktionen ausführen. Das ermöglicht die Nutzung eines kleineren Prozessors, der für die Funktionalität kleiner Roboter geeignet ist.
  • Skalierbarkeit: Sie benötigen eine größere Belegschaft? Fügen Sie einfach weitere identische Roboter hinzu. Da alle Interaktionen lokal sind, wird eine sofortige Wirkung erlangt.
  • Fehlertoleranz: Wenn Roboter nicht mehr arbeiten, schrumpft die Belegschaft. Die Gruppenaufgabe wird aber weiterhin ausgeführt, es dauert nur möglicherweise etwas länger.
  • Parallelität: Dieselbe Aufgabe kann an verschiedenen Stellen durch separate „Teams“ ausgeführt werden.

Es ist ziemlich einfach, Stigmergie in Software zu simulieren; viel schwieriger ist es, das Äquivalent der indirekten Kommunikation von Ameisen mit Pheromonen in der Hardware umzusetzen. Bei den meisten Robotern, die für die Schwarmforschung entwickelt wurden, findet man direkte drahtlose Kommunikation auf Basis von Infrarot, Bluetooth oder WiFi. Das bedeutet, dass die Forschung zu Schwarmmechanismen auf der Grundlage der „natürlichen“ indirekten und „künstlichen“ direkten Prozesse etwa in zwei Ströme aufgeteilt wurde. Siehe Referenz (1) unten. Eine neue Methode der indirekten Kommunikation auf der Grundlage eines Rasters von bodenmontierten RFID-Kennzeichnungen wird in Referenz (2) beschrieben.

Kleine Gruppe oder großer Schwarm?

Die Implementierung eines künstlichen Schwarmsystems für eine Anwendung, die „Intelligenz“ erfordert, ist angesichts der oben beschriebenen praktischen Vorteile eine attraktive Option. In einigen Situationen ersetzt dies jedoch nicht einen großen autonomen Roboter oder sogar eine Gruppe solcher Maschinen, die zusammenarbeiten.

Nehmen wir beispielsweise einen großräumigen Katastrophenbereich, wie z. B. eine Erdbebenzone. Man könnte sich eine große Zahl, vielleicht Tausende von Drohnen mit Vogel- oder Insektengröße vorstellen, die in weiträumigen Formationen fliegen und nach Überlebenden suchen. Die erste Drohne, die etwas aufspürt, startet den Sinkflug und die unmittelbaren Nachbarn folgen, um eine detailliertere Suche durchzuführen. In der Zwischenzeit können die anderen die Suche aus größerer Höhe fortsetzen. Aufgrund ihrer physischen Größe sind die Drohnen auf eine Abtast- und Meldungsfunktion beschränkt, aber das ist ideal für den Schwarmbetrieb über einen großen Bereich. Ein lange laufendes Forschungsprogramm für Roboterinsekten zielt darauf ab, einen solchen Schwarm zu erstellen: die RoboBee Collective an der Harvard University. Dieses Video zeigt die neueste Version der RoboBee in Aktion:

Am Boden kann eine viel kleinere Gruppe robuster Roboter dazu gebracht werden, das verwüstete Gelände zu durchqueren und sich mit Vorräten und Rettungsausrüstung zum „Hotspot“ zu begeben. Diese Gruppe arbeitet nicht als Schwarm; stattdessen arbeiten die Maschinen nach Bedarf zusammen, möglicherweise unter Aufsicht eines Bedieners.

Lernen als Schwarm

Die Schwarmprogrammierung mag relativ einfach erscheinen, da lediglich die gleichen Codezeilen für jeden Roboter benötigt werden. Die Schwierigkeit besteht darin, sicherzustellen, dass die wenigen einfachen Regeln, die die Interaktion jedes einzelnen Roboters mit seinem Nachbarn steuern, das erforderliche Schwarmverhalten erzeugen, um die Aufgabe zu erledigen. Der springende Punkt ist, dass ein Roboter zwar so programmiert werden kann, dass er auf vorhersagbare Weise auf seine sensorischen Eingänge reagiert, die Eingänge selbst können aber nicht mit Sicherheit vorhergesagt werden. Das bedeutet, dass die zeitliche Abfolge einzelner Aktionen und damit das gesamte Schwarmverhalten im Vorfeld schwer zu bestimmen sind. Die „Regeln“ für die Bewegung jedes Vogels in unserem Starenschwarm oben können ganz einfach sein:

  • In die gleiche Richtung fliegen wie der Vogel davor.
  • Einen konstanten Abstand zueinander in allen drei Dimensionen einhalten.

Da wird sofort ein Problem deutlich: Was regelt die Bewegung der „führenden“ Vögel? Und was gibt Anlass zur Entscheidung, loszufliegen oder zu landen? Das lässt darauf schließen, dass die Vögel, solange sie keinen Schwarm bilden, jeweils einzeln autonom sind – beispielsweise auf einem Rasen, wenn sie ihre Schnäbel in den Boden stecken und nach Larven suchen. Aber wenn einer losfliegt, folgen die anderen. Sobald alle in der Luft sind, kann es sein, dass die plötzlichen, scheinbar choreografierten Richtungsänderungen auf zufällige Luftströmungen zurückzuführen sind, die leichte Änderungen im Flugweg verursachen, die dann durch die Schwarmregeln verstärkt werden. Auf jeden Fall gibt es Hinweise darauf, dass die Tiere nach Belieben vom Schwarm- zum individuellen Verhalten und wieder zurück wechseln können.

Der Versuch, feste und schnelle Regeln für eine komplexe Roboterschwarm-Aufgabe zu schreiben, ist aufgrund der zufälligen Einflüsse auf den Schwarm als Ganzes extrem schwierig. Es kann genauso komplex sein, als würden Sie versuchen, alle Gewichtungsfaktoren für ein Deep Neural Network (DNN) manuell zu berechnen, die zur Erkennung von Objekten in einem fotografischen Bild verwendet werden. In jedem Fall gibt es kein bestimmtes oder deterministisches Ergebnis: nur eine Liste möglicher Ergebnisse aus einem sogenannten stochastischen System. Eine Technik namens „Turing Learning“ kann verwendet werden, um ein DNN zu „trainieren“, damit es Objekte erkennt. Sie kann auch zur Charakterisierung des Schwarmverhaltens verwendet werden. Weitere Details dazu finden Sie in der nachstehenden Referenz (3).

Nanobots

Wir Menschen neigen dazu, Schwärme von irgendwas negativ zu betrachten, insbesondere wenn es sich um fliegende Insekten handelt, die einem schmerzhafte Stiche zufügen können. Alfred Hitchcocks Film Die Vögel aus dem Jahr 1963 hat damals, obwohl er fiktional war, wahrscheinlich zu Furcht vor großen Vogelschwärmen geführt! Schwärme von Robotern lösen dieselbe Reaktion in Filmen wie I, Robot aus. Technisch gesehen werden die Roboter in diesem Film zentral gesteuert und verlassen sich nicht auf die Schwarmintelligenz, aber egal ... Was wäre Ihr Albtraum? Vielleicht riesige Schwärme von Robotern in Molekulargröße, die in der Lage sind, die Haut zu durchdringen und über Blutgefäße in Ihr Gehirn zu gelangen? Igitt. Aber was wäre, wenn sie Ihr Leben retten könnten? Die Idee gibt es schon lange: Im Jahr 1959 schrieb der Physiker Richard Feynman einen Essay, in dem es im Wesentlichen darum ging, Dinge durch direktes Manipulieren von Atomen herzustellen. Der Essay umfasste auch einen Hinweis auf die Idee, injizierte Nanoroboter zur Durchführung von Operationen am menschlichen Körper einzusetzen. Diesbezüglich hat sich lange nichts getan, bis in den 1980er-Jahren die Konzepte der Nanotechnologie und Mikromaschinen als praktische Realitäten begannen, an Dynamik zu gewinnen. Ist es möglich, dass so kleine Geräte über genügend Intelligenz verfügen? Nun, wir haben die natürlichen Vorlagen der Viren und Bakterien, an denen wir uns orientieren können. Bisher wurden jedoch nicht viel Fortschritte gemacht: „Molekularmotoren“ und -getriebe wurden im Labor produziert. Doch die einzige praktische Realisierung von Mikrochip-Mechanismen war die MEMS-Technologie mit miniaturisierten Gyroskopen, Beschleunigungsmessern und anderen Sensoren.

So können die Science-Fiction-Autoren unsere Fantasie damit nähren, was denn passieren könnte, wenn Nanobots mit fortschrittlicher Schwarmintelligenz böse werden. Lesen Sie Michael Crichtons Roman Prey aus dem Jahr 2002 und schon wird Ihnen angst und bange – oder vielleicht sind Sie auch nur leicht besorgt.

Referenzen

Swarm Robotics and minimalism. Amanda J.C. Sharkey (1)

From Ants to Service Robots: an Exploration in Stigmergy-Based Navigation Algorithms  A.Khaliq (2)

Turing learning: a metric-free approach to inferring behaviour and its application to swarms Wei Li, Melvin Gauci and Roderich Groß (3)

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.