DesignSpark Electrical Logolinkedin
Menu Suche
Ask a Question

Ihr neuer Arbeitskollege, ein Cobot

Industrieroboter sind groß, teuer, unflexibel und es sind aufwändige Arbeitsschutzmaßnahmen notwendig, stimmts? Falsch, die nächste Generation von kollaborativen Robotern, oder Cobots, kann zusammen mit Menschen eingesetzt werden und muss nicht abgesperrt oder eingezäunt sein.

Bildnachweis: ABB

Der eingesperrte Roboter

Die Entwicklung von Cobots hat Roboter aus der Welt der Science-Fiction in den Alltag geführt. Bis vor kurzem existierten leistungsstarke und intelligente humanoide Maschinen, die zusammen mit den Menschen arbeitet, nur in der fiktiven Welt. Die frühen industriellen Roboterarme waren relativ primitiv, mit einfachen Sensoren, die Feedback zu den Gelenkpositionen an den Steuerrechner gaben. „Sicherheitssensoren“ in Form von Endschaltern gab es nur, um den Arm davor zu bewahren, sich selbst zu beschädigen, wenn er durch eine Eingabe des Steuernden außerhalb des vorgesehen Bereichs gebracht wurde. Sie sind groß, mit dem Boden verschraubt und bewegen oft schwere Schweißwerkzeuge mit großer Geschwindigkeit und Beweglichkeit. Es ist schwer, sich etwas vorzustellen, was weniger harmloses oder kollaborativ ist, also werden Menschen durch physische Barrieren in sicherer Distanz gehalten, solang der Arm in Betrieb ist. Diese beeindruckenden Maschinen sind seit den 1980er Jahren fester Bestandteil der großen Automobilwerke, aber durch die hohen Investitionskosten und mangelnde Flexibilität können sie sich nur wenige Unternehmen leisten. Wie also können wir die Zäune entfernen und das Monster in einen gutmütigen und flexiblen Cobot verwandeln?

Die Zäune entfernen, aber reagieren, wenn Menschen zu nahe kommen.

Ein einfacher PIR-Detektor kann verwendet werden, um zu erkennen, wenn sich jemand zu stark nähert, und den Roboter abzuschalten. Das wird als sicherheitsgerichteter überwachter Stillstand bezeichnet und ist einfach zu implementieren, aber sehr störend, da die großzügige Sicherheitsmarge unweigerlich zu häufigen Stillständen führen würde. Die Werkhalle mag ohne die Sicherheitszäune viel weniger einschüchternd wirken, aber diese Lösung ist finanziell wenig sinnvoll, wenn die Mitarbeiter weiterhin regelmäßigen Zugang zu dem Bereich benötigen.

Eine bessere Methode ist die Verwendung von Ultraschall- (Sonar) oder Infrarotsensoren (LiDAR) um den Roboter herum, um eine bessere Messung zu erzielen. Eine schmalere „Abschalt“-Zone um den Roboter ist jetzt von einer „Verlangsamungs-“Zone umgeben. Dadurch wird sichergestellt, dass eine Person im Sicherheitsbereich die Geschwindigkeit der Maschine verringert und sie nur zum Stillstand bringt, wenn sie sich noch weiter nähert. Natürlich müsste diese Person dabei die Warntöne und die -lichter ignorieren. Diese Technik wird als Geschwindigkeits- und Abstandsüberwachung (SSM) bezeichnet. In diesem Video wird ein Cobot, der auf SSM für den sicheren Betrieb basiert, demonstriert:

Beachten Sie, wie sich die „Zusammenarbeit“ aus menschlichen Handlungen und Roboterbewegungen zusammensetzt: Der Roboter bewegt sich nicht, bis der Mensch aus dem Weg ist. Diese Arbeitsweise ist für viele Aufgaben sehr zufriedenstellend, aber aufgrund des „virtuellen Käfigs“, muss der Roboter bei der Verlegung an eine andere Stelle mitsamt dem Sensorsystem von der Bank gelöst werden. Beide müssen dann wieder angeschraubt und am neuen Standort neu ausgerichtet werden. Für eine maximale Arbeitsplatzflexibilität sollte ein Cobot kein separates Sicherheitssensorsystem mit allen dazu gehörigen Schraubenschlüsselarbeiten und Neuausrichtungen benötigen. Es ist möglich, die SSM-Sicherheit an einem alten Roboterarm nachzurüsten, und mindestens ein Unternehmen arbeitet an dem erforderlichen System für maschinelles Sehen, um einen alten Roboter in einen Cobot zu verwandeln.

Die „Nicht berühren"-Einschränkung entfernen.

Das Wort Kollaboration impliziert, dass sich Roboter und Mensch nah genug sein müssen, um miteinander zu interagieren, und jeder muss sicher sein, dass ihn der andere nicht „verletzt“. In der kollaborativen Umgebung kann der physische Kontakt zwischen Mensch und Maschine unvermeidlich oder gar wünschenswert sein, damit der Roboter aus Erfahrungen lernen kann. Eine offensichtliche Möglichkeit zur Minimierung von Schrammen und Brüchen besteht darin, den Roboterarm und seinen Endeffektor (Greifer) aus einem weichen, biegbaren Material zu machen. Viel Forschungsarbeit ist in diese „Softrobotik“ geflossen, unterteilt in zwei Bereiche: komplette Roboter aus weichem Material, wie Snakebots und Betätigungselemente/Greifer, die ungewöhnlich geformte oder zerbrechliche Gegenstände aufnehmen können. Doch für die meisten Zwecke in der Werkstatt oder Fabrik bieten die biegsamen Roboter keine ausreichende Präzision bei der Bewegung oder beim Greifen. Wir brauchen also eine andere Möglichkeit, um Sicherheit und Komfort von Mitarbeitern zu gewährleisten.

Der kollaborative Roboter

Bisher haben wir zwei wesentliche Merkmale gefunden, die einen Roboter zu einem Cobot machen: Er muss eine Aufgabe mit einem angemessenen Maß an Präzision und Wiederholbarkeit durchführen, und dabei sicher auf unerwartetes Eindringen in seinen Arbeitsbereich reagieren. Dazu können einige sehr wünschenswerte Merkmale hinzugefügt werden: Einfache Programmierung durch einen Nichtexperten, schnelles bewegen und neupositionieren für neue Aufgaben und Kraftbegrenzungssteuerung, um Schäden an sich selbst und an Materialien zu vermeiden. Das nächste Video zeigt einen „Desktop“-Roboter-Assistenten, der diese Anforderungen erfüllt und wirklich als Cobot bezeichnet werden kann:

Der YuMi ist nicht einzigartig, aber er zeigt das aktuelle Denken hinter dem Cobot-Design. Die neuen Cobots sehen völlig anders aus als die tischgroßen Roboterarme der Vergangenheit.

  • Die Gelenke sind so konstruiert, dass „Quetschpunkte“ vermieden werden, in denen eine menschliche Hand eingeklemmt werden könnte.
  • Arm-Komponenten sind ausreichend voneinander entfernt, so dass keine Gefahr besteht, dass eine menschlichen Extremität eingeklemmt würde.
  • Die Arme sind sauber: alle Zahnräder, Achsen und Kabel sind vollständig in einem glatten, abgerundeten, beweglichen und gepolsterten Gehäuse untergebracht.
  • Die Bewegungsgeschwindigkeit ist so begrenzt, dass sie mit der menschlichen Reaktionszeit übereinstimmt. Dies gilt nur, wenn die Kontakterkennung verfügbar ist, wenn Mensch und Cobot im selben Raum arbeiten.
  • YuMi verfügt außerdem über eine Kontakterkennung, die einen Stopp erzwingt, wenn der Arm auf ein Hindernis trifft.

Systeme für maschinelles Sehen

Wenn Sie die vielen Hersteller-Videos zu kollaborativen Roboterprodukten ansehen, haben Sie vielleicht bemerkt, dass a) nicht viel „Kollaboration“ zu sehen ist und b) die Aufgaben weitestgehend darin bestehen, ein Objekt von einem bestimmten Ort zu einem anderen zu bewegen. Meine Idee von einem nützlichen Cobot besteht darin, dass er eine ähnliche Aufgabe wie eine Pflegefachfrau im Operationssaal eines chirurgischen Krankenhauses übernehmen kann: also die Instrumente an den Chirurgen übergeben, wenn er dazu aufgefordert wird, oder eher ohne aufgefordert zu werden, aufgrund von Training und Erfahrung. Um dieses Ziel zu erreichen, muss der Cobot „Augen“ haben und interpretieren können, was er sieht. Cobots wie YuMi und der Sawyer von Rethink Robotics verfügen über Kameras und können darauf trainiert werden, Objekte zu erkennen. Das ist nicht sehr ausgeklügelt, aber es bedeutet, dass Objekte, die verlegt werden müssen (Pick 'n' Place), nicht genau an der Abholstelle positioniert werden müssen, und der Roboter den Ablagepunkt durch die Beobachtung der Zielreferenzpunkte feinjustieren kann. Sehen Sie Sawyer mit seinemRoboterpositionierungssystem mit Landmarkenin diesem Video:

Wie Sie sehen, kann er in einem Lernmodus auf ein Tablett mit Komponenten fokussieren, aber, wenn das Tablett versehentlich bewegt wird, kann er sich selbst nicht ohne manuelles Eingreifen neu ausrichten. Mein idealer Roboterassistent müsste willkürlich im Arbeitsbereich verstreute Werkzeuge erkennen, sie aufheben und in der richtigen Ausrichtung überreichen, ohne mich dabei mit ihnen zu stechen. Das ist viel verlangt. Glücklicherweise wurden in letzter Zeit die Objekterkennungs- und Tracking-Systeme massiv verbessert – all dies dank der fortwährenden Entwicklung autonomer Fahrzeuge. Sie können also bald noch fähigere Cobots erwarten.

Lernen versus Programmierung

Es gibt drei Hauptmöglichkeiten, einen Roboter zu trainieren, um eine bestimmte Abfolge von Bewegungen auszuführen: Hängend, Handführung und Programmierung. Die hängende Version ist nur für solche Großroboter geeignet, bei denen ein Bediener mit einer Bedienflasche außerhalb des Zauns den Roboter manuell durch seine Routine fährt und die „Strecke“ einspeichert. Der Maschine wird vom menschlichen Fahrer „beigebracht“, was sie zu tun hat.

Die Handführung verwendet das gleiche Prinzip wie das Hängeverfahren, mit Ausnahme der Tatsache, dass die Steuerung wortwörtlich von Hand erfolgt. Der Cobot befindet sich im Lernmodus, bei dem die Motoren deaktiviert oder ihre Leistung auf ein Niveau reduziert wird, in dem Sie nur die Position halten können. Dann wird der Arm von Hand durch die gewünschte Sequenz bewegt. Die Bewegungssensoren auf jeder Verbindungsmotorwelle, die im Normalbetrieb für einen geschlossenen Regelkreis verwendet werden, notieren stattdessen die Aktionen für die anschließende Wiedergabe. Sehen Sie sich das Video von einer Messe an:

 

Viele Roboter sind noch mit offline generiertem Code auf einem Computer programmiert. Die Programmiersprache Forth wurde vor vielen Jahren für die spezifische Anwendung der Robotersteuerung in Echtzeit entwickelt. Die Fähigkeit, sehr rasch schnellen und kompakten Code zu produzieren, bedeutet, dass sie heute noch immer verwendet wird: Die industriellen Roboterarme der R-Serie von ST Robotics werden z. B. in RoboForth programmiert. Moderne Hacker haben auch ihre Vorzüge entdeckt. Sogar Raumsonden wie der Kometenjäger Rosetta und dessen Lander Philae wurden in Forth programmiert. Ich erwähne Forth viel, weil ich persönlich interessiert bin: Ich habe eine Version für eingebettete Anwendungen auf Basis des Microchip dsPIC Mikrocontrollers erstellt. FORTHdsPIC wurde in den letzten Jahren von mehreren DesignSpark-Blogbeiträgen behandelt! Der Nachteil bei der Programmierung sind die Zeit und die geschulten Mitarbeiter, die jedes Mal für die Erstellung oder Änderung des Codes benötigt werden, wenn der Cobot neu eingesetzt werden muss. Und das bedeutet, dass der Vorteil für ein kleines Unternehmen kaum vorhanden ist. Im Moment ist wahrscheinlich die Führung von Hand die „Trainings“-Methode der Wahl.

In der Zukunft wird wahrscheinlich künstliche Intelligenz zu einer dominanten Funktion der Robotersteuerung werden. Mit anderen Worten, Roboter, insbesondere Cobots, werden selbst lernen, wie man ein bestimmtes Ziel erreicht. Dieses Konzept hat dazu geführt, dass der Gedanke von „Robotern, die menschliche Arbeiter ersetzen“ Thema einer hitzigen Debatte geworden ist. Genau wie vollständig fahrerlose Autos noch weit weg sind, sind es Roboter mit auch nur annähernd menschlichen Fähigkeiten. Mein Roboterassistent für die Werkbank wird kaum in naher Zukunft erscheinen: Erst dann, wenn ich davon überzeugt bin, dass er nicht meine Hand mit einem Werkstück verwechselt und mit einem Steckschlüssel festschraubt.

Laufende Arbeiten

Eine Menge Forschung und Entwicklung ist im Gange, um dieses Ziel eines idealen Cobot zu erreichen. Hier finden Sie eine Auswahl der neuesten Papiere zum Thema.

Roboterziele aus physischer menschlicher Interaktion lernen. Diese Idee führt die Handführung einen Schritt weiter: Wenn der Cobot während des Betriebs eine falsche Bewegung vornimmt, kann der menschliche Bediener sofort die richtige Korrektur vornehmen. Der Roboter wird dadurch „aus den Fehlern lernen“.

Benutzerdefinierte Softroboter-Greifersensor-Skins für haptische Objektvisualisierung. Forscher entwickeln ein Berührungssensor-System für Greifer-„Finger“. Dieses sensorische Feedback ermöglicht es dem Roboter, eine 3D-Darstellung des Objekts zu erstellen, das er fasst.

Dex-Net 2.0: Tiefes Lernen für die Planung robuster Erfassungen mit synthetischen Punktwolken und analytischen Erfassungsmetriken. Dieses Papier befasst sich mit dem Problem der Objekterkennung für die Auswahl der optimalen Greiferaktion. Ein System für maschinelles Sehen verwendet ein konvolutives neuronales Netzwerk mit einer Bilddatenbank, um Objekte mit zufälligen Ausrichtungen zu erkennen.

Internationale Normen/Spezifikationen: ISO 10218 und ISO/TS 15066

Jetzt zum langweiligen Teil. Tatsache ist: Wenn Sie einen Cobot erstellen oder Ihren Mitarbeitern hinzufügen möchten, muss dieser den internationalen Sicherheitsnormen entsprechen. ISO 10218 wurde entwickelt, um die großen eingezäunten Roboter ihrer Zeit zu regulieren. Sie enthält jedoch allgemeine Verweise auf die Sicherheit, die auch für die neue Generation von Cobots gelten. Die neuere ISO/TS 15066 ist ein Versuch, eine Sicherheitsspezifikation für Cobots bereitzustellen. Die Spezifikation gibt an, dass, wenn der Kontakt zwischen Robotern und Menschen zugelassen ist, und ein zufälliger Kontakt auftritt, dann darf dieser Kontakt nicht zu Schmerzen oder Verletzungen führen. Das Ausmaß der Schmerzen, die von verschiedenen Teilen des menschlichen Körpers bei Kontakt mit einem Cobot toleriert werden können, wurde untersucht und in der Spezifikation angegeben. Ich kann mir nicht vorstellen, wie diese Zahlen errechnet wurden. Sie werden als „Pain Onset Level Daten“ bezeichnet und müssen in jedem Design berücksichtigt werden. Willkommen in der Welt der nicht eingesperrten Roboter!

Zum Schluss:

Wir sind nicht einmal in der Nähe eines C3P0-artigen Roboterassistenten und trotz aller Gespräche über Kollaboration scheinen die meisten der derzeitigen Cobots ihr Leben ohne menschlichen Kontakt zu verbringen. Sie bewegen nur Dinge von einem Ort zum anderen. In der Zwischenzeit ist es vor allem das Aussehen, das sie voneinander unterscheidet: Viele haben nun menschenähnliche „muskulöse“ Arme, aber ich bevorzuge Sawyer, der aussieht wie eine animierte Rohrleitung mit blinkenden Augen, aus denen eines Tages echte Intelligenz leuchten könnte.

Wenn Sie mögen, folgen Sie mir auf Twitter. Ich verweise auf interessante Artikel über neue Elektronik und verwandte Technologien, und leite von mir entdeckte Tweets über Roboter, Weltraumforschung und andere Themen weiter.

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.

9 Apr 2018, 12:14

Kommentare