Google: Roboter-Arme lernen selbstständig greifen

von Carsten Drees
11. März 2016

Nicht erst, seit Boston Dynamics Roboter von allein aufstehen lässt, stellen wir uns die Frage, was diese elektronischen Kameraden in Zukunft alles bewerkstelligen können. Dass man einen Greifarm programmieren kann, bestimmte Dinge zu tun, ist da noch sehr leicht nachvollziehbar. Interessanter wird es da schon, wenn dieser Greifarm sich selbst beibringt, wie er bestimmte Gegenstände aufzuheben hat.

Genau davon berichtet derzeit das Google Research-Blog in seinem Artikel Deep Learning for Robots. Dadurch, dass eine Kamera quasi ständig als Auge fungiert und den Greifarm bei jedem Versuch und jeder noch so kleinen Bewegung verfolgt, bekommt das System - in diesem Fall aus 14 Greifarmen nebeneinander bestehend - ständiges Feedback.

Aus diesem Feedback erwächst ein sogenanntes Convolutional Neural Network, also ein neuronales Netz, in welchem die gemachten Erfahrungen jederzeit für jeden dieser Greifarme verfügbar ist. Insgesamt haben die Arme über 800.000 Greif-Versuche unternommen, bis sie so trainiert waren, wie sie es aktuell sind. Durch die Fähigkeit der Hand-Auge-Koordination erkennen sie also nicht nur Gegenstände, sondern können sie auch voneinander unterscheiden und wissen schon im Voraus, wie der Greifvorgang eingeleitet werden muss.

Solange diesen Armen nicht beigebracht wird, wie man Menschen aufs Maul haut und sie keine Beine montiert bekommen, kann ich erst noch ruhig schlafen. Arbeiter, die noch in Fabriken Montagearbeiten verrichten müssen, dürften da deutlich unruhiger werden, wenn sie an ihre Zukunft denken. Auf dem Google Research-Blog findet ihr weitere Videos zu diesen Roboter-Greifarmen.

 

More
Kommentare