Project Soli auf der Google i/O 2015
Google Project Soli: berührungslose Gestensteuerung via Radar, next Level

Ihr habt knubbelige Finger und wollt trotzdem eine Smartwatch bedienen? Hinter Project Soli verbirgt sich ein neues Google ATAP Projekt, das ohne Übertreibung die Gestensteuerung von Smartwatches und anderen Geräten revolutionieren könnte - und zwar in gar nicht mal so ferner Zukunft. Ermöglicht wird das Ganze durch einen Chip mit Mini-Radar, der Bewegungen im Bereich von wenigen Millimeter-Bruchteilen erkennen kann.

Auf der diesjährigen Google I/O haben die Entwickler der ATAP Group Neuigkeiten zu Project Soli und Project Jacquard vorgestellt. Im Laufe des zurückliegenden Jahres (siehe unten) hat sich in puncto berührungslose Gestensteuerung unglaublich viel getan, wie z.B. das o. eingebunde Video zeigen.

Die miniaturisierte Radarerfassung kann nun Bewegungen und Handpositionen erkennen, mit denen sich z.B. tatsächlich eine Smartwatch steuern oder ein Anruf im Fahrzeug entgegennehmen lässt. Der Fokus der Enwickler liegt ganz offensichtlich auf den Möglichkeiten, das System mit allen erdenklichen Systemen koppeln zu können.

Dadurch wäre Soli eine der Ergänzungen zur ohnehin fortschreitenden Spracherkennung, die z.B. mit Google Home bzw. dem Google Assistant ihr nächstes Level erreicht hat. Irgendwie gewinnt man langsam den Eindruck, dass es um klassische Eingabegeräte wie Tastaturen, Mäuse oder sogar um das Display des Smartphones nicht allzu gut bestellt ist, oder?

Original-Artikel vom 30. Mai 2015
Google ATAP will mit Project Soli die Gestensteuerung revolutionieren

Erinnert ihr euch an den Film Minority Report, in dem Tom Cruise magisch (hektisch) irgendwelche Daten auf volltransparenten Displays hin- und herschiebt? Vergesst mal kurz die coolen Displays – genau dieses berührungslose Steuern von Geräten stellt bereits heute viele Hardwarehersteller vor besondere Herausforderungen. Gesten wie Wischen, Blättern, Tippen müssen erfasst, interpretiert und verarbeitet werden, und das ist – vor allem, wenn es in Echtzeit passieren soll – gar nicht so einfach. Auch im Virtual Reality Sektor ist das eine ganz eigene Wissenschaft.

Nun übertragt das Ganze auf wesentlich kleinere Geräte wie z.B. Smartwatches oder den zukünftig alltäglichen Bereich des “Internet der Dinge” (#IoT). Nehmt z.B. die ach so fortschrittliche Apple Watch, an deren Seite sich ein knubbeliges Rädchen befindet, das zum Scrollen und für andere Bedienungsschritte benutzt werden muss. Mal ehrlich … das solls gewesen sein?

Nicht, wenn es nach den Forschern von Google ATAP (Advanced Technology And Projects) geht. Manche kennen die Abteilung vielleicht durch das Project Ara Project, dem modularen Smartphone. Das Team schickt sich gerade parallel zu einigen anderen Projekten [Edit: wie z.B. dem Project Jacquard] an, mit dem Project Soli die Gestensteuerung zu revolutionieren.

Heutzutage funktioniert Gestensteuerung oft noch so, dass Bewegungen optisch oder über z.B. einen Gyrosensor erkannt werden. Man benötigt also z.B. eine Kamera, die die Bewegungen des Betrachters sieht und daraus in Real Time eine Aktion ableiten soll. Oder der Gyrosensor erkennt das Drehen eines Handgelenks oder das heftige Schütteln eines Gegenstands, z.B. eurer Smartwatch.

Die Forscher des Project Soli wollen einen ganzen Schritt weiter gehen. Sie erheben den Anspruch, auch kleinste, ganz diffizile Bewegungen erkennen zu wollen, z.B. das sanfte Reiben von Fingerspitzen aneinander. Oder das “imaginäre Drehen” eines nicht vorhandenen Knopfs mit dem Zeigefinger und dem Daumen., bzw. das Drücken eines Knopfs durch Aufeinanderpressen der beiden Finger. Die potentiellen Einsatzmöglichkeiten und Steuerungen sind unerschöpflich, wenn wir uns einmal vorstellen, wie viele – zudem weltweit einheitliche, von jeder gesprochenen Sprache unabhängige – Gesten es in dieser Art gibt. Fingerschnippsen, Flitschen wie wie beim Tischfussball, usw., das alles gehört zu einem weltweit einheitlichen “Vokabular”.

Funktionieren soll das Ganze via Radar, was grundsätzlich keine neue Methode ist. Wenn man Bewegungen im freien Raum erkennen möchte, war das schon immer ein möglicher Ansatz. Doch das Google ATAP Team hat es nach eigenen Angaben in nur wenigen Monaten geschafft, den dafür benötigten Sensor von der Grösse eines Computers oder einer Spielekonsole auf die Grösse eines winzigen Chips zu schrumpfen. Das Ding arbeitet im 60 Gigahertz Radarspektrum und kann – den Gamern unter euch wird das etwas sagen – bis zu 10.000 Frames pro Sekunde interpretieren, ein Wert der im Bildbereich nur von speziellen Hochleistungskameras für Slow-Motion Aufnahmen erreicht wird.

Project Soli Chip 01

Dieser winzige Chip und die zugrundeliegende Software sind in der Lage, Distanz, die Form, Grösse, Pose und die Bewegungen eurer Hand – oder eben eurer Finger – zu erkennen und daraus die entsprechende Aktion abzuleiten, und zwar auf den Bruchteil von Millimetern genau. Eingebaut in eine Smartwatch bedeutet das, dass ihr diese u.U. in Zukunft gar nicht mehr zu berühren braucht. Ihr müsst nicht versuchen, klitzekleine Symbole auf dem Display anzutippen, und ihr werdet dann auch keine Scroll-Rädchen einer Apple Watch mehr drehen. Stattdessen funktioniert die Bedienung komplett berührungslos.

Project Soli 06 Radar

Auch in anderen Bereichen sind die Einsatzwecke endlos erweiterbar, z.B. dann wenn man ein Gerät gar nicht berühren darf, sollte oder kann, weil es sich hinter einer Abdeckung oder an einer unzugänglichen Stelle befindet. Benötigt wird dann eben nur dieser kleine Chip, der die Signale einfach weiterleitet. Oder auch dann, wenn die Bedienung gar nicht der Mittelpunkt der momentanen Tätigkeit sein soll und sozusagen mit einem “Fingerschnippsen” nebenbei erfolgen soll. Nehmt ein Entertainment-Navigationssystem im Auto, mit Android Auto als Betriebssystem: ganz ehrlich, wie oft habt ihr schon bei Tempo 150 nach ‘nem Knöpfchen gegrabbelt und dabei den Blick von der Strasse genommen? Alles Geschichte, in Zukunft könntet ihr ganz entspannt frei im Raum intuitiv ein paar Fingerbewegungen machen, ohne überhaupt aufs Display zu schauen.

Im Video der ATAP Divison seht ihr z.B. die Demo eines speziell modifizierten Google Nexus 9, auf dem eine Bildbearbeitungssoftware berührungslos bedient wird. Das gibt euch vielleicht wie viele andere Beispiele in diesem Video einen Eindruck davon, wie unglaublich sensibel das Ganze arbeitet.

Update (12. Juni 2015)
Im nachfolgenden Video werden die Anwendungsmöglichkeiten noch einmal deutlich:

Schon spätestens zum Jahresende wird der Soli Chip in einer produktionsreifen Version für die breite Masse vorliegen, ausgestattet mit der entsprechenden Software API zur Interpretation der Signale. Zu den Kosten: keine Angabe bisher, aber zumindest die Produktionskosten eines solchen Chips sollten nicht allzu hoch ausfallen.

Also, merkt euch dieses Logo. Es könnte sein, dass sich in puncto Smartwatches bald die Spreu vom Weizen trennt, je nachdem ob sie dieses Symbol tragen oder nicht.

Project Soli Logo

Quelle: Google ATAP bei Google+