Wearables
Computer per Gedanken steuern: MIT-Forscher entwickeln erstes Wearable

Am MIT forscht man zurzeit an einem Wearable, dass die Fähigkeit der Subvokalisation beherrscht. Sprachbefehle an Assistenten wie Alexa oder Google könnten so nur gedacht, anstatt laut ausgesprochen werden. Ein spannendes Projekt mit Zukunftsrelevanz.
von Vera Bauer am 7. April 2018

Viele von euch kennen das sicher: Texte werden beim Lesen innerlich mitgesprochen. Das nennt man Subvokalisation und kann trainiert werden. Allerdings kann man die innere Stimme im Kopf auch für Sprachbefehle nutzen, die der Nutzer nicht laut ausspricht. Wie das funktioniert, zeigt eindrucksvoll ein neu entwickeltes Wearable des MIT.

Dieses trägt der Nutzer von seinem Ohr, entlang des Kiefers zum Kinn. Das Wearable hat zwei Funktionen: Zum einen das Aufnehmen und Verarbeiten von subvokalisierten Wörtern und zum anderen das Zurückgeben von Informationen. Letzteres ist fast der leichteste Teil des Projekts.

So funktioniert das Gerät ähnlich wie Ohrknochenkopfhörer, die Informationen über die Schwingungen der Gesichtsknochen auf das Innenohr des Trägers übertragen. Das Wearable ist somit Teil eines sogenannten “Silent-Computing-Systems”, mit dem der Anwender unbemerkt Antworten auf schwierige Rechenaufgaben erhalten kann.

Der schwere Teil kommt erst noch: Denn Informationen über die innere Stimme in unserem Kopf wahrzunehmen und zu verarbeiten, ist eine Herausforderung. Noch dazu, ist die Subvokalisierung als Computerschnittstelle weitestgehend unerforscht. Zuerst mussten die Forscher herauszufinden, an welchen Stellen im Gesicht neuromuskuläre Signale, also die Subvokalisierung, entsteht.

Basierend auf diesen Ergebnissen entwickelten die Forscher ein Gerät mit vier Elektroden, das der Nutzer entlang des Kiefers trägt. Dort nämlich sollen neuromuskuläre Signale am besten gemessen werden. Statt wie mit Alexa und Google Assistant zu sprechen, kann man nun Befehle quasi denken oder im Kopf vor sich her sagen.

“Die Motivation dafür war, ein IA-Gerät zu bauen – ein Intelligenz-Augmentationsgerät” Arnav Kapur, Doktorand am MIT Media Lab und Projektleiter

Das System soll den Nutzer mit der Zeit immer besser kennenlernen. In ersten Tests lag seine Verarbeitungsgenauigkeit bei etwa 92 Prozent. In der laufenden Studie sammeln die Forscher eine Reihe von Daten über komplexere Gespräche, sodass man mit dem Gerät eines Tages eine richtige Konversation führen kann – aufwendiger, als wir es von heutigen Sprachassistenten gewohnt sind.

Der Anwendung des Wearables sind quasi keine Grenzen gesetzt: Sprachbefehle und Gespräche mit persönlichen Assistenten, Steuerung des Smart Homes, Einkaufslisten im Supermarkt, stille Konversationen an lauten Orten mit anderen Mitmenschen… Die Liste ist lang und insgesamt klingt das Projekt sehr spannend. Ich bin mir sicher, dass das der nächste Schritt sein wird, wie wir mit technischen Anwendungen in unserer Umgebung kommunizieren.

via: MIT.news