Google Glass erhält mit Version XE10 eine neue Firmware, die auf sehr viele neue Funktionen für die smarte Brille hinweist. Unter anderem erhält Glass Voice zahlreiche neue Befehle.
In Taiwan hat Sascha Google Glass ja nun schon einige Tage im Einsatz und er ist auch hellauf begeistert von dem Device. Noch begeisterter dürfte er sein, wenn er in den Quellcode der Firmware schaut, so wie es jetzt die Kollegen von Android Police getan haben. Wie so oft fördern sie nämlich zielsicher Funktionen ans Tageslicht, die wir bis dato noch gar nicht auf dem Schirm hatten. Schauen wir uns mal einige der wichtigsten Neuerungen an, die wir erwarten dürfen:
Lesenswert: Glasspalast #3 – Saschas Weg ins Buero #throughglass
GlassVoice.apk:
Die GlassVoice.apk-Datei ist der Ausgangspunkt der meisten Aktionen, die ihr mit der Brille ausführen werdet und daher elementar wichtig. Ihr weckt die Brille mit “Ok Glass” auf, die dann bereit ist für weitere Befehle. Im Code vergraben finden sich gleich ein Haufen neuer Befehle, die wir in Zukunft erwarten dürfen. Hier sind sie aufgelistet:
- Add a Calendar Event
- Call Me A Car
- Capture a Panorama
- Check Me In
- Create a 3D Model
- Find a Recipe
- Learn A Song
- Play a Game
- Play Music
- Record a Recipe
- Remind Me To
- Show a Compass
- Start a Bike Ride
- Start a Round of Golf
- Start a Run
- Translate This
- Tune an Instrument
Das ist eine beeindruckende Zahl neuer Befehle, lasst uns mal einen Blick auf die wichtigsten davon werfen:
Add a Calendar Event
Ein sehr offensichtlicher und wichtiger Befehl – das Anlegen von Events im Google Kalender. Gerade hier bietet es sich an mit einem kurzen gesprochenen Satz deutlich flotter einen Termin anzulegen als das mit Tippen auf dem Smartphone zu bewerkstelligen.
Call me a car
Schwierig, hier schon verlässlich zu erkennen, was Google hier plant. Denkbar wäre es, dass wir uns mit diesem Befehl ein Taxi an die Position rufen kann, an der wir uns laut GPS befinden.
Capture a Panorama
Eine Ausweitung der Möglichkeiten, die uns für das Fotografieren geboten werden. Die logische Folge müsste sein, dass man auch Photosphere zukünftig per gesprochenem Befehl starten kann.
Check me in
Könnte für jemanden wie mich eine Highlight-Funktion werden. Gerade in überfüllten Fußgängerzonen ist man als Foursquare-Nutzer stets in akuter Gefahr, über den Haufen gerannt zu werden, wenn man auf seinem Smartphone gerade checkt, wo man sich einloggen kann. Muss natürlich nicht zwingend auf Foursquare ausgerichtet oder beschränkt sein.
Create a 3D Model
Gleichzeitig interessant aber auch ungewiss, was hinter diesem Befehl stecken könnte. Kann ich hier vielleicht ein 3D-Modell erstellen, indem ich ein Objekt von allen Seiten betrachte? Lasst mich die erfassten Daten direkt an einen 3D-Drucker schicken, dann wäre es perfekt.
Find/Record a Recipe
Diese beiden Befehle dürften auf KitchMe abzielen und erklären sich von selbst. Gerade in der Küche kann ich mir vorstellen, dass die Google Glass regelmäßig zum Einsatz kommt. Ich selbst habe schon öfters mein Tablet oder Ultrabook mit in die Küche genommen, um stets einen Blick auf ein Rezept werfen zu können. Dass das für die Hardware nicht immer super ausgehen muss, brauche ich sicher keinem erzählen. Da bietet sich die Brille an, wo ihr durch Sprache Rezepte aufrufen oder auch eingeben könnt.
Play a Game
Ich bin sehr gespannt, wie sich Gaming auf der Google Glass gestalten wird und erhoffe mir jede Menge abgedrehtes Augmented Reality-Zeug, spezielle Ingress-Versionen und ähnliche Geschichten. Mit diesem Befehl wird man eventuell ein Menü aufrufen können, welches all eure Games beinhaltet, die ihr mithilfe der Brille zocken könnt.
Play Music
Musik wird sicher auch bei Google Glass ein sehr wichtiges Thema werden. Dabei gehe ich aber davon aus, dass “dank” des mäßigen Sounds der Brille selbst weniger angedacht ist, über die Brille Musik zu hören, sondern stattdessen eher ein anderes Device anzusteuern. Am Wahrscheinlichsten wird die Steuerung des Smartphones oder eines Tablets sein, aber vielleicht können wir auch andere Funktionen erwarten, beispielsweise das Steuern der Musikanlage in unseren Autos.
Remind me to:
Ähnlich wie die das Anlegen eines Termins gehört auch die Erinnerungs-Funktion zu den Punkten, die ich zwingend auf der Brille erwarte. Spannend dürfte sein, wie gut die Algorithmen von Google hier arbeiten: Werde ich lediglich an einen Termin erinnert, wenn er ansteht, oder erinnert mich Google Glass sogar daran, dass ich noch dringend Milch kaufen muss, wenn das GPS erkennt, dass ich gerade an einem Rewe vorbeilatsche?
Translate this:
Eine Übersetzen-Funktion für Google Glass? Hmm, wenn es so funktioniert, wie ich es mir ausmale, dann schaue ich mit der Brille ein Dokument, Straßenschild oder Werbeplakat an und kann mit dem Befehl eine automatische Übersetzung von Google erwarten. Wäre toll, wenn es tatsächlich so umgesetzt würde.
Damit haben wir jetzt die wichtigsten neuen Befehle abgegrast, aber das ist immer noch nicht alles, was es im neuen Code zu entdecken gab:

Unsere Augen werden bei der Steuerung der Brille eine größere Rolle spielen als das bislang zu erkennen war. Nicht ganz klar ist es, wie Google es nutzen wird, dass man weiß, wohin unser Blick geht. Klarer ist dagegen, dass wir durch Zwinkern Aktionen auslösen können. Dabei wird es aber nicht nur die Möglichkeit geben, mit einem Zwinkern besagte Aktion – beispielsweise das Erstellen eines Fotos – durchzuführen, denn es finden sich auch “double-wink”-Hinweise im Code. Mit zweimaligem Zwinkern könnt ihr also andere Aktionen auslösen.
Alles in allem eine ganze Menge Holz, die sich dem Firmware-Update entnehmen lässt. Damit wissen wir zwar noch lange nicht, ab wann diese Funktionen dann auch in der Brille aktiv sind, haben aber wieder mal einen Beleg dafür, dass das Potential von Google Glass noch bei weitem nicht ausgeschöpft ist und wir ganz am Anfang der Entwicklung stehen.