Auf der Computex hat Intel angekündigt $100 Millionen in die Einrichtung des „Intel Capital Experiences and Perceptual Computing Fund“ zu stecken. Damit wird in Techniken investiert, die die Benutzung von Computern „natürlicher, intuitiver und immersiver“ machen sollen.
Was bisher noch Science Fiction war, sei inzwischen durch immer leistungsfähigere Rechner und bessere Kameratechnik in greifbare Nähe gerückt: Computer, die die Umwelt ähnlich wahr nehmen, wie der Mensch mit seinen Sinnen. Sehende, hörende und fühlende Geräte sollen möglich werden und über den Fond soll in Unternehmen investiert werden, die in diese Richtung arbeiten und aktiv sind.
Dieser Fond ist Teil der Intel Perceptual Computing Initiative, die das Unternehmen beim Developer Forum letztes Jahr gestartet hat. Dort wurde auch das Perceptual Computing Software Developer Kit vorgestellt, welches inzwischen über 10.000 geladen wurde. Die Perceptual Computing Challenge ist ein Contest für Entwickler, bei der innovative Anwendungen mit diesem SDK bis zu $1 Millionen erhalten können.
Intel zählt auch Beispiele auf, was in diesem Bereich zusammen mit Partner schon alles erreicht wurde. Ein Beispiel sei die „interactive gesture camera“ Senz3D von Creative, die derzeit schon für Entwickler und ab dem dritten Quartal auch für Endkunden verfügbar sei. In der zweiten Hälfte 2014 sollen verschiedene OEMs 3D-Kamera-Technologie in unterschiedliche Devices – natürlich auf Intel-Basis – integrieren. Das zeigt aquch den Schwerpunkt von Intel: Kameras und die Interpretation der aufgenommenen Bilder in einer Art, die Computer zu Geräten macht, die ihre Umwelt auf eine ähnliche Art und Weise „sehen“ wie der Mensch.
Auf’s Wort hörende Geräte, die wie die Schiffscomputer in Star Trek reagieren, scheinen wirklich bald möglich zu sein, in Anbetracht der Entwicklung, die die Spracherkennung und vor allem die Interpretation der erkannten Sprache in den letzten Jahren gemacht hat. Auch die optische Steuerung von Computern und Konsolen, die über Kameras die Bewegungen des Nutzers erkennen und umsetzen ist schon sehr gut nutzbar. Je besser diese Techniken miteinander verbunden und integriert werden, desto besser wird das Gesamtsystem. So kommt ein Spracherkennungssystem vielleicht auch bald mit Sarkasmus zurecht, wenn es mit einer Gesichtserkennung kombiniert wird, die in der Lage ist den aktuellen Gemütszustand des Sprechers zu interpretieren. Andererseits würden uns damit dann aber auch viele Witze verloren gehen… ;) Dafür bekommen wir vielleicht in einigen Jahren Rechner, die nicht nur Sarkasmus verstehen, sondern selbst auch sarkastische Antworten geben können.