„AI for Accessibility“ – Microsoft startet neues Entwicklungsprogramm

Das "AI for Accessibility"-Programm geht mit der BUILD 2018 offiziell an den Start, um Technologien für Menschen mit Behinderungen zu entwickeln. Wir haben mit Ansprechpartnerin Jenny Lay-Flurrie gesprochen, um zu erfahren, welche Pläne Microsoft mit dem Projekt verfolgt, wo mögliche Probleme liegen und warum AI als Technologie so wichtig ist.

Jenny Lay-Flurrie lächelt freundlich in die Runde. Sie nippt an ihrem Wasserglas und fordert uns charmant auf, unsere Fragen an sie zu stellen. Man merkt sofort, dass ihr das Thema am Herzen liegt und sie offen darüber sprechen möchte. In unserer Roundtable Diskussion geht es diesmal um das „AI for Accessibility“-Programm, dessen Grundstein Microsoft auf der BUILD 2018 gelegt hat. Im Raum sitzen rund zehn Journalisten – an Jennys Seite steht stets ihre Dolmetscherin, die ihr das Gesagte über Gebärdensprache mitteilt. Dass Jenny taub ist, ist auf den ersten Blick nicht erkenntlich. Sie spricht und agiert, als wäre sie von dieser Einschränkung nicht betroffen. Damit ist sie nicht alleine, denn rund 70 Prozent aller Behinderungen sind augenscheinlich unsichtbar.

Jenny ist es wichtig, dass man ihre und andere Behinderungen nicht als etwas schlechtes ansieht. Sie ist nicht nur taub – sie ist vor allem durchsetzungfähig, zielstrebig und in der Lage ist, Menschen für sich zu gewinnen. Ein paar großartige Eigenschaften, die sie an die Position gebracht haben, in der sie bei Microsoft momentan arbeitet: als Senior Director für Barrierefreiheit, Online-Sicherheit und Datenschutz. Jenny ist Ansprechpartnerin für das neue „AI for Accessibility“-Programm. Dieses wurde von Microsoft ins Leben gerufen, um die Möglichkeiten der Milliarden Menschen mit Behinderungen mit Hilfe von KI-Lösungen zu erweitern. Jennys Team besteht zu 90 Prozent aus Leuten, die ebenfalls mit verschiedenen Krankheiten und Beeinträchtigungen leben müssen. Das sind die Leute, die Technologien am besten auf Herz und Nieren prüfen können, sagt sie.

Das Programm ist mit Fördermittel von mehr als 25 Millionen US-Dollar für fünf Jahre gedeckt. Damit sollen vor allem Forscher und Entwickler unterstützt werden, die an Soft- sowie Hardware mit nützlichen Funktion für Menschen mit Behinderungen arbeiten und dazu künstliche Intelligenz verwenden. Jennys Team beschäftigt sich hauptsächlich damit, wie man das Programm „AI for Accessibility“ in das gesamte Microsoft-Ökosystem integriert. Berücksichtigt werden dabei sowohl der Gaming Bereich, Mixed Reality, Anwendungen und natürlich jegliche Gerätschaften. Im Fokus steht dabei immer die Fragen: „Wie lassen sich bessere Produkte in Anbetracht verschiedener Behinderungen entwickeln?“ und „Welche Technologien können das Leben dieser Menschen vereinfachen?“

Ein gutes Beispiel und Vorläufer des Programms ist Projekt Emma, das auf der letzten BUILD im Jahr 2017 vorgestellt wurde. Emma Lawton ist Namensgeberin für Microsofts Produkt. Trotz ihres jungen Alters war sie an Parkinson erkrankt und war durch das Zittern ihrer Hände nicht mehr in der Lage, ihren Namen zu schreiben oder einfachste geometrische Figuren zu zeichnen. Die Lösung war ein Wearable, das äußerlich an eine Uhr erinnert, im Inneren jedoch winzige Vibrationsmotoren verbaut hat, mit denen das Zittern der Hand ausgeglichen bzw. stabilisiert wird. Haiyan Zhang, eine Entwicklerin des Microsoft Research Departments, hat sich damals der Entwicklung für dieses Produkt angenommen, um Patienten wie Emma zu helfen.

Das neu vorgestellte Programm geht mit Microsofts Cognitive Services Hand in Hand. Dies sind eine Reihe von Algorithmen, die für den Bereich der Künstlichen Intelligenz vorgesehen sind. Sie sind in fünf Kategorien unterteilt und quasi kleine Entwicklerkomponenten, die Programmierer in ihren Anwendungen nutzen können. Man unterscheidet zwischen den „Vision APIs“, die Bilder und Videos auf Inhalte und andere nützliche Informationen analysieren können, den „Speech-APIs“, die zur Verbesserung der Spracherkennung und Identifizierung des Sprechers beitragen, den „Language-APIs“,  Sätze und Absichten statt nur Wörter erkennen können, den „Knowledge-APIs“, die Ergebnisse aus wissenschaftlichen Artikel ziehen können und zu guter Letzt die „Search-APIs“, die maschinelles Lernen in der Websuche anwenden.

Beispielprojekte für die Cognitive Services findet man in Apps wie Soundscape und Helpicto. Letzteres ist eine Anwendung für Kinder mit Autismus, denen es manchmal schwer fällt, ihre Gedanken zu kommunizieren und zu verbalisieren. Helpicto ist dabei insofern eine Hilfe, dass es eine visuelle Darstellung der Sprache bietet. Grundlage dafür sind Microsofts Cognitive Services APIs und die Azure Tools, mit denen eine App entwickelt wurde, die auf maschinelles Lernen und künstliche Intelligenz setzt. Aber nicht nur Kindern mit Autismus hilft die Anwendung. Letzendlich soll sie allen Menschen mit Sprachproblemen das Leben erleichtern.

An Soundscape arbeitet Microsoft tatsächlich schon seit Jahren. 2014 wurde das dazugehörige Headset entwickelt, dass sehbehinderten Menschen hilft, sich mit Hilfe von Audio-Guides in Städten zurechtzufinden. Das Konzept ist nun auch als App verfügbar, sodass Straßen und Sehenswürdigkeiten, bestimmte Gebäude oder auch die Navigation allein auditiv vermittelt werden. Anwendungen mit einer Vorlesefunktion für Texte in der Umgebung, wurden ursprünglich auch für Menschen mit einer Sehbehinderung entwickelt. Nun nutzen sie sogar Leute, die nicht unbedingt blind sind, sondern vielleicht farbenblind sind oder in schlechtem Licht Probleme haben. 

Doch wie findet man die Balance zwischen dem, was einer einzelnen Person helfen könnte und dem, was für eine ganze Zielgruppe von Nutzen ist? Jenny gibt zu, dass das ein schwieriger Spagat ist, man jedoch in erster Linie für eine Gruppe von Usern entwickelt. Wenn es ihnen hilft, hilft es wahrscheinlich auch vielen anderen Menschen. Das Schlüsselwort lautet Feedback! Microsoft möchte von seinen Nutzergruppen und jeder einzelnen Person so viel Feedback wie möglich einholen. Nur, wenn man weiß, wie verschiedene Menschen mit einer Technologie umgehen, kann man sie verbessern. User mit Behinderung können dem Unternehmen auf jede erdenklich Art und Weise Rückmeldungen zukommen lassen. Pro Jahr kommen so mehrere tausend Skype Anrufe zustande, um mit taubstummen Menschen beispielsweise per Gebärdensprache zu kommunizieren.

Ein Problem bei der Entwicklung von neuen „AI for Accessibility“-Technologien ist unteranderem die Komplexität, die mit Behinderungen einhergeht. Eine Krankheit kommt selten allein, sodass Begleiterscheinungen wie Depressionen oder Angstzustände auftreten können. „Wir sind komplexe Wesen,“ meint Jenny; „Da muss man viele Erfahrungen und Anwendungsbereiche berücksichtigen.“ Die entwickelten Produkte müssen also übergreifend arbeiten können.

Deshalb gibt es so viele Einsatzmöglichkeiten, so viel Vielfalt an möglichen Technologien. Jennys Überlegungen gehen in Richtung Mixed Reality, womit man Soundscape beispielsweise hervorragend weiterentwickeln könnte. Aber auch im Bereich der mentalen Gesundheit kann die Technologie nützlich sein. So könnte die HoloLens als eine Art „Best Buddy“ fungieren. Nach dem Motto: „Ich habe festgestellt, dass dein Puls gerade steigt. Soll ich jemanden für dich anrufen?“ Ein spannender Gedanke.

Da das Programm „AI for Accessibility“ gerade erst gestartet hat, sucht das Team momentan nach Ideen zur Umsetzung. Nutzer können Vorschläge, Anregungen oder Wünsche über die offizielle Webseite des Projekts einreichen. Was Jenny angeht, so ist sie froh einen Job zu haben, der etwas bewirken kann. „AI ist so vielfältig und ich bin mir sicher, dass wir viele Leute darin bestärken können, mehr zu machen.“