Wissenschaftler erstellen Sprach-Atlas des menschlichen Gehirns

Wissenschaftler der University of California in Berkeley (USA) haben eine virtuelle Landkarte des menschlichen Gehirns erstellt, auf der die farblich kategorisiert unterschiedliche Sprachregionen dargestellt werden. Die Besonderheit: die Forschungen zeigten, dass unser Gehirn problemlos in der Lage ist, völlig unterschiedliche Wortbedeutungen in einem jeweils neuen Zusammenhang zu erkennen. Zudem zieht die Studie in weiten Teilen die bisherige Annahme in Zweifel, das vor allem die linke Gehirnhälfte für das menschliche Sprachvermögen verantwortlich sei.

Die Wissenschaftler untersuchten das Gehirn der Probanden im Magnetresonanztomographen und bildeten die dabei gewonnen Erkenntnisse über das Verfahren der sogenannten Funktionellen Magnetresonanztomographie ab. Den Personen wurden über einen Zeitraum von zwei Stunden mehrere Geschichten vorgelesen, deren Wörter zuvor von den Wissenschaftlern in 200 Wortgruppen kategorisiert wurden.

Diese Herangehensweise ermöglichte eine Zuordnung und nachträgliche Identifikation der jeweiligen Wörter und Wortgruppen, in ihrem jeweiligen Kontext, in der stimulierten Gehirnregion. Sprich: die Geschichten enthielten z.B. Passagen, in denen ein und das selbe Wort im inhaltlichen Zusammenhang eine ganz unterschiedliche – und mitunter emotionale – Bedeutung hat. Überraschenderweise zeigte sich, dass das Gehirn Wörter redundant (mehrfach) abspeichert.

Die Forschungsergebnisse sind auch für Software-Programmierer besonders interessant, weil das menschliche Gehirn in puncto Verarbeitungsgeschwindigkeit und Speicherkapazität als der ultimative Vergleichsmaßstab für Datenbanken herhalten muss. Bei Datenbanken wiederum gilt Redundanz – im technischen Sinne vereinfacht ausgedrückt die mehrfache und ohne Verlust wegzulassende Information – als „Todsünde“.

Offenbar sollte man sich als Datenbankentwickler und Programmierer von dieser Redundanzfreiheit ab einer bestimmten Ebene verabschieden, wenn man z.B. den Bereich Spracherkennung und Sprachbedeutung betritt und sich dabei das menschliche Gehirn zum Vorbild nimmt. Sowohl im sogenannten semantischen System als auch im Zusammenhang mit Emotionen scheint die Natur anzunehmen, dass das Bilden, Abspeichern und Abrufen von Wortwolken wesentlich effektiver funktioniert als ein ständig neues Zusammenfügen einzelner Wörter, je nach Kontext.

Wir können ähnliche Entwicklungsansätze bereits beobachten, wenn wir moderne Sprachassisten wie z.B. Google Now, Apple Siri oder Microsoft Cortana zu Rate ziehen. Je nach Themengebiet und Erkennungsrate sind diese Apps bereits heute in der Lage, mit jedem neu hinzugekommenen Wort die Bedeutung eines ganzen Satzes neu zuzuordnen, mehr oder weniger (gefühlt) in Echtzeit. Auch die Auto-Vervollständigung von Suchbegriffen liefert in Ansätzen einen Eindruck von dieser Herangehensweise. Gemessen an der Verarbeitungsgeschwindigkeit des Gehirns findet all das selbstverständlich im Schneckentempo statt, was wiederum für jeden ambitionierten Entwickler einer Katastrophe gleichkommt ;-).

Über den naheliegenden Vergleich mit Spracherkennungs-Algorithmen hinaus ergibt sich noch eine weitere Verwendung für die Erkenntnisse der Wissenschaftler. Die Sau „Künstliche Intelligenz“ wird ja momentan heftig durchs Dorf getrieben und liefert immer wieder erstaunliche Beispiele für ein Abbilden der Prozesse, die vor gar nicht allzu langer Zeit eben nur von einem menschlichen Gehirn zu bewältigen waren.

Zuletzt zeigte AlphaGo von DeepMind, zu welcher enormen Leistung diese Systeme mittlerweile in der Lage sind. Interessant an diesem Beispiel ist, dass DeepMind den Ansatz verfolgt, ein menschliches Kurzzeitgedächtnis zu simulieren, aus dem die im jeweiligen Moment relevanten Informationen wesentlich schneller abgerufen werden können. Vergleicht man das mit den Erkenntnissen der Wissenschaftler aus Berkeley, ergibt sich ein überaus interessanter Ansatz, der quasi alle „Big Data“ Prozesse effektiver und beschleunigter ablaufen lassen könnte.

Das wiederum ist elementar, wenn wir völlig neue Felder wie z.B. das Gebiet der Selbstfahrenden Autos betrachten. Hier müssen in Sekundenbruchteilen keine Wörter, sondern ganz allgemein „Informationen“ zwingend im jeweils richtigen Kontext interpretiert und verarbeitet werden, damit die Software keine der Situation nicht angemessene Fehlentscheidung trifft.

Quelle: nature.com

PS: Ein Rätsel der modernen Wissenschaft beantwortet die Studie der Forscher übrigens noch nicht: Wenn das menschliche Gehirn in einer schier unfassbar magischen Weise die Bedeutung von Wörtern im jeweils richtigen Kontext zuordnet, warum halten sich Grammar-Nazis dann so penetrant an der korrekten Schreibweise auf?