Das Thema „Sprache“ ist ein schwieriges und ein kontrovers diskutiertes noch dazu. Dass sich unsere Sprache im Laufe der Jahre verändert, ist logisch, für jedermann nachvollziehbar und ich glaube, die meisten Menschen arrangieren sich damit. Schwieriger wird es dann, wenn es um die Richtung geht, in die sich Sprache verändert oder nach eigener Meinung verändern sollte.
Ich muss zugeben, dass mir auch die Ohren schmerzen, wenn ich in der U-Bahn von Teenagern Sätze höre wie „sch’bin Kino gewesen“ anstelle von „Ich war im Kino“. Ich klammere mich auch verzweifelt daran, dass „das Blog“ ein Neutrum bleibt, obwohl sich „der Blog“ immer mehr einbürgert und längst auch schon im Duden als zulässig verbucht wird.
Manch anderer stört sich vielleicht eher daran, dass zu viele Anglizismen Einzug in die deutsche Sprache halten, wieder andere kämpfen für (oder auch gegen) eine geschlechtergerechte Sprache. Aber egal, ob man in „I bims“-Zeiten angesichts des vermeintlichen Sprachverfalls die Hände über dem Kopf zusammenschlägt, oder ob man diesen Wandel als naturgegeben hinnimmt: Bislang war es immer so, dass Menschen vorgegeben haben, in welche Richtung sich unsere Sprache verändert.
Künstliche Intelligenz verändert unsere Sprache
Das könnte sich zukünftig signifikant ändern, wenn es nämlich verstärkt Maschinen sind, die Einfluss auf unsere Sprache nehmen. Diese Veränderung findet bereits statt, erklärt Prof. Dr. Henning Lobin:
Wir Menschen sind nicht mehr die einzigen, die lesen und schreiben – Computer tun es auch. Nach Jahrtausenden des Monopols über die Schrift müssen wir diese Bastion im 21. Jahrhundert räumen. Prof. Dr. Henning Lobin, Linguist

Er ist nicht nur Linguist und Buchautor, sondern übernimmt künftig auch die Leitung des Instituts für Deutsche Sprache (IDS), weiß also definitiv, wovon er redet. Seine These: Smarte Assistenten wie Google Home oder Amazon Echo werden ebenso unsere Sprache verändern, wie es Smartphones mit ihrer Worterkennung auch tun.
Das klingt im ersten Moment vielleicht abwegig — schließlich wird Cortana, Siri und allen anderen künstlichen Intelligenzen doch beigebracht, dass sie so reden können, wie wir es tun. Das Problem dabei ist, dass wir Menschen uns (okay, sicher nicht alle) sprachlich auf einem anderen Niveau bewegen, als es eben bei einer Siri der Fall ist. Man kann ihr zwar ein komplettes Wörterbuch ins Gehirn pflanzen und sie auch auf vielen verschiedenen Sprachen verstehen und antworten lassen. Aber derzeit tun sich auch die smartesten Systeme schwer damit, das Gehörte automatisch in den richtigen Kontext zu setzen.
Das bedeutet für uns, dass wir uns also so ausdrücken müssen, dass uns die Maschinen verstehen können. Alexa macht nun mal nicht die Lampen im Wohnzimmer aus oder erzählt uns was übers Wetter, wenn wir sie nicht genau so ansprechen, dass sie uns verstehen kann. Im Moment sind wir noch nicht in der Situation, dass wirklich in jedem Wohnzimmer so ein Smart Speaker steht und es wird sicher noch einige Zeit brauchen, bis die Masse der Bevölkerung das Smart Home per Sprache steuert, Informationen auf diese Weise abruft usw.
Aber die Absatzzahlen bei dieser Hardware steigen stetig, so dass auch immer mehr Nutzer dazu übergehen werden, sich bei der Ansprache dieser Gerätschaften so auszudrücken, dass diese auch verstanden werden können. Damit können wir dann zwar bequem die Temperatur im Raum erhöhen, eine gewünschte Musik abspielen lassen oder auch ein Taxi rufen, ohne dass wir unsere Hintern von der Couch bewegen müssen. Auf der anderen Seite werden aber auch viele Wörter durchs Raster fallen, weil wir immer mit den Begriffen hantieren, die vom System erkannt werden — auf Kosten vieler Synonyme und weniger gebräuchlichen Formulierungen.
Klar — gleichzeitig werden diese sprachgesteuerten Gerätschaften auch intelligenter, was dazu führen wird, dass wir mit zunehmender Zeit immer weniger genau eine bestimmte Form wahren müssen. Aber all das braucht eben auch seine Zeit und bis dahin haben wir uns wohl oder übel danach zu richten, was die aktuellen Systeme verstehen können.
KI-Experimente: Wie Google Algorithmen die natürliche Sprache lehrt
Lobin spricht noch einen weiteren Punkt an: Die Worterkennung auf unseren Smartphones. Auch hier erkennt er eine maschinelle Beeinflussung unserer Sprache:
Wenn wir auf einem Smartphone schreiben, werden uns Wortvervollständigungen oder auch ganz Wörter vorgeschlagen. Und das ist ein massiver Eingriff in das eigene Formulierungsverhalten Prof. Dr. Henning Lobin, Linguist
Auch damit liegt der Sprachwissenschaftler meiner Meinung nach absolut richtig: Ich selbst ertappe mich schon so manches mal dabei, dass ich ein anderes Wort im Kopf habe und aus Faulheit das vorgeschlagene annehme, weil es eben auch passt und schneller geht.
Wir werden also unseren Wortschatz auf dem Smartphone tendenziell weniger umfangreich nutzen. Weil man eben immer die selben Wörter vorgeschlagen bekommt und weil man vielleicht auch bewusst sehr lange oder komplizierte Wörter zu umschiffen versucht. Ich glaube nicht, dass das eine ernsthafte Gefahr für die deutsche Sprache werden wird, denke aber schon, dass die angesprochenen Punkte bis zu einem gewissen Grad unsere Sprache verändern.
Auf seinem (übrigens äußerst lesenswerten) Blog spricht Prof. Dr. Lobin auch noch die Kommunikation von Maschinen untereinander an. Hier entwickeln künstliche Intelligenzen im Dialog miteinander eine eigene, modifizierte Sprache, die effizienter als unsere ist, von uns aber auch nicht mehr wirklich interpretiert werden kann. Zumindest hier hoffe ich (und gehe auch eigentlich davon aus), dass das keinen unmittelbaren Einfluss auf unsere menschliche Sprache haben wird.
via Futurezone.at
PS: Folgt Prof. Dr. Lobin auch auf Twitter, wenn ihr euch für die Entwicklung von Sprache interessiert — er teilt dort viele lesenswerte Artikel.