AI ist aktuell ein breites und wichtiges Forschungsfeld. Während wir kürzlich noch darüber berichteten, dass Forscher evolutionäre Algorithmen gegen Deep-Learning-Ansätze ausspielen, gibt es auch deutlich gefährlichere Felder. Neben dem Meistern und Überflügeln der menschlichen Leistung wäre der Einsatz von künstlicher Intelligenz auch in völlig autonomen Systemen denkbar. Hochtechnologische Kriegsführung ist nichts Neues, gerade unter dem letzten US-Präsidenten Barack Obama wurde der Begriff „Drone Wars“ geprägt. Den Abschuss muss bisher aber immer noch ein Mensch vornehmen. Das könnte sich bald ändern.
Dementsprechend sorgen führende Technologieexperten quasi vor und verpflichten sich in einer freiwilligen Vereinbarung dazu, derartige Waffensysteme nicht entwickeln zu wollen. Die prominentesten Unterzeichner sind Tesla- und SpaceX-Gründer Elon Musk sowie die drei Mitbegründer von Googles KI-Tochter DeepMind. Musk ist bereits häufiger mit Aussagen rund um die Gefahr künstlicher Intelligenz aufgefallen, hingegen könnten seine kürzlich verkauften Flammenwerfer durchaus als Waffen bezeichnet werden.
Das unterzeichnete Dokument weist auf die Gefahren möglicher Zukunftstechnologien und deren Einsatz zu militärischen Zwecken hin. Ebenfalls wird moralisch argumentiert: Entscheidungen, ein Menschenleben zu nehmen, „sollten niemals an eine Maschine delegiert werden“. Der Besitz oder die Verbreitung solcher Waffen sei „für jedes Land und jeden Einzelnen gefährlich und würde zu Destabilisierung führen“.
Das Versprechen wurde heute auf der International Joint Conference on Artificial Intelligence (IJCAI) 2018 in Stockholm veröffentlicht und vom Future of Life Institute – einem Forschungsinstitut, das darauf abzielt „existenzielle Risiken für die Menschheit zu mindern“ – organisiert. Das Institut war in der Vergangenheit bereits für ähnliche Veröffentlichungen verantwortlich. Unter anderem wurde bereits die UN dazu aufgefordert, die Regelungen rund um tödliche autonome Waffen zu prüfen. Im Unterschied zu bisherigen Schreiben verpflichten sich die Beteiligten aber diesmal selbst zur Vorsicht.
Neben Elon Musk und den DeepMind-Gründern Shane Legg, Mustafa Suleyman und Demis Hassabis haben auch Skype-Gründer Jaan Tallinn und einige der weltweit angesehensten und bekanntesten KI-Forscher, darunter Stuart Russell, Yoshua Bengio und Jürgen Schmidhuber, die Vereinbarung unterzeichnet. Max Tegmark, ein Unterzeichner und Professor für Physik am MIT, spricht davon, dass die KI-Führer so eine „Verlagerung weg von Gesprächen hin zur Aktion“ zeigen wollen. Damit soll erreicht werden, was die Politik bisher nicht schaffte: Der Entwicklung von KI für militärische Zwecke eine harte Grenze aufzuerlegen. „Waffen, die autonom entscheiden, Menschen zu töten, sind genauso ekelhaft und destabilisierend wie Biowaffen und sollten auf die gleiche Weise behandelt werden“, sagte Tegmark.
Bisherige Versuche, internationale Regularien zu erzielen, waren wirkungslos. Die Forderungen zielen darauf ab, Waffensysteme mit künstlicher Intelligenz genauso zu regulieren wie chemische Waffen oder Landminen. Erste Versuche scheiterten an der Definition einer klaren Grenze, wann ein autonomes System vorliege und wann nicht. So können Geschütztürme beispielsweise auf Menschen zielen – aber nicht schießen. Diese Komplexität räumt auch das neue Schreiben ein, vor allem sei es schwer etwas zu regulieren, was eigentlich bereits weit verbreitet ist. Zudem haben die führenden Länder in diesem Bereich, unter anderem die USA und China, wenig Interesse daran, solche Regelungen zu erwirken – zumal es auch wirtschaftliche Einschnitte bedeuten würde.
Via The Verge