Wie man unseren heutigen beiden Themen sieht, werden KI-Systeme immer öfter von Regierungen und privaten Unternehmen eingesetzt. Bislang fehlen aber noch jegliche Werkzeuge, um diese Systeme zur Rechenschaft zu ziehen, wenn sie einmal ausfallen. Das ist eine der wichtigsten Schlussfolgerungen in einem neuen Bericht, der von AI Now herausgegeben wurde. Dies ist eine Forschungsgruppe, in der Mitarbeiter von Technologieunternehmen wie Microsoft und Google zusammen arbeiten.
Der Bericht untersucht die sozialen Herausforderungen von künstlicher Intelligenz und geht auch auf die Rechtslagen ein, da diese Technologie “über die sozialen Kernbereiche hinweg” integriert ist. Man schlug zehn Empfehlungen vor, wie man mit solchen KI-Fragen zukünftig umgehen sollte: Beispielsweise die Forderung nach einer staatlichen Regulierung der Gesichtserkennung und sogenannte “Truth-in-Werbe”-Gesetze für KI-Produkte, sodass Unternehmen die Technologie nicht einfach einsetzen können, um ihre Dienstleistungen zu bewerben.
Die Linie, die der Bericht fährt, ist klar: Die Öffentlichkeit braucht mehr Regelungen für den Umgang mit künstlicher Intelligenz. Es müssen Entscheidungen getroffen werden, welche Macht ein Algorithmus haben soll. Darf er beispielsweise über die Dauer von Haftstrafen oder der Zuteilung von medizinischer Hilfe entscheiden? In der Regel, so die Autoren des Berichts, wird in diesen Bereichen Software eingeführt, um Kosten zu senken und die Effizienz zu steigern. Aber das führt oft zu ethischen Fragen und auch zu System-Entscheidungen, die nicht erklärt oder angefochten werden können.
Der Bericht von KI Now zitiert eine Reihe von Beispielen, darunter das von Tammy Dobbs, einem Patienten mit zerebraler Lähmung. Er bekam häusliche Pflege von Medicaid bereitgestellt, 56 Stunden pro Woche. Ein KI-System entschied, dass man seine Pflegestunden auf 32 Stunden pro Woche kürzte. Nun hat man erfolgreich den Staat Arkansas verklagt und das algorithmische Zuteilungssystem als verfassungswidrig beurteilt.
“KI-Systeme müssen in der Lage sein zu sagen: “Die medizinische Hilfe wurde erstmal einem anderen zugeteilt, hier ist der Grund, warum”, aber das können Blackbox-Systemen noch nicht. Wenn wir öffentliche Rechenschaftspflicht wollen, müssen wir diese Technologie auditieren können.” Kate Crawford, AI Now Mitbegründerin und Forscherin bei Microsoft
Ein weiterer Bereich, in dem sofort gehandelt werden muss, ist der Einsatz von Gesichtserkennung. Diese Technologie wird zunehmend von der Polizei in China, den USA und Europa genutzt. Amazon’s Erkennungssoftware zum Beispiel wurde von der Polizei in Orlando und Washington County eingesetzt, obwohl Tests gezeigt haben, dass die Software rassistisch angelernt wurde.
Trotz dieser Herausforderungen hat das Jahr 2018 vor allem eines gezeigt: Wenn es Unstimmigkeiten in der Nutzung von KI gibt, dann sind technische Mitarbeiter, Gesetzgeber und die Öffentlichkeit sofort bereit zu handeln, anstatt diese zu tolerieren.
via: theverge