BT

Ethische Standards bei künstlicher Intelligenz: Wer entscheidet was „gut“ ist?

geschrieben von Felix Baumann

Egal, ob auf der Tokyo Game Show oder im täglichen Gebrauch von Spotify & Co.. Wir treffen im Alltag immer häufiger auf künstliche Intelligenz und merken dies durch die nahtlose Integration mit unseren Geräten und Services teilweise nur bei genauerer Betrachtung.

Mit dieser rasanten Entwicklung gehen immer größere Datenströme einher, die für die weitere Optimierung der Systeme eine essenzielle Rolle spielen. Aber gerade der Datenskandal bei Facebook und der Firma Cambridge Analytica führte erneut zu einer hitzigen Diskussion über die ethischen Bedenken bei der Nutzung von sensiblen Informationen.

Aber das ist gerade erst der Anfang. Durch die immer breitere Berichterstattung stehen Firmen wie noch nie unter der Beobachtung der Öffentlichkeit. Aufgrund der kürzlich passierten Unfälle mit autonomen Fahrzeugen von Tesla und Uber und der damit verbundenen Aufmerksamkeit in den Medien haben beide Firmen ihre Versuche im Bereich des autonomen Fahrens reduziert (Uber schickt seine autonome Flotte nun bspw. nur noch mit einem echten Fahrer auf die Straße). Wie entwickeln wir also einen verantwortungsvollen und moralischen Ansatz zur Nutzung von KI?

Die Beurteilung von künstlicher Intelligenz aus Sicht der Ethik steckt heute noch in den Kinderschuhen. Dabei stehen die treibenden Firmen in der Verantwortung eine Debatte mit ihren Stakeholdern zu führen, um sich nicht in unangenehmen Situationen zu verfrachten.

Weiterlesen:

Standardmäßig lässt sich zwischen deontologischer und teleologischer Ethik unterscheiden. Während erstere den Fokus nur auf die Handlung an sich legt, spielt bei der zuletzt genannten die Folge des Handels im Mittelpunkt. Um die beiden Arten zu veranschaulichen, habe ich für euch zwei Beispiele:

Durch das massenhafte Sammeln von Daten ermöglicht eine Firma dem Fahrgast eines autonomen Fahrzeugs eine komfortable, sichere und umweltfreundliche Alternative, um ans Ziel zu gelangen. Die Firma handelt also deontologisch (Die Konsequenzen der Datensammlung sind irrelevant). Gelangen die gesammelten, teilweise kritischen Daten nun aber über das Internet an Datenhändler, dann ist die Dienstleistung als aus teleologischer Sicht unmoralisch anzusehen (es spielt keine Rolle, was für ein Nutzen die Daten gebracht haben).

Und hier sieht der ein oder andere vielleicht schon eine Parallele zu den unterschiedlichen Standpunkten beim Thema Datenschutz in den Vereinigten Staaten und Europa. Betrachtet man die Verwendung von Daten nämlich nur deontologisch, dann benötigen wir keine DSGVO und auch sonst kaum Datenschutzrichtlinien. Der Grund, weshalb viele US-amerikanische Firmen wie Google eher nach diesem Ansatz handeln ist denke ich auch anhand der Umsatzentwicklung nachzuvollziehen. Die Umsätze mit künstlicher Intelligenz werden sich im Vergleich zu 2016 in diesem Jahr verfünffacht haben; im Jahr 2025 wird das Wachstum sogar ca. 8700 % betragen.

Deshalb ist das Misstrauen mancher Verbraucher durchaus gerechtfertigt. Gehen große Konzerne das Thema künstliche Intelligenz nur deswegen an, um an uns Verbrauchern viel Geld zu verdienen? Oder liegt der Fokus tatsächlich auf der Schaffung einer besseren Welt?

Was wir brauchen sind Richtlinien, die einen gesunden Mix aus deontologischen und teleologischen Ansätzen liefern. Diese Richtlinien dürfen dabei aber nicht einfach anhand von neuen Gesetzen festgelegt werden, sondern es muss einen ethischen Kodex geben, dem sich alle Seiten verpflichten.

Es gibt aber auch Punkte, bei denen wir vor einem ethischen Dilemma stehen:

  • Haftbarkeit/Verantwortung: Sollten in Zukunft Androiden unsere Städte bevölkern und es kommt zu einem tödlichen Unfall. Wer kann für die Konsequenzen haftbar gemacht werden?
  • Transparenz: Wenn Systeme mit künstlicher Intelligenz bedeutende Entscheidung treffen, wie kann nachvollzogen werden, anhand welcher Bedingungen diese Entscheidung erfolgt?
  • Befangenheit: Kann es vorkommen, dass Maschinen Vorurteile haben? Wie können wir damit umgehen?
  • Menschliche Werte: Wie können wir die richtigen menschlichen Werte vermitteln? Wer definiert eine „korrekte“ Wertvorstellung?
  • Datenschutz: Eine KI hat durchgehend Zugriff auf eine enorme Menge an Daten. Wie können wir sicherstellen, dass diese Daten sicher abgespeichert sind?

Ich hoffe ich habe euch mit diesem Artikel etwas zum Grübeln gebracht. Denn selbst, wenn die Menschheit technische Restriktionen („Hard Facts“) überwinden kann und eine ausgereifte KI zur Verfügung stellen kann, wer übernimmt die Schaffung einer Identität für Roboter („Soft Facts“)?

 

 

Über den Autor

Felix Baumann

Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.