Gastbeitrag
Was passiert eigentlich, wenn wir Algorithmen als eine Kulturtechnik betrachten?

Automatisierte Filterungen erfordern Medienkompetenz, schreibt Roland Panter in seinem heutigen Gastbeitrag. Algorithmen wurden als eine der Technologien identifiziert, die stellvertretend für Digitalisierung und Digitalen Wandel stehen. Große Datenmengen werden mit dieser Filtertechnik überhaupt erst nutzbar und das Wichtige vom Unwichtigen getrennt. Technisch wird so Big Data, ein großer Berg Daten, zu Smart Data, ein kleiner Berg wertvoller Daten.

Von Roland Panter.

Algorithmen wurden als eine der Technologien identifiziert, die stellvertretend für Digitalisierung und Digitalen Wandel stehen. Große Datenmengen werden mit dieser Filtertechnik überhaupt erst nutzbar und das Wichtige vom Unwichtigen getrennt. Technisch wird so Big Data, ein großer Berg Daten, zu Smart Data, ein kleiner Berg wertvoller Daten. Im Social Web sprechen wir mit Blick auf die Weitergabe oder Multiplikation von Informationen von sozialen Filtern, die den Umgang mit fließenden Daten organisieren. Diese sozialen Filter entscheiden, ob Informationen weitergegeben werden oder eben nicht, ganz wie bei Klatsch und Tratsch im heimischen Kiez. Die Idee dahinter: wir wollen nur die Nachrichten konsumieren, die für uns Relevanz besitzen. Alles andere ist Spam.

Für das Management dieser vielen Informationen und deren individueller und multipler Sender-Empfänger-Verhältnisse werden heute in vielen Bereichen Algorithmen eingesetzt. Die Hamburger Medienforscherin Nele Heise beschreibt es so, „ein Großteil unserer heutigen Kommunikation wäre ohne Algorithmen gar nicht mehr denkbar. Wir stoßen auf Themen, Informationen oder Produkte, die uns empfohlen werden, bis hin zu ‘Freundschaften’ und Kontakten – da mischen Algorithmen überall mit. Wir brauchen diese Filterung auch, denn ohne könnten wir uns in der immensen Flut an Informationen und Daten kaum zurechtfinden.“ Tatsächlich passiert es jeden Tag, dass diese unsichtbaren Filter uns die Nutzung der Netzwerke erleichtern und für uns das Wichtige vom Unwichtigen trennen. Ein echter Komfortgewinn.

Es geht aber nicht nur um Komfort. Ben Ellermann, Spezialist für Community Management und Vorstand des Bundesverband Community Management (BVCM), schätzt die „demokratische“ Wirkung, die die Filter auf die Sichtbarkeit von Inhalten haben. Das Internet habe sich durch Algorithmen von „wer am lautesten schreit, wird von den meisten gehört“ hin zu, „wer am meisten geteilt und interagiert wird, wird von den meisten gehört“ weiterentwickelt. „Die Relevanz einer Botschaft entscheidet wesentlich über deren Sichtbarkeit“.

Automatisierte Filterung erfordert Medienkompetenz

Die Parameter mit denen Informationen in Sozialen Netzen sichtbar und verteilt werden, haben sich verändert und verändern sich weiter. Nele Heise wünscht sich deshalb eine Gesellschaft mit mehr Wissen darüber, „welche Mechanismen hinter unseren Timelines, Online-Werbung, Suchmaschinen usw. stecken. Dass die Netzumgebungen, in denen wir uns alltäglich bewegen, keine neutralen Oberflächen sind. Da gehört mehr Kompetenz im Umgang, auch bei der bewussten, selbstbestimmten Nutzung von Filtern dazu.”

Das Stichwort der Medienkompetenz greift auch Ole Wintermann von der Bertelsmann Stiftung auf. Ihm geht es aber auch um eine höhere Eigenverantwortung. Dabei könne der in diesem Artikel aufgezeigte Perspektivwechsel durchaus helfen. „Wenn wir Algorithmen als eine Kulturtechnik verstehen, ändert sich dadurch der Blick auf den Menschen. Wir entfernen uns damit vom Paternalismus der alten Medienlandschaft. Der Mensch muss nicht mehr geschützt werden, sondern er kann in die Lage versetzt werden oder sich selbst in die Lage versetzen, eigenverantwortlich mit Informationen umzugehen.“

Dazu gehört auch, die Nebeneffekte der Nachrichtenverteilung über Algorithmen zu kennen. Was im Guten funktioniert, funktioniert schließlich auch im Schlechten und so verbreiten sich nicht nur die guten Nachrichten im Social Web. Durch die Filterung entstehen immer wieder sogenannte Filterblasen. Diese sorgen dafür, dass in einem Interessenkreis durch den Algorithmus und die No-Spam-Formel mitunter nur ganz eng umrissene Interessen und Meinungen abgebildet werden. In der Folge entsteht mitunter eine völlig verfremdete Wahrnehmung und Bewertung von Themen und Informationen. Ein Kontext, in dem Begriffe wie Lügenpresse und Hate Speech aus ganz anderem Licht erscheinen können, wie Buchautorin Ingrid Brodnig in Ihrem Titel „Hass im Netz – Was wir gegen Hetze, Mobbing und Lügen tun können“ feststellte.

Algorithmen verändern unsere Wahrnehmung von Themen

Im Jahr 2014 sorgt Facebook für Wirbel, als bekannt wird, dass das Unternehmen im Rahmen einer Studie die Timelines der Nutzer bewusst manipulierte. Es wurde erforscht, wie sehr man das Wohlbefinden von Nutzern beeinflusst, wenn sie per Algorithmus eher positive oder eher negative Artikel angezeigt bekommen. Sind wir durch die hohe Nutzerzahl (gemessen an der Einwohnerzahl) als Gesellschaft an dieser Stelle anfällig, erhöht diese Medienmacht die Verantwortung des Gatekeepers Facebook für den Zustand einer Gesellschaft. Zugleich stellt sich einem die Frage, wie wertstabil und transparent ein Unternehmen mit so großer Meinungsgestaltungsfähigkeit sein muss und welche Gefahr vielleicht für die Demokratie davon ausgehen kann.

Die in der politischen Kommunikation tätige digitale Strategin Tabea Wilke hält dagegen, ob es die per Algorithmus verbreiteten Themen sind, die demokratiebedrohend wirken oder ob es die Handlungen der Menschen sind. „Wenn jemand gegen unsere verfassten Werte und unsere öffentliche Sicherheit und Ordnung verstößt, haben wir alle Mittel unseres Rechtsstaates um gegen die Verstöße vorzugehen. Bis heute haben wir noch keine gemeinsame Definition gefunden, was Hate Speech genau ist. Böse, diskriminierende und menschenverachtende Inhalte sind für uns, die wir aus einer Zeit des Flauschs und der Einhörner im Social Web kommen, ungewohnt, anstrengend und manchmal nur schwer auszuhalten. Aber Hate Speech in nicht digitaler Form gibt es immer, wo Menschen miteinander leben.“ Damit relativiert Tabea Wilke, die stellvertretende Sprecherin des netzpolitischen Vereins cnetz war, die gefährdende Bedeutung von Hate Speech für die staatliche Ordnung. „Es ist wichtig, aufmerksam zu sein, was um uns herum passiert. Aber in der Diskussion um Hate Speech hilft es, die Relation zu unserer Geschichte in Deutschland nicht zu verlieren und zu sehen, was wir alles bewältigt haben und dass wir heute in einer starken und stabilen Demokratie leben.”

Gleichzeitig plädiert sie für einen aufgeklärten Umgang mit digitalen Medien, „Wenn wir wissen, wie Algorithmen und künstliche Intelligenz im Social Web funktionieren, können wir selbst steuern, welche Inhalte wir sehen und welche nicht. Es reicht beispielsweise aus, wenn wir unsere Timeline bei einem bestimmten Beitrag etwas langsamer scrollen, damit der Algorithmus dies als individuelles Interesse registriert.” So etwas sollte man als Nutzer wissen.

Von der Filtertechnik zur Kulturtechnik

Löst man sich von der Idee, das ein Algorithmus eine rein technische Filterung von Informationen bedeutet und betrachtet ihn statt dessen als eine Kulturtechnik, entsteht ein spannendes Moment. Zum einen deshalb, weil wir uns in dem Moment klar erkennbar in der unruhigen Phase des Kulturwechsels bewegen – also in einer Phase, in der Veränderung von bestehenden Rahmenbedingungen, Vorgehens- oder Arbeitsweisen, und Werten zur Neuausrichtung eines gesellschaftlichen Systems führen. Solche Phasen dauern bekanntlich lange und sind von Unruhe geprägt. Das könnte unsere derzeitige Unsicherheit beim Umgang mit Algorithmen erklären. Zum anderen können wir erkennen, dass die derzeitigen Algorithmen noch weit entfernt sind von perfekten, wirklich zuverlässig funktionierenden Filtern, samt Klärung der kulturellen Rahmenbedingungen.

Dabei fällt uns häufig nicht auf, wie sehr die uns erreichenden Informationen bereits von Algorithmen organisiert werden. „Die Technologie nimmt eine selbstverständliche Rolle in unserer Kommunikation und der Medienrezeption ein, ohne uns ständig daran zu erinnern, dass sie ihre Arbeit verrichtet. Wir akzeptieren die Resultate, die die Technologie produziert weitestgehend, ohne sie zu hinterfragen und verlassen uns auf sie”, beschreibt Ben Ellermann die aktuelle Situation und sieht die Notwendigkeit, „diesen Wandel der Kommunikationskultur aufzuarbeiten und nachfolgenden Generationen zu vermitteln.”

Einer der profiliertesten deutschen Content-Marketing-Spezialisten, Klaus Eck, sieht die größte Veränderung darin, wie wir die Welt wahrnehmen. „Längst bestimmen Daten, unser Verhalten. Auf Dating Plattformen werden oftmals ähnliche Partner vorgeschlagen und die Liebe auf einen Datensatz reduziert. Mensch und Maschine verschwimmen in unserer Gesellschaft immer mehr. In gewisser Weise sind wir auf Informationsebene bereits Cyborgs, wenn wir unsere Daten (zum Teil sogar automatisiert) freigeben. Der Algorithmus verbessert uns, wenn wir von den Informationen profitieren und mit ihnen leben. Das erfordert eine osmotische Beziehung zu ihm und verändert die Wahrnehmung anderer Menschen. Bereits heute nehmen wir viele unsere Facebook-Freunde nur noch durch ihre Bilder wahr und vertrauen diesen.“

Diese deutliche kulturelle Veränderung erkennt auch Digitalexperte Ole Wintermann. Zugleich erkennt er Risiken darin, Hate Speech durch gezielte Themenausgrenzung zu reglementieren. „Wir würden das Kinde mit dem Bade ausschütten, wenn wir uns einerseits vom Paternalismus der medialen Vergangenheit verabschieden würden, um dann im nächsten Schritt gleich wieder eine solche Komponente in die Algorithmen einzufügen.” Algorithmen sollten nicht zwischen guten oder bösen Inhalten unterscheiden, „die Kulturtechnik besteht schließlich auch darin, den richtigen Umgang mit demokratiefeindlichen Inhalten zu erlernen.”

„Wer die Schuld für Dinge wie Hate Speech alleine beim Algorithmus sucht, vergisst die Rolle der menschlichen Akteure” ergänzt Nele Heise, „selbst ein frauenfeindlicher, homophober Social Bot wird von jemandem programmiert.“ Heise sieht dabei dennoch auch die Technik in der Pflicht, da neben ethischen und sozialen Fragen auch die technische Seite Lösungen bereithält, um Menschen vor dem Einfluss von Hate Speech zu schützen.

Brauchen wir einen neuen Medien- und Kulturoptimismus?

Was verändert sich, wenn wir Algorithmen aus der Perspektive des Kulturwechsels betrachten? Nele Heise betrachtet es so: „Dieser ‘Cultural Turn’ lenkt die Aufmerksamkeit darauf, dass Algorithmen eben nicht rein technisch sind, sondern immer kulturell verankert. Das heißt, sie sind nicht neutral sondern durch Sichtweisen, Vorurteile, Bewertungen und Ziele ihrer Designer, Programmierer oder der Firmen geprägt, die sie betreiben und einsetzen. Aber eben auch von den kulturellen Kontexten der User, von denen Algorithmen lernen und auf deren Handeln sie sich beziehen.“ Weiter führt Nele Heise aus, „dass Algorithmen in gewisser, vielfältiger Weise unsere Kultur mit prägen, indem sie bestimmte Dinge sichtbarer machen, als andere. Oder bestimmtes Handeln einschränken, bis hin zur Diskriminierung, beispielsweise durch Racial Profiling.” Ursache dafür ist aus Sicht der Kommunikationswissenschaftlerin vor allem der enge und eher homogene Kulturkreis der Macher hinter Netzwerken und Algorithmen, „wenn man sich etwa den Anteil von Frauen im IT-Bereich ansieht, dann spricht das nicht gerade für Vielfalt oder ein Umfeld, das vielfältige Perspektiven berücksichtigt.” Es ist eine ethisch sehr interessante Fragestellung, ob dieser Perspektivwechsel uns als Gesellschaft hilft mit den neuen Bedingungen reibungsfreier zurecht zu kommen.

Algorithmen sollten unbedingt ethische Standards enthalten, meint auch Klaus Eck: „Da sie kein eigenes Bewusstsein haben, müssen Menschen ein entsprechendes Regelwerk entwerfen. Ohne eine entsprechende Cultural Governance werden Bots unsere Kommunikation auf unangenehme Weise ‘übernehmen’. Darüber hinaus bedarf es Reaktionen des Staates und der Gesellschaft, um eine entsprechende Regulierung vorzunehmen. Damit sollte verhindert werden, dass ganze Bot-Armeen im Schwarm Menschen angreifen.” Wie gefährlich das werden kann, deutet der Fall des Bots Tay von Microsoft nur an. Tay simulierte einen typischen amerikanischen Jugendlichen. Der Bot kommunizierte auf Twitter direkt mit den Nutzern, musste jedoch nach kürzester Zeit offline geschaltet werden, denn viele User brachten ihm rassistische Inhalte bei.

Manche Menschen pflegen in solchen Momenten zu sagen, dass es immer erst schlechter wird, bevor es besser wird. Eine Kurve, die sich auch im Emerging Technology Hype Cycle von Gartner wiederfindet und den Verlauf nahezu jeder Technologiedurchdringung kennzeichnet. Vor der finalen Marktdurchdringung kommt nach einer Phase der Begeisterung zunächst eine Phase des Zweifels. Und das ist gut so. Lasst uns gemeinsam die Rahmenbedingungen für den Kulturwandel ausfechten – es ist unser Netz und unsere Kultur!

roland-panter-mgr

Über den Autor:
Roland Panter ist Gestalter von Kommunikation und Unternehmenskultur. Als Berater unterstützt er Organisationen bei strategischen und operativen Fragestellungen im Rahmen des digitalen Wandels und der Unternehmensentwicklung. Zusammen mit Gabriele Kottlorz hat er das Buch „Erfolgsfaktor Mitarbeiterintelligenz“ geschrieben.