Alle Artikel mit dem Schlagwort “Algorithmenethik

Shruggie des Monats: der sprechende Hut

Der Shruggie des Monats ist eine von meinem Buch „Das Pragmatismus-Prinzip“ inspirierte Rubrik meines monatlichen Newsletters (den man hier kostenlos bestellen kann). Darin beschreibe ich Personen, Ideen und Begebenheiten, die mir besonders passend zur Hauptfigur aus dem Buch „Das Pragmatismus-Prinzip“ erscheinen – dem ¯\_(ツ)_/¯.

Wer es einfach mag, wird den folgenden Satz mögen: „Es gibt Menschen, die Harry Potter mögen und Menschen, die sich nicht für Harry Potter interessieren.“ Bis vor ein paar Monaten dachte ich (eher Gruppe zwei), dass das stimmt. Aus unterschiedlichen Gründen bin ich auf eine merkwürdige halbe Weise in die Welt von Harry Potter gezogen worden und habe damit diese binäre Trennung gesprengt. Ein Grund dafür ist u.a. der wirklich sehr lustige Podcast „Fünf Minuten Harry Podcast“ von Coldmirror, der so lustig ist, dass ich deshalb weiß, welche Rolle der sprechende Hut in der Zauberer-Geschichte hat.

Der sprechende Hut ist eine magische Macht, die die Schülerinnen und Schüler der Zaubererschule Hogwarts in ihre Häuser zuteilt. Er wird den Schülerinnen und Schülern auf den Kopf gesetzt und ermittelt dann auf magische Weise welchen Weg die Schülerinnen und Schüler gehen sollen. Coldmirror vergleicht diesen Hut mit einer Erfindung aus einer Black Mirror-Folge:

Das ist ein super-mächtiger Gegenstand, der auch empfindungsfähig ist und die geballte Intelligenz der Hogwarts-Gründer in sich vereint – und der wird einfach nur ganz casual zum Sortieren benutzt. Der kann sich anscheindend auch nicht selber bewegen, er wird rumgetragen und aufgesetzt. Er wird nur einmal im Jahr zum Sortieren rausgeholt und liegt sonst nur die ganze Zeit im Büro im Schrank. Was ist das für ein Dasein?

An diese Frage musste ich denken als ich in diesem erstaunlichen Blogtext (via Kopfzeiler) das Bild las, der Algorithmus (von Tiktok) sei wie der sprechende Hut aus Hogwarts:

TikTok’s algorithm is the Sorting Hat from the Harry Potter universe. Just as that magical hat sorts students at Hogwarts into the Gryffindor, Hufflepuff, Ravenclaw, and Slytherin houses, TikTok’s algorithm sorts its users into dozens and dozens of subcultures. Not two FYP feeds are alike.

Ich finde dieses Bild ist auf zahlreichen Ebenen so stark, dass es sich lohnt, einen Moment innezuhalten: Algorithmen als sprechenden Hut zu verstehen, eröffnet vielleicht einen neuen besseren Blick auf all die Fragen, die sich zum Beispiel in der Algorithmen-Ethik stellen.

¯\_(ツ)_/¯

Eugene Wei beschreibt diesen sprechenden Hut in seiner langen und lesenswerten Tiktok-Analyse als die zentrale Besonderheit an dem Dienst, der gerade wegen zahlreicher anderer Dinge in der Debatte ist (zu den geopolitischen Fragen empfehle ich diese Analyse aus The Atlantic)

Der sprechende Hut von Tiktok ist in der Lage, Menschen in Häuser einzusortieren ohne dass diese dafür selbst anderen Accounts folgen müssen. Was der Stuhl in Hogwarts ist, ist in Tiktok die so genannte For You Page (Details zu Tiktok zum Beispiel hier), auf der Inhalte auf eine Weise personalisiert werden, die auch eher widerstrebenden Häusern Subkulturen das Gefühl gibt, hier heimisch werden zu können:

To help a network break out from its early adopter group, you need both to bring lots of new people/subcultures into the app—that’s where the massive marketing spend helps—but also ways to help these disparate groups to 1) find each other quickly and 2) branch off into their own spaces.
More than any other feed algorithm I can recall, Bytedance’s short video algorithm fulfilled these two requirements. It is a rapid, hyper-efficient matchmaker. Merely by watching some videos, and without having to follow or friend anyone, you can quickly train TikTok on what you like. In the two sided entertainment network that is TikTok, the algorithm acts as a rapid, efficient market maker, connecting videos with the audiences they’re destined to delight. The algorithm allows this to happen without an explicit follower graph.

Daraus ergeben sich Schlussfolgerungen für Inhalte-erstellende und -konsumierende Menschen oder um es etwas größer zu machen: für Medien und die Gesellschaft.

Menschen, die für diesen Hut Algorithmus Inhalte produzieren (also: die Medien) sind dabei lediglich austauschbare Lieferanten, mit deren Hilfe Interesse gesammelt und gehalten werden kann. Wie die Schülerinnen und Schüler in Hogwarts bringen sie natürlich selbst etwas mit (der Hut liest angeblich die Gedanken und trifft die Entscheidung auf dieser Basis), aber darum geht es in Wahrheit gar nicht wie Ian Bogost in The Atlantic festhält:

… just as the Viners who vanished when Twitter shut down that service did, or the YouTubers who were demonetized, or the Tumblrers who were banned. No matter how liberating or delightful the posts feel, content creators are also puppets of the platform owners, who in turn vie for temporary dominance over one another.

Menschen, die sich diese Inhalte vom Hut Algorithmus sortieren lassen (also die Gesellschaft), werden dadurch nicht nur selbst sortiert (über die Spaltung der Gesellschaft ist hinlänglich gesprochen worden), sie stehen langfristig vielleicht auch vor einem völlig neuen Gesellschaftsbild. Denn noch lebt das Gespräch über Social-Media-Networks von der Annahme, dass der Streit dort darauf basiert, dass polarisierte Gruppen aufeinandertreffen und streiten. Folgt man Eugene Weis Hut-Theorie könnte sich diese Form der Gesellschaftswahrnehmung durchaus ändern. Ich muss ja vielleicht gar nicht mehr sehen, was mich stört

Just as importantly, by personalizing everyone’s FYP feeds, TikTok helped to keep these distinct subcultures, with their different tastes, separated. One person’s cringe is another person’s pleasure, but figuring out which is which is no small feat.

Wenn sich diese Prognose bewahrheitet, müsste man das Bild vom Hut, der eine öffentliche Auswahl trifft womöglich anders denken: Es ist dann eher eine im Geheimen getroffene Entscheidung, die lediglich die Häuser in ihren eigenen Gruppen wahrnehmen (siehe: Dark Social) und langfristig ein neues Gesellschaftsbild nach sich zieht. Wie nehme ich künftig noch wahr, dass es Menschen gibt, die anderer Meinung sind als ich?

¯\_(ツ)_/¯

Der Shruggie des Monats ist eine Rubrik aus meinem Newsletter (den man hier kostenlos bestellen kann). Der Shruggie ist die Hauptfigur aus meinem Buch „Das Pragmatismus-Prinzip“, in dem ich zehn Gründe für einen gelassenen Umgang mit dem Neuen versammle. Über Gesellschaftswahrnehmung in Zeiten von Daten und Algorithmen habe ich in dem Buch „Meta – das Ende des Durchschnitts“ geschrieben. Und wer mehr über das Web und das Internet lernen will, kann dies in meinem Buch „Gebrauchsanweisung für das Internet“ tun.

Wir brauchen eine Algorithmen-Ethik – Interview mit Konrad Lischka

Konrad Lischka ist Ko-Leiter eines Projekts der Bertelsmann Stiftung, das den Titel Algorithmenethik trägt – und sich mit den gesellschaftlichen Folgen algorithmischer Entscheidungsfindung befasst. Der Netzexperte ist (wie ich) Alumni der Deutschen Journalistenschule und hat mir vor zwei Jahren im Interview auf sz.de die Idee seines Buches „Das Netz verschwindet“ erläutert. Wir sind also persönlich gut bekannt. Auch deshalb interessiere ich mich sehr für das Algoethik-Projekt, das auch einen interessanten Newsletter verschickt.

Ich habe Konrad ein paar Fragen zu seinem Projekt gemailt.

Sind Algorithmen böse?
Kurze Antwort: Nein.
Längere Antwort: Es kommt darauf an.

Worauf?

Vor allem auf die Ziele, die Menschen mit Algorithmen verfolgen: Einige US-Autoversicherungen berechnen zum Beispiel die Prämien der Kunden basierend auf dem Kreditscoring. Wenn jemand Unfälle verschuldet, aber immer pünktlich seine Rechnungen beglichen hat, zahlt er weniger als Einkommensschwache mit perfektem Fahrverhalten. Bonität genießt Priorität. Dieses Ziel haben aber Menschen festgelegt – nicht der eingesetzte Algorithmus.
Es kommt aber auch auf die Umsetzung an, das heißt die Implementierung der Systeme in den gesellschaftlichen Kontext. Welche Konsequenzen hat eine algorithmische Bewertung für Menschen? Und wie können sie die Kriterien nachvollziehen und gegebenenfalls widersprechen? Auch das bestimmen Menschen. Ein anderes Beispiel: In Australien hat der Staat Software Sozialbezüge mit Steuererklärungen abgleichen lassen, um vermeintlich zu viel gezahlte Leistungen zu erkennen. Das System verschickte im Verdachtsfall auch gleich automatisch Mahnungen. So wurden in einer Woche so viele Mahnungen rausgeschickt wie die menschlichen Sachbearbeiter davor in einem Jahr schafften. Das Problem war: Die Software arbeitete mit unsauberen und veralteten Daten, die Fehlerquote war ähnlich hoch wie zuvor – nur, dass viel mehr Entscheidungen getroffen wurden. Es bekamen viel mehr Menschen als zuvor unberechtigte Mahnungen. Und weil der Staat die Kapazitäten für Beschwerden nicht ausgebaut hatte, waren die Hotlines und Servicezentren sofort überlastet. Der Algorithmus ist auch in diesem Fall nicht verantwortlich für die schlechte Datenqualität, den ungeprüften Mahnungsversand und die ungenügenden Korrekturprozesse. Aber ohne den Algorithmus wären diese von Menschen gesetzten Unzulänglichkeiten lange nicht so ins Gewicht gefallen.

Trotzdem haben Algorithmen ein eher schlechtes Image, oder? Woher kommt das?
Algorithmus ist ein Schlagwort, das zum Teil völlig unterschiedliche Phänomene auf eine scheinbar eindeutige Ursache reduziert. Jemand benutzt verzerrte Trainingsdaten und reproduziert in den Daten abgebildete Diskriminierung? Jemand baut ein System, um gezielt Menschen in Notlagen zu erkennen und deren Verwundbarkeit zum eigenen Vorteil ausnutzen? Die interessante Lüge verbreitet sich in der digitalen Sphäre schneller und weiter als ihre nüchterne Korrektur? Algorithmen sind da immer ein Instrument und Verstärker, schuld sind sie aber selten. Vielleicht entlastet uns Menschen aber auch zu sagen: Der Computer ist schuld!

Ist das in Deutschland anders als in anderen Ländern? Gibt es dort schon Ansätze zu einer Ethik der Algorithmen?

Es gibt in einigen Staaten eine gesellschaftliche Debatte mit vielen Ideen und Initiativen aus Zivilgesellschaft, Wissenschaft und Verbänden. Dem Artificial Intelligence Committee im britischen Oberhaus haben mehr als 200 Organisationen ihre Impulse geschickt – von Amnesty International bis zum Ingenieursverband IEEE. In den Vereinigten Staaten haben Initiativen wie FATML erste Gütekriterien für algorithmische Systeme vorgeschlagen, Berufsverbände diskutieren professionsethische Standards. In Frankreich hat eine Schülerorganisation die Veröffentlichung eines Algorithmus zur Studienplatzvergabe vor Gericht erstritten. Da beginnt die konstruktive Arbeit an Lösungen.

Wenn du es auf den Punkt bringen müsstest: Warum brauchen wir eine Ethik für Algorithmen?
Wenn Software die gesellschaftliche Teilhabe beeinflusst, müssen ihre Ziele, Design und Wirkung der gesellschaftlichen Kontrolle und Willensbildung unterliegen. Technisch möglich ist vieles. Was sinnvoll und angemessen ist, müssen wir als Gesellschaft im Diskurs über konkrete Fälle und allgemeine Prinzipien entscheiden.

Du sagst, Leitbild für die Entwicklungen müsse das gesellschaftlich Sinnvolle sein, nicht das technisch Mögliche. Wie findet man das heraus?

In der gesellschaftlichen Diskussion über konkrete Fälle, abgeleitete Prinzipien und Regeln für den Einsatz. Gesetze sind geronnener Konsens solcher Debatten. Die muss man früh führen, bei bestimmten, teilhaberelevanten algorithmischen Prozessen vor und während der Entwicklung im Idealfall – fachöffentlich, aber auch mit potenziell Betroffenen und manchmal gesellschaftlich breit angelegt.

Was könnte man tun, um Algorithmen-Ethik zu fördern? Gehört das Thema in den nächsten Koalitionsvertrag?
Klar. Für eine gemeinwohlförderliche Gestaltung algorithmischer Systeme braucht es den Staat. Nicht nur als Regulierer, sondern auch als aktiver Gestalter und Förderer einer positiven Ordnung. Ich sehe vier große Themenfelder, wo es jetzt zu handeln gilt:
1. Übergreifend die Erforschbarkeit der Systeme ermöglichen und staatliche Kompetenz zum Einschätzen, Einhegen aber auch zum Entwickeln solcher Verfahren aufbauen.
2. Die gesellschaftliche Angemessenheit der in Systemen implementierten Ziele sichern. Da gibt es viele Ideen, wie man Instrumente aus anderen Bereichen übertragen könnte. Das geht von einer Professionsethik über standardisierte Prüfverfahren bis hin zu Ethikkommissionen.
3. Die Umsetzung und Implementierung prüfen, erklären und falsifizieren. Weil Transparenz allein keine Öffentlichkeit schafft und Überprüfbarkeit nicht Überprüfung garantiert, braucht es vielfältige Wächter-Organisationen, auch zivilgesellschaftliche.
4. Vielfalt der Ansätze und Betriebsmodelle: Bei sozialen Konzepten wie Nachrichtenrelevanz oder Mitarbeiterqualitiät gibt es nicht die eine eindeutig richtige Antwort. Deshalb brauchen wir keine algorithmische Monokultur, sondern vielfältige Systeme mit unterschiedlichen Ansätzen gibt.

Du bist Koleiter eines Projekts der Bertelsmann-Stiftung. Kannst du was zu der Motivation sagen: Warum treibt dich das Thema an? Und weshalb fördert die Bertelsmann-Stiftung die Idee einer Algorithmen-Ethik?
Algorithmische Systeme werden auch in Deutschland in absehbarer Zeit in immer mehr teilhaberelevanten Bereichen zum Einsatz kommen. Das ist eine Chance, denn wir wissen, dass die Entscheidungsqualität in vielen Bereichen unserer Gesellschaft heute nicht gut ist. Wer zu, Bewerbungsgesprächen eingeladen wird, bestimmen in Deutschland immer noch mehrheitlich Menschen. Wir wissen aus Studien: In der Summe entscheiden sie unfair. Um eine Einladung zu erhalten, muss ein Kandidat mit einem deutsch klingenden Namen durchschnittlich fünf Bewerbungen schreiben. Ein Bewerber mit gleicher Qualifikation und türkisch klingenden Namen hingegen sieben. Hier könnte gut gestaltete Technik unsere Gesellschaft gerechter machen.

Andererseits sehen wir in den USA und Australien, wo die Entwicklung weiter ist, dass bei Negativbeispielen für den ADM-Einsatz oft Menschen zu den Leidtragenden gehören, die zuvor auch ausgegrenzt wurden. Die Debatte darüber beginnt in diesen Staaten erst jetzt, wo Fehlentwicklung bekannt werden. Wir können und müssen in Deutschland aus solchen Fehlern lernen. Das treibt mich persönlich an: Technik für Gesellschaft gestalten.
Die Menschen stehen im Mittelpunkt der Stiftungsarbeit. Alle sollen gleichberechtigt in politische Entscheidungs- und Willensbildung einbezogen sein und fair an sozialer, kultureller und wirtschaftlicher Entwicklung teilhaben. Weil der Einfluss algorithmischer Systeme auf Teilhabe in diesem Sinne wächst, ist es ein Thema für die Stiftung. Wir wollen die Gesellschaft für Chancen und Risiken sensibilisieren, den Diskurs versachlichen und Anregungen für konkrete, konstruktive Lösungsansätze fördern und geben. Algorithmische Entscheidungsfindung muss jenseits von Partikularinteressen diskutiert und gestaltet werden. Deshalb ist es uns wichtig, einen Impuls für und aus der Zivilgesellschaft zu setzen.

Am Montag abend diskutiert Konrad Lischka zu dem Thema in München im Lost Weekend. Im Deutschlandfunk Kultur hat er seine Ideen unlängst in einem Essay dargelegt.