Wir brauchen eine Algorithmen-Ethik – Interview mit Konrad Lischka

Konrad Lischka ist Ko-Leiter eines Projekts der Bertelsmann Stiftung, das den Titel Algorithmenethik trägt – und sich mit den gesellschaftlichen Folgen algorithmischer Entscheidungsfindung befasst. Der Netzexperte ist (wie ich) Alumni der Deutschen Journalistenschule und hat mir vor zwei Jahren im Interview auf sz.de die Idee seines Buches „Das Netz verschwindet“ erläutert. Wir sind also persönlich gut bekannt. Auch deshalb interessiere ich mich sehr für das Algoethik-Projekt, das auch einen interessanten Newsletter verschickt.

Ich habe Konrad ein paar Fragen zu seinem Projekt gemailt.

Sind Algorithmen böse?
Kurze Antwort: Nein.
Längere Antwort: Es kommt darauf an.

Worauf?

Vor allem auf die Ziele, die Menschen mit Algorithmen verfolgen: Einige US-Autoversicherungen berechnen zum Beispiel die Prämien der Kunden basierend auf dem Kreditscoring. Wenn jemand Unfälle verschuldet, aber immer pünktlich seine Rechnungen beglichen hat, zahlt er weniger als Einkommensschwache mit perfektem Fahrverhalten. Bonität genießt Priorität. Dieses Ziel haben aber Menschen festgelegt – nicht der eingesetzte Algorithmus.
Es kommt aber auch auf die Umsetzung an, das heißt die Implementierung der Systeme in den gesellschaftlichen Kontext. Welche Konsequenzen hat eine algorithmische Bewertung für Menschen? Und wie können sie die Kriterien nachvollziehen und gegebenenfalls widersprechen? Auch das bestimmen Menschen. Ein anderes Beispiel: In Australien hat der Staat Software Sozialbezüge mit Steuererklärungen abgleichen lassen, um vermeintlich zu viel gezahlte Leistungen zu erkennen. Das System verschickte im Verdachtsfall auch gleich automatisch Mahnungen. So wurden in einer Woche so viele Mahnungen rausgeschickt wie die menschlichen Sachbearbeiter davor in einem Jahr schafften. Das Problem war: Die Software arbeitete mit unsauberen und veralteten Daten, die Fehlerquote war ähnlich hoch wie zuvor – nur, dass viel mehr Entscheidungen getroffen wurden. Es bekamen viel mehr Menschen als zuvor unberechtigte Mahnungen. Und weil der Staat die Kapazitäten für Beschwerden nicht ausgebaut hatte, waren die Hotlines und Servicezentren sofort überlastet. Der Algorithmus ist auch in diesem Fall nicht verantwortlich für die schlechte Datenqualität, den ungeprüften Mahnungsversand und die ungenügenden Korrekturprozesse. Aber ohne den Algorithmus wären diese von Menschen gesetzten Unzulänglichkeiten lange nicht so ins Gewicht gefallen.

Trotzdem haben Algorithmen ein eher schlechtes Image, oder? Woher kommt das?
Algorithmus ist ein Schlagwort, das zum Teil völlig unterschiedliche Phänomene auf eine scheinbar eindeutige Ursache reduziert. Jemand benutzt verzerrte Trainingsdaten und reproduziert in den Daten abgebildete Diskriminierung? Jemand baut ein System, um gezielt Menschen in Notlagen zu erkennen und deren Verwundbarkeit zum eigenen Vorteil ausnutzen? Die interessante Lüge verbreitet sich in der digitalen Sphäre schneller und weiter als ihre nüchterne Korrektur? Algorithmen sind da immer ein Instrument und Verstärker, schuld sind sie aber selten. Vielleicht entlastet uns Menschen aber auch zu sagen: Der Computer ist schuld!

Ist das in Deutschland anders als in anderen Ländern? Gibt es dort schon Ansätze zu einer Ethik der Algorithmen?

Es gibt in einigen Staaten eine gesellschaftliche Debatte mit vielen Ideen und Initiativen aus Zivilgesellschaft, Wissenschaft und Verbänden. Dem Artificial Intelligence Committee im britischen Oberhaus haben mehr als 200 Organisationen ihre Impulse geschickt – von Amnesty International bis zum Ingenieursverband IEEE. In den Vereinigten Staaten haben Initiativen wie FATML erste Gütekriterien für algorithmische Systeme vorgeschlagen, Berufsverbände diskutieren professionsethische Standards. In Frankreich hat eine Schülerorganisation die Veröffentlichung eines Algorithmus zur Studienplatzvergabe vor Gericht erstritten. Da beginnt die konstruktive Arbeit an Lösungen.

Wenn du es auf den Punkt bringen müsstest: Warum brauchen wir eine Ethik für Algorithmen?
Wenn Software die gesellschaftliche Teilhabe beeinflusst, müssen ihre Ziele, Design und Wirkung der gesellschaftlichen Kontrolle und Willensbildung unterliegen. Technisch möglich ist vieles. Was sinnvoll und angemessen ist, müssen wir als Gesellschaft im Diskurs über konkrete Fälle und allgemeine Prinzipien entscheiden.

Du sagst, Leitbild für die Entwicklungen müsse das gesellschaftlich Sinnvolle sein, nicht das technisch Mögliche. Wie findet man das heraus?

In der gesellschaftlichen Diskussion über konkrete Fälle, abgeleitete Prinzipien und Regeln für den Einsatz. Gesetze sind geronnener Konsens solcher Debatten. Die muss man früh führen, bei bestimmten, teilhaberelevanten algorithmischen Prozessen vor und während der Entwicklung im Idealfall – fachöffentlich, aber auch mit potenziell Betroffenen und manchmal gesellschaftlich breit angelegt.

Was könnte man tun, um Algorithmen-Ethik zu fördern? Gehört das Thema in den nächsten Koalitionsvertrag?
Klar. Für eine gemeinwohlförderliche Gestaltung algorithmischer Systeme braucht es den Staat. Nicht nur als Regulierer, sondern auch als aktiver Gestalter und Förderer einer positiven Ordnung. Ich sehe vier große Themenfelder, wo es jetzt zu handeln gilt:
1. Übergreifend die Erforschbarkeit der Systeme ermöglichen und staatliche Kompetenz zum Einschätzen, Einhegen aber auch zum Entwickeln solcher Verfahren aufbauen.
2. Die gesellschaftliche Angemessenheit der in Systemen implementierten Ziele sichern. Da gibt es viele Ideen, wie man Instrumente aus anderen Bereichen übertragen könnte. Das geht von einer Professionsethik über standardisierte Prüfverfahren bis hin zu Ethikkommissionen.
3. Die Umsetzung und Implementierung prüfen, erklären und falsifizieren. Weil Transparenz allein keine Öffentlichkeit schafft und Überprüfbarkeit nicht Überprüfung garantiert, braucht es vielfältige Wächter-Organisationen, auch zivilgesellschaftliche.
4. Vielfalt der Ansätze und Betriebsmodelle: Bei sozialen Konzepten wie Nachrichtenrelevanz oder Mitarbeiterqualitiät gibt es nicht die eine eindeutig richtige Antwort. Deshalb brauchen wir keine algorithmische Monokultur, sondern vielfältige Systeme mit unterschiedlichen Ansätzen gibt.

Du bist Koleiter eines Projekts der Bertelsmann-Stiftung. Kannst du was zu der Motivation sagen: Warum treibt dich das Thema an? Und weshalb fördert die Bertelsmann-Stiftung die Idee einer Algorithmen-Ethik?
Algorithmische Systeme werden auch in Deutschland in absehbarer Zeit in immer mehr teilhaberelevanten Bereichen zum Einsatz kommen. Das ist eine Chance, denn wir wissen, dass die Entscheidungsqualität in vielen Bereichen unserer Gesellschaft heute nicht gut ist. Wer zu, Bewerbungsgesprächen eingeladen wird, bestimmen in Deutschland immer noch mehrheitlich Menschen. Wir wissen aus Studien: In der Summe entscheiden sie unfair. Um eine Einladung zu erhalten, muss ein Kandidat mit einem deutsch klingenden Namen durchschnittlich fünf Bewerbungen schreiben. Ein Bewerber mit gleicher Qualifikation und türkisch klingenden Namen hingegen sieben. Hier könnte gut gestaltete Technik unsere Gesellschaft gerechter machen.

Andererseits sehen wir in den USA und Australien, wo die Entwicklung weiter ist, dass bei Negativbeispielen für den ADM-Einsatz oft Menschen zu den Leidtragenden gehören, die zuvor auch ausgegrenzt wurden. Die Debatte darüber beginnt in diesen Staaten erst jetzt, wo Fehlentwicklung bekannt werden. Wir können und müssen in Deutschland aus solchen Fehlern lernen. Das treibt mich persönlich an: Technik für Gesellschaft gestalten.
Die Menschen stehen im Mittelpunkt der Stiftungsarbeit. Alle sollen gleichberechtigt in politische Entscheidungs- und Willensbildung einbezogen sein und fair an sozialer, kultureller und wirtschaftlicher Entwicklung teilhaben. Weil der Einfluss algorithmischer Systeme auf Teilhabe in diesem Sinne wächst, ist es ein Thema für die Stiftung. Wir wollen die Gesellschaft für Chancen und Risiken sensibilisieren, den Diskurs versachlichen und Anregungen für konkrete, konstruktive Lösungsansätze fördern und geben. Algorithmische Entscheidungsfindung muss jenseits von Partikularinteressen diskutiert und gestaltet werden. Deshalb ist es uns wichtig, einen Impuls für und aus der Zivilgesellschaft zu setzen.

Am Montag abend diskutiert Konrad Lischka zu dem Thema in München im Lost Weekend. Im Deutschlandfunk Kultur hat er seine Ideen unlängst in einem Essay dargelegt.

  • „Es tut uns leid, aber wir konnten auf dieser Seite nichts finden, was du pinnen könntest.“
    (Ich bin aber auch nicht sicher, wie der Pinterest-Save-Button funktionieren _sollte_. Wahrscheinlich nur per Bild, nicht als zugekauftes Instapaper-ReadLater?)