Eingabe löschen

Kopfbereich

Schnellnavigation

Hauptnavigation

Algorithmen gegen Ungerechtigkeit

Zunehmend prägen Algorithmen unser Leben. Sie gelten als unfair. Doch sie bedrohen weniger die Gerechtigkeit als unsere Freiheit.

Von David Lätsch

Ich habe meinen Vornamen nie besonders gemocht, aber jetzt macht er sich bezahlt. David ist hierzulande ein grundsolider Name. Also tippe ich den Namen brav ins Online-Formular des Versicherers ein. Dass das Formular nicht auch meinen Nachnamen haben will, kann ich mir erklären. Offenbar schöpft der Algorithmus aus meinem Vornamen eine Ahnung, ob ich mein Auto zu Schrott fahren werde. Unter anderem aus dieser Wahrscheinlichkeit wird er ableiten, wie hoch meine Prämie ist.

Nachnamen gibt es wie Sand am Meer. Am Vornamen aber klebt eine soziale Prognose. Und wenn ich Ahmed hiesse? Ich lasse den Versicherer zweimal rechnen. Von David will er monatlich 854.40 Franken. Und von Ahmed? Wieder 854.40 Franken. Das ist eine Enttäuschung, denn nichts ist so erhebend wie die Entdeckung einer Ungerechtigkeit. Also suche ich weiter und werde fündig: Hiesse ich Denise, so nähme die Versicherung 885.20 Franken von mir. Wenn schon die Ahmeds nicht diskriminiert werden, so immerhin die Frauen.

«Je mehr Daten den Algorithmen zur Verfügung stehen, desto weiter werden sie sich entfernen von den Vorurteilen, desto genauer und gerechter werden sie.»

David Lätsch, Dozent und Forscher

Mein Rencontre mit dem Formular ist ein Beispiel für die lauernde Präsenz der Algorithmen. Das Beispiel führt zu einer grundlegenden Frage: Ist es gerecht, dass Denise mehr zahlt als David? Eingegeben habe ich nicht nur meinen Vornamen, sondern auch mein Alter, mein Geschlecht, wann ich den Führerschein gemacht habe, ob ich das Auto privat oder beruflich benötige, meine Postleitzahl und ob ich in den letzten fünf Jahren einen Schadensfall hatte.

All das habe ich bei Denise exakt reproduziert. Nur eine der Variablen hängt damit zusammen, wie Denise und ich uns bisher verhalten haben: diejenige zum Schadensfall. Alle anderen dienen dem Algorithmus offenbar dazu, uns in soziale Kästchen einzuteilen.

Verführerische Vorurteile

Aus der Interaktion unserer Gruppenzugehörigkeiten leitet der Algorithmus ab, wie riskant es für die Versicherung ist, uns zu versichern. Der Algorithmus arbeitet mit Vorurteilen. Für seine Vorurteile hat er Gründe, und diese beruhen auf Zahlen. Vermutlich produzieren Frauen in meinem Alter, die in meiner Gegend wohnen und ungefähr gleich lange den Führerschein haben wie ich, mehr Schadensfälle als Männer in meinem Alter, die in meiner Gegend wohnen und ungefähr gleich lange den Führerschein haben wie ich.

Das elementare Problem des Vorurteils ist nicht, dass es auf falschen Annahmen über Zusammenhänge zwischen Merkmalen von Gruppen beruht. Manche Vorurteile beruhen auf falschen Annahmen, andere auf richtigen. Das elementare Problem des Vorurteils ist, dass es uns verführt, Menschen danach zu beurteilen, zu welchen Gruppen sie gehören, und nicht danach, wer sie sind. Dass Denise mehr zahlt als ich, obwohl sie für den Algorithmus nichts anderes sein kann als mein weibliches Ebenbild, das ist ungerecht.

Berechtigte Kritik

Nun klingt diese Art von Ungerechtigkeit vielleicht harmlos. Wie aber wäre es, wenn es um das Strafmass ginge für ein Delikt? Was wäre, wenn ein Algorithmus darüber entschiede, ob sich die KESB in die Erziehung Ihres Kindes einmischt? Das nicht deshalb, weil Sie sind, wer Sie sind. Sondern einfach darum, weil der Algorithmus für die spezifische Kombination von Zugehörigkeiten, die er Ihnen zugeschrieben hat, eine bestimmte Zukunft entwirft. Es wird einem mulmig zumute.

Vielleicht fragen Sie sich inzwischen, warum dieser Artikel eigentlich mit «Algorithmen gegen Ungerechtigkeit» überschrieben ist. Von der Psychoanalyse schrieb Karl Kraus, dass sie die Krankheit sei, für deren Therapie sie sich halte. Die Algorithmen, möchte ich zu bedenken geben, sind die Therapie für jene Krankheit, für die sie gehalten werden. Warum?

Zunächst: Die Kritik daran, wie Algorithmen heute verwendet werden, ist berechtigt. Nur ist es nicht so, als ob diese Kritik spurlos vorüberginge an der stetig wachsenden Gemeinde der Datenanalytikerinnen, Sozialwissenschaftler, Juristen und Ethikerinnen, die sich mit ihnen beschäftigen.

Chance erkennen

Tatsächlich werden die Risiken der algorithmischen Entscheidungsfindung intensiv beforscht und Lösungen vorgeschlagen. Manche Risiken kann man dadurch entkräften, dass man die Art von Problem verändert, die der Algorithmus lösen soll. Im Forschungsprojekt «Prädiktive Chancenmodellierung», das vom Schweizerischen Nationalfonds gefördert wird, entwickeln wir am Departement Soziale Arbeit Algorithmen, die den Sozialarbeitenden helfen sollen, die Potenziale unterschiedlicher Hilfen in einem konkreten Kindesschutzfall einzuschätzen. Hier geht es also nicht darum, Verdachtsmomente zu erkennen, sondern Chancen.

Indessen hängt die Prognose auch in unserem Fall von Vorurteilen ab. So könnte es sein, dass unser Algorithmus bei ausländischen Familien seltener Familienbegleitungen empfiehlt als bei Schweizer Familien, weil sich Familienbegleitungen in den Schweizer Familien stärker bewährt hätten. Das würde dazu führen, dass man Familienbegleitungen künftig noch seltener als bisher in ausländischen Familien einsetzt, was die Entwicklung dieser Hilfeform für solche Familien hemmen würde. Damit hätte der Algorithmus das, was er vorhersagte, nur verstärkt.

Kritik macht Ungerechtigkeit sichtbar

Doch auch für solche Probleme werden Lösungen entwickelt. Am Beispiel von Denise und mir: Was wäre, wenn den Versicherern untersagt würde, das Geschlecht in die Berechnung einfliessen zu lassen? Wahrscheinlich würden findige Datenanalytikerinnen und -analytiker zunächst versuchen, das Geschlecht durch andere Merkmale zu ersetzen, die eng mit dem Geschlecht zusammenhängen, um den Verlust an Vorhersagekraft wettzumachen. Dann müsste die Vorschrift auch diese Merkmale erfassen. Und wenn gar nichts mehr hilft, lassen sich Mittel und Wege finden, den Effekt des Geschlechts mathematisch auszugleichen, um so wieder Geschlechtergerechtigkeit zu erreichen.

Dafür braucht es Reflexion, Innovation, Deliberation und Regulation. Das ist die Art, wie Demokratien funktionieren. Die Kritik an den Algorithmen macht Ungerechtigkeit zu einem sichtbaren Problem. Vorher war die Ungerechtigkeit in den Entscheidungen kein Problem, sondern bloss eine chronische Misere.

Algorithmen gegen die Freiheit

Nur sind die Vorurteile, fürchte ich, auf lange Sicht das geringste Problem der Algorithmen. Je mehr Daten den Algorithmen zur Verfügung stehen, desto weiter werden sie sich entfernen von den Vorurteilen, desto genauer und gerechter werden sie. Mein Versicherer wird mein Geschlecht und meinen Vornamen bald gar nicht mehr wissen wollen, weil er mein Fahrverhalten kennt: Er wird wissen, wo ich in den letzten Jahren mit dem Wagen unterwegs war, wie oft ich das Tempolimit übertrat und zu welchen Tages- und Nachtzeiten es mir bevorzugt entfiel, beim Linksabbiegen den Blinker zu setzen. Er wird eine Prämie berechnen, die exakt auf mich und mein Risiko zugeschnitten ist.

Das alles wird furchtbar gerecht sein. Nur werde ich mich als Autofahrer für meine gerechte Prämie nackt ausziehen müssen vor dem Versicherer. Sonst nimmt sein Algorithmus einfach das Schlimmste von mir an. Die Gnade der Anonymität wird zu einem Luxus werden, den sich nur noch die Reichen leisten können. Und das gälte, Sie ahnen es, dann nicht nur fürs Autofahren. Arme Denise. Armer David.

Sind Sie an einer Weiterbildung interessiert?