Die unheimliche Macht der Algorithmen

Künstliche Intelligenz nimmt den Menschen viele Entscheidungen ab. Könnte das zu einem ethischen Fortschritt führen?

Sie wirken rätselhaft, denn man kann sie nicht sehen, hören oder riechen. Sie wirken mächtig und sind schwer zu begreifen. Algorithmen nehmen zunehmend Einfluss auf unser Leben. Denn Algorithmen steuern nicht nur willkommene Services, mit denen man sich über das Navi die beste Route berechnen oder mit Google Translator im Internet einen Text übersetzen lassen kann. Mittlerweile dienen Computerprogramme mit entsprechenden Algorithmen dazu, zu bewerten und Entscheidungen zu treffen: Wer erhält einen Kredit?  Wessen Bewerbung um eine neue Stelle wird aussortiert und wer bleibt im Rennen?  Welcher Häftlinge wird auf Bewährung freigelassen und welcher bleibt im Knast? Die rasante Entwicklung der Künstlichen Intelligenz wirft drängende ethische Fragen auf. Wenn Maschinen Vorentscheidungen oder Entscheidungen treffen können – wer hat dann die Macht über ihre Verwendung? Wenn über Algorithmen Entscheidungen gesteuert werden, sind diese dann nachvollziehbar und frei von Diskriminierung?

 

Der Mensch bleibt verantwortlich

Ein Algorithmus ist eine eindeutige Handlungsvorschrift, mit der ein Computerprogramm arbeitet. Jedem Algorithmus liegen viele Rechenschritte zugrunde, die miteinander verkettet schließlich ein komplexes Gebilde sind. Man nennt es Künstliche Intelligenz (KI). Aber dieser Begriff weckt Vorstellungen, es handele sich dabei um Maschinen, die vielleicht bald schon so intelligent handeln könnten wie Menschen. Deshalb wird in Fachkreisen der Begriff Maschinelles Lernen (Machine Learning, ML) verwendet. Er beschreibt besser, was tatsächlich geschieht: Computer werden mittels großer Mengen an Daten trainiert, bestimmte Muster zu erkennen (s. Infokasten). Aber auch darin wirken Menschen, die neue Technologien entwickeln. Der Mensch als Urheber dieser Technologien, bleibt verantwortlich für ihre Anwendung. Es gilt, die Folgen dieser Technologien einzuschätzen,  ethisches Handeln und die Begrenzung von Macht durchzusetzen. Es ist die Forderung nach fairen Algorithmen.

 

In den USA nutzen viele Gerichte ein Computerprogramm namens COMPAS (Correctional Offender Management Profiling for Alternative Sanctions, dt. Management von Straffälligen - Profiling für alternative Strafmaßnahmen). Mit Hilfe von COMPAS wird beurteilt, ob Gefangene auf Bewährung auf freien Fuß kommen. Das Computerprogramm erfasst 137 Merkmale in einem Fragebogen, der teilweise von Polizei und Justiz, teilweise vom Gefangenen selbst ausgefüllt wird. Das Programm sammelt die Antworten und gewichtet sie in seiner Rechenoperation. Das Ergebnis soll vorhersagen, ob ein Straffälliger draußen rückfällig wird oder nicht. Letztlich urteilt ein Richter, ob ein Gefangener auf Bewährung freikommt oder inhaftiert bleibt. Aber die Erfahrung zeigt: Die Richter orientieren sich bei ihrem Urteil stets am Ergebnis der COMPAS-Berechnung.

 

Schwarze Menschen bleiben länger im Knast

Genaue Recherchen der Non-Profit-Organisation ProPublica, die über eine Stiftung finanziert wird, deckten jedoch auf: Das Programm COMPAS berechnete für Schwarze eine doppelt so hohe Wahrscheinlichkeit, wieder kriminell zu werden, ohne dass dies stimmte. Bei Weißen kommt das Computerprogramm hingegen öfter zu der fälschlichen Annahme, sie würden nicht wieder straffällig. Dabei wird die Frage nach der Hautfarbe selbst gar nicht gestellt. Allerdings Fragen wie „Wurde Ihr Vater jemals verhaftet?“ oder „Wie oft sind Sie in den letzten zehn Jahren umgezogen?“ Es sind Fragen nach der sozialen Lebensgeschichte. Aber es ist für einen Afroamerikaner statistisch sechsmal so wahrscheinlich ins Gefängnis zu kommen wie für einen Weißen. Die Frage, ob der Vater im Gefängnis war, diskriminiert deshalb systematisch. Genauso diejenige, wie oft man umgezogen ist: Schwarze und People of Color arbeiten häufig in unsicheren, schlecht bezahlten Jobs und müssen schon deshalb öfter den Wohnort wechseln.  

ProPublica überprüfte mehr als 10.000 COMPAS-Prognosen, die im Verlauf von Gerichtsverfahren in Florida erstellt worden waren. Mit dem Ergebnis: Dieser Algorithmus wiederholt strukturellen Rassismus und gesellschaftliche Benachteiligung. Der Algorithmus von COMPAS bewertet nicht nur das Verhalten, sondern auch den sozioökonomischen Status des Gefangenen. Das führt zu Verzerrungen, auch bias genannt. Trotz der nachgewiesenen systematischen Diskriminierung von Schwarzen Menschen legt die Herstellerfirma Northpointe den Code des COMPAS-Algorithmus nicht offen, sondern beruft sich auf den Schutz geistigen Eigentums. Das Verfahren bleibt intransparent und kann vor Gericht nicht überprüft werden.

 

 In der Strafjustiz steht viel zu viel auf dem Spiel, als dass man blind einem proprietären (im privaten Firmenbesitz befindlichen, Anm. d. Autorin) Algorithmus vertrauen sollte“, sagt Cynthia Rudin, Dozentin für Informationstechnologien an der Duke University. „Wir haben inzwischen Vorhersagemodelle, die gut funktionieren, die aber keine geheimen Black Boxes sind. Das dürfen wir im Interesse unserer Bürger nicht länger ignorieren.“

 

Mehr Gerechtigkeit mit Algorithmen?

In Deutschland und weiten Teilen des westlichen Europa stehen Gesellschaft und Politik Computer-Entscheidungssystemen skeptisch bis gänzlich ablehnend gegenüber. In den USA wird die Diskussion anders geführt. In diesem Land mit starkem Rassismus sprechen sich progressive Organisationen und Gruppen oft für automatisierten Entscheidungssysteme aus. Sie fordern faire Algorithmen erhoffen davon, dass es damit gerechter zugehen möge. Denn Menschen entscheiden auch diskriminierend, oft noch mehr. Das ist vielfach belegt, auch für Deutschland. Bereits in der Schule erhalten gut aussehende Mädchen und Jungen bessere Noten, werden häufiger aufgerufen, besser unterstützt und bei Fehlern oder Zuspätkommen eher entschuldigt.

 

Dass menschliche Urteile nicht nur von Einstellungen, sondern auch von schwankenden Stimmungen abhängen, zeigen Untersuchungen an US-Gerichten. Angeklagte können nur hoffen, dass ihr Fall nach dem Mittagessen des Richters verhandelt wird. Eine Auswertung von über tausend Urteilen weist nach, dass Richter umso härter urteilten, desto länger ihre Pause zurücklag und sie – so ist zu vermuten – hungrig und ermüdet waren.  Für Deutschland ist nachgewiesen, dass es regionale Unterschiede gibt, wie hart bestraft wird. Das gleiche Delikt wird in Frankfurt deutlich härter bestraft als in Freiburg.

 

Computer dagegen kennen weder Hunger noch Müdigkeit und haben auch keine regional unterschiedlichen Bewertungsmaßstäbe. So könnten Algorithmen durchaus einen Beitrag leisten, Diskriminierung einzudämmen oder zu vermeiden. Vorausgesetzt, die Daten für das Training der Maschinen sind richtig gewählt, die Entscheidungskriterien passen und sind im richtigen Verhältnis gewichtet. Außerdem müsste der Pfad der algorithmischen Entscheidungen offen gelegt und vor Gericht überprüfbar sein.

 

Entscheidungen überprüfbar machen

Anders als in den USA und schlimmer noch in China, wo es Datenschutz kaum oder gar nicht gibt, haben die Bürger Europas mit der Datenschutzgrundverordnung (DSGVO), die im Jahr 2018 in Kraft trat, rechtliche Instrumente. Verankert ist in der DSGVO ein Passus, wonach Betreiber von Systemen zur Datenverarbeitung mit automatisierter Entscheidungsfindung verpflichtet sind, betroffenen Personen „aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung“ zur Verfügung zu stellen. Das bedeutet: Im Zweifelsfall muss belegt werden, dass eine Entscheidung, die auf Algorithmen basiert, frei von Diskriminierung ist.

Der Deutsche Ethikrat fordert, dass Betreiber „die Zielvorgaben, Funktions- und Wirkweisen der Datenakkumulation und der verwendeten Algorithmen so erläutern, dass sie auch für Laien nachvollziehbar sind.“ Es sollte außerdem einen leichten Zugang zu Beschwerde- und Schlichtungsstellen geben. Damit trifft der Ethikrat ins Schwarze: Auch Bürgern, die nicht Informatik oder Mathematik studiert haben, müsste es möglich sein, Entscheidungen von Algorithmen zu überprüfen. Dafür brauchen sie niedrigschwelligen Zugang zu Unterstützung von Fachleuten. Beschwerden müssten bezahlbar oder kostenfrei sein. Nur wenn die Politik aktiv unterstützt, dass beim Umgang mit Künstlicher Intelligenz Bürger mehr Kompetenz und Rechte bekommen, kann es gelingen: Dann wirken Algorithmen nicht nur mächtig, sondern sie sind fair und sogar demokratisch. 

 

Publik Forum Nr. 6            25. März 2022