Software entscheidet über Bewährung oder Haft Algorithmen entscheiden über Leben. Zeit, sie zu regulieren.

Digital

7. Dezember 2017

Algorithmen entscheiden zunehmend über individuelle Lebenschancen und werden von Staat und Verwaltung zur Steuerung gesellschaftlicher Prozesse eingesetzt.

In den USA entscheidet eine Software vielerorts darüber, ob eine Haftstrafe auf Bewährung ausgesetzt wird oder nicht. Sie ermittelt unter anderem die Risikowahrscheinlichkeit, ob eine Person in naher Zukunft ein weiteres Verbrechen begehen wird und richtet danach ihre Entscheidung aus.
Mehr Artikel
Mehr Artikel

In den USA entscheidet eine Software vielerorts darüber, ob eine Haftstrafe auf Bewährung ausgesetzt wird oder nicht. Sie ermittelt unter anderem die Risikowahrscheinlichkeit, ob eine Person in naher Zukunft ein weiteres Verbrechen begehen wird und richtet danach ihre Entscheidung aus. Foto: Rennett Stowe (CC BY 2.0 cropped)

7. Dezember 2017
0
0
8 min.
Drucken
Korrektur
Eine Konferenz in Berlin beleuchtete kürzlich, was dies für das Individuum bedeutet und gab Einblicke in die Diskussion um Regulierungsansätze. Unter der Leitfrage „Unberechenbar?“ fand Ende November in Berlin eineKonferenz zu Algorithmen und Automatisierung in Staat und Gesellschaft statt. Die thematische Ausgangslage der Veranstaltung: Algorithmische Systeme strukturieren zunehmend diverse gesellschaftliche Bereiche und informieren oder ersetzen dabei vormals menschliche Entscheidungen. Sie steuern Verwaltungsprozesse, entscheiden über den Zugang zu Dienstleistungen und formen die Kommunikation in der digitalen Öffentlichkeit.

Welche Chancen und Risiken diese komplexen Entwicklungen bergen, diskutierten die Teilnehmer der vom Kompetenzzentrum Öffentliche IT am Fraunhofer-Institut für Offene Kommunikationssysteme ausgerichteten Konferenz in drei Themenblöcken: „Regieren & Verwalten“, „Individuum & Gesellschaft“ und „Medien & Öffentlichkeit“. Insbesondere die im mittleren Block ausführlicher behandelten Fragen nach staatlichen Gestaltungs- und Regulierungsanforderungen sollen hier näher vorgestellt werden.

Konrad Lischka von der Bertelsmann Stiftung stellte Vorschläge vor, wie sich die Forschung in dem Bereich intensivieren und eine institutionelle Kontrolle aufbauen lasse. Sandra Wachter, Juristin am Oxford Internet Institute, fokussierte sich auf die Frage nach den Auskunftsrechten von Betroffenen und stellte ein konkretes Modell zur nachvollziehbaren Darlegung algorithmischer Entscheidungen vor. Mario Martini vom Deutschen Forschungsinstitut für öffentliche Verwaltung zeigte rechtliche Regulierungsmöglichkeiten auf.

Software entscheidet über Bewährung oder Haft

Datafizierung und algorithmische Systeme schaffen neue Möglichkeiten, um das Verhalten von Menschen nachzuvollziehen, vorherzusagen und zu steuern. Die Folge davon ist, dass insbesondere Individuen vor der Herausforderung stehen, dass Entscheidungen über ihre gesellschaftliche Teilhabe und Lebenschancen immer stärker automatisiert getroffen werden. Sie müssen derzeit darauf vertrauen, dass die angewendeten Systeme diskriminierungs- und fehlerfrei sind. Im Regelfall wissen sie auch nicht, welche Kriterien für den Ausgang einer Entscheidung ausschlaggebend waren.

An Beispielen dafür, dass algorithmenbasierte Entscheidungsfindung zunehmend auch in sensiblen gesellschaftlichen Bereichen eingesetzt wird, mangelt es nicht. In den USA etwa entscheidet dieSoftware Compas vielerorts darüber, ob eine Haftstrafe auf Bewährung ausgesetzt wird oder nicht. Sie ermittelt unter anderem die Risikowahrscheinlichkeit, ob eine Person in naher Zukunft ein weiteres Verbrechen begehen wird und richtet danach ihre Entscheidung aus. Trotz deutlicher Hinweise, dass die Software eine rassistische Schieflage im US-Justizsystem reproduziert und verstärkt, verweigert der Hersteller eine Offenlegung des dahinterstehenden Algorithmus mit Verweis auf sein Geschäftsgeheimnis.

In Australien sorgten kürzlich Berichte für Aufsehen, denen zufolge ein Computerprogramm 20.000 falsche Mahnbescheide für vermeintlich ungerechtfertigt bezogene Sozialleistungen verschickte. Betroffene mussten demnach oft Monate darum kämpfen, bis die Fehler korrigiert wurden. Ziele in den Blick nehmen, Entscheidungen nachvollziehbar machen

All das sind Entscheidungen, bei denen es um relevante Lebenschancen für die Einzelnen geht. Wie Konrad Lischka in seinem Vortrag deutlich machte, müssen die Chancen und Herausforderungen von algorithmischen Systemen zur Entscheidungsfindung deshalb umfassend diskutiert und erforscht werden. Es müsse eine gesellschaftliche Debatte um die Angemessenheit ihrer Ziele geführt werden, bevor algorithmische Entscheidungssysteme entwickelt oder eingesetzt werden.

Eine Maschine entscheide zwar konsistent, bei unangemessener Programmierung allerdings auch konsistent unangemessen. Ein diskriminierender Algorithmus sei deshalb von vorneherein zu verhindern, indem eine breite gesellschaftliche Debatte über die angestrebten Ziele der Automatisierung von Entscheidungen ermöglicht wird. Den Menschen in den Mittelpunkt zu stellen und Möglichkeiten gesellschaftlicher Teilhabe zu stärken, müsse das Ziel bei der Optimierung algorithmischer Systeme sein.

Gleichzeitig solle jedoch mit dem Trugbild der „bösen Algorithmen und der guten Menschen“ aufgeräumt werden, das in der öffentlichen Debatte zuweilen anklinge. Denn, dass menschliche Entscheidungen tendenziell besser seien als maschinelle, stimme so grundsätzlich nicht. So wisse man etwa, dass Menschen bei Entscheidungen in vielen Bereichen diskriminieren, etwa bei der Auswahl von Bewerbern.

Sinnvoll wäre der Einsatz von automatisierten Entscheidungssystemen demnach an genau solchen Stellen, bei denen bekannt ist, dass menschliche Entscheidungen zu systematischen Verzerrungen führen. Wichtig ist laut Lischka dabei jedoch, algorithmische Entscheidungen transparent und nachvollziehbar zu machen. Helfen könnten dabei Instrumente wie Meldepflichten für Algorithmen, die nicht das tun, was sie tun sollen. Ebenso könnte es verpflichtend sein, den Einsatz von automatisierten Entscheidungsverfahren den Betroffenen mitzuteilen.

Forschung und Kontrollinstitutionen ausbauen

Daran schliesst sich die Frage an, welche Werkzeuge und Förderungen für die Wissenschaft nötig sind, um eine so geschaffene Transparenz optimal zu nutzen und daraus Erkenntnisse zu gewinnen. Die rasanten Entwicklungen müssten zudem stärker von zivilgesellschaftlichen Organisationen begleitet werden, die einzelne Beispiele aufgreifen und dadurch eine gesellschaftliche Diskussion auslösen. Erst auf dieser Basis sollten Systeme entwickelt werden, die das Potential haben, Entscheidungsmechanismen wirklich zu verbessern.

Lischka schlägt zudem vor, die staatlichen Kompetenzen in diesem Feld auszubauen. Als Vorbilder könne man sich staatliche Zulassungsstellen sowie Aufsichts- und Untersuchungsbehörden aus anderen Bereichen anschauen. Ausserdem müsste die Vielfalt der Entscheidungssysteme gefördert werden. Um Vergleichbarkeit zu schaffen und Abhängigkeiten von einem einzigen Entscheidungsinstrument zu verhindern, müssten alternative Systeme zur Verfügung stehen. Für den öffentlichen Sektor könne man darüber nachdenken, Vielfalt zu einem Zulassungskriterium für den Einsatz von algorithmischen Systeme in einem bestimmten Bereich zu machen.

Wie man Auskunftsrechte von Betroffenen automatisierter Entscheidungen konkret umsetzen könnte, erklärte Sandra Wachter. Mit sogenannten „Counterfactual Explanations“ liesse sich zeigen, was anders sein müsste, um ein gewünschtes Entscheidungsergebnis zu erhalten. So würde die nachträgliche Auskunft für eine automatisierte Ablehnungsentscheidung für einen Kredit beispielsweise die Höhe des Jahreseinkommens nennen, die man haben müsste, um den gewünschten Kredit gewährt zu bekommen.

Laut Wachter ist dies eine Möglichkeit für Betroffene, eine Entscheidung besser zu verstehen und im Zweifelsfall anfechten zu können. So könne man sich mit dem Wissen um die relevanten Daten auch auf zukünftige Entscheidungen einstellen und im Vorfeld entsprechende Massnahmen ergreifen. Betroffenen würde auf diese Weise kein Verständnis der internen Logik eines Algorithmus abverlangt. Für Organisationen, die algorithmische Entscheidungssysteme anwenden, bestünde der Vorteil, dass sie keine Geschäftsgeheimnisse offenbaren müssten.

Möglichkeiten rechtlicher Regulierung

Mögliche Anknüpfungspunkte für eine rechtliche Regulierung zeigte Mario Martini anhand einer Analyse bereits bestehender Gesetze auf. Um eine effektive Regulierung algorithmischer Entscheidungsfindung zu erreichen, müssten diese jedoch alle in ihrem Anwendungsbereich erweitert werden. So verbiete beispielsweise die Datenschutzgrundverordnung (DSGVO) in Artikel 22 zwar grundsätzlich automatisierte Entscheidungen, die Menschen signifikant beeinträchtigen oder ihnen gegenüber eine rechtliche Wirkung entfalten. Allerdings ist die Voraussetzung für diese Norm, dass die Entscheidungsfindung komplett automatisiert und ohne menschliches Zutun erfolgt. Scoring falle beispielsweise nicht darunter, da die Entscheidung in diesem Fall nur maschinell vorbereitet, letztlich aber von einem Menschen gefällt werde.

Auch müssten nach der DGSVO die Parameter einer algorithmischen Entscheidung nicht offengelegt werden. Es reiche stattdessen aus, mitzuteilen, ob ein solches System eingesetzt wurde. Martini plädiert deshalb für die Einführung einer echten Begründungspflicht. Bei persönlichkeitssensiblen Algorithmen sollte es einzelfallbezogene Begründungen geben, mit denen sich Vergleichsgruppen und Grössenzuordnungen herstellen lassen. Anlehnen könne man dies an den Regelungen zur Begründungspflicht behördlicher Entscheidungen nach § 39 VwVfG.

Auch das Informationsfreiheitsgesetz (IFG) könne zielführend sein. Derzeit mache es den Informationszugang allerdings von der Einwilligung des Inhabers eines Geschäftsgeheimnisses abhängig. §6 IFG sollte laut Martini deshalb dahingehend geändert werden, dass es auch dann ein Informationsrecht gibt, wenn daran ein überwiegendes rechtliches Interesse besteht. Eine andere Möglichkeit sieht er in einer Erweiterung des Allgemeinen Gleichbehandlungsgesetzes. Zurzeit beziehe sich das Gesetz nur auf bestimmte Lebensbereiche wie Arbeit, Sozialleistungen, Bildung und Massengeschäfte des täglichen Lebens. Man könnte es jedoch derart anpassen, dass auch eine Ungleichbehandlung aufgrund algorithmenbasierter Datenauswertung generell dem Anwendungsbereich des Gesetzes unterliegt.

Die Beweislast umkehren

Eine begleitende Risikokontrolle könne durch Kontrollalgorithmen gelingen, die den Output von Entscheidungssystemen vergleichen und auf das Vorliegen von Diskriminierung prüfen. Auch eine Protokoll- und Beweissicherungspflicht für die Entscheidungsgrundlagen auf Seiten der Anwender wäre denkbar. Dies solle sicherstellen, dass Betroffene sich wirksam rechtlich gegen einen Algorithmus wehren können. Es würde die Beweislast bei Diskriminierungen nicht nur erleichtern, sondern womöglich sogar umkehren. Ein Verbandsklagerecht wäre hier ein zusätzlicher Schritt, um Sachverstand für Klagen zu bündeln.

Ergänzend schlägt Martini eine „Selbstverpflichtung mit Zähnen” vor, die er als „Algorithmic Responsibility Codex“ betitelt. Sie könne an den Corporate Governance Kodex aus §161 AktG angelehnt sein. Anwender persönlichkeitssensibler Algorithmen müssten demnach erklären, wie sie es mit den Grundsätzen guter und ethischer Algorithmennutzung halten. Stelle sich im Nachhinein heraus, dass nicht im Einklang mit der abgegebenen Erklärung gehandelt wird, sollten die Verantwortlichen mit Bussgeldern sanktioniert werden können.

Yannick Lebert
netzpolitik.org

Dieser Artikel steht unter einer Creative Commons (CC BY-NC-SA 4.0) Lizenz.