UB-Logo Online MagazinUntergrund-Blättle

Debatte über Algorithmen

3976

Warum an der Debatte über Algorithmen alle BürgerInnen teilhaben sollten Raus aus dem Dunkeln

eraser-677583-70

Digital

Algorithmische Entscheidungsfindung (algorithmic decision making, kurz ADM) ist aus unserem digitalen Leben nicht mehr wegzudenken.

Ähnlich wie bei der Ernährungskontrolle muss es ein fachliches Expertenkommittee geben, das sich mit Algorithmen und deren Nutzung auseinandersetzt.
Mehr Artikel
Mehr Artikel
Bild vergrössern

Ähnlich wie bei der Ernährungskontrolle muss es ein fachliches Expertenkommittee geben, das sich mit Algorithmen und deren Nutzung auseinandersetzt. Foto: Markus Spiske (CC0)

Datum 14. März 2017
0
0
Lesezeit8 min.
DruckenDrucken
KorrekturKorrektur
Diese Entwicklung bringt Fragen mit sich: Darf eine PKW-Software darüber entscheiden, wer im Falle eines Unfalls zu Schaden kommt? Wer bestimmt über meine Kreditwürdigkeit? Wen ziehe ich zur Verantwortung, wenn mich die Versicherung ablehnt? Das Problem: Als BürgerInnen sind wir derzeit nicht in der Lage, überhaupt mitdiskutieren zu können, da wir über solche komplexen Themen nicht genug wissen. Berliner Gazette-Autorin Kim Ly Lam sucht nach Lösungsansätzen:

Filterblasen, Echochambers und Bots: Die jüngste politische Debatte über den Informationenfluss in den sozialen Medien hat nun auch den Mainstream erreicht. Kritiker stellen Grundsatzfragen der Ethik und Selbstbestimmung, immer mehr werden Algorithmen als politisches Objekt und gar Subjekt diskutiert. Es ist die Trichterfunktion der ADM-Prozesse, deren Output wir hinterfragen. Zwar schwärmen Entwickler von den Vorteilen, den die Filtersysteme ihren Konsumenten bieten. Doch die mangelnde Partizipation eben dieser weckt Missmut. Nicht wenige fühlen sich übergangen, auch einen Verbraucherschutz für die Bereitstellung und Nutzung von Algorithmen gibt es nicht.

Die Unfassbarkeit dieser Prozesse, eine Black Box eingebettet in der Komplexität von Mathematik und Technologie, sorgt für eine Debatte im Dunkeln, die Unsicherheit erzeugt. Umso weniger verwunderlich ist die Entsachlichung und Emotionalisierung dieses Diskurses. „Wir können doch keinen Algorithmus über Leben und Tod richten lassen!“, heisst es oft in den Diskussionen um die selbstfahrenden Autos von Tesla. Fast personifiziert man ADM-Prozesse, wenn geklagt wird, dass Algorithmen für viele Entscheidungen gar nicht legitimiert seien. Fraglich ist in erster Linie die Handlungsfähigkeit, die man den Algorithmen zuschreibt.

Können Algorithmen handeln?

Algorithmische Entscheidungsfindung – das klingt zunächst so, als ob der Algorithmus selbst entscheidet und handelt. Wer die philosophische Definition des Begriffs „agency“ auf Wikipedia nachschlägt, bekommt folgende Bezeichnungen: „Agency is the capacity of an actor to act in a given environment“, weiter: „Agency may either be classified as unconscious, involuntary behavior, or purposeful, goal directed activity (intentional action).“

Nun ist es nicht möglich, „agency” direkt ins Deutsche zu übersetzen. Fest steht, dass der Agent eine Handlungsfähigkeit besitzt, die sich in seinen bewussten aber auch unbewussten Aktionen äussert. Auch ein gewisses Mass an Selbstbewusstsein ist im Innern verankert. Viele kritische Stimmen porträtieren den Algorithmus als Akteur und sprechen ihm die Fähigkeit der Handlung zu. Es wird über ADM in einer Form geurteilt, die einen Handlungswillen voraussetzt. Dieser wird als Gegenstand der Bewertung herangezogen und gar moralischem Urteil unterlegt. Folglich werden Algorithmen ethisiert; man spricht von der Ethik der Algorithmen, eine, die sie gar nicht besitzen können.

Denn ADM-Prozesse sind weder Entscheidungsträger noch gefürchtete Diskriminierende. Sie sind eine Filter- und Vermittlungsmaschine, die Programmierer dazu nutzen, um aus einem Big-Data-Input bestimmte Konstellationen und Muster herauszufiltern, denen sie im Nachhinein Bedeutung zuschreiben. Wichtig ist an dieser Stelle auch, sich erneut bewusst zu machen, dass diese Muster von den Algorithmen nicht erstellt sondern lediglich aufgedeckt wurden. Wie das gewonnene Wissen über die Existenz der Muster genutzt wird, obliegt dem Menschen. Bedeutet: Wenn ein Auto-Unternehmen den Algorithmus eines autonom fahrenden Fahrzeugs so auslegt, dass er stets die Unversehrtheit der Insassen priorisiert, ist dies die Entscheidung des Unternehmens, nicht des Algorithmus.

Die Antagonisierung von Algorithmen

Mit Sicherheit ist das personifizierte Bild von ADM-Prozessen auch dem grundlegenden Missverständnis in der Darstellung des Algorithmus geschuldet. Es fängt schon mit der Bezeichnung per se an, die Annahme, dass man die Diversität von ADM-Prozessen dem Begriff des Algorithmus unterstülpen könnte. Doch Vorsicht ist geboten: Das „one size fits all“-Modell birgt das Risiko, den Verzicht ausdifferenzierter Kategorien und Kriterien im Bereich ADM zu trivialisieren. Und so zieht das Verständnis eines einheitlichen Algorithmus dem Betrachter ein Schwarz-Weiss-Filter vor das Auge, aus dem die Emotionalisierung und gar Antagonisierung von Algorithmen entwächst.

Dabei erfordert jeder Kontext einen anderen Algorithmus und involviert verschiedene Akteure, die sowohl staatlich als auch privat-wirtschaftlich sein können. Es liegt nahe, dass die Bewertungskriterien individuell angelegt werden müssen. Beispiel: Filterblase. Die Filtersysteme haben zahlreiche Anhänger von Nischenkulturen zusammengeführt und die Artikulation von Minderheitenstimmen gefördert. Zugleich verringert ihre Einseitigkeit die Chance, mit einer Konkurrenz der Meinungen die Interessen im Netz auszugleichen, ein Prozess, der die zwingende Voraussetzung für eine pluralistische und demokratische Gemeinschaft stellt. ADM-Prozesse sind daher multi-perspektivisch zu betrachten, ihr Facettenreichtum umfasst unbekannte Grössen.

Komplizierter wird die Diskussion um eine künstliche Intelligenz (KI), die selbst dazulernt und keinem vorprogrammierten Rahmen unterworfen ist. Die Handlungsfähigkeit und „agency“ von KI ist Gegenstand zahlreicher politischer und philosophischer Diskussionen. Sind KI-Algorithmen zu ethischem Handeln fähig? Wie sähe eine KI-Ethik aus? Kann KI zwischen positiver und negativer Diskriminierung unterscheiden? Auch die generelle Frage, ob die Nutzung von KI für den Schutz des Gemeinwohls legitimiert sei, führt zu einer komplexen Ethikdebatte. Tesla-Chef Elon Musk hatte sich bereits damit gerühmt, dass das erste Autopilot-System des Unternehmens das Unfallrisiko bereits um 40 % verringere. Ist es dann noch ethisch, menschliche Ethik einzufordern, wenn unsere Entscheidungsfähigkeit zwar emotional komplex, jedoch zugleich fehlerbehaftet ist?

Noch wissen wir zu wenig über ADM-Prozesse oder KI, um über sie zu urteilen. Doch falscher Stolz, gekleidet in einer angeblichen Rationalität, die nur dem Menschen eigen sei, führt uns auch nicht weiter. Man sollte sich von der Idee einer Qualitätssteigerung durch nicht-menschliches Handeln nicht kränken lassen. Der kommende Arbeitsplatzverlust ist ein realistischeres Problem.

Big Data ist kein Eigentum

Ein weiterer Gesichtspunkt ist die Frage des Datenschutzes. Ob man das Eigentumsrecht auf Daten anwenden kann, ist strittig. Vor allem in einer Informationsgesellschaft, die vom Fluss der Informationen und deren Regulation höchst abhängig ist, müssen Besitzansprüche und deren Auswirkungen genau analysiert werden. Hacker-Idol und Netzaktivist Stewart Brand formulierte es einst in folgenden Worten: „On the one hand information wants to be expensive, because it's so valuable. The right information in the right place just changes your life. On the other hand, information wants to be free, because the cost of getting it out is getting lower and lower all the time. So you have these two fighting against each other.“

Information setzt Grenzen und eröffnet Pfade, sie übt eine Macht aus, die Gegenstand der Politik ist. Nun kann „Information Sharing“ als Basis gelebter Demokratie gesehen werden. Denn der Zwang des vernünftigeren Arguments für den Konsens, die rationale herrschaftsfreie Demokratie, lebt laut Jürgen Habermas von einer Vielfalt der Argumente. Diese müsste jedoch zunächst in Form von freien Informationen hergestellt werden. So ist die Debatte um Gesundheitsdaten sensibel und wirft viele Fragen auf, allen voran: Sind meine Gesundheitsdaten mein Eigentum? Habe ich das Recht, Informationen der Medizin vorzuenthalten, die der Verbesserung der allgemeinen Gesundheit und dem Gemeinwohl dienen könnte?

Dann werden schliesslich Sorgen darüber geäussert, dass eine Diskriminierung im Gesundheitssektor fatal sei und die Wahrscheinlichkeit dazu durch Big Data und deren Auswertung mit Algorithmen immens steige. Auch die Entkopplung der Information aus dem Kontext, in welchem man die Einwilligung der Nutzung privater Daten gegeben hat, ist problematisch. Sie zeugt Schlupflöcher für manipulative Praktiken, die zugunsten kommerzieller und kapitalistischer Motive umgesetzt werden. Man sieht: Das Versprechen von „Information Sharing“ anhand der Maxime des Gemeinwohls basiert auf einem positiven Menschenbild und ist davon abhängig. Dieses allein ist jedoch nicht genug. Wir brauchen die Kontrolle dieser Prozesse und eine Nachvollziehbarkeit und Überprüfbarkeit von ADM. Der Staat muss einschreiten.

Keine Regulation ohne Empirie

Was staatlich und vor allem legislativ möglich ist, wurde mit der Digital Charta bereits andiskutiert. Der Entwurf des Grundrechtekatalogs für den digitalen Raum Europas stützt sich auf der Kritik, dass der Cyberspace ein öffentlicher Raum ist, in dem Machtstrukturen praktiziert aber nicht reguliert werden. Die Grundrechte sollen das Miteinander im Netz an Grundsätze binden und Schutz vor staatlicher und privat-wirtschaftlicher Willkür bieten.

„Europa hat kein Defizit an Grundrechten, sondern an Erkenntnissen“, halten die Vertreter von AlgorithmWatch dagegen. Die nicht-kommerzielle Initiative hat es sich zur Aufgabe gemacht, gesellschaftlich relevante ADM zu analysieren, sie einzuordnen, und Ideen und Strategien zu entwickeln, die die Nachvollziehbarkeit der Prozesse ermöglichen. Ihres Erachtens solle man es vermeiden, gesetzliche Regulationen voreilig in die Wege zu leiten. Schliesslich könne man die nicht einfach zurücksetzen, sollten sie sich in ferner Zukunft als Fehler erweisen. Der Mangel an Empirie schränkt das argumentative Sichtfeld ein: Frühzeitige Regulationen sind mit Risiken verbunden.

Die wahre Gefahr

Transparenz allein ist keine Lösung. Die institutionelle Verantwortung bleibt beim Staat, der Bürger kann schliesslich kein Experte in allem sein. Ähnlich wie bei der Ernährungskontrolle muss es ein fachliches Expertenkommittee geben, das sich mit Algorithmen und deren Nutzung auseinandersetzt. Schliesslich lebt die demokratische Autonomie des Bürgers nicht allein durch die schiere Eigenverantwortung, dem „Take all or nothing“-Prinzip, wie es AlgorithmWatch formuliert, sondern auch von einem Schutz, für den die Politik zu bürgen hat.

Als Instrument gewisser Interessenträger muss nicht die Legitimation der Algorithmen hinterfragt werden. Das wäre auch albern, hat schliesslich der Philosoph Euklid bereits 300 vor Christus den Algorithmus für die Menschheit entdeckt. Vielmehr sollte die Legitimation, Zielsetzung und Absicht der Menschen überprüft werden, die diese in unserer Zeit programmieren und nutzen. Es ist die Verantwortung des Staats, die Nachvollziehbarkeit und Offenlegung der Filterstrukturen und Prozesse zu ermöglichen und mögliche Folgen der Nutzung von ADM zu untersuchen bzw. die Forschung in diesem Bereich zu fördern. Nur dann ist die Freiheit des Bürgers gewährleistet: Wenn er einen freien Willen bilden und Entscheidungen treffen kann, die der ausreichenden Information bezüglich ADM bedürfen. Frei von Pauschalisierungen und Verteufelungen und getragen von kritischem Optimismus.

Kim Ly Lam
berlinergazette.de

Dieser Artikel steht unter einer Creative Commons (CC BY-NC-ND 3.0) Lizenz.