Mit welchen Herausforderungen müssen wir umgehen? Ethische Fragen bei Künstlicher Intelligenz

Digital

10. Januar 2018

Die französische nationale Datenschutzbehörde CNIL legt nach einer mehrmonatigen Diskussion einen Bericht über Software und maschinelle Entscheidungen vor, der sich mit ethischen Fragen auseinandersetzt. Was muss angesichts von uns umgebender Künstlicher Intelligenz neu verhandelt werden, wenn Entscheidungen an Computerprogramme delegiert werden?

Die französische Datenschutzbehörde CNIL wirkt aktiv an gesellschaftlichen Debatten um die digitale Zukunft mit. Jüngst gab sie einen Bericht zu ethischen Fragen an Künstliche Intelligenz heraus.
Mehr Artikel
Mehr Artikel

Die französische Datenschutzbehörde CNIL wirkt aktiv an gesellschaftlichen Debatten um die digitale Zukunft mit. Jüngst gab sie einen Bericht zu ethischen Fragen an Künstliche Intelligenz heraus. Foto: Peter Kurdulija (CC BY-NC-ND 2.0)

10. Januar 2018
0
0
6 min.
Drucken
Korrektur
Die französische nationale Datenschutzbehörde CNIL (Commission Nationale de l'Informatique et des Libertés) feiert heute ihr vierzigjähriges Bestehen. Anders als in Deutschland wirkt die Behörde unter ihrer Präsidentin Isabelle Falque-Pierrotin am öffentlichen Diskurs über viele Facetten der digitalen Zukunft sichtbar mit und versucht, Debatten zu stimulieren und mit Expertise anzureichern.

Wenn etwa der deutsche Innenminister Thomas de Maizière und sein französischer Amtskollege Bernard Cazeneuve in einer gemeinsamen Erklärung Pläne zur Schwächung von kryptographischen Schutzmassnahmen vorstellen und an die Europäische Union appellieren, Anbietern von verschlüsselten Messengern einen Zugangsweg für staatliche Behörden aufzuzwingen, positioniert sich die CNIL-Präsidentin umgehend und in deutlichen Worten in einemNamensartikel in Le Monde dagegen. Ihre Behörde könne dem Vorhaben nicht zustimmen, da bei den Hintertür-Plänen zur Umgehung von Verschlüsselungsmassnahmen die Tatsache zu wenig Beachtung gefunden hätte, wie wichtig Verschlüsselung für die Online-Sicherheit sei. Ganz im Gegensatz zur aktuellen deutschen Bundesdatenschutzbeauftragten Andrea Vosshoff beteiligen sich Falque-Pierrotin und ihre Behörde aktiv daran, einen sachlichen öffentlichen Diskurs in Frankreich zu führen.

CNIL regte so auch eine Diskussion an, die sich um Software und maschinelle Entscheidungen, Roboter und maschinelles Lernen dreht. Die Behörde startete im letzten Jahr eine öffentliche Debatte mit vielen Veranstaltungen rund um das Thema und legte im Juni 2017 einen Zwischenstand vor.

Wir nehmen das heutige Jubiläum zum Anlass, um auf den Bericht der Behörde von Ende Dezember hinzuweisen, der sich mit den wichtigsten ethischen Fragen rund um Künstliche Intelligenz (KI) und Algorithmen auseinandersetzt, die in der Diskussion identifiziert wurden:Comment permettre à l'Homme de garder la main? Rapport sur les enjeux éthiques des algorithmes et de l'intelligence artificielle (pdf, 75 Seiten).

Seitdem vielfältige Entscheidungen an Computerprogramme und auch an autonome Systeme delegiert werden können, ist in vielen Ländern eine Diskussion darum entstanden, mit welchen ethischen Fragen wir uns beschäftigen müssen und welche der computerisierten Entscheidungssysteme wie zu regulieren wären. Die CNIL hat in der mehrmonatigen Diskussion die wichtigsten ethischen Fragen und Antworten gesucht, die sie nun in dem Bericht zusammenfasst.

Mit welchen Herausforderungen müssen wir umgehen?

Die CNIL identifiziert sechs grosse Bereiche, über die neu nachgedacht werden muss, weil sich drängende ethische Dilemmata auftun. Grob zusammengefasst sind das folgende Themen und Fragen:
  • Autonome Maschinen: Entscheidungen, die autonome Maschinen fällen, können für Fragen des freien Willens und für das Übernehmen von Verantwortung eine Bedrohung darstellen. Daher ist zu hinterfragen, ob ein übermässiges Vertrauen in vorgeblich „neutrale“ und fehlerlose maschinelle Entscheidungen angemessen ist. Und wie reizvoll ist es für uns Menschen, Entscheidungen, Einschätzungen und damit Verantwortung an Maschinen abzugeben?
  • Tendenzen, Diskriminierung und Ausschluss: KI-Systeme können vorgegebene Tendenzen einprogrammiert haben und Diskriminierungen oder den Ausschluss von Personen oder ganzen Personengruppen mit sich bringen. Ist das beabsichtigt, kann es schlimme Folgen haben, jedoch noch weit problematischere, wenn solche Tendenzen beim maschinellen Lernen unbeabsichtigt entstehen und dann unbemerkt Menschen diskriminiert oder ausgeschlossen werden. Wie sollen wir mit dieser Herausforderung umgehen?
  • Algorithmisches Profilieren von Menschen: Hier geht es um den Konflikt, der dadurch entsteht, dass Software einerseits durch das persönliche Zuschneiden unglaublich nützlich für den Einzelnen und für die Gesellschaft als Ganzes sein kann, andererseits aber diese errechnete Personalisierung eine Bedrohung für gesellschaftliche Werte wie politischen und kulturellen Pluralismus oder das gemeinschaftliche Tragen von Risiken sein kann.
  • Verhinderung der Ansammlung riesiger Datenmengen für maschinelles Lernen: Um KI-Systeme sinnvoll zu füttern, sind erhebliche Datenmengen auch über Personen nötig. Hier tut sich der Konflikt auf, dass Datenschutzgesetze dafür geschaffen wurden, Individuen den Schutz ihrer persönlichen Daten zu gewähren. Das kann diesen grossen Datensammlungen im Weg stehen. Wie kann eine Balance zwischen diesen konträren Zielen aussehen, was muss neu verhandelt werden?
  • Herausforderungen bei der Auswahl von Daten in Qualität, Quantität und Relevanz: Wenn es um die Menge an Informationen, um deren Korrektheit und die Abwesenheiten von systematischen Fehlern in Daten geht, die von Software verarbeitet werden sollen, stellen sich weitere Probleme. Daher sollte man Softwareergebnissen gegenüber kritisch bleiben (attitude critique) und kein übermässiges Vertrauen in Entscheidungen von KI-Systemen entwickeln.
  • Menschliche Identität im KI-Zeitalter: Maschinen werden nicht nur autonomer, sondern entwickeln auch hybride Formen mit dem Menschen (formes d'hybridation entre humains et machines). Kann man in diesem Zusammenhang überhaupt von einer Ethik der Algorithmen (éthique des algorithmes) sprechen? Wie sollen wir mit humanoiden Robotern umgehen, die höchstwahrscheinlich emotionale Reaktionen bei Menschen auslösen werden?
CNIL entwirft für diese und weitere Problemkreise sechs Empfehlungen, die sich an Regulierer und auch an Unternehmen und Bürger richten:
  • Für alle, die mit KI-Systemen und Software zu tun haben, egal ob beruflich oder privat, soll die Bildung gefördert werden. Erst Computerkenntnisse können es jedem Menschen ermöglichen, ein Verständnis dafür zu entwickeln, was auf dem Spiel steht.
  • Computersysteme sollen dadurch verstehbarer werden, dass bereits bestehende Rechte gestärkt und die Vermittlung an die Nutzer (la médiation avec les utilisateurs) überdacht wird.
  • Eine Undurchsichtigkeit von Softwaresystemen und ein „Black Box“-Effekt sollen vermieden werden, um menschliche Freiheiten (liberté humaine) zu erhalten.
  • Eine nationale Plattform für das Auditieren von Software (d'audit des algorithmes) soll errichtet werden.
  • Die Anreize für das Erforschen von ethischer KI sollen verstärkt und eine erhebliche nationale Forschungsförderung gestartet werden.
  • Unternehmen sollen sich der Ethik stärker zuwenden, beispielsweise durch Ethik-Kommissionen, durch Unterstützung guter Methoden oder durch Ethik-Kodizes.
Es sind Empfehlungen, die vor allem an den Menschen orientiert sind. Wir leben schliesslich zusammen mit unseren Maschinen in einer Gesellschaft, nicht in einer Ökonomie.

Constanze
netzpolitik.org

Dieser Artikel steht unter einer Creative Commons (CC BY-NC-SA 4.0) Lizenz.