UB-LogoOnline MagazinUntergrund-Blättle

Experten warnen vor vollautonomen Waffen | Untergrund-Blättle

5849

digital

ub_article

Digital

Der autonome Krieg hat viele Gegner, entwickelt wird dennoch Experten warnen vor vollautonomen Waffen

Digital

Würden Waffensysteme voll autonom, könnten selbstlernende «Killerroboter» selbständig entscheiden, wen sie töten.

Prototyp von Boston Dynamics „Atlas“ im Jahr 2013.
Mehr Artikel
Mehr Artikel
Bild ansehen

Bild: Prototyp von Boston Dynamics „Atlas“ im Jahr 2013. Er soll für das US-Verteidigungsministerium Fahrzeuge steuern und in gefährlichen Umgebungen arbeiten. / DARPA (PD)

1. Januar 2020

01. 01. 2020

1
0
6 min.
Korrektur
Drucken
Die technische Entwicklung könnte dazu führen, dass Krieg irgendwann heisst, dass Maschinen gegen Maschinen kämpfen. Das klingt sehr nach Science-Fiction, ist aber durchaus möglich. Meist drängt sich aber ein anderes Science-Fiction-Szenario auf: wer in den Fokus eines «Killerroboters» gerät, hat sein Leben verwirkt. Es könnte in wenigen Jahren Wirklichkeit werden.

Autonome Waffen könnten nach Meinung von Fachleuten die Welt so verändern wie die Einführung von Atomwaffen. Die USA, China und Russland sowie Grossbritannien, Südkorea und Israel sind in der Entwicklung autonomer Waffensysteme bereits weit fortgeschritten. Mehrere Dutzend verschiedene Staaten sowie mehrere staatliche und nichtstaatliche Organisationen setzen sich für ein Verbot ein. Besonders deutlich hat UN-Generalsekretär António Guterres seine Position gemacht: «Autonome Maschinen, die ohne menschliches Zutun Ziele auswählen und Leben vernichten, sind politisch inakzeptabel (und) moralisch abstossend.»

Automatisch, teilautonom, vollautonom

KI – Künstliche Intelligenz – ist längst ein Bestandteil militärischer Technik. Die meisten militärischen Systeme, die heute im Einsatz sind, gelten als automatisch oder teilautonom. Aufklärungsdrohnen beispielsweise werden von Menschen ferngesteuert oder fliegen ein Gebiet selbständig ab. Sie starten und landen selbständig, wenn sie dafür programmiert werden. Die Drohnen, die im September 2019 saudi-arabische Ölanlagen zerstört haben, gelten allenfalls als teilautonom. Sie finden zwar ihr Ziel selbst und zerstören es, dafür müssen sie vor dem Start aber programmiert werden.

Künstliche Intelligenz schiesst nicht nur, sondern hilft auch bei der Lagebeurteilung. So sollen Situationen früher und besser erfasst werden. Abwehrsysteme wie jene in Israel können Raketenangriffe schneller feststellen als ein Mensch und selbst einen Gegenangriff starten. Wirklich vollautonome Waffen gibt es bisher nur wenige. Das «Stockholm International Peace Institute» (Sipri) zählte vor zwei Jahren 381 davon (PDF). Südkorea beispielsweise stellte bereits vor Jahren einen Roboter vor, der die Grenze zu Nordkorea gegen Angreifer verteidigen könnte.

Geht es um menschliche Ziele, warten Waffen noch auf eine Bestätigung eines Menschen, um das identifizierte Ziel zu zerstören – ein im Programmablauf kleiner, aber ethisch immens wichtiger Unterschied. Selbst die koreanische Selbstschussanlage «Super aEgis II» ist nach Angabe der Hersteller bei allen Kunden so konfiguriert, dass eine menschliche Bestätigung notwendig wird. Zunächst war diese Funktion gar nicht vorgesehen.

Tödlich selbständig: LAWS

Selbständig töten könnten Maschinen aber längst. Inzwischen können sie auch selbständig lernen, das heisst, Muster erkennen, statische Zusammenhänge verknüpfen und daraus Szenarien ableiten, für die sie nicht programmiert worden sind. Beispielsweise, wie ihr Ziel aussieht, sich bewegt und wie es am besten angegriffen wird. Eine vollautonome Waffe identifiziert ihr Ziel selbst und zerstört es selbständig. «Lethal autonomous weapon systems» (LAWS) entscheiden selbst über die Tötung eines Menschen. Das Argument «Nicht Waffen töten Menschen; Menschen töten Menschen» wäre damit hinfällig.

Befürworter solcher Technologien führen an, dass autonome militärische Systeme menschliche Opfer minimieren würden. Der Robotikwissenschaftler Ronald Arkin schlägt beispielsweise vor, LAWS mit Ethikprogrammen auszustatten. Selbst wenn diese nicht fehlerfrei arbeiteten, dann immer noch besser als ein menschlicher Soldat, sagt er.

Soldat KI: Ein politisch angenehmer Kämpfer

Der KI-Kämpfer ist noch aus anderen Gründen attraktiv. Roboter werden nicht müde, treffen keine emotionalen Entscheidungen, hinterlassen keine Angehörigen und leiden nicht an PTBS (Posttraumatischen Belastungsstörungen). Argumente, die bereits Barack Obama dazu bewogen hatten, auf den Drohnenkrieg zu setzen – mit den bekannten, eher «unchirurgischen» Folgen vieler ziviler Opfer (siehe beispielsweise Infosperber: «Die anonymen Opfer des Drohnenkriegs»). Einige Drohnenpiloten, die die «Killerdrohnen» vom Schreibtisch aus steuerten, setzen sich heute gegen den US-Drohnenkrieg ein. Auch das hätte ein Ende. Eine Maschine kennt keine psychische Belastung.

Fragen, die nie geklärt werden sollten

Einen Menschen von einer Katze unterscheiden kann heute schon eine durchschnittliche Überwachungskamera. Aber kann eine lernfähige «Künstliche Intelligenz» Freund und Feind auseinanderhalten? Vor allem in asymmetrischen Konflikten, in denen nicht jeder Kämpfer eine Uniform trägt? Und wer ist verantwortlich, wenn dabei ein Fehler geschieht?

Fragen, die noch nicht geklärt sind und nach Auffassung vieler Experten auch nie geklärt werden sollten. Mehrere Staaten und NGOs wie «Human Rights Watch» hoffen auf ein totales Verbot, bevor LAWS in grösserer Zahl einsatzfähig sind. Ihr Argument: Die Versuchung, schnelle militärische Entscheidungen einem Programm zu überlassen, sei zu gross. Die zu erwartenden geringen Opferzahlen in den eigenen Reihen könnten die Bereitschaft von Politkern, Kriege zu führen, noch befeuern.

Der autonome Krieg hat viele Gegner, entwickelt wird dennoch

125 Staaten treffen sich im Rahmen der Konvention über konventionelle Waffen (CCW) regelmässig, um sich über Entwicklung und Verbot autonomer Waffensysteme auszutauschen. Das bisher letzte Treffen fand im August in Genf statt. Wie zu erwarten war auch diesmal ohne eindeutiges Ergebnis. Derzeit wird vor allem diskutiert, ob eine Gruppe von Staaten im Alleingang eine Ächtung autonomer Waffen beschliessen soll, ähnlich, wie es beim Verbot von Streubomben geschehen ist. Vor allem die Entwicklerstaaten USA, Russland und China sind gegen eine Ächtung.

Anfang September 2019 fand in Kassel die Jahrestagung der deutschen Gesellschaft für Informatik statt. Auch dort ging es unter anderem um KI-Systeme für das Militär, wie der «Deutschlandfunk» berichtete. Für KI-Wissenschaftler ist die Unterscheidung zwischen teil- und vollautonom nicht so wichtig, eher ihre Funktionsweise. Sie ermöglicht es Systemen, Situationen einzuschätzen, indem sie selbständig lernen. Es entstehen Entscheidungsbäume, die Menschen unter Umständen nicht mehr nachvollziehen können. Die meisten Wissenschaftler lehnen einen Einsatz von KI-Systemen in militärischen Zusammenhängen ab. Die Leitlinien der Gesellschaft für Informatik stützen diese Position.

Kein Killerroboter ist so sicher, dass er nicht gehackt werden kann

IT-Experten weisen noch auf eine andere Gefahr hin: Kein System ist so sicher, dass es mit entsprechendem Aufwand nicht doch gehackt werden kann, auch kein militärisches. Einen Vorgeschmack bekam die US-Armee, als 2010 eine klassifizierte US-Drohne über dem Iran verschwand und später anscheinend unbeschädigt im Iran wiederauftauchte. Iranische Hacker hatten die Drohne nach eigener Darstellung umgelenkt. Ob die Angreifer tatsächlich in das Steuerungssystem eindrangen, ist umstritten. Dass Hacker es wieder versuchen, ist zu erwarten. Bewegliche Roboter müssen ständig mit einer Bodenstation kommunizieren, Bilder und Lageberichte versenden. Schon deshalb sind sie leicht zu finden, Gelegenheit bietet sich also öfter.

Druck kommt vor allem aus IT und Wissenschaft

Nennenswerter Widerstand gegen autonome Waffen kommt bisher vor allem aus den Reihen der Informatik und der Wissenschaft. Wissenschaftler aus 30 Ländern kündigten beispielsweise einen Boykott des «Korea Advanced Institute of Science and Technology» (KAIST) an, das mit einem koreanischen Waffenhersteller zusammenarbeitet. KAIST sah sich gezwungen zu versichern, keinesfalls an der Entwicklung von autonomen Waffensystemen mitzuarbeiten. Selbst der Internetgigant Google gab nach Mitarbeiterprotesten 2018 die Zusammenarbeit mit dem US-Verteidigungsministerium im Projekt «Maven» auf.

Daniela Gschweng / Infosperber

Mehr zum Thema...
Kriegsroboter der USArmee auf einem Testcenter in Fort Greely, Alaska.
Genfer Kriegskonventionen oder das Gebot der VerhältnismässigkeitSchritt zur Ächtung selbständiger Kriegs-Roboter

24.10.2013

- Nach den ferngesteuerten Drohnen drohen jetzt bewaffnete Roboter ohne Handsteuerung zu töten. Uno-Kommission arbeitet an Verbot.

mehr...
Die französische Datenschutzbehörde CNIL wirkt aktiv an gesellschaftlichen Debatten um die digitale Zukunft mit.
Mit welchen Herausforderungen müssen wir umgehen?Ethische Fragen bei Künstlicher Intelligenz

10.01.2018

- Die französische nationale Datenschutzbehörde CNIL legt nach einer mehrmonatigen Diskussion einen Bericht über Software und maschinelle Entscheidungen vor, der sich mit ethischen Fragen auseinandersetzt.

mehr...
Kazuyoshi Kato
In der vom Silicon Valley herbeigesehnten Singularität käme das automatische Subjekt zu sich selbstKünstliche Intelligenz und Kapital

20.11.2017

- Ist die Menschheit bereit, den bald unter ihr weilenden Roboterherrschern aufopferungsvoll zu dienen?

mehr...
Künstliche Intelligenz und Diskriminierung

22.09.2020 - Künstliche Intelligenz (KI) gilt als objektiv und sachlich. Da die zugrundeliegenden Codes menschengemacht sind ist es naheliegend, dass die Programme ...

Ära der Roboter?!

15.04.2008 - Das letzte mal, als ich einen Aufzug benutzt habe war ich einfach nur froh, dass ich nicht die ganzen Treppenstufen rauf laufen musste.. Eine Sache hat ...

Dossier: Digitalisierung
Propaganda
Online Surveillance

Aktueller Termin in Berlin

CryptoParty

Bei der CryptoParty könnt ihr all eure Fragen über Verschlüsselung von Emails und Dateien, Schutz der Privatsphäre, Anonymität und generelle Sicherheit im Internet loswerden. In kleinen Gruppen lernt ihr die Tools kennen und könnt ...

Dienstag, 27. Oktober 2020 - 19:00

K19 Café, Kreutzigerstr. 19, 10247 Berlin

Event in Wien

Ulli Bäer

Dienstag, 27. Oktober 2020
- 19:00 -

Theater am Spittelberg

Spittelberggasse 10

1070 Wien

Mehr auf UB online...

Trap
In der Villa Montalbo in Palermo drehte Luchino Visconti einige Szenen seines Films Der Leopard.
Vorheriger ArtikelDer LeopardUmbrüche
Untergrund-Blättle