Der autonome Krieg hat viele Gegner, entwickelt wird dennoch Experten warnen vor vollautonomen Waffen

Digital

Würden Waffensysteme voll autonom, könnten selbstlernende «Killerroboter» selbständig entscheiden, wen sie töten.

Prototyp von Boston Dynamics „Atlas“ im Jahr 2013. Er soll für das US-Verteidigungsministerium Fahrzeuge steuern und in gefährlichen Umgebungen arbeiten.
Mehr Artikel
Mehr Artikel

Prototyp von Boston Dynamics „Atlas“ im Jahr 2013. Er soll für das US-Verteidigungsministerium Fahrzeuge steuern und in gefährlichen Umgebungen arbeiten. Foto: DARPA (PD)

1. Januar 2020
1
0
6 min.
Drucken
Korrektur
Die technische Entwicklung könnte dazu führen, dass Krieg irgendwann heisst, dass Maschinen gegen Maschinen kämpfen. Das klingt sehr nach Science-Fiction, ist aber durchaus möglich. Meist drängt sich aber ein anderes Science-Fiction-Szenario auf: wer in den Fokus eines «Killerroboters» gerät, hat sein Leben verwirkt. Es könnte in wenigen Jahren Wirklichkeit werden.

Autonome Waffen könnten nach Meinung von Fachleuten die Welt so verändern wie die Einführung von Atomwaffen. Die USA, China und Russland sowie Grossbritannien, Südkorea und Israel sind in der Entwicklung autonomer Waffensysteme bereits weit fortgeschritten. Mehrere Dutzend verschiedene Staaten sowie mehrere staatliche und nichtstaatliche Organisationen setzen sich für ein Verbot ein. Besonders deutlich hat UN-Generalsekretär António Guterres seine Position gemacht: «Autonome Maschinen, die ohne menschliches Zutun Ziele auswählen und Leben vernichten, sind politisch inakzeptabel (und) moralisch abstossend.»

Automatisch, teilautonom, vollautonom

KI – Künstliche Intelligenz – ist längst ein Bestandteil militärischer Technik. Die meisten militärischen Systeme, die heute im Einsatz sind, gelten als automatisch oder teilautonom. Aufklärungsdrohnen beispielsweise werden von Menschen ferngesteuert oder fliegen ein Gebiet selbständig ab. Sie starten und landen selbständig, wenn sie dafür programmiert werden. Die Drohnen, die im September 2019 saudi-arabische Ölanlagen zerstört haben, gelten allenfalls als teilautonom. Sie finden zwar ihr Ziel selbst und zerstören es, dafür müssen sie vor dem Start aber programmiert werden.

Künstliche Intelligenz schiesst nicht nur, sondern hilft auch bei der Lagebeurteilung. So sollen Situationen früher und besser erfasst werden. Abwehrsysteme wie jene in Israel können Raketenangriffe schneller feststellen als ein Mensch und selbst einen Gegenangriff starten. Wirklich vollautonome Waffen gibt es bisher nur wenige. Das «Stockholm International Peace Institute» (Sipri) zählte vor zwei Jahren 381 davon (PDF). Südkorea beispielsweise stellte bereits vor Jahren einen Roboter vor, der die Grenze zu Nordkorea gegen Angreifer verteidigen könnte.

Geht es um menschliche Ziele, warten Waffen noch auf eine Bestätigung eines Menschen, um das identifizierte Ziel zu zerstören – ein im Programmablauf kleiner, aber ethisch immens wichtiger Unterschied. Selbst die koreanische Selbstschussanlage «Super aEgis II» ist nach Angabe der Hersteller bei allen Kunden so konfiguriert, dass eine menschliche Bestätigung notwendig wird. Zunächst war diese Funktion gar nicht vorgesehen.

Tödlich selbständig: LAWS

Selbständig töten könnten Maschinen aber längst. Inzwischen können sie auch selbständig lernen, das heisst, Muster erkennen, statische Zusammenhänge verknüpfen und daraus Szenarien ableiten, für die sie nicht programmiert worden sind. Beispielsweise, wie ihr Ziel aussieht, sich bewegt und wie es am besten angegriffen wird. Eine vollautonome Waffe identifiziert ihr Ziel selbst und zerstört es selbständig. «Lethal autonomous weapon systems» (LAWS) entscheiden selbst über die Tötung eines Menschen. Das Argument «Nicht Waffen töten Menschen; Menschen töten Menschen» wäre damit hinfällig.

Befürworter solcher Technologien führen an, dass autonome militärische Systeme menschliche Opfer minimieren würden. Der Robotikwissenschaftler Ronald Arkin schlägt beispielsweise vor, LAWS mit Ethikprogrammen auszustatten. Selbst wenn diese nicht fehlerfrei arbeiteten, dann immer noch besser als ein menschlicher Soldat, sagt er.

Soldat KI: Ein politisch angenehmer Kämpfer

Der KI-Kämpfer ist noch aus anderen Gründen attraktiv. Roboter werden nicht müde, treffen keine emotionalen Entscheidungen, hinterlassen keine Angehörigen und leiden nicht an PTBS (Posttraumatischen Belastungsstörungen). Argumente, die bereits Barack Obama dazu bewogen hatten, auf den Drohnenkrieg zu setzen – mit den bekannten, eher «unchirurgischen» Folgen vieler ziviler Opfer (siehe beispielsweise Infosperber: «Die anonymen Opfer des Drohnenkriegs»). Einige Drohnenpiloten, die die «Killerdrohnen» vom Schreibtisch aus steuerten, setzen sich heute gegen den US-Drohnenkrieg ein. Auch das hätte ein Ende. Eine Maschine kennt keine psychische Belastung.

Fragen, die nie geklärt werden sollten

Einen Menschen von einer Katze unterscheiden kann heute schon eine durchschnittliche Überwachungskamera. Aber kann eine lernfähige «Künstliche Intelligenz» Freund und Feind auseinanderhalten? Vor allem in asymmetrischen Konflikten, in denen nicht jeder Kämpfer eine Uniform trägt? Und wer ist verantwortlich, wenn dabei ein Fehler geschieht?

Fragen, die noch nicht geklärt sind und nach Auffassung vieler Experten auch nie geklärt werden sollten. Mehrere Staaten und NGOs wie «Human Rights Watch» hoffen auf ein totales Verbot, bevor LAWS in grösserer Zahl einsatzfähig sind. Ihr Argument: Die Versuchung, schnelle militärische Entscheidungen einem Programm zu überlassen, sei zu gross. Die zu erwartenden geringen Opferzahlen in den eigenen Reihen könnten die Bereitschaft von Politkern, Kriege zu führen, noch befeuern.

Der autonome Krieg hat viele Gegner, entwickelt wird dennoch

125 Staaten treffen sich im Rahmen der Konvention über konventionelle Waffen (CCW) regelmässig, um sich über Entwicklung und Verbot autonomer Waffensysteme auszutauschen. Das bisher letzte Treffen fand im August in Genf statt. Wie zu erwarten war auch diesmal ohne eindeutiges Ergebnis. Derzeit wird vor allem diskutiert, ob eine Gruppe von Staaten im Alleingang eine Ächtung autonomer Waffen beschliessen soll, ähnlich, wie es beim Verbot von Streubomben geschehen ist. Vor allem die Entwicklerstaaten USA, Russland und China sind gegen eine Ächtung.

Anfang September 2019 fand in Kassel die Jahrestagung der deutschen Gesellschaft für Informatik statt. Auch dort ging es unter anderem um KI-Systeme für das Militär, wie der «Deutschlandfunk» berichtete. Für KI-Wissenschaftler ist die Unterscheidung zwischen teil- und vollautonom nicht so wichtig, eher ihre Funktionsweise. Sie ermöglicht es Systemen, Situationen einzuschätzen, indem sie selbständig lernen. Es entstehen Entscheidungsbäume, die Menschen unter Umständen nicht mehr nachvollziehen können. Die meisten Wissenschaftler lehnen einen Einsatz von KI-Systemen in militärischen Zusammenhängen ab. Die Leitlinien der Gesellschaft für Informatik stützen diese Position.

Kein Killerroboter ist so sicher, dass er nicht gehackt werden kann

IT-Experten weisen noch auf eine andere Gefahr hin: Kein System ist so sicher, dass es mit entsprechendem Aufwand nicht doch gehackt werden kann, auch kein militärisches. Einen Vorgeschmack bekam die US-Armee, als 2010 eine klassifizierte US-Drohne über dem Iran verschwand und später anscheinend unbeschädigt im Iran wiederauftauchte. Iranische Hacker hatten die Drohne nach eigener Darstellung umgelenkt. Ob die Angreifer tatsächlich in das Steuerungssystem eindrangen, ist umstritten. Dass Hacker es wieder versuchen, ist zu erwarten. Bewegliche Roboter müssen ständig mit einer Bodenstation kommunizieren, Bilder und Lageberichte versenden. Schon deshalb sind sie leicht zu finden, Gelegenheit bietet sich also öfter.

Druck kommt vor allem aus IT und Wissenschaft

Nennenswerter Widerstand gegen autonome Waffen kommt bisher vor allem aus den Reihen der Informatik und der Wissenschaft. Wissenschaftler aus 30 Ländern kündigten beispielsweise einen Boykott des «Korea Advanced Institute of Science and Technology» (KAIST) an, das mit einem koreanischen Waffenhersteller zusammenarbeitet. KAIST sah sich gezwungen zu versichern, keinesfalls an der Entwicklung von autonomen Waffensystemen mitzuarbeiten. Selbst der Internetgigant Google gab nach Mitarbeiterprotesten 2018 die Zusammenarbeit mit dem US-Verteidigungsministerium im Projekt «Maven» auf.

Daniela Gschweng /Infosperber