Ethische Probleme Tödlicher Autonomer Waffensysteme

Von Regina Surber

Tödliche Autonome Waffensysteme (LAWS, aus dem Englischen ‘Lethal Autonomous Weapons Systems’) sind eine neuartige Kategorie von Waffen, die, einmal aktiviert, ohne menschliche Mitwirkung ein Ziel identifizieren, suchen, auswählen und angreifen können.1 Der Begriff ‘System’ bezieht sich auf das Zusammenspiel der Waffe mit einer integrierten Software, welche es der Waffe ermöglicht, all diese Funktionen ohne den Menschen – das bedeutet, technologisch eben hochgradig ‘autonom’ – auszuführen.2 Autonome Software ist das Resultat jüngster Forschung vor allem in den Disziplinen KI und Robotik.3 Weil diese Forschungsfelder rasant wachsen, werden wohl auch die Fähigkeiten eines Waffensystems in Zukunft immer raffinierter werden.

Ob ein Waffensystem nur dann ‘autonom’ genannt werden kann, wenn der Mensch gar keine Mitwirkungsmöglichkeit mehr hat – z.B. auch keinen Stopp-Knopf mehr drücken kann – wird noch diskutiert.4 Deshalb teilen sich die Meinungen, ob heute existierende Waffensysteme schon als LAWS gelten können. Selbstfliegende Flugzeuge mit hoch automatisierter Kampfsteuerung,5 stationäre Kampfroboter als Grenzschutz,6 Schwarmdrohnen7 und hoch automatisierte Software zur Abwehr von Cyberangriffen8 sind allerdings schon heute in Gebrauch.

Verglichen zu Waffensystemen, die von Menschen gesteuert werden, haben LAWS einen entscheidenden militär-ökonomischen Vorteil: Da, z.B., ein autonomes Kampfflugzeug nicht mehr von einem Piloten bedient werden muss, fallen jegliche Schutzmechanismen für den Menschen weg. Deshalb kann ein LAWS viel kleiner sein als von Menschen bediente Systeme – und deshalb enorm viel günstiger.9

Seit 2014 diskutiert ein spezielles UNO-Gremium sicherheitspolitische, operative, und vor allem international-rechtliche Probleme des Gebrauchs von LAWS im Krieg.10 Der gemeinsame Grundpfeiler dieser Debatten ist allerdings ein zutiefst ethisches Problem: LAWS werfen die Frage auf, ob die Entscheidung über Leben und Tod eines Menschen auf Maschinen oder Software ausgelagert werden darf. Darf der Mensch die Kontrolle über diese Entscheidung bewusst abgeben? Wie kann man über diese Frage nachdenken?

Zuerst gilt es zu erörtern, ob LAWS aus ethischer Perspektive gar vorteilhaft sind. In diesem Zusammenhang wird einerseits angeführt, dass LAWS moralische und rechtliche Prinzipien besser respektieren könnten, da die Algorithmen,11 welche der autonomen Software zugrunde liegen, enorm genau rechnen können und es deshalb dem LAWS erlauben könnten, einen Angriff sehr präzise auf militärische Objekte und Personen zu richten. Dies würde Risiken für Zivilisten minimieren.12 Dieses Argument hängt allerdings vom Design und von der Kapazität der Software ab. Ob heutige Systeme tatsächlich zwischen einem Soldaten und einem Zivilisten unterscheiden können, ist höchst umstritten.13 Andererseits könnte man anführen, dass durch LAWS weniger Soldaten sterben, da sie durch Maschinen und Software ersetzt würden. Dieses Argument gilt aber gleichermassen für ferngesteuerte Waffen, da auch diese den Soldaten vom Schlachtfeld entfernen und sein Leben dadurch besser schützen. Ethische Argumente für LAWS scheinen also eher schwach, und können deshalb den jetzt zu diskutierenden ethischen Problemen kaum die Schwere nehmen.

Der volle Artikel befindet sich hier. Er wurde publiziert in philosophie.ch

Regina Surber ist Doktorandin am Ethikzentrum der Universität Zürich und Senior Advisor bei der ICT4Peace Foundation und dem Zurich Hub for Ethics and Technology (ZHET). In ihrer Doktorarbeit behandelt sie Fragen des berechtigten Tötens im Krieg; als Mitarbeiterin bei ICT4Peace und Mitbegründerin von ZHET hat sie sich mehrere Jahre intensiv mit ethischen und sozialen Fragen neuer Technologien beschäftigt.