Veranstaltung: | 44. Bundesdelegiertenkonferenz Bielefeld |
---|---|
Tagesordnungspunkt: | V Verschiedenes |
Antragsteller*in: | Jamila Schäfer (München KV) und 41 weitere Antragsteller*innen (Frauenanteil: 40%) |
Status: | Eingereicht |
Eingereicht: | 04.10.2019, 12:25 |
V-25: Stop Killer Robots - Autonome Waffensysteme verhindern und weltweit ächten
Antragstext
Neue Waffentechnologien haben die Kriegsführung in der Vergangenheit oft verschlimmert und
grausamer gemacht. Das gilt insbesondere für die Entwicklung von Massenvernichtungswaffen.
Heute stehen wir wieder am Anfang einer neuen folgenschweren Entwicklung. Die Entwicklungen
in der Informationstechnologie und der „Künstlichen Intelligenz“ (KI) machen auch vor Waffen
und einer militärischen Nutzung nicht halt. Mit den richtigen Regeln und klaren Grenzen gibt
es zwar Bereiche, wie das vollautonome Minenräumen, mit potentiellen Chancen für die
Sicherheitspolitik, es droht aber gleichzeitig eine Kriegsführung, in der Algorithmen über
Leben und Tod entscheiden.
Die Forschung an solchen vollautonomen Waffensystemen, so genannten Lethal Autonomous
Weapons Systems (LAWS) findet bereits statt. Sie ist finanziell gut ausgestattet und
verläuft in rasanter Geschwindigkeit. Es ist drei vor zwölf, da einige Länder in
Einzelfällen bereits Systeme in Betrieb nehmen. In Kürze droht, dass in vielen Streitkräften
autonome Waffensysteme eine zentrale Rolle einnehmen. LAWS werden sich aufgrund der auf
Sekundenbruchteile minimierten Reaktionszeit nur mit anderen LAWS bekämpfen lassen, so dass
wir ein massives, ungebremstes Wettrüsten befürchten. Viele Staaten sehen sich daher bereits
in einem Sicherheitsdilemma, wenn sie sich diesem Trend entziehen. Diese Situation ist
vergleichbar mit ABC-Waffen, wo Lösungen (bei Chemie und Bio-Waffen) ausschließlich durch
eine vertragsbasierte Ächtung möglich waren. Die Verbreitung autonomer Waffentechnologien
droht die Hemmschwelle für einen Gewalteinsatz weiter zu senken. Durch die Geschwindigkeit
von Aktion und Reaktion zwischen LAWS wächst die Gefahr, dass sich konventionelle Konflikte
ausweiten und eskalieren. Aber auch der Einsatz von Atomwaffen kann wahrscheinlicher werden,
wenn ihr Einsatz durch autonome Systeme ausgelöst werden kann. Außerdem könnten autonome
Waffensysteme auch zu Grenzkontrollen, in der Polizeiarbeit oder gegen Demonstrationen
eingesetzt werden.
Durch den Einsatz autonomer Waffensysteme kämen viele dringende politische, ethische,
völkerrechtliche und praktische Fragen und Probleme auf uns zu. Schon heute strukturieren
Computer Entscheidungen von Soldat*innen vor. Die Zahl der Funktionen, die Waffensysteme
bereits automatisch oder auch autonom ausführen können, nimmt kontinuierlich zu. Sie
erkennen anhand von Parametern mögliche Ziele oder gesuchte Objekte. Die letztendliche
Entscheidung über den Einsatz tödlicher Gewalt muss aber beim Menschen bleiben. Deshalb
stellen wir uns einer schleichenden Abgabe der menschlichen Verantwortung klar entgegen und
wollen das humanitäre Völkerrecht stärken.
Automatisierte Abläufe – ob durch Technik oder durch Befehlsketten – können ungewollt
folgenschwere Eskalationsdynamiken in Gang setzen. Menschen haben ethische Grundsätze, die
weit über die rechtlichen Rahmenbedingungen hinausreichen. Sie können auf ihr Gewissen
hören. Sie können Gnade walten lassen und sich im Zweifel für das Leben entscheiden. So gab
es in den letzten Jahrzehnten mehrere Situationen, in denen menschliches Zögern und
nochmaliges Überprüfen eine Eskalation verhinderten. Autonome Waffensysteme verstehen jedoch
nicht, was es bedeutet, einen Menschen zu töten. Sie verfügen über kein Gewissen, keine
ethischen Grundsätze oder über eine mit der menschlichen Intelligenz vergleichbare
Entscheidungskompetenz. Für sie ist auch das menschliche Leben nur ein Datenpunkt. Die
Entscheidung zu töten darf niemals durch Algorithmen getroffen werden. Wird ein Mensch zum
Objekt einer maschinellen Entscheidung, wird er damit in seiner Menschenwürde verletzt.
Wir halten den Einsatz von autonomen Waffen für unvereinbar mit dem humanitären Völkerrecht.
Maschinen können nicht die Verhältnismäßigkeit oder die Notwendigkeit eines Angriffs
beurteilen. Der Einsatz von autonomen Waffen verstieße daher gegen das völkerrechtliche
Gebot zur Verhinderung übermäßigen Leidens. Maschinen können auch nicht zuverlässig zwischen
Kämpfer*innen und Zivilist*innen unterschieden. Darüber hinaus wäre unklar, wer in Fällen
unkontrollierter oder fehlerhafter Entscheidungen durch künstliche Intelligenz die
Verantwortung übernehmen würde oder übernehmen muss. Durch die technische Komplexität von
robotischen Systemen werden Streitkräfte in Zukunft noch abhängiger von privaten
Unternehmen. Der Einfluss ziviler Unternehmen, vor allem ziviler Programmierer, auf die
militärischen Anwendungen wächst.Wer stünde bei von LAWS begangenen Massakern,
Kriegsverbrechen oder anderen dramatischen Aktionen vor Gericht? Sicherlich nicht der/die
Hersteller*in der Hardware, der/die Softwareentwickler*in oder auch einfach die Armeeführung
oder das Verteidigungsministerium als solches. LAWS würden jahrelange Bemühungen zur
Verrechtlichung des Krieges, der Rechenschaftspflicht von Angehörigen der Streitkräfte und
der ausgeübten militärischen Gewalt ins Leere laufen lassen.
Wir GRÜNE fordern daher ein weltweites präventives Verbot und eine völkerrechtliche Ächtung
letaler autonomer Waffensysteme sowie die Festlegung eines Mindestmaßes an menschlicher
Kontrolle (meaningful human control) bei jeder Entscheidung über Leben und Tod. Union und
SPD haben sich zwei Mal in Folge in ihren Koalitionsverträgen von 2013 und 2018 für eine
Ächtung letaler autonomer Waffensysteme ausgesprochen. Auf europäischem und internationalen
Parkett waren entsprechende Initiativen der Bundesregierung entweder nicht vorhanden, oder
sie kamen zögerlich und hatten zunächst die Absicht eine rechtliche bindende Ächtung durch
eine rein deklaratorische Politik aufzuweichen. Mittlerweile hat sich die Gruppe der
Regierungsexperten bei den Verhandlungen im UN-Rahmen auf Prinzipien (guiding principles)
verständigt und die Absicht bekundet, ein „Rahmenwerk“ (operative and normative framework)
zu entwickeln. Dies kann jedoch nur ein erster Schritt sein, hin zu einem völkerrechtlichen
Verbot. Ziel muss die internationale Ächtung vollautonomer Waffen sein. Genau daran muss
sich diese Initiative messen lassen.
Im Europäischen Parlament haben wir GRÜNE bereits im Herbst 2018 eine Entschließung mit
entsprechender Botschaft initiiert, die von einer überwältigenden Mehrheit von 566
Abgeordneten unterstützt wurde (1). Mit diesem Schwung ist es uns GRÜNEN dann Anfang 2019
gelungen, in zähen Verhandlungen mit Rat und Kommission, autonome Waffensysteme aus dem 13
Milliarden Euro schweren Europäischen Verteidigungsfond auszuschließen (2). In der EU-
Verordnung zum Verteidigungsfond steht damit (wohl weltweit einmalig) eine gesetzlich
verankerte Definition samt Verbot dieser neuen Technologie (3). Auch die parlamentarische
Versammlung der OSZE hat sich im Juli 2019 für eine völkerrechtliche Ächtung von LAWS
ausgesprochen. Ebenfalls mahnt der UN-Generalsekretär Zurückhaltung bei der Entwicklung
neuer Technologien an, solange deren Vereinbarkeit mit dem humanitären Völkerrecht fraglich
ist (4).
Für die von uns geforderte Ächtung von letalen autonomen Waffensystemen gibt es eine breite
Allianz. Pax christi, Human Rights Watch, Amnesty International, das Internationale Komitee
vom Roten Kreuz, die Gesellschaft für Informatik (GI) und der Bundesverband der Deutschen
Industrie (BDI) unterstützen eine völkerrechtliche Ächtung von LAWS. Bereits im Juli 2015
haben mehr als 3000 Forscher der Fachrichtungen Künstliche Intelligenz und Robotik einen
offenen Brief, der die Ächtung von Killerrobotern fordert, unterzeichnet (5). Am 21. August
2017 haben darüber hinaus 116 Gründer*innen führender Unternehmen der Robotik und der
künstlichen Intelligenz einen ähnlichen Brief an die UN geschickt, darunter namenhafte
Firmeninhaber*innen aus Silicon Valley (6). Von besonderer Bedeutung sind in diesem
Zusammenhang die im Frühjahr 2019 beschlossenen Ethik-Leitlinien für künstliche Intelligenz
der von der Europäischen Kommission eingesetzten hochrangigen Expert*innengruppe, die sich
mit Blick auf Killerroboter (Paragraph 134) uneingeschränkt hinter die Forderung des
Europäischen Parlaments nach einem Verbot stellt.
Um mit der rasanten technologischen Entwicklung Schritt halten zu können, ist daher dringend
sofortiges politisches Handeln geboten:
- Unser Ziel ist die weltweite, völkerrechtliche Ächtung von LAWS. Deutschland und die
EU müssen auf Ebene der Vereinten Nationen (VN) im Rahmen der Certain Conventional
Weapons (CCW) Verhandlungen klar für ein Verbot dieser Waffen aussprechen, auf einen
verbindlichen Verbotsvertrag drängen und diesen Prozess zügig vorantreiben. Dabei
müssen verbindliche Mindeststandards wirksamer menschlicher Kontrolle definiert
werden.
- Voraussetzung dafür ist eine klare Position der Bundesregierung, die erreichte
Verhandlungsziele mitträgt und sich endlich wie Österreich, Brasilien, Chile, Mexiko,
oder auch Belgien, Irland und Luxemburg unzweideutig für einen Verbotsvertrag
einsetzt.
- Eine weitere Voraussetzung für eine effektive internationale Ächtung ist die
Erstellung einer formalen und rechtlich bindenden gemeinsamen EU-Position (Gemeinsame
Aktion), die nach Innen dazu führt, dass, solange kein internationaler Verbotsvertrag
besteht, bei dem die EU-Mitgliedstaaten Vertragsparteien sind, ein Moratorium
bezüglich Einsatz und Export von LAWS verhängt wird; für die internationale Ebene muss
diese Position das Verhandlungsziel eines Verbotsvertrages explizit festlegen. Durch
die Einigung beim Europäischen Verteidigungsfond haben die 28 Mitgliedstaaten sowohl
eine Definition von LAWS, als auch die Idee des Verbotes akzeptiert.
- Es braucht ähnlich wie beim Nuklearen Nichtverbreitungsvertrag (NVV) eine
Organisation, die die Entwicklung von KI im militärischen Bereich kontrolliert. Nur
ein wirksames Verifikationsregime wird die Entwicklung auch langfristig stoppen.
- Solange internationale Regelungen noch auf sich warten lassen, sollte Deutschland ein
nationales Moratorium für die Entwicklung und Beschaffung von LAWS veranlassen. Auch
die Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) kann ein guter
Rahmen für regionale Rüstungskontrolle sein.
- Die Bundesregierung muss sich auch in der NATO für die Ächtung von LAWS einsetzen und
dort gegenüber allen Partnerstaaten deutlich machen, dass sie keine Position
unterstützen wird, die im Widerspruch zur Entschließung des Europäischen Parlaments zu
autonomen Waffensystemen (2018/2752(RSP)) steht.
- Wir wollen jegliche staatliche Förderung von Projekten ausschließen, welche der
Entwicklung oder Nutzung von LAWS dienen. Wichtig ist jedoch auch, wie beispielsweise
im Umgang mit Chemiewaffen, dass Forschung betrieben wird, wie Menschen sich gegen die
Nutzung von LAWS schützen können.
- Bei jedem potentiell tödlichen Einsatz von KI-Algorithmen in Waffensystemen der
Bundeswehr muss volle menschliche Kontrolle, sowohl bei der Entscheidung, als auch bei
der Ausführung, gewährleistet sein.
- In Ethikkommissionen, die sich mit Fragen digitaler Entwicklungen befassen, darf die
sicherheitspolitische und militärische Ebene nicht ausgeblendet werden.
- Als BÜNDNIS 90/DIE GRÜNEN unterstützen wir die Arbeit der „Campaign to Stop Killer
Robots“.
Fußnoten:
1) Entschließungsantrag des Europäischen Parlaments zu autonomen Waffensystemen:
http://www.europarl.europa.eu/doceo/document/B-8-2018-0308_DE.html
2) Entschließung des Europäischen Parlaments vom 12. September 2018 zu autonomen
Waffensystemen: http://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_DE.html
3) Artikel 11(6) EU-Verordnung: http://www.europarl.europa.eu/doceo/document/TA-8-2019-
0430_EN.pdf
4) UN: „Securing our Common future“
https://www.un.org/disarmament/publications/more/securing-our-common-future/
5) Autonomous Weapons: An open letter from AI & Robotics Researchers:
https://futureoflife.org/open-letter-autonomous-weapons/
6) An open letter to the United Nations Convention on Certain Conventional Weapons:
https://www.cse.unsw.edu.au/~tw/ciair//open.pdf
Begründung
erfolgt mündlich.
weitere Antragsteller*innen
- Agnieszka Brugger (KV Ravensburg)
- Katja Keul (KV Nienburg)
- Hannah Marie Neumann (Berlin-Lichtenberg KV)
- Nikolas Becker (KV Berlin-Friedrichshain/Kreuzberg)
- Sara Nanni (KV Düsseldorf)
- Juliana Wimmer (Berlin-Kreisfrei KV)
- Jörn Pohl (KV Kiel)
- Ralf Mohr (KV Berlin-Lichtenberg)
- Tobias Balke (KV Berlin-Charlottenburg/Wilmersdorf)
- Horst Schiermeyer (Görlitz KV)
- Hans Schmidt (KV Bad Tölz-Wolfratshausen)
- Karl-Wilhelm Koch (Vulkaneifel KV)
- Berti Furtner-Loleit (München KV)
- Dominik Reich (KV Berlin-Neukölln)
- Gerhard Klünder (Warendorf KV)
- Marcus Voß (KV Berlin-Mitte)
- Lino Klevesath (KV Göttingen)
- Gottfried Klecker (KV Görlitz)
- Jochen Aulbach (KV Mainz)
- Fritz Lothar Winkelhoch (KV Oberberg)
- Maria Wißmiller (KV München)
- Marcel Ernst (Göttingen KV)
- Oliver Edgar Münchhoff (KV Berlin-Treptow/Köpenick)
- Pegah Edalatian-Schahriari (KV Düsseldorf)
- Tim Demisch (KV Berlin-Treptow/Köpenick)
- Claudia Roth (KV Augsburg-Stadt)
- Michael Krempin (KV Wetterau)
- Ernst-Christoph Stolper (KV Neustadt-Weinstraße)
- Regina Klünder (KV Kiel)
- Antje Westhues (Bochum KV)
- Marc Halbrügge (KV Berlin-Tempelhof/Schöneberg)
- Hans-Christian Höpcke (KV Berlin-Pankow)
- Dirk-Claas Ulrich (KV Göttingen)
- Tabitha Elkins (Alzey-Worms KV)
- Willi Junga (KV Berlin-Treptow/Köpenick)
- Marie Schäffer (KV Potsdam)
- Melanie Müller (KV Berlin-Friedrichshain/Kreuzberg)
- Doris Wagner (München KV)
- Jakob Wilke (KV Berlin-Lichtenberg)
- Thomas Mohr (München KV)
- Johanna Mellentin (KV Berlin-Kreisfrei)
Änderungsanträge
- V-25-130 (Nikolas Becker (KV Berlin-Friedrichshain/Kreuzberg), Eingereicht)
Kommentare
Marcel Dickow:
erlaubt mir ein paar kleine Änderungshinweise zu dem ansonsten wirklich gut und sehr kenntnisreich geschriebenen Antrag zu geben, die Ihr vielleicht berücksichtigen wollt:
(Zeilennummer zu Beginn in Klammern)
(6) Ein weiteres sonnvolles Beispiele sind Defensivsysteme gegen schnell anfliegende Munition (materiel).
(48-50, 53-58) Verantwortlich im Sinne des Humanitären Völkerrechts ist immer der die Waffe einsetzende Staat. Innerhalb des militärischen Befehlskett trägt immer der/die Bediener*in und sein/e Befehlshaber*in die Verantwortung, selbst wenn die Waffe nicht ordnungsgemäß funktioniert. Falls ein nicht ordnungsgemäßes Funktionieren vorher bekannt war oder angenommen werden musste, liegt sogar ein mutwilliger Verstoß vor. Kann eine Waffe prinzipiell nicht völkerrechtskonform eingesetzt werden, ist ihre Einführung in die Streitkräfte und Nutzung durch Artikel 36 der 1. Zusatzprotokolls der Genfer Konventionen auszuschließen. Allerdings führen nicht alle Staaten solche Waffenüberprüfungen (weapons reviews) durch. Die Frage der Verantwortlichkeit ist also völkerrechtlich stets geregelt. Anders liegt die Frage der Haftung und strafrechtlichen Bewertung bei Verstößen gegen das Humanitäre Völkerrecht bzw. Einsatzregeln und nationale Bestimmungen und bei Kriegsverbrechen sowie Verbrechen gegen die Menschlichkeit.
(66-69) Die Frage ob ein solches Rahmenwerk entwickelt werden soll ist noch strittig ("development" ist im Textentwurf geklammert, eine Entscheidung fällt auf dem Jahrestreffen der Mitgliedstaaten Mitte November 2019). Der Text der GGE ist leider sogar noch vager und spricht von "aspects of the normative and operational framework".
(76-78) Das Verbot im Gesetzesentwurf zum EDF bezieht sich ausschließlich auf eine finanzielle Föderung der Forschungs und Entwicklung von LAWS mit Mitteln des EDF. Projekte im Rahmen der Europäischen Verteidigungsagentur, nationale oder multilaterale Projekte außerhalb des EDF sind davon unbenommen. Das betrifft vorallem die Projekte mit Frankreich FCAS (Future Combat Air System) und MGCS (Main Ground Combat System), wenn es um Deutschland geht.
(99-100) Die CCW heißt in der Kurzform korrekterweise "Convention for Certain Conventional Weapons".
(128-130) Die Forderung, dass Forschung an Schutzmaßnahmen erlaubt sein müssen ist in bestimmten Fällen die Hintertür, um selbst LAWS zu entwickeln, denn gegen schnelle, autonome Systeme wird man sich oft nur durch noch schnellere, autonome Systeme wehren können. Wichtige wäre also Forschung zur Aufrecherhaltung von menschlicher Kontrolle bei Waffensystemen mit autonomen Funktionen. Im Bereich des BWÜ hat sich in den vergangenen Jahrzehnten besonders deutlich gezeigt, dass die Forschung zum Zwecke des Schutzes auch für offensive Anwendungen genutzt werden kann, zumal es hier kein Verifikationsregime gibt. Ich würde daher vorschlagen, eher die Forschung bezüglich der Aufrechterhaltung von mesnchlicher Kontrolle und einer Verifikation eines möglichen Verbotsvertrages explizit zu erwähnen und ansonsten allgemein von Forschung zu autonomen System, besser Systemen mit autonomen Funktionen, zu sprechen.
Ich hoffe, diese Ergänzungen sind hilfreich. Viele Grüße,
Marcel.
Thomas Gatter:
Thomas
Thomas Gatter:
Thomas
Alexander Schnapper:
Reinhard Fiebelkorn:
Christian Hauer:
Fynn Kosnick: