Menschen töten per Knopfdruck. Schon heute. Doch autonome Waffensysteme können selbständig über Leben und Tod auf dem Schlachtfeld entscheiden. Wissenschaftler, Ethiker und Menschenrechtler warnen vor einer Revolution der Kriegsführung. Doch der Kampf gegen die Ermächtigung der Maschinen scheint schon verloren.
"Nach meiner Auffassung ist bei voll automatisierten Waffensystemen, bei denen theoretisch Soldaten die Ortung ins Handy tippen und dann zum Kaffeetrinken in den Bunker gehen, eine Grenze erreicht, die wir keinesfalls überschreiten sollten."
Peter Dabrock ist der Vorsitzende des Deutschen Ethikrats und positionierte sich im Juni anlässlich der Jahrestagung des Ethikrats gegenüber dem Nachrichtenmagazin "Focus" deutlich.
Es müsse immer die Möglichkeit geben, dass ein Mensch ein solches System stoppen könne, so Dabrock weiter.
Das Thema hatte für das Gremium eine hohe Bedeutung: Ein eigenes Panel widmete sich dem Für und Wider hinsichtlich autonomer Waffensysteme.
Algorithmen entscheiden über Leben und Tod
Als autonom gelten Waffensysteme, wenn sie einen hohen Grad der Fähigkeit besitzen, "nur anhand von Algorithmen und ohne menschliche Interventionen entscheiden zu können", wie Robin Geiss, Professor für Recht und Sicherheit an der Universität Glasgow (Schottland) in einem Essay schreibt.
Wichtig: Im Gegensatz dazu würden automatisierte Waffen lediglich programmierte Systeme ausführen, so Geiss. Eine Mine funktioniere zum Beispiel so.
Die technische Entwicklung allerdings geht eindeutig dorthin, dass Waffensysteme immer mehr autonome Elemente enthalten, so die These in einem "Cicero"-Essay von Michael Bröning, der das Referat Internationale Politikanalyse der Friedrich-Ebert-Stiftung in Berlin leitet.
Das bestätigt auch Marcel Dickow, Experte für Sicherheitspolitik bei der Stiftung Wissenschaft und Politik (SWP) in Berlin. "Aktuell ist der große Trend, dass alle vorhandenen ferngesteuerten Systeme nun miteinander vernetzt werden und verstärkt autonom handeln", so Dickow.
Roboter kämpfen gegen Menschen
Solche Waffen können ihre Ziele selbständig erfassen und attackieren. Ein Beispiel dafür ist laut Bröning das südkoreanische System SGR-A1.
"Der Roboter aus dem Hause Samsung sichert die Grenze zu Nordkorea, identifiziert eigenständig feindliche Kombattanten und kann solche mit integrierter Schusswaffe eigenständig bekämpfen", so Bröning.
Zumindest was den letzten Schritt angehe, müsse bislang ein Mensch die abschließende Feuerfreigabe erteilen.
Doch die Politik droht von der technischen Entwicklung überholt zu werden. Das geschieht laut Bröning außerhalb des öffentlichen Radars – vor allem in den USA, wo heute schon dank rasender technischer Entwicklung "militärisch möglich ist, was noch vor kurzem als Science Fiction galt," schreibt Bröning.
Es fehlen internationale Richtlinien
Im Streit um den Einsatz autonomer Waffen stehen sich zwei Lager gegenüber:
"Verbotsbefürworter argumentieren ethisch: Maschinen sollen keine Macht bekommen, Tötungsentscheidungen treffen zu dürfen", erklärt Sicherheitsexperte Dickow.
Die Anti-Regulierer hingegen würden hoffen, dass autonome Maschinen im Krieg Effizienzgewinne bewirken. "Maschinen können beispielsweise teils schneller handeln - genau diesen militärischen Vorteil wollen Verbotsgegner ausspielen", sagt Dickow.
Verträge kommen meist "einen Krieg zu spät"
Pessismismus hinsichtlich einer Lösung ist angebracht – wie schon so oft: "Ein Blick in die Vergangenheit zeigt, dass Waffenverbotsverträge meist 'einen Krieg zu spät' gekommen sind", schreibt Robin Geiss.
Es sei bisher absolut nicht klar, "ob autonome Waffensysteme die Grundregeln der Genfer Konventionen werden einhalten können."
Die aktuelle Bundesregierung verpflichtet sich im aktuellen Koalitionsvertrag zu einer völkerrechtlichen Ächtung vollautomatisierter Waffensysteme, "die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."
Doch außerhalb staatlicher Stellen regt sich Widerstand.
Mehr als tausend Experten für künstliche Intelligenz haben in einem Brandbrief aus dem Juli 2015 am Rande einer Konferenz über künstliche Intelligenz davor gewarnt, dass autonome Waffensysteme das werden könnten, "was Kalaschnikows heute sind."
Unterzeichner des offenen Briefs sind unter anderem Persönlichkeiten wie Stephen Hawking und Noam Chomsky, Tesla-Gründer Elon Musk oder Apple-Urgestein Steve Wozniak.
"Stop Killer-Robots"
Bereits seit Jahren engagiert sich auch Human Rights Watch gegen autonome und automatisierte Waffensysteme.
2013 initiierte die Menschenrechtsorganisation eine Kampagne mit dem Namen "Stop Killer-Robots".
Das Ziel formuliert Steve Goose, Direktor der Abteilung Waffen bei Human Rights Watch so: "Es ist höchste Zeit für ein Verbot, bevor neue Investitionen, die technologische Dynamik und Veränderungen der militärischen Doktrin dies unmöglich machen."
Er sagt weiter: "Bewaffnete Roboter, die gezielt und ohne menschliches Zutun töten können, dürfen niemals gebaut werden. Der Mensch sollte auf dem Schlachtfeld stets die Entscheidungshoheit behalten. Kampfroboter überschreiten moralische und rechtliche Grenzen und sollten öffentlich geächtet werden."
Maschinen fehlt das Gefühl für Verantwortung
In dieselbe Richtung, aber vor einem anderen Hintergrund argumentiert der Münchner Philosophie-Professor Julian Nida-Rümelin von der Ludwig-Maximilians-Universität München (LMU).
Auf der Jahrestagung des Ethikrats plädierte er dafür, dass autonome Systeme keine Verantwortung übernehmen dürften.
Denn der Verantwortungsbegriff sei an Intentionalität und Personalität gekoppelt. Diese Fähigkeiten würden in dieser Form alleine dem Menschen zustehen.
Autonome Systeme seien ethisch nur unter der Bedingung vertretbar, dass ihnen "keine mentalen und speziell personalen Eigenschaften zugeschrieben" würden.
Revolution der Kriegsführung bald nicht aufzuhalten
"Wenn es nicht zu einer bindenden internationalen Regulierung kommt, dann sieht es so aus, als ob sich autonome Waffensystem mittel- und langfristig durchsetzen werden", sagt SWP-Forscher Dickow.
Dies sei eine Revolution der Kriegsführung. "Der bisherigen Evolution der Kriegsführung, der Distanzierung des Menschen vom Gefechtsfeld, würde also nun die Ermächtigung der Maschinen folgen: die Entmenschlichung des Krieges."
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.