Killerroboter: Kann man Kriegsgefahren komplett auf Zivilisten übertragen?

In Kriegen bestehen unterschiedliche Interessenslagen. Kriegparteien erhoffen sich von einem Sieg über den Gegner entscheidende wirtschaftliche und politische Vorteile. Macht soll erhalten oder ausgeweitet werden. Militärische Entscheider wünschen sich einen wirkungsvollen Schutz für ihre Soldaten und effektive Überlegenheit gegenüber den feindlichen Kräften. Sie wünschen ein schnelles Ende der Kriegshandlungen und nachhaltige Befriedung der Krisengebiete. Zivilisten wünschen sich, dass der „Krug an ihnen vorbeigeht“ und sie nicht konkret betroffen sind von Krieg, Folter, existenziellem Leid. Nun ist die Forschung so weit, dass autonome Waffensysteme einsetzbar sein könnten. Würde das ein „menschenfreies Schlachtfeld“ bedeuten und Menschenleben schützen? Oder wäre es die komplette Übertragung der Kriegsgefahr auf die Zivilbevölkerung? Kann man per UN-Beschluss ein Verbot von Killerrobotern durchsetzen?

Eindrucksvolles Video bei YouTube „Wenn Roboter töten“ – 1.30 Min. beim Klick aufs Bild

Eine 45-minütige ARD-Dokumentation von Ende September 2017 geht der Frage nach, ob der Mensch es den  Algorithmen überlassen kann, über Menschenleben und deren Auslöschung zu entscheiden. Bis zum 25.9.2018 ist die eindrucksvolle Reportage in der ARD-Mediathek verfügbar. Der Film zeigt, wie Menschenrechtsaktivisten sich bemühen, per UNO-Beschluss ein Verbot von Killer-Robotern durchzusetzen. Es wird gezeigt, wie nah wir schon daran sind, dass Maschinen in rasender Geschwindigkeit Tötungsentscheidungen treffen und Tötungen gezielt durchführen.
Beitrag in der ARD-Mediathek

In der UNO wird darüber gerätselt, wo die Grenze gezogen werden könnte. Ein Verbot ist allerdings im Moment nicht verhandelbar. Es könnte theoretisch festgelegt werden, dass zwar Maschinen selbstständig handeln – doch Menschen dafür verantwortlich gemacht werden. Oder man könnte in die Computersysteme einen „ethischen Regulator“ einbauen, der nach ethischen Prinzipien entscheidet, wann geschossen wird und wann nicht. Waffen dürfen nur dann zum Einsatz kommen, wenn sie sicher sind und den Auftrag haben, Leid von Zivilisten zu vermeiden. Könnte man die Genfer Konvention in Killerroboter einprogrammieren?

Am Wirksamsten wäre es wohl, wenn weltweit verbindlich gelten würde, dass Maschinen in bewaffneten Konflikten keine autonomen Entscheidungen treffen dürfen. Doch werden sämtliche UNO-Mitgliedsstaaten einem solchen Verbot von autonomen Waffensysteme irgendwann zustimmen? So wie biologische und chemische Kriegswaffen geächtet und verboten sind?

Heute ist es so, dass der Einsatz von Drohnen letztendlich noch von Menschen entschieden wird. Doch bei den heutigen Kriegen muss immer schneller entschieden werden, ob Drohnen ihren tödlichen Auftrag ausführen. Das erhöht die Wahrscheinlichkeit von Schuld am Tod von Zivilisten. Ganz unabhängig davon, dass immer häufiger Zivilisten als Schutzschild und Geisel eingesetzt werden im Krieg. Welcher Mensch will solch eine Schuld auf sich laden? Ist es da nicht besser, wenn Computer objektiv und rational aus einer Masse an Daten über Tötungen entscheiden? Sind sie nicht weniger fehlerhaft als Menschen?

Technologisch gibt es schon vollautomatische Waffensysteme. Der Film zeigt, was heute schon möglich ist. Im Moment liegt die letzte Entscheidungsgewalt beim Menschen – so israelische Waffenhersteller im Interview. Eventuell gab es auch 2016 schon den ersten rein autonomen Waffeneinsatz in Aserbaidschan – mit 7 Opfern. Man weiß nicht genau, ob irgendjemand die Waffe losgeschickt hat, oder ob es sich um einen komplett automatisierten Vorgang handelte.

Befürworter autonomer Waffensysteme haben die Vision, dass die Zukunft ein leeres Schlachtfeld ist. Roboter kommunizieren auf der Erde und im Weltall miteinander. Sie treffen untereinander Entscheidungen. Könnte so ein Szenario auf der Erde und im Weltall menschliche Opfer grundsätzlich ausschließen? Roboter kämpfen nur noch gegen Roboter? Maschinen gegen Maschinen?

In Südkorea wird die Grenze zu Nordkorea schon heute von Killerrobotern bewacht. Südkorea befürchtet, dass es bei einem Zusammenbruch des nordkoreanischen Systems zu riesigen Flüchtlingsbewegungen kommen könnte. Südkoreanischen Soldaten ist es nicht zuzumuten, auf ihre koreanischen Brüder und Schwestern zu schießen. Darum wird der Todesstreifen schon heute von vollautonomen Kriegsrobotern bewacht. Federführend bei der Entwicklung, Herstellung und Installation der autonomen Waffensysteme ist Samsung.

Es handelt sich also nicht mehr um eine technologische – sondern um eine philosophische Diskussion. In der UNO steht zur Zeit kein Verbot von Maschinen, die ohne menschliches Zutun Ziele identifizieren, angreifen und eliminieren können, zur Debatte. Die aktuelle UN-Konferenz  soll lediglich in einer „politischen Erklärung“ die militärischen, politischen, ethischen und rechtlichen Dimensionen ausloten. Es lohnt sich, diese 45-minütige Dokumentation aufmerksam zu sehen. So ist man als Zuschauer und Zivilist immerhin schon einmal informiert darüber, wie weit die Technologie ist und welche Probleme und Thematiken politisch und militärisch entschieden werden müssen – so oder so…

https://www.youtube.com/watch?v=xP_M7WAp5gg

 

Seit fast zwanzig Jahren auf der "freien Wildbahn" hat Eva Ihnenfeldt sowohl 2004 eine eingetragene Genossenschaft für Existenzgründer gegründet als auch 2011 eine Akademie für die Ausbildung von Social Media Unternehmenden. Lange Zeit war sie Dozentin und Trainerin für Marketing, Kommunikation und Social Media. Heute arbeitet sie als Coach für Menschen im beruflichen Wandel. Ihre Stärke ist es, IST-Situationen zu akzeptieren, Visionen zu erkennen und gemeinsam mit ihren Klienten Strategien zu entwickeln, die sich auch in der Praxis bewähren. Mobil: 0176 80528749 - E-Mail: [email protected]

steadynews.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert