Kategorien Geopolitik

„Killerroboter“: Einsatz für zukünftige Kriege weiter nicht geregelt

Veröffentlicht am

Menschenrechts- und Technologie-Experten warnen davor, dass es gegen die Menschenwürde verstoße, Maschinen die Macht über Leben und Tod zu geben, schreibt Reuters.

NAIROBI, 19. Januar (WNM/Reuters/Nita Bhalla) – Immer mehr Nationen entwickeln so genannte „Killerroboter“ – Maschinen mit künstlicher Intelligenz (KI), die selbständig töten können. Es gibt bislang aber keine globalen Übereinkommen über deren Einsatz in zukünftigen Kriegen, warnen Technologie- und Menschenrechtsexperten.

In Drohnen und Raketen bis hin zu Panzern und U-Booten werden seit Jahrzehnten halbautonome Waffensysteme eingesetzt, um Ziele in der modernen Kriegsführung zu eliminieren. Aber alle diese Systeme stehen unter einer menschlichen Aufsicht. 

Nationen wie die Vereinigten Staaten, Russland und Israel investieren derzeit in die Entwicklung tödlicher autonomer Waffen, die selbständig eine Person identifizieren, angreifen und töten können. Bislang gibt es keine internationalen Gesetze, die deren Einsatz regeln. 

„Eine menschliche Kontrolle ist notwendig. Nur Menschen können kontextspezifische Urteile über Unterscheidung, Verhältnismäßigkeit und Vorsichtsmaßnahmen im Kampf fällen“, sagte Peter Maurer, Präsident des Internationalen Komitees vom Roten Kreuz zu Reuters. „Die Konsensbildung ist derzeit das große Problem, mit dem wir uns befassen. Es überrascht nicht, dass diejenigen, die bereits viel investiert haben und über bestimmte Fähigkeiten verfügen, die ihnen Vorteile versprechen, zögern.“ 

Innerhalb weniger Jahre könnten die tödlichen autonomen Waffen von Militärs auf dem Schlachtfeld eingesetzt werden. Es existieren dystopische Szenarien von Drohnenschwärmen, die sich durch eine Stadt bewegen und ihre Ziele innerhalb von Sekunden auswählen und töten. 

Das alles hat zu ethischen Bedenken von Menschenrechtsgruppen und einigen Technologieexperten geführt. Sie sagen, dass es gegen die Menschenwürde verstoße, Maschinen die Macht über Leben und Tod zu geben. 

Die tödlichen autonomen Waffen seien nicht nur anfällig für Hackerangriffe, sondern würden auch Fragen aufwerfen, wer im Falle eines Missbrauchs zur Rechenschaft gezogen werde. 

„Man kann in der Komplexität eines Krieges einfach keinem Algorithmus vertrauen, das richtige Ziel zu finden, zu identifizieren und zu töten“, sagte Noel Sharkey, Vorsitzender des Internationalen Komitees für Roboter-Rüstungskontrolle. 

Experten auf dem Gebiet der verteidigungsbasierten KI-Systeme argumentieren hingegen, dass solche Waffen, wenn sie gut entwickelt seien, den Krieg humaner machen können. Die Waffen werden präziser und effizienter sein, haben nicht mit menschlichen Gefühlen wie Angst oder Rache zu kämpfen, und können den Tod von Zivilisten und Soldaten auf ein Minimum reduzieren. 

„Aus militärischer Sicht geht es in erster Linie darum, die Sicherheit des Landes mit den geringsten Verlusten an menschlichem Leben zu schützen – und das sind die Soldaten“, sagte Anuj Sharma, Vorsitzender des India Research Center, das sich mit KI-Kriegsführung befasst. „Wenn Sie also den Menschen so weit wie möglich aus der Gleichung streichen können, ist das ein Gewinn, da weniger Leichensäcke nach Hause gebracht werden müssen – und das ist es, was jeder will.“