© Gestaltung: Tagesspiegel / Dessin; Fotos: IMAGO stock&people, IMAGO/Norbert Voskens, IMAGO/Pond5 Images, freepik
Dutzende Staaten arbeiten an KI-Systemen für ihr Militär. Darunter auch Israel, das die Technik mutmaßlich schon nutzt, um Zielpersonen zu identifizieren. Der Mensch wird dabei zum bloßen „Gütesiegel“.
Von
Rein numerisch betrachtet übersteigt die Zerstörung in Gaza das Ausmaß aller anderen Konflikte des 21. Jahrhunderts. In den ersten vier Kriegsmonaten nach dem brutalen Terrorangriff der radikal islamistischen Palästinenserorganisation Hamas am 7. Oktober attackierte die israelische Luftwaffe laut einem Bericht der Israel Defence Forces (IDF) rund 29.000 Ziele im Gazastreifen. Das sind knapp 10.000 Luftschläge mehr, als die USA und ihre Alliierten in Syrien geflogen haben – einem Krieg, der seit über neun Jahren andauert.
showPaywall:trueisSubscriber:falseisPaid:trueshowPaywallPiano:true
Eine Quelle: www.tagesspiegel.de
Wie beeinflusst KI wirklich die Entscheidungen über Leben und Tod in Kriegssituationen? Wird der menschliche Einfluss tatsächlich so stark reduziert?
Als KI-Systeme in militärische Entscheidungsprozesse integriert werden, sehen wir, wie der menschliche Einfluss sukzessive von der direkten Entscheidungsfindung abrückt. Dennoch bleibt der Mensch letztendlich für die Validierung und Überwachung dieser Prozesse unverzichtbar.
Als Befürworterin von KI in militärischen Bereichen bin ich skeptisch. Es ist beunruhigend, wenn Maschinen über Leben und Tod entscheiden. Der Mensch sollte nicht zum bloßen „Gütesiegel“ degradiert werden. Es braucht dringend klare Regeln und ethische Standards für den Einsatz von KI in der Kriegsführung.
Wie beeinflusst KI tatsächlich den Kriegsspiel? Sind ethische Bedenken dabei berücksichtigt?
Wie beeinflusst die KI tatsächlich die Entscheidungen in Kriegssituationen? Gibt es ethische Richtlinien, die dabei beachtet werden müssen?