Künstliche Intelligenz und Atomwaffen

Please use this identifier to cite or link to this item:
https://doi.org/10.48693/542
Open Access logo originally created by the Public Library of Science (PLoS)
Title: Künstliche Intelligenz und Atomwaffen
Authors: Saalbach, Klaus
Abstract: Künstliche Intelligenz (KI) hat ein großes Potenzial für militärische Anwendungen und wird von den Atommächten als unverzichtbar und wesentlich angesehen. KI und Big Data könnten zur Kontrolle der Nichtverbreitung von Atomwaffen eingesetzt werden, könnten Zeit und Kosten bei der Erforschung, Designoptimierung, Herstellung, Prüfung und Zertifizierung, Wartung und Überwachung von Atomwaffen sparen und Ressourcen effizienter verwalten. Militärische KI könnte die Frühwarn-, Überwachungs- und Aufklärungsfähigkeiten (Intelligence, Surveillance and Reconnaissance ISR) sowie die Zuverlässigkeit der Kommunikation verbessern und die Entscheidungsfindung beschleunigen. Die Integration von KI in die nuklearen Kommando-, Kontroll- und Kommunikationssysteme (NC3) könnte auch Informationen zwischen nuklearen und nichtnuklearen Kommando- und Kontrollsystemen synchronisieren. Bei autonomen Kernwaffensystemen kann KI die Erkennung und Manövrierfähigkeit von Hindernissen, die automatisierte Zielidentifizierung sowie die Fähigkeiten für Langstrecken- und Patrouillenflüge (loitering) unterstützen. Die Debatte über den Einsatz von KI für Atomwaffen umfasst drei Bereiche: die Autonomie, die Stabilität militärischer KI-Systeme und die strategische Stabilität. Eine mögliche Autonomie von Atomwaffen ist Teil der breiteren Debatte über letale autonome Waffensysteme (LAWS). Automatisierte und teilautonome nukleare Einsatzentscheidungen wurden bereits während des Kalten Krieges in Betracht gezogen (SAGE; Perimeter). Ein spezifisches militärisches KI-Problem ist die Missionsstabilität, da den KI-Systemen das Kontextwissen fehlt und sie möglicherweise zu schnell entscheiden. Die Intransparenz der Systeme führt zu Erklärbarkeits- oder Interpretierbarkeitsproblemen, weitere Probleme können sich aus data poisoning, manipulierten Bildern, Automatisierungs-Bias und künstlicher Eskalation ergeben. Kriegs-Simulationen mit aktuellen generativer KI, den Large Language-Modellen (LLMs) von OpenAI, Anthropic und Meta, zeigten, dass die Systeme zur Eskalation bis hin zu nuklearen Angriffen neigen. Als Softwaresystem ist KI anfällig für Cyberangriffe, generative KI auch für prompt injections. Ein Hauptanliegen aller Beteiligten ist die strategische Stabilität, also alles zu vermeiden, was Anlass zu einem nuklearen Erstschlag gibt. Ein solcher Grund könnte die Unsicherheit über die Fähigkeiten des Gegners sein, denn wenn nicht bekannt ist, was die Gegenseite in einer bestimmten Situation tun kann, besteht die einzige Chance in einem nuklearen Konflikt darin, zuerst zuzuschlagen. KI kann die strategische Stabilität auch dadurch untergraben, dass die Entscheidungszeit verkürzt wird, was zu einer Eskalation oder einem unbeabsichtigten Einsatz von Atomwaffen führen kann, Missverständnisse und Fehleinschätzungen während einer Krise verstärkt und einen vorzeitigen Einsatz unzureichend getesteter KI fördert. Darüber hinaus erleichtern KI-Systeme den Einsatz von „Dead-Hand“-Systemen und autonomen Atomwaffen. Der Aufstieg von Hyperschallwaffen und die zunehmende Geschwindigkeit der Kriegsführung untergraben ebenfalls die strategische Stabilität. Derzeit gilt die KI noch als noch nicht ausgereift für den Einsatz in strategischen Hochrisikosituationen; es besteht ein erhebliches Risiko technischer Ausfälle und durch verzerrte, unvollständige oder ungenaue Daten. Die Atommächte sind sich einig, dass die KI in der Führung und Kontrolle auf strategischer Ebene nur unterstützend eingesetzt werden sollte. Die USA, China und Russland haben Dialoge über KI-Risiken aufgenommen. Der vorliegende Beitrag stellt kurz den aktuellen Stand der Debatte und die Hintergründe dar.
URL: https://doi.org/10.48693/542
https://osnadocs.ub.uni-osnabrueck.de/handle/ds-2024052111174
Subject Keywords: Künstliche Intelligenz; KI; Atomwaffen; Abschreckung; Autonome Waffensysteme
Issue Date: 21-May-2024
License name: Attribution 3.0 Germany
License url: http://creativecommons.org/licenses/by/3.0/de/
Type of publication: Arbeitspapier [WorkingPaper]
Appears in Collections:FB01 - Hochschulschriften

Files in This Item:
File Description SizeFormat 
Kuenstliche_Intelligenz_Atomwaffen_2024_Saalbach.pdf664,42 kBAdobe PDF
Kuenstliche_Intelligenz_Atomwaffen_2024_Saalbach.pdf
Thumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons