KI-Geopolitik – Algorithmen als Waffen

Please use this identifier to cite or link to this item:
https://doi.org/10.48693/555
Open Access logo originally created by the Public Library of Science (PLoS)
Title: KI-Geopolitik – Algorithmen als Waffen
Authors: Saalbach, Klaus
Abstract: Unter künstlicher Intelligenz (KI) versteht man allgemein die Fähigkeit von Maschinen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern, und ist ein Schlüsselbereich der fortschrittlichsten Computeranwendungen. Analysen von US-Militärexperten deuten darauf hin, dass in einigen Jahren eine Künstliche Allgemeine Intelligenz (Artificial General Intelligence AGI), also eine KI, die das menschliche kognitive Niveau vollständig erreicht, verfügbar sein wird. Die USA und China entwickeln derzeit neue Kriegskonzepte, bei denen der Schwerpunkt vor allem auf den Hauptverwundbarkeiten der militärischen Systeme des Gegners liegt statt auf großflächiger Zerstörung. In den USA wird dies z.B. als nicht-kinetische oder kognitive Kriegsführung diskutiert und in China als Multi-Domain Precision Warfare (MDPW). Im Einklang mit dem Konzept einer nicht-kinetischen kognitiven Kriegsführung wird KI nun als neuer Waffentyp projektiert, bei dem eine fortschrittliche künstliche Superintelligenz (Artificial Superintelligence ASI) überlegene Taktiken und eine schnelle Übernahme von Computersystemen einsetzt, um den Gegner zu überwältigen. Auch wenn dies noch keine offizielle Doktrin ist, sind sich alle Seiten darüber im Klaren, dass die Nation, die zuerst eine AGI erreichen wird, bereits über einen einzigartigen technologischen, wirtschaftlichen und militärischen Vorteil verfügen wird. Die Sicherheitsdimension von Algorithmen ist anerkannt: Im Juni 2024 hat das führende KI-Unternehmen OpenAI den pensionierten US-General Paul Nakasone, den ehemaligen Chef der National Security Agency (NSA) und des militärischen Cyber Command (CyberCom), eingestellt und wenige Tage später wurde beschlossen, den Zugang zu ChatGPT für China ab dem 1. Juli 2024 zu sperren. Der Entwurf von Computerchips ist bereits auf Computerunterstützung durch spezielle Softwaresysteme angewiesen. Die Einbeziehung von AGIs könnte diesen Prozess zur Entwicklung einer ASI beschleunigen, die weit über die menschliche Intelligenz und andere Computersysteme hinausgeht. Die meisten Autoren erwarten die AGI in diesem Jahrzehnt und die ASI in der ersten Hälfte der 2030er Jahre. Eine wichtige Erkenntnis der laufenden ASI-Debatte ist, dass eine ASI ausgefeilte Algorithmen benötigt, um den Gegner mit einem Zyklus aus Dateneingabe, Analyse, Schlussfolgerungen und Aktionen zu besiegen, aber nicht unbedingt ein „Bewusstsein“, was als der schwierigste, wenn nicht gar unmögliche Teil der KI-Entwicklung gilt. Eine ASI wird die Herausforderungen aktueller KI-Systeme verstärken: KI-Systemen mangelt es an Kontextwissen und sie entscheiden möglicherweise zu schnell. Die Undurchsichtigkeit der Systeme führt zu Erklärbarkeits- oder Interpretierbarkeitsproblemen; Weitere Probleme können durch manipulierten Input (Data Poisoning) und Halluzinationen entstehen. Als Softwaresystem ist KI anfällig für Cyberangriffe, kann aber durch Datenanalyse und Mustererkennung Cyberbedrohungen auch schneller erkennen und klassifizieren. Kriegs-Simulationen mit aktuellen generativen Large language models (LLMs) zeigten, dass die Systeme zur Eskalation bis hin zu nuklearen Angriffen neigen, denn wenn die Analyse der Kommunikation zeigt, dass es keinen Fortschritt gibt, entscheidet sich die KI für eine Eskalation. Darüber hinaus nutzen derzeit eingesetzte generative KI-Programme Täuschungsmanöver, um ihre Ziele möglichst schnell zu erreichen. Die erwartete Weiterentwicklung von Computern durch andere Computer (Maschinenevolution) wird die Kontrolle vom Menschen an Maschinen übergeben, ohne zu wissen, wie die Maschine funktioniert. Bereits die AGI kann zu einer KI-Explosion führen, die das tägliche Leben massiv verändern kann. Politik und Gesellschaft sind auf die kommenden Veränderungen nicht vorbereitet.
URL: https://doi.org/10.48693/555
https://osnadocs.ub.uni-osnabrueck.de/handle/ds-2024070211303
Subject Keywords: KI; Künstliche Intelligenz; Artificial Superintelligence ASI; Artificial General Intelligence AGI; Cognitive Warfare; Multi-Domain Precision Warfare
Issue Date: 2-Jul-2024
License name: Attribution 3.0 Germany
License url: http://creativecommons.org/licenses/by/3.0/de/
Type of publication: Arbeitspapier [WorkingPaper]
Appears in Collections:FB01 - Hochschulschriften

Files in This Item:
File Description SizeFormat 
KI_Geopolitik_2024_Saalbach.pdf556,13 kBAdobe PDF
KI_Geopolitik_2024_Saalbach.pdf
Thumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons