Sicherheitsaspekte der KI-basierten Forschung

Please use this identifier to cite or link to this item:
https://doi.org/10.48693/573
Open Access logo originally created by the Public Library of Science (PLoS)
Title: Sicherheitsaspekte der KI-basierten Forschung
Authors: Saalbach, Klaus
Abstract: Unter künstlicher Intelligenz (KI) versteht man allgemein die Fähigkeit von Maschinen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Der Kern der Definitionen der menschlichen Intelligenz umfasst jedoch die mentale Fähigkeit, Probleme zu erkennen, zu analysieren und zu lösen. Ein Mensch ist dann intelligenter, wenn dies schneller und/oder bei komplexeren Problemen möglich ist. Derzeit geht die Entwicklung der KI in Richtung einer künstlichen allgemeinen Intelligenz (Artificial General Intelligence AGI), die menschliches Erkenntnisniveau erreicht, mit dem Endziel, eine künstliche Superintelligenz (Artificial Super-Intelligence ASI) zu erreichen, die über die menschliche Intelligenz hinausgeht. Eine sich schnell entwickelnde KI-Anwendung ist die generative KI, bei der die KI auf der Grundlage kurzer Anweisungen, den Eingabeaufforderungen, Inhalte wie neue Bilder, Texte, Töne und Videos erstellen kann. In der Zwischenzeit entwickelt OpenAI Q* (Q Star) als fortschrittliche KI-basierte Forschungsmaschine im Projekt Strawberry und Q*/Strawberry wird voraussichtlich in die nächste Version von ChatGPT 5 integriert, die wohl in den kommenden Monaten veröffentlicht wird. Zu den geplanten Q*-Fähigkeiten gehören die Fähigkeit, tiefgreifende Recherchen autonom im Internet durchzuführen (deep research), mehrstufige Langzeitaufgaben zu planen und auszuführen, logisches Denken anzuwenden und die Fähigkeit, mathematische Probleme auf akademischem Niveau zu lösen. Im August 2024 veröffentlichte das in Tokio ansässige Unternehmen Sakana die erste Version seines „AI Scientist“, eines KI-Agenten, der alle Teile der Forschung von der Ideengenerierung bis zur Veröffentlichung automatisch durchführen kann. Obwohl es sich hierbei um ein relativ schlankes Tool und weder um eine AGI noch um eine KI mit Bewusstsein handelt, verursachte es Sicherheitsprobleme, da es selbstständig neue Codes erstellte, um sich selbst neu zu starten, Zeitlimits für Experimente außer Kraft setzte, mehr Daten speicherte, was zu einem Terabyte an zusätzlichen Daten führte und zudem neuen Python-Code aus Bibliotheken importierte. Da dieser KI-Agent LLMs wie ChatGPT4o nutzt, könnte die Veröffentlichung von ChatGPT5 die Fähigkeiten und Sicherheitsprobleme des AI Scientist und anderer KI-Agenten verstärken. Aufgrund ihres Designs sollten diese KI-Forschungsmaschinen dynamisch und theoretisch unbegrenzt wachsen können. Für Entwickler ist es eine Herausforderung, gleichzeitig Kreativität, Autonomie und Sicherheit für eine Forschungsmaschine zu erreichen. Weitere Probleme sind die Umgehung von Menschen, KI-Täuschungen (AI deception) und der Einsatz dieser Tools für Open-Source-Intelligence OSINT und Cyberspionageoperationen sowie für biologische und chemische Waffen. Das Training der KI ist auf qualitativ hochwertige, von Menschen erstellte Daten angewiesen, da ein Training mit KI-generierten Daten zu einem schnellen Qualitätsverlust, dem sogenannten Modellkollaps, führt. Während der Einsatz von KI in der Wissenschaft ein sehr großes Potenzial hat, Hypothesen zu generieren, Experimente zu entwerfen, große Datensätze mit der Erkennung unbekannter Muster und Zusammenhänge zu sammeln und zu interpretieren und Routinearbeiten zu übernehmen, gibt es eine schleichende Kontamination wissenschaftlicher Publikationen durch nicht deklarierte KI-generierte Texte. Die menschliche Wissensbasis wird auch durch den geplanten oder bereits laufenden Einsatz von KI als Gatekeeper in Suchmaschinen beeinflusst, die diese in Frage- und Antwortmaschinen umwandeln. Das Arbeitspapier stellt kurz die Chancen und Sicherheitsaspekte der KI-basierten und -gestützten Forschung vor und diskutiert mögliche Vorsichtsmaßnahmen wie das Einsperren der KI (Containerisierung) und die Möglichkeit einer Notabschaltung.
URL: https://doi.org/10.48693/573
https://osnadocs.ub.uni-osnabrueck.de/handle/ds-2024082611485
Subject Keywords: Künstliche Intelligenz; Sicherheit; ChatGPT; Wissenschaft
Issue Date: 26-Aug-2024
License name: Attribution 3.0 Germany
License url: http://creativecommons.org/licenses/by/3.0/de/
Type of publication: Arbeitspapier [WorkingPaper]
Appears in Collections:FB01 - Hochschulschriften

Files in This Item:
File Description SizeFormat 
Sicherheitsaspekte_der_KI_basierten_Forschung_2024_Saalbach.pdf621,55 kBAdobe PDF
Sicherheitsaspekte_der_KI_basierten_Forschung_2024_Saalbach.pdf
Thumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons