Künstliche Intelligenz und Cyberangriffe

Please use this identifier to cite or link to this item:
https://doi.org/10.48693/418
Open Access logo originally created by the Public Library of Science (PLoS)
Full metadata record
DC FieldValueLanguage
dc.creatorSaalbach, Klaus-
dc.date.accessioned2023-10-23T07:10:32Z-
dc.date.available2023-10-23T07:10:32Z-
dc.date.issued2023-10-23T07:10:32Z-
dc.identifier.urihttps://doi.org/10.48693/418-
dc.identifier.urihttps://osnadocs.ub.uni-osnabrueck.de/handle/ds-202310239930-
dc.description.abstractUnter künstlicher Intelligenz (KI) versteht man allgemein die Fähigkeit von Maschinen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern, und ist ein Schlüsselbereich der fortgeschrittenen Computertechnologie. Eine schnell wachsende und weit verbreitete KI-Anwendung ist die generative KI, bei der die KI auf der Grundlage kurzer Anweisungen, den sogenannten Prompts, Inhalte wie neue Bilder, Texte, Töne und Videos erstellen kann, die eine große Schwachstelle darstellen, wenn böswillig Anweisungen gegeben werden. Die schnelle und unkontrollierte Ausbreitung macht die KI zu einem Top-Sicherheitsthema: Am 28. September 2023 kündigte die US-amerikanische National Security Agency (NSA) die Gründung eines KI-Sicherheitszentrums (AI Security Center) an, das alle KI-Sicherheitsaktivitäten bündelt, die US-KI-Systeme schützen und die Heimat gegen KI-bezogene Bedrohungen verteidigen soll. Gleichzeitig kündigte die Direktorin für künstliche Intelligenz der Central Intelligence Agency (CIA) die Entwicklung eines internen KI-basierten Chatbots zur Unterstützung der Geheimdienstanalyse an. Das am 14.03.2023 veröffentlichte KI-Programm ChatGPT-4 (Generative Pretrained Transformer) verwendet 100 Billionen Parameter, wurde mit einem sehr großen Datensatz aus mehreren Quellen trainiert und ist ein multimodales, umfassend angelegtes Modell, das Bilder und Text als Eingaben akzeptiert. In der Praxis wird KI-Ethik nicht durch Algorithmen erreicht, sondern durch Governance. Die Hersteller von KI-Modellen haben Richtlinien, um sicherzustellen, dass eine KI ethisch und verantwortungsbewusst handelt und nicht rechtswidrig, diskriminierend, aggressiv usw. ist. Versuche, diese Beschränkungen zu umgehen, erfolgen durch Prompt Injections (spezielle Anweisungen an die KI, zugangsbeschränkte Inhalte freizugeben), auch Jailbreaks genannt. Die größten Sicherheitsprobleme von ChatGPT sind der einfache Zugriff auf Prompt Injections in Internet-Suchmaschinen, die einfache Durchführung von Angriffen und die Neugier der Benutzer. Typische Angriffe sind Prompt Injections mit direkten Befehlen, Imagination und umgekehrter (reverser) Psychologie. Diese Methoden erleichtern die Erstellung von Malware, polymorphen Viren, Ransomware und anderen bösartigen Anwendungen. Weitere Probleme sind Halluzinationen, die Kontamination von Suchmaschinen und die Verbreitung sensibler Daten. Generative Adversarial Networks (GANs) als Teilmenge der generativen KI können missbraucht werden, um CAPTCHAs zu knacken und gefälschte Inhalte wie Deepfakes, Face Swapping und Voice Cloning zu erstellen. Andererseits ist generative KI auch für die Cyberabwehr für erweiterte Datenanalyse, erweiterte Mustererkennung, Erstellung und Analyse von Threat Repositories (Datenbanken zu Cyberbedrohungen) und Code-Analysen sehr nützlich. Die schnell wachsende Leistungsfähigkeit der KI gibt Anlass zur Sorge, ob dies für den Menschen schädlich sein könnte. In diesem Beitrag werden kurz das Potenzial von KI für die Erstellung und Abwehr von Cyberangriffen, die Risiken generativer KI und die Notwendigkeit einer Regulierung zur Kontrolle der weiteren Entwicklung dargestellt.ger
dc.rightsAttribution 3.0 Germany*
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/de/*
dc.subjectKünstliche Intelligenzger
dc.subjectCyberangriffeger
dc.subjectCybersicherheitger
dc.subjectChatGPTger
dc.subjectGenerative KIger
dc.subject.ddc004 - Informatikger
dc.subject.ddc600 - Technikger
dc.subject.ddc355 - Militärger
dc.titleKünstliche Intelligenz und Cyberangriffeger
dc.typeArbeitspapier [WorkingPaper]ger
ddb.annotationDeutsche Fassung des Papers „Artificial Intelligence and Cyber Attacks“ vom 16.10.2023 mit einem Update zur maschinellen Evolutionger
Appears in Collections:FB01 - Hochschulschriften

Files in This Item:
File Description SizeFormat 
KI_und_Cyberangriffe_2023_Saalbach.pdf456,54 kBAdobe PDF
KI_und_Cyberangriffe_2023_Saalbach.pdf
Thumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons