Wie Cyberkriminelle künstliche Intelligenz nutzen

Programmers in AI data center react to virus alert protecting critical systems
Bild: ©DC Studio/stock.adobe.com

Die Google Threat Intelligence Group (GTIG) gibt in ihrem AI Threat Tracker einen Überblick darüber, wie Cyberkriminelle künstliche Intelligenz (KI) einsetzen. Der Analyse zufolge haben sich die KI-gestützten Fähigkeiten von Bedrohungsakteuren deutlich weiterentwickelt.

Demnach nutzen Angreifer künstliche Intelligenz nicht mehr nur zur Steigerung ihrer Produktivität, sondern experimentieren mit neuen Funktionen und Szenarien. Sie setzen in aktiven Kampagnen neuartige, KI-gestützte Malware ein, die das Angriffsverhalten während der Ausführung dynamisch verändert. Diese Veränderung hat sich laut GTIG in den letzten Monaten vollzogen.

Weitere Ergebnisse des AI Threat Tracker

Die GTIG hat erstmals Malware-Familien wie Promptflux und Promptsteal identifiziert, die während der Ausführung Large Language Models (LLMs) verwenden. Diese Tools generieren dynamisch bösartige Skripte und verschleiern ihren eigenen Code, um nicht erkannt zu werden. Zudem nutzen sie KI-Modelle, um bösartige Funktionen nach Bedarf zu erstellen, anstatt sie fest in die Malware zu programmieren. Laut GTIG steckt diese Entwicklung zwar noch in den Kinderschuhen, stellt jedoch einen bedeutenden Schritt in Richtung autonomer und anpassungsfähiger Malware dar.

Bedrohungsakteure verwenden in ihren Prompts Social-Engineering-Methoden, um Sicherheitsvorkehrungen von KI-Tools zu umgehen. In einem Beispiel beschreibt Google etwa, dass sich Hacker als Studenten in einem ‚Capture the Flag‘-Wettbewerb oder als Cybersicherheitsforscher ausgegeben haben, um für die Entwicklung ihrer Tools bestimmte Informationen von dem KI-Assistenten Gemini zu bekommen, die sonst gesperrt wären.

Staatlich geförderte Akteure, beispielsweise aus Nordkorea, Iran oder der Volksrepublik China, nutzen Gemini, um alle Phasen ihrer Aktivitäten zu verbessern. Das reicht von der Aufklärung und Recherche über die Erstellung von Phishing-Ködern bis hin zum technischen Support für ihre ‚Command&Control‘-Maßnahmen und die Datenexfiltration.

Der Untergrundmarkt für illegale KI-Tools ist im Jahr 2025 gereift. Google hat mehrere multifunktionale Tools identifiziert, die Phishing, die Entwicklung von Malware und die Erforschung von Schwachstellen unterstützen. Solche Angebote senken die Einstiegshürde für weniger versierte Akteure drastisch.

Billy Leonard, Technischer Leiter der Google Threat Intelligence Group, erläutert: „Angreifer nutzen durchaus gängige KI-Plattformen – doch deren Schutzmechanismen sorgen dafür, dass viele auf Modelle aus dem kriminellen Untergrund zurückzugreifen. Solche Tools unterliegen keinen Beschränkungen und können weniger fortgeschrittenen Akteuren einen erheblichen Vorteil verschaffen. Derzeit sind mehrere vom ihnen verfügbar, und wir gehen davon aus, dass sie die Einstiegshürden für viele Kriminelle senken werden.“