Mehrere Hacker-Gruppen die staatlich gefördert werden, nutzen Googles KI-gestützten Assistenten Gemini für ihre Machenschaften. Laut Google dient Gemini diesen Akteuren nicht zur Entwicklung neuartiger Cyberangriffe. Vielmehr arbeiten sie effizienter und forschen nach möglichen Angriffsziele.
APT-Gruppen und ihre Vorlieben
Googles Threat Intelligence Group (GTIG) stellte fest, dass besonders Hackergruppen aus Iran & China Gemini häufig einsetzen. Diese Gruppen haben verschiedene Anwendungsfälle forciert.
### Anwendungen von Gemini
Die häufigsten Anwendungen für Gemini umfassen unter anderem:
- Unterstützung bei der Programmierung von Tools und Skripten.
- Recherche zu bekannten Sicherheitslücken.
- Bereitstellung von Übersetzungen.
- Erklärungen zu Technologien.
- Informationssuche über Zielorganisationen.
- Strategien zur Umgehung von Erkennung und Rechteausweitung in kompromittierten Netzwerken.
## Unterschiede in den Angriffsmustern
Das Einsatzspektrum von Gemini variiert je nach Herkunftsland.
### Iranische Hacker
Hacker aus dem Iran nutzen die KI am intensivsten. Sie integrieren Gemini in Phishing-Kampagnen & Einflussoperationen.
Chinesische Hacker
Gruppen aus China richten ihren Fokus auf US-Militär und Regierungsorganisationen. Hierbei liegt ihr Hauptaugenmerk auf der Forschung nach Schwachstellen und der Entwicklung von Scripts für laterale Bewegungen.
Nordkoreanische Hacker
Nordkoreanische APTs verwenden Gemini in verschiedenen Phasen des Angriffszyklus. Die Akteure konzentrieren sich auf Malware-Entwicklung & Verschleierungstechniken. Ihr Augenmerk liegt auf dem verdeckten IT-Arbeitsprogramm Nordkoreas.
Russische Hacker
Russische Hacker zeigen ein geringeres Engagement. Sie nutzen Gemini hauptsächlich für Skript-Unterstützung und Übersetzungen. Möglicherweise bevorzugen sie KI-Modelle die in Russland entwickelt wurden. Gründe dafür könnten operative Sicherheitsbedenken sein.
Missbrauchsversuche bleiben erfolglos
Google beobachtet ebenfalls Versuche, öffentliche Jailbreaks gegen Gemini anzuwenden. Diese Versuche zielen darauf ab die Sicherheitsmaßnahmen zu umgehen, sind jedoch bisher gescheitert.
Vorfälle bei OpenAI
Ein ähnliches Problem berichtete OpenAI im Oktober 2024. Mit der Verbreitung generativer KI-Systeme wächst die Gefahr des Missbrauchs. Insbesondere Modelle mit unzureichenden Schutzmaßnahmen sind gefährdet.
Sicherheitsforscher haben bereits bei zahlreichen gängigen Systemen, ebenso wie DeepSeek R1 und Alibabas Qwen 2.5, schwache Schutzmechanismen erkannt. Diese lassen sich leicht umgehen.
Kommentare