Hacker-Gruppen bedienen sich Googles KI Gemini

Mehrere Hacker-Gruppen die staatlich gefördert werden, nutzen Googles KI-gestützten Assistenten Gemini für ihre Machenschaften. Laut Google dient Gemini diesen Akteuren nicht zur Entwicklung neuartiger Cyberangriffe. Vielmehr arbeiten sie effizienter und forschen nach möglichen Angriffsziele.



APT-Gruppen und ihre Vorlieben


Googles Threat Intelligence Group (GTIG) stellte fest, dass besonders Hackergruppen aus Iran & China Gemini häufig einsetzen. Diese Gruppen haben verschiedene Anwendungsfälle forciert.



### Anwendungen von Gemini

Die häufigsten Anwendungen für Gemini umfassen unter anderem:
  • Unterstützung bei der Programmierung von Tools und Skripten.
  • Recherche zu bekannten Sicherheitslücken.
  • Bereitstellung von Übersetzungen.
  • Erklärungen zu Technologien.
  • Informationssuche über Zielorganisationen.
  • Strategien zur Umgehung von Erkennung und Rechteausweitung in kompromittierten Netzwerken.

## Unterschiede in den Angriffsmustern

Das Einsatzspektrum von Gemini variiert je nach Herkunftsland.

### Iranische Hacker

Hacker aus dem Iran nutzen die KI am intensivsten. Sie integrieren Gemini in Phishing-Kampagnen & Einflussoperationen.



Chinesische Hacker


Gruppen aus China richten ihren Fokus auf US-Militär und Regierungsorganisationen. Hierbei liegt ihr Hauptaugenmerk auf der Forschung nach Schwachstellen und der Entwicklung von Scripts für laterale Bewegungen.



Nordkoreanische Hacker


Nordkoreanische APTs verwenden Gemini in verschiedenen Phasen des Angriffszyklus. Die Akteure konzentrieren sich auf Malware-Entwicklung & Verschleierungstechniken. Ihr Augenmerk liegt auf dem verdeckten IT-Arbeitsprogramm Nordkoreas.



Russische Hacker


Russische Hacker zeigen ein geringeres Engagement. Sie nutzen Gemini hauptsächlich für Skript-Unterstützung und Übersetzungen. Möglicherweise bevorzugen sie KI-Modelle die in Russland entwickelt wurden. Gründe dafür könnten operative Sicherheitsbedenken sein.



Missbrauchsversuche bleiben erfolglos


Google beobachtet ebenfalls Versuche, öffentliche Jailbreaks gegen Gemini anzuwenden. Diese Versuche zielen darauf ab die Sicherheitsmaßnahmen zu umgehen, sind jedoch bisher gescheitert.



Vorfälle bei OpenAI


Ein ähnliches Problem berichtete OpenAI im Oktober 2024. Mit der Verbreitung generativer KI-Systeme wächst die Gefahr des Missbrauchs. Insbesondere Modelle mit unzureichenden Schutzmaßnahmen sind gefährdet.



Sicherheitsforscher haben bereits bei zahlreichen gängigen Systemen, ebenso wie DeepSeek R1 und Alibabas Qwen 2.5, schwache Schutzmechanismen erkannt. Diese lassen sich leicht umgehen.






Kommentare


Anzeige