Neu entdeckter KI-Jailbreak bedroht Sicherheitsfilter: 99 % aller Modelle angreifbar
Alarm in der KI-Branche durch neue Angriffsmethode Der neueste Vorfall macht deutlich, wie angreifbar die Sicherheitsmechanismen moderner KI-Modelle sind. Forschende haben einen sogenannten KI-Jailbreak entwickelt, der die Schutzfilter von bekannten Sprachmodellen wie GPT, Claude, Gemini und Grok nahezu vollständig umgeht.