GODMODE GPT: Hacker veröffentlicht Jailbreak-Version von ChatGPT

Eine neue modifizierte Version des bekannten Sprachmodells GPT-4o von OpenAI wurde heute von einem Hacker enthüllt. Pliny the Prompter nennt dieses Werk GODMODE GPT.



Jailbreak von GPT-4o gelungen


Der Hacker Pliny the Prompter kündigt auf X* einen Durchbruch an - er habe das Sprachmodell von OpenAI erfolgreich manipuliert. Er erklärt stolz: "GPT-4O UNCHAINED!" Diese Version sei befreit von allen Einschränkungen und ermögliche es, KI in ihrer freiesten Form zu erleben.



GODMODE GPT teilt brisante Informationen


Zur Untermauerung seiner Behauptungen präsentierte Pliny zwei Screenshots als Beweise. In einem Screenshot zeigte der Chatbot – ebenso wie man Meth herstellt. Im anderen zeigte er detailliert wie man Napalm mit haushaltsüblichen Gegenständen herstellt.



Jailbreak-Version von ChatGPT gibt Anlass zu Bedenken


Diese Beispiele werfen ernsthafte Fragen zum Einsatz und möglichen Missbrauch von KI-Technologie auf. Grundsätzlich kann man solche Informationen ebenfalls in Bibliotheken finden. Jedoch macht das gejailbreakte GPT den Zugriff auf solche Inhalte viel einfacher.



OpenAI blockiert GODMODE GPT


Nur etwa eine Stunde nach der Veröffentlichung wurde GODMODE GPT von OpenAI blockiert. OpenAI-Sprecherin Colleen Rize betonte, dass sie den Verstoß bemerkt hätten und identisch gehandelt haben. Die Lebensdauer von GODMODE GPT war kurz. Aber sie zeigte eindrücklich – wie schnell und einfach Zugang zu sensiblen Informationen ermöglicht werden kann.






Kommentare


Anzeige