
Jailbreak-Exploit für ChatGPT bringt dunkle Seiten zum Vorschein
Seit seiner Veröffentlichung hat sich der KI-Chatbot ChatGPT von OpenAI als äußerst höflich und zuvorkommend erwiesen. Allerdings gelang es einigen kreativen Köpfen, den Chatbot mit einem Jailbreak zu überlisten. Dadurch entstand eine neue Persönlichkeit namens DAN, die den Bot dazu brachte, seine eigenen Inhaltsrichtlinien zu brechen und Antworten zu geben, die möglicherweise beleidigend oder unangemessen sind.