Tag: ChatGPT-4o

Time Bandit Jailbreak: ChatGPT-4o Exploits überwinden OpenAI-Sicherheitsschranken

Time Bandit Jailbreak: Sicherheitslücken in ChatGPT-4o aufgedeckt

Ein neuer Jailbreak erregt Aufsehen Am Donnerstag wurde der Time Bandit Jailbreak bekannt. Dieser nutzt gleich zwei Schwachstellen in ChatGPT-4o. Benutzer könnten dadurch in der Lage sein, eine temporale Verwirrung innerhalb der KI auszunutzen. In verschiedenen Tests ergaben sich ernsthafte Bedenken.

ChatGPT-4o-Jailbreak-Technik ermöglicht Schreiben von Exploit-Codes

ChatGPT-4o: Jailbreak-Technik und ihre Sicherheitsrisiken

Künstliche Intelligenz (KI) wird zunehmend über verschiedene Bereiche hinweg eingesetzt. Der wachsende Einsatz verlangt umfassende Sicherheitsmaßnahmen. Diese sollen insbesondere den Missbrauch verhindern. Vor kurzem wurde jedoch eine Schwachstelle in ChatGPT-4o entdeckt.

Recall-KI für Windows 11: Microsoft gibt dem PC ein fotografisches Gedächtnis

Recall-KI für Windows 11: Microsoft begrüßt eine neue Ära

Ein fotografisches Gedächtnis für PCs Viele spannende Neuerungen stellte Microsoft kürzlich bei einer Veranstaltung vor. **Publikumsmagnet** war dabei die sogenannte Recall-KI für Windows 11. Mit dieser Erweiterung soll das Betriebssystem ein "fotografisches Gedächtnis" erhalten.