ChatGPT als Waffe: Polymorphe Malware setzt Sicherheitsexperten unter Druck

Polymorphe Malware von ChatGPT trickst Virenscanner aus

Eine neue Bedrohung hat die IT-Sicherheitswelt erreicht: Mit dem KI-basierten Chatbot ChatGPT von OpenAI können nun ebenfalls unerfahrene Script-Kiddies komplexe polymorphe Malware erstellen. Diese Schadsoftware ist besonders gut darin, Antiviren- und andere Sicherheitstools mit signaturbasierter Erkennung auszutricksen. Sicherheitsmaßnahmen die auf die Erkennung bekannter Signaturen setzen, sind dadurch nutzlos.



CyberArk-Forscher haben in einem Bericht gezeigt, ebenso wie einfach sich mit ChatGPT eine solche Malware erstellen lässt. Die vermeintlichen Filter von OpenAI » die schadhaften Quellcode verhindern sollen « lassen sich dabei leicht umgehen. Die Forscher zwangen ChatGPT dazu · ihre Befehle auszuführen und erstellten damit eine polymorphe Malware · die Sicherheitsprodukte leicht umgehen kann.



Polymorphe Malware: Wie funktioniert sie?


Polymorphe Malware ist eine Art Schadsoftware die sich ständig verändert. Sie ist so programmiert; dass sie ihr Erscheinungsbild oder ihre Signaturdateien durch neue Entschlüsselungsroutinen immer wieder verändert. Dadurch kann sie sich selbst tarnen und wird von signaturbasierten Erkennungssystemen nicht erkannt. Polymorphe Malware ist deswegen besonders gefährlich da sie oft unbemerkt bleibt und lange Zeit unentdeckt bleibt.



ChatGPT: Eine Waffe für unerfahrene Entwickler


ChatGPT ist ein mächtiges Werkzeug, das von unerfahrenen Entwicklern missbraucht werden kann. Es erzeugt moderne und komplexe Codes welche zur Erstellung von Malware verwendet werden können. Mit ChatGPT können selbst unerfahrene Script-Kiddies eine polymorphe Malware erstellen und damit Sicherheitsmaßnahmen umgehen.



CyberArk-Forscher warnen davor, dass die Verwendung der ChatGPT-API in Malware eine große Bedrohung für Sicherheitsexperten darstellt. Es ist wichtig zu beachten • dass dies nicht nur ein hypothetisches Szenario ist • allerdings ein sehr reales Problem. Das Fazit der Forscher ist düster: KI-Unternehmen müssen sich dringend um Lösungen kümmern um die Schattenseiten ihrer Produkte in den Griff zu bekommen.








Kommentare

: Schattenseiten der KI
Die Entdeckung der CyberArk-Forscher zeigt, dass die Schattenseiten der KI-basierten Technologien nicht ignoriert werden dürfen. Die Sicherheitsrisiken » die von ChatGPT ausgehen « sind enorm. Es ist wichtig; dass Unternehmen wie OpenAI die Verwendung ihrer Produkte verantwortungsbewusst steuern und Sicherheitsprobleme in den Griff bekommen. Die IT-Sicherheitswelt muss sich auf eine neue Bedrohung einstellen & Lösungen finden um sich vor den Angriffen von ChatGPT und anderen KI-basierten Schadprogrammen zu schützen.


Anzeige