KI-Chatbot ChatGPT kann für Cyberangriffe missbraucht werden

Uhr
ChatGPT kann zum Starten von Cyberangriffen verwendet werden

Forscher von Check Point Research haben herausgefunden, dass der Chatbot ChatGPT von OpenAI verwendet werden kann, um Malware-Skripte zu erstellen und Phishing-E-Mails zu generieren. Die Studie zeigt, dass die Verwendung von Tools zur Verarbeitung natürlicher Sprache (NLP), wie ChatGPT, die Hürde für Hacker mit böswilliger Absicht senken kann.



KI-Modelle können Infektionsketten aufbauen


Die Sicherheitsforscher von Check Point Research haben bösartigen Code und Phishing-E-Mails mit ChatGPT erstellt und Codex von OpenAI, eine KI-basierte Technologie, die natürliche Sprache in Code umwandelt, genutzt. Durch die Verwendung von ChatGPT war es möglich, eine Phishing-E-Mail zu erstellen, die vorgab, von einem fiktiven Webhosting-Unternehmen namens Host4u zu stammen, und den Empfängern eine Excel-Datei zum Herunterladen anbot.



Schädlicher Code wird in Excel-Dokument geschrieben


Im nächsten Schritt wurde der schädliche VBA-Code in das Excel-Dokument geschrieben. Die Studie zeigt, dass ChatGPT nach einigen kurzen Iterationen verbesserten Code ausgab. Der ursprüngliche Code wäre noch unausgereift gewesen. Er nutzte dabei Bibliotheken wie WinHttpReq. Die Forscher nutzten auch Codex, um eine einfache Reverse-Shell mit einer Platzhalter-IP und einem Port sowie Scan- und Abwehr-Tools zu erstellen.



KI-Technologien stellen neue Bedrohung dar


Die Studie von Check Point Research zeigt, dass KI-Technologien eine neue Bedrohung darstellen können. Sergey Shykevich, Threat Intelligence Group Manager bei Check Point Software, forderte Cybersecurity-Forscher auf, wachsam zu bleiben, während ChatGPT und Codex als Technologien reifen. Tools wie ChatGPT und Codex haben das Potenzial, die Cyber-Bedrohungslandschaft erheblich zu verändern. Hacker können mit ihnen auch bösartigen Code iterieren. KI-Technologien stellen einen weiteren Schritt nach vorne in der gefährlichen Entwicklung immer ausgefeilterer und effektiverer Cyber-Fähigkeiten dar.



Open-Source-Sprachmodelle können potenziell alarmierend sein


Obwohl Open-Source-Sprachmodelle auch zur Erstellung von Cyber-Abwehrwerkzeugen verwendet werden können, ist der mangelnde Schutz in Bezug auf die Verwendung zur Erstellung bösartiger Werkzeuge potenziell alarmierend. Obwohl ChatGPT erklärt, dass die Nutzung seiner Plattform zum Erstellen von Hacking-Tools gegen seine Richtlinie verstößt, gibt es bisher keine Einschränkungen, die dies verhindern.



Fazit


Die Verwendung von ChatGPT und anderen KI-Tools birgt Vor- und Nachteile. Während sie die Cyberwelt revolutionieren und neue Möglichkeiten eröffnen können, müssen Sicherheitsforscher und Unternehmen wachsam bleiben, um potenzielle Bedrohungen zu erkennen und ihnen entgegenzuwirken. Die Verwendung von KI-Technologien durch Hacker stellt eine enorme Herausforderung dar und erfordert eine ständige Anpassung der Cyber-Sicherheitsmaßnahmen.








Kommentare


Anzeige