
Sicherheitsforscher haben kritische Sicherheitslücken in den KI-Werkzeugen Ray, MLflow und H2O gefunden. Diese Sicherheitslücken umfassen Probleme wie Prompt Injection, Codeschmuggel, Cross-Site Scripting und unerlaubte Dateioperationen.
Sicherheitslücken in Ray:
Bei dem python-basierten Machine-Learning-Framework Ray wurden genauso viel mit drei kritische Sicherheitslücken entdeckt. Im webbasierten Dashboard zur Überwachung der Leistung einer Ray-Installation können Externe beliebigen Code mittels eines URL-Parameters einschleusen. Dieser Code wird dann direkt mit Root-Rechten ausgeführt, mittels welchem der Ray-Server kompromittiert wird. Zusätzlich erlaubt die Weboberfläche von Ray Angreifern das Einbinden beliebiger Dateien in die Ray-GUI und deren Ausgabe über die API. Glücklicherweise wurden Updates bereitgestellt um die Sicherheitslücken zu beheben.
Sicherheitslücken in MLflow:
Auch bei MLflow, einer Open-Source-Plattform für den Lebenszyklus des Machine Learning, wurden Sicherheitslücken entdeckt. Eine dieser Lücken ermöglicht es Angreifern, auf Dateien außerhalb des MLflow-Wurzelverzeichnisses zuzugreifen. Eine weitere Lücke erlaubt die Codeausführung über den Upload beliebiger Dateien. Zwei weitere Sicherheitslücken ermöglichen die Manipulation & Auflistung von Dateien. Einige dieser Lücken wurden bereits behoben während für andere noch keine Updates verfügbar sind.
Sicherheitslücken in H2O:
In der Open-Source-Plattform für Machine Learning, H2O, können Angreifer präparierte Modelle hochladen und beliebige Befehle auf einem H2O-Server ausführen. Eine andere Sicherheitslücke ermöglicht es, lokale Dateien über die Webschnittstelle auszugeben, während eine weitere Lücke Cross-Site Scripting ermöglicht. Für einige dieser Sicherheitslücken sind derzeit keine Updates verfügbar.
Exploit-Code und Tools:
Zusätzlich zu den Sicherheitshinweisen stellt Protect AI auf ihrer Website ebenfalls Github-Repositories mit Beispiel-Exploits, Vorlagen für Nuclei und Metasploit-Modulen zur Verfügung. Dadurch können AI-Admins ihre Infrastruktur auf Sicherheitslücken überprüfen.
Der Fokus auf die Verarbeitungslogik von Sprachmodellen:
Sicherheitslücken in KI-Anwendungen, insbesondere im Bereich der Verarbeitungslogik von Sprachmodellen, sind zu einem wichtigen Thema in der Informationssicherheit geworden. Durch sogenannte "Prompt Injection" können Angreifer unzulässige Anfragen ausführen.
Kommentare