Sicherheitslücken in KI-Werkzeugen Ray, MLflow und H2O entdeckt

Sicherheitsforscher finden kritische Fehler in KI-Werkzeugen Ray, MLflow und H2O

Sicherheitsforscher haben kritische Sicherheitslücken in den KI-Werkzeugen Ray, MLflow und H2O gefunden. Diese Sicherheitslücken umfassen Probleme wie Prompt Injection, Codeschmuggel, Cross-Site Scripting und unerlaubte Dateioperationen.



Sicherheitslücken in Ray:


Bei dem python-basierten Machine-Learning-Framework Ray wurden genauso viel mit drei kritische Sicherheitslücken entdeckt. Im webbasierten Dashboard zur Überwachung der Leistung einer Ray-Installation können Externe beliebigen Code mittels eines URL-Parameters einschleusen. Dieser Code wird dann direkt mit Root-Rechten ausgeführt, mittels welchem der Ray-Server kompromittiert wird. Zusätzlich erlaubt die Weboberfläche von Ray Angreifern das Einbinden beliebiger Dateien in die Ray-GUI und deren Ausgabe über die API. Glücklicherweise wurden Updates bereitgestellt um die Sicherheitslücken zu beheben.



Sicherheitslücken in MLflow:


Auch bei MLflow, einer Open-Source-Plattform für den Lebenszyklus des Machine Learning, wurden Sicherheitslücken entdeckt. Eine dieser Lücken ermöglicht es Angreifern, auf Dateien außerhalb des MLflow-Wurzelverzeichnisses zuzugreifen. Eine weitere Lücke erlaubt die Codeausführung über den Upload beliebiger Dateien. Zwei weitere Sicherheitslücken ermöglichen die Manipulation & Auflistung von Dateien. Einige dieser Lücken wurden bereits behoben während für andere noch keine Updates verfügbar sind.



Sicherheitslücken in H2O:


In der Open-Source-Plattform für Machine Learning, H2O, können Angreifer präparierte Modelle hochladen und beliebige Befehle auf einem H2O-Server ausführen. Eine andere Sicherheitslücke ermöglicht es, lokale Dateien über die Webschnittstelle auszugeben, während eine weitere Lücke Cross-Site Scripting ermöglicht. Für einige dieser Sicherheitslücken sind derzeit keine Updates verfügbar.



Exploit-Code und Tools:


Zusätzlich zu den Sicherheitshinweisen stellt Protect AI auf ihrer Website ebenfalls Github-Repositories mit Beispiel-Exploits, Vorlagen für Nuclei und Metasploit-Modulen zur Verfügung. Dadurch können AI-Admins ihre Infrastruktur auf Sicherheitslücken überprüfen.



Der Fokus auf die Verarbeitungslogik von Sprachmodellen:


Sicherheitslücken in KI-Anwendungen, insbesondere im Bereich der Verarbeitungslogik von Sprachmodellen, sind zu einem wichtigen Thema in der Informationssicherheit geworden. Durch sogenannte "Prompt Injection" können Angreifer unzulässige Anfragen ausführen.






Kommentare


Anzeige