Sicherheitslücken in KI-Werkzeugen Ray, MLflow und H2O entdeckt

Sicherheitsforscher finden kritische Fehler in KI-Werkzeugen Ray, MLflow und H2O

Sicherheitsforscher haben kritische Sicherheitslücken in den KI-Werkzeugen Ray, MLflow und H2O gefunden. Diese Sicherheitslücken umfassen Probleme wie Prompt Injection, Codeschmuggel, Cross-Site Scripting und unerlaubte Dateioperationen.



Sicherheitslücken in Ray:


Bei dem python-basierten Machine-Learning-Framework Ray wurden gleich drei kritische Sicherheitslücken entdeckt. Im webbasierten Dashboard zur Überwachung der Leistung einer Ray-Installation können Externe beliebigen Code mittels eines URL-Parameters einschleusen. Dieser Code wird dann direkt mit Root-Rechten ausgeführt, wodurch der Ray-Server kompromittiert wird. Zusätzlich erlaubt die Weboberfläche von Ray Angreifern das Einbinden beliebiger Dateien in die Ray-GUI und deren Ausgabe über die API. Glücklicherweise wurden Updates bereitgestellt, um die Sicherheitslücken zu beheben.



Sicherheitslücken in MLflow:


Auch bei MLflow, einer Open-Source-Plattform für den Lebenszyklus des Machine Learning, wurden Sicherheitslücken entdeckt. Eine dieser Lücken ermöglicht es Angreifern, auf Dateien außerhalb des MLflow-Wurzelverzeichnisses zuzugreifen. Eine weitere Lücke erlaubt die Codeausführung über den Upload beliebiger Dateien. Zwei weitere Sicherheitslücken ermöglichen die Manipulation und Auflistung von Dateien. Einige dieser Lücken wurden bereits behoben, während für andere noch keine Updates verfügbar sind.



Sicherheitslücken in H2O:


In der Open-Source-Plattform für Machine Learning, H2O, können Angreifer präparierte Modelle hochladen und beliebige Befehle auf einem H2O-Server ausführen. Eine andere Sicherheitslücke ermöglicht es, lokale Dateien über die Webschnittstelle auszugeben, während eine weitere Lücke Cross-Site Scripting ermöglicht. Für einige dieser Sicherheitslücken sind derzeit keine Updates verfügbar.



Exploit-Code und Tools:


Zusätzlich zu den Sicherheitshinweisen stellt Protect AI auf ihrer Website auch Github-Repositories mit Beispiel-Exploits, Vorlagen für Nuclei und Metasploit-Modulen zur Verfügung. Dadurch können AI-Admins ihre Infrastruktur auf Sicherheitslücken überprüfen.



Der Fokus auf die Verarbeitungslogik von Sprachmodellen:


Sicherheitslücken in KI-Anwendungen, insbesondere im Bereich der Verarbeitungslogik von Sprachmodellen, sind zu einem wichtigen Thema in der Informationssicherheit geworden. Durch sogenannte "Prompt Injection" können Angreifer unzulässige Anfragen ausführen.






Kommentare


Anzeige