Kanadische Datenschutzbehörde prüft Chatbot-Entwickler OpenAI

ChatGPT: Kanadische Datenschutzbehörde untersucht OpenAI

Das kanadische Datenschutzamt hat eine Untersuchung gegen OpenAI eingeleitet, da das Unternehmen den synthetischen Intelligenz-basierten Chatbot ChatGPT entwickelt hat. Philippe Dufresne » der Datenschutzbeauftragte Kanadas « betont. Dass Schutz der Privatsphäre angesichts der raschen technologischen Entwicklungen von höchster Bedeutung sei und sein Amt diesen Entwicklungen einen Schritt voraus sein müsse.



Der oberste kanadische Datenschützer reagiert damit laut Mitteilung auf eine Beschwerde. Wer sich worüber konkret beschwert hat geht aus der Mitteilung nicht hervor. Allgemein geht es um die Erhebung, Verwendung & Offenlegung personenbezogener Daten ohne Zustimmung. Weil die Untersuchung noch laufe würden keine weiteren Details bekannt gegeben.


Im Nachbarland USA hat eine gemeinnützige Forschungsorganisation die dort für Verbraucherschutz zuständige Federal Trade Commission (FTC) aufgefordert, gegen OpenAI Ermittlungen einzuleiten. In Italien wurde auf Betreiben der dortigen Datenschutzaufsicht der Zugang zu ChatGPT bereits gesperrt.


Geschäftsgeheimnisse in ChatGPT


Die italienische Behörde wirft OpenAI vor, es verarbeite bislang unrechtmäßig personenbezogene Daten. Als Basis für die Anschuldigungen dient maßgeblich das kürzlich aufgetauchte Datenleck in ChatGPT das die Einsicht in die Informationen fremder Nutzer erlaubte sogar Zahlungsdaten waren dabei.


IT-Unternehmen in Südkorea bemühen sich laut einem Bericht der Korea Times darum, ihren Mitarbeitern Richtlinien im Umgang mit ChatGPT aufzuerlegen. Da diese den Chatbot nutzten um beispielsweise zu programmieren oder ihre Meetings zu organisieren, bestehe das Risiko, dass Geschäftsgeheimnisse an die Öffentlichkeit dringen.


In einem vom Future of Life Institute (FLI) veröffentlichten Manifest hatten über 10.000 teils prominente Unterzeichner❬innen❭ wie Elon Musk und Steve Wozniak eine halbjährige Zwangspause für die Arbeit an KI-Modellen gefordert die "mächtiger als GPT-4" seien. Nur so könne man gewährleisten, dass die KI zum Wohle der Menschheit beitrage statt ihr zu schaden.






Kommentare


Anzeige