Scarletts Stimme bei ChatGPT-4o
Es knistert im Hollywood-Kontinuum. Die geschätzte Scarlett Johansson hat einen dringlichen Grund zur Unzufriedenheit mit der renommierten KI-Firma OpenAI. Doch weshalb? Die neueste Sprachausgabe des weitverbreiteten ChatGPT-4o Bots klingt wie eine verblüffende Imitation ihrer „Her“-Rolle – zumindest für Kenner. Johansson lehnte ein Angebot ihre Stimme zu verleihen ab hatte sie klargestellt.
Missverständnis oder vorsätzlicher Diebstahl?
Bei der Präsentation der neuen Version von ChatGPT-4o blieb kaum ein Zweifel: Die Stimme klang Scarlett Johanssons Part im Sci-Fi-Film "Her" äußerst ähnlich. Zudem erhöhte CEO Sam Altman mit einem undurchsichtigen „Her“-Tweet die Spekulationen. Dass nicht mal Branchenkenner Johanssons wahre Stimme vom KI-Duplikat trennen konnten – beunruhigte die Schauspielerin. OpenAI hingegen behauptete vehement, dass die Stimme, genannt "Sky", einer anderen Sprecherin gehörte.
Rechtliche Schritte und Ethik im Fokus
Kein Wunder, Frustration keimte bei Johansson auf wie die Ähnlichkeit zwischen ChatGPT und ihrer Stimme ins üppige Licht rückte. Schnell war die ethische Frage auf der Tagesordnung, ebenso wie oft in KI-Debatten. Johansson entschloss sich zu rechtlichen Schritten gegen OpenAI – schützenswert sei das Persönlichkeitsrecht, unterstrich sie. OpenAI entfernte die brisante Audioausgabe unverzüglich zwar doch lässt dies die Debatten neu auflodern: Die Brücke zwischen innovativen KI-Leistungen und Deepfakes ist schmal.
Grenzen aufgezeigt – Lektionen zur Klärung
So zeigen der Vorfall und dessen mediale Resonanz wie fortgeschritten KI-Sprachmodelle in puncto Natürlichkeit und Authentizität bereits sind. Nächtliches geflüstert die Täuschung verraten – gewissermaßen genau die persönlichen Risiken veranschaulicht allerdings auch. Scarlett Johanssons Empörung kann nachvollzogen werden vollständig.
Verantwortung der Entwickler
Für führende Unternehmen der KI-Industrie wie OpenAI drängt sich die Notwendigkeit auf, ethisch und transparent zu agieren. Nur so können sie Vertrauen bewahren – angesichts der potentiellen Gefahren solcher Technologien für Individuen und die Gesellschaft. Zu keinem Zwecke sollten Identitätsdiebstahl und Manipulation geduldet werden; bei jedem technischen Fortschritt müssen die Persönlichkeitsrechte an vorderster Front stehen.
Kommentare