
In den USA haben sich die Herunterladen-Ranglisten innerhalb kürzester Zeit dramatisch verändert. Der KI-Chatbot Claude der Firma Anthropic gewinnt rasant an Popularität, verdrängt ChatGPT den Branchenriesen von OpenAI vom ersten Platz. Dieses plötzliche Hoch lässt sich auf einen öffentlichen Streit zwischen dem Entwickler aus San Francisco und der US-Regierung zurückführen.
Nationales Unbehagen angesichts ethischer Sicherheitsvorkehrungen
Der Streit entzündete sich daran. Dass Anthropic sich weigerte – bestimmte Sicherheitsmechanismen für das Militär zu lockern. Das Unternehmen besteht auf seinen Prinzipien der Ethik die nämlich verhindern sollen, dass KI-Anwendungen in inländischer Massenüberwachung oder vollautonomen Waffensystemen zum Einsatz kommen. Die Sicherheitsvorgaben basieren auf einer „Verfassung“—einer expliziten Regelwerksammlung die auf der UN-Menschenrechtscharta beruht. Diese Prinzipien erschweren bedeutsam die Anpassung der KI für militärische Zwecke.
Folgen für die öffentliche Wahrnehmung und Nutzerzahlen
Als Konsequenz dieser Entscheidung reagierte das Verteidigungsministerium mit harten Worten. Verteidigungsminister Pete Hegseth ordnete an – Anthropic auf eine schwarze Liste zu setzen und das Unternehmen als Sicherheitsrisiko einzustufen. Doch akkurat diese Haltung führte zu einer Welle der Solidarität unter den Nutzern. Daten vom Analyse-Unternehmen SensorTower bestätigen einen massiven Zunahme der Nutzerzahlen. Die täglichen Neuanmeldungen erreichten Rekordwerte und seit Januar konnte die Nutzerbasis um über 60 Prozentsatz wachsen. Die Zahl bezahlter Abonnements wurde im gleichen Periode fast verdoppelt.
Promi-Engagement und Nutzergruppen gegen ChatGPT
In der Popkultur fand das Thema gleichermaßen Resonanz. Sängerin Katy Perry kursierte ein Screenshot der den Kauf eines Claude-Pro-Abonnements nahelegte. Parallel formierten sich Nutzergruppen die den Hashtag „QuitGPT“ nutzten um Alternativen zu propagieren. Die Anwender boten sogar Anleitungen an um bestehende Chat-Historien zu transferieren.
Technische Grundlagen und Haltung von Anthropic
Anthropic verfolgt bei der Entwicklung seiner KI die Strategie der „Constitutional AI“. Dabei basiert das Modell auf einer festgelegten Verfassung mit Regeln die auf Menschenrechten beruhen. Dies macht eine schnelle Anpassung für militärische Zwecke anspruchsvoll – Änderungen an der Architektur sind kaum möglich. OpenAI hingegen hat sich verstärkt im Bereich des Regierungsgeschäfts engagiert und unterzeichnete eine entsprechende Abmachung mit dem Pentagon. CEO Sam Altman bezeichnete die Politik gegenüber Anthropic als einen bedenklichen Präzedenzfall.
Marktchancen und Risiken im Übersicht
Trotz des Nutzererfolgs warnen Marktbeobachter vor Risiken. Branchenanalyst Dan Ives vom Unternehmen Wedbush sieht Parallelen zu den Sanktionen gegen Huawei. Die rechtliche Unsicherheit könnte dazu führen, dass potenzielle Unternehmenskunden zögern, Verträge abzuschließen. Das Stigma durch die Regierung könnte langfristig den Geschäftserfolg von Anthropic beeinträchtigen, solange die juristischen Rahmenbedingungen ungeklärt verbleiben.
Kommentare
Ethik versus Regierungsinteresse
Der Konflikt um die Sicherheitsethik der KI spaltet die Technologiewelt. Die Frage bleibt offen; ob Nutzer die breiten Ablehnungen gegen die politische Einflussnahme für gerechtfertigt halten oder als übertrieben ansehen.