
Ultimatum – Sicherheitsfilter entfernen bis Freitag
Am 25. Februar 2026 kündigte das US-Verteidigungsministerium eine bedrohliche Frist für das KI-Unternehmen Anthropic an. Bis 17:01 Uhr an diesem Freitag sollen alle Sicherheitsbeschränkungen am Modell Claude verschwinden. Missachtet das Unternehmen diese Instruktion – drohen harte Konsequenzen. Das Verteidigungsministerium setzt auf drastische Maßnahmen wie hohe Strafen und möglicherweise sogar die Enteignung des Unternehmens.
Streit um Zugriff und Ethik – Kontrakt im Zentrum
Dario Amodei Geschäftsführer von Anthropic steht im Mittelpunkt. Der Vertrag über 200 Millionen Dollar – ungefähr 170 Millionen Euro – beschreibt die Kooperation mit dem Pentagon. Dieser fordert uneingeschränkten Zugriff auf die KI-Software für legale Zwecke. Anthropic verwehrt jedoch den Einsatz des Systems bei autonomen Waffen und Massenüberwachung – sie fürchten unkontrollierbare Risiken, falls die Sicherheitsmechanismen gelockert werden.
Regierung plant drastische Gegenmaßnahmen
Insider berichten, dass das US-Ministerium eine Einstufung als „Supply Chain Risk“ erwägt. Diese Kategorisierung würde die Firma von allen Regierungsaufträgen ausschließen was normalerweise nur Staaten wie China oder Russland begegnen würde. Besonders alarmierend ist die Androhung des Defense Production Act. Dieses Gesetz aus dem Koreakrieg gestattet der Regierung weitreichende Eingriffe in die Privatisierung und wurde zuletzt während der Pandemie genutzt um medizinische Güter zu sichern. Jetzt könnte es dazu führen, dass Anthropic gezwungen wird die Technologie gegen den eigenen Willen zu liefern – und das ohne die gewünschten Ethik-Filter.
Hintergrund – Einsatz bei Maduro sorgt für Aufsehen
Die Spannungen wurden durch Berichte ausgelöst die den Einsatz von Claude bei der Festnahme des venezolanischen Präsidenten Nicolás Maduro dokumentierten. Das Pentagon wählte die Sorge – dass Anthropic Fragen zur Nutzung des Systems gestellt hatte. Es wird argumentiert, dass die Verantwortung für die Einhaltung von Gesetzen bei den Nutzern selbst liegt. Software sollte keine eigenen moralischen Grenzen besitzen, so die Haltung der Militärs.
Konkurrenz schläft nicht – Musks xAI gewinnt an Bedeutung
Während Anthropic unter Druck steht, hat das Pentagon kürzlich Verträge mit Elon Musks Unternehmen xAI geschlossen. Der Chatbot Grok wird schon für geheime Netzwerke eingesetzt. Im Gegensatz zu Anthropics strengen Sicherheitsvorkehrungen die ethische Regeln im Modell fest verankern, gelten Musks Systeme als weniger restriktiv. Diese Entwicklung spielt Musks Unternehmen in die Hände und rückt die Frage nach der Autonomie von KI-Entwicklern in den Fokus.
Kommentare
– moralische Prinzipien versus militärischer Nutzen
Der Konflikt zeigt wie sehr die politische Entscheidung die Welt der KI beeinflusst. Die Frage bleibt offen: Sollten Staat und Militär die Entwickler von KI zu ethischen Prinzipien zwingen oder muss der Nutzen für die Verteidigung im Vordergrund stehen? Eure Meinung dazu ist gefragt.