KI-Firma Anthropic wehrt sich vor Gericht gegen Trump-Regierung

KI-Firma Anthropic wehrt sich vor Gericht gegen Trump-Regierung

Das Pentagon-Logo ist hinter dem Podium im Presseraum des Pentagon zu sehen

Stand: 09.03.2026 • 22:21 Uhr

Die KI-Firma Anthropic wollte ihre Systeme nicht uneingeschränkt für die militärische Nutzung freigeben – deshalb strafte sie das Pentagon ab und stufte sie Sicherheitsrisiko ein. Dagegen wehrt sich das Unternehmen nun gerichtlich.

Anthropic will sich mit der Klage gegen die Einstufung der Trump-Regierung als “Lieferkettenrisiko” wehren. Zuvor verbot das Start-up den Einsatz ihrer KI für Massenüberwachung und autonom über Tötungen entscheidende Waffensysteme.

Durch die Einstufung als sogenanntes Lieferkettenrisiko für die nationale Sicherheit wurde das Unternehmen weitgehend von Regierungsaufträgen ausgeschlossen. Es ist höchst ungewöhnlich, dass eine US-Firma zum “Supply-Chain Risk to National Security” erklärt wird.

US-Präsident Donald Trump ordnete an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen. Anthropic war bisher die einzige KI-Firma, deren Software auch für eine als vertraulich eingestufte Nutzung im US-Militär freigegeben war.

KI solle sicher und verantwortungsvoll eingesetz werden

Nun schaltete Anthropic das Bundesgerichte in Kalifornien und das Berufungsgericht des District of Columbia ein, um die Einstufung aufzuheben und Bundesbehörden an der Durchsetzung der Anordnung zu hindern.

In der Beschwerde schreiben die Anwälte des Unternehmens, Anthropic sei mit dem Ziel gegründet worden, für die Menschheit nützliche KI-Technologien zu entwickeln, die zugleich sicher und verantwortungsvoll sein sollten. Die Regierung wolle sich mit der Einstufung als Lieferkettenrisiko dafür rächen, dass Anthropic diese Werte vertrete.

Zwischen Anthropic und dem Pentagon hatte es Streit um den möglichen militärischen Einsatz von KI-Technologie für Massenüberwachung und autonom über Tötungen entscheidende Waffensysteme gegeben. Das Unternehmen wollte diese Nutzung nicht freigeben.

OpenAI will Anthropic ersetzen

Das Pentagon kündigte daraufhin einen 200-Millionen-Dollar-Vertrag über die Nutzung von Anthropics KI-Modellen. Stattdessen kommt jetzt Konkurrent OpenAI zum Zug. Nach dem Streit mit Anthropic schloss der ChatGPT-Entwickler OpenAI eine Vereinbarung mit dem Pentagon.

OpenAI-Chef Sam Altman ließ sich zwar auf die Bedingungen des Ministeriums ein, versicherte aber später, dass es technische Hürden für den Einsatz zur Massenüberwachung in den USA geben sollte. Die Leiterin für Robotik und Hardware bei OpenAI, Caitlin Kalinowski, gab daraufhin am Samstag ihren Rücktritt bekannt.

Klageaussichten unklar

Die Erfolgsaussichten der Klage sind offen. Anthropic argumentiert unter anderem auch, die Regierung bestrafe durch die Einstufung als “Lieferkettenrisiko” das von der Verfassung geschützte Recht auf freie Meinungsäußerung. Die Regierung beruft sich dagegen auf nationale Sicherheitsinteressen.

Nach Informationen der Washington Post nutzt das US-Militär derzeit weiterhin Anthropic-Technologien, unter anderem zur Identifizierung und Bewertung möglicher Angriffsziele in Iran.

Mit Informationen von Reinhard Spiegelhauer, ARD Los Angeles

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *