Anthropic verklagt! Beschuldigt die Trump-Regierung der Vergeltungsmaßnahmen und Sperrung von Claude, 37 KI-Forscher unterstützen sie

CryptoCity

Anthropic verklagt die Bundesregierung, um die Auflistung als Lieferkettenrisiko anzufechten und die Nutzung von Claude für 6 Monate zu stoppen. Streit um militärischen Einsatz und Sicherheitsregulierung von KI verschärft sich.

Verklagt die Bundesregierung wegen „Lieferkettenrisiko“

Das KI-Unternehmen Anthropic hat kürzlich vor einem US-Bundesgericht Klage eingereicht und die Trump-Regierung beschuldigt, es als „Lieferkettenrisiko“ eingestuft zu haben, und fordert, dass alle Bundesbehörden die Nutzung seines KI-Systems einstellen. Das Unternehmen sieht darin eine racheartige Unterdrückung. Die Klage wurde beim Bundesbezirksgericht Nordkalifornien eingereicht.

In der Klageschrift weist Anthropic darauf hin, dass die Maßnahmen der Regierung ohne rechtliche Grundlage seien und erhebliche Auswirkungen auf den Geschäftsbetrieb und die Partnerschaften des Unternehmens hätten. Die Klageschrift benennt mehrere Regierungsstellen und Beamte als Beklagte, darunter das Verteidigungsministerium, Verteidigungsminister Pete Hegseth, Finanzminister Scott Bessent, Außenminister Marco Rubio sowie Handelsminister Howard Lutnick.

Bildquelle: Anthropic Anthropic verklagt die US-Bundesregierung, weil sie es als „Lieferkettenrisiko“ eingestuft hat und die Nutzung seines KI-Systems durch Bundesbehörden stoppen will.

Das Label „Lieferkettenrisiko“ wird meist bei Technologieunternehmen aus feindlichen Ländern verwendet, z.B. bei Anbietern, die Spionagesoftware oder Malware enthalten könnten. Anthropic betont, dass die Einstufung eines US-amerikanischen KI-Unternehmens als solches Risiko den Ruf und die Geschäftsbeziehungen des Unternehmens deutlich schädigt. Anthropic erklärt, dass das Unternehmen rechtliche Schritte unternimmt, um die Rechtmäßigkeit der Regierungshandlungen zu klären und gleichzeitig die Interessen von Unternehmen, Kunden und Partnern zu wahren.

Streit um militärischen KI-Einsatz, Verhandlungen über Verteidigungs-KI-Verträge scheitern

Der Kern des Konflikts liegt in Meinungsverschiedenheiten zwischen Anthropic und dem US-Verteidigungsministerium bezüglich der Nutzung von KI-Technologien. Zuvor hatte Anthropic mit dem Pentagon über einen Vertrag im Wert von etwa 200 Millionen US-Dollar verhandelt. Während der Verhandlungen forderte das Verteidigungsministerium, dass das KI-System in allen legalen Anwendungen, einschließlich militärischer Szenarien, eingesetzt werden darf. Anthropic bestand auf zwei Sicherheitsbeschränkungen:

  1. Verbot, das KI-Modell Claude für groß angelegte Überwachung der US-Bevölkerung zu verwenden;
  2. Verbot, es in vollständig autonomen, tödlichen Waffensystemen einzusetzen.

Das Unternehmen sieht diese Beschränkungen als wichtige Prinzipien der KI-Sicherheitsregulierung. Die beiden Seiten konnten sich jedoch nie auf eine Einigung einigen. Im Februar 2026 listete die US-Regierung Anthropic als Lieferkettenrisiko und forderte, dass Bundesbehörden die Nutzung von Claude innerhalb von 6 Monaten einstellen.

In der Klageschrift weist Anthropic darauf hin, dass die Regierung ihre administrative Macht nutzt, um Druck auf das Unternehmen auszuüben und es zu zwingen, seine Sicherheitsrichtlinien anzupassen. Die Anwälte des Unternehmens erklären, dass die US-Verfassung keine Maßnahmen erlaubt, die Unternehmen wegen ihrer öffentlichen Haltung zu bestrafen.

Weiterführende Literatur
Sicherheit vs. Ethik: Anthropic weigert sich, Claudes Sicherheitsbarrieren zu entfernen, Konflikt mit dem Verteidigungsministerium

Technologiebranche solidarisiert sich, 37 KI-Forscher reichen Stellungnahmen bei Gericht ein

Der Konflikt zwischen Anthropic und der Regierung hat in der Tech-Industrie für Diskussionen gesorgt. Kurz nach Einreichung der Klage reichten 37 KI-Forscher von OpenAI, Google und anderen Unternehmen Stellungnahmen beim Gericht ein, um Anthropic zu unterstützen. Sie befürchten, dass staatliche Maßnahmen gegen Unternehmen wegen Differenzen in der KI-Sicherheitspolitik die Wettbewerbsfähigkeit der USA im Bereich KI schwächen könnten.

Die Stellungnahmen betonen, dass eine staatliche Unterdrückung von KI-Unternehmen aus Sicherheitsgründen langfristige negative Auswirkungen auf die Tech-Industrie und die Forschungsumgebung haben könnte. Einige Wissenschaftler weisen außerdem darauf hin, dass „Lieferkettenrisiko“ meist bei Bedenken hinsichtlich ausländischer Software-Sicherheit verwendet wird. Anthropic ist in diesem Zusammenhang nicht vergleichbar.

Ben Goertzel, CEO von SingularityNET, erklärt, dass die Ablehnung, KI für groß angelegte Überwachung oder autonome Waffensysteme zu verwenden, keine Sicherheitsbedrohung darstellt. Falls das Militär solche Anwendungen benötigt, könne es auf andere KI-Systeme zurückgreifen.

Bildquelle: DigFin CEO von SingularityNET, Ben Goertzel

Spannungen zwischen Regierung und Tech-Branche nehmen zu, Streit um KI-Politik wächst

Angesichts der Klage reagierte das Weiße Haus schnell und betonte, dass die Regierung es nicht zulassen werde, dass Unternehmen die Nutzung kritischer Technologien für das US-Militär einschränken. Ein Regierungssprecher erklärte, die USA müssten sicherstellen, dass das Militär die notwendigen Technologien im legalen Rahmen einsetzen könne, um die nationale Sicherheit zu gewährleisten.

Der Streit berührt auch breitere Fragen der Technologiepolitik. Die Trump-Regierung hatte zuvor die Ausfuhrbeschränkungen für KI-Chips nach China gelockert und gleichzeitig die politischen Positionen einiger Tech-Unternehmen kritisiert, was die Spannungen zwischen Silicon Valley und Washington verschärft.

Anthropic erklärt, dass nach der Blacklist-Einstufung einige Unternehmen, die mit dem Verteidigungsministerium zusammenarbeiten, nachweisen müssen, dass ihre Systeme kein Claude verwenden. Diese Forderung könnte die Geschäftsbeziehungen des Unternehmens erheblich beeinflussen.

Einige große Tech-Unternehmen zeigen weiterhin Unterstützung für Anthropic. Google kündigte an, die KI-Technologie von Anthropic weiterhin an Cloud-Kunden zu verkaufen, jedoch ohne militärische Nutzung. Microsoft und Amazon erklärten, die Zusammenarbeit mit dem Unternehmen in der Wirtschaft weiterhin fortzusetzen.

Anthropic hat beim Gericht beantragt, die Regierungshandlungen für rechtswidrig zu erklären und die Durchsetzung des „Lieferkettenrisiko“-Labels zu stoppen. Nach Beginn des Gerichtsverfahrens wächst die Diskussion um KI-Sicherheitsregulierung, nationale Sicherheit und unternehmerische Autonomie.

Weiterführende Literatur
OpenAI kooperiert mit US-Militär – Widerstand wächst! Claude App-Download überholt, Ethik und politische Machtspiele im Blick
Wall Street Journal: Nach Trumps Verbot von Anthropic bleibt die US- und israelische Unterstützung für den Iran bei der Nutzung von Claude bestehen

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare