Gate News Nachrichten, US-Bundesrichterin Rita Lin in San Francisco entschied, dass die Maßnahmen des Pentagon gegen das Unternehmen Anthropic möglicherweise gegen den Ersten Verfassungszusatz verstoßen und eine Vergeltung für die Meinungsfreiheit darstellen. Das Unternehmen hatte zuvor öffentlich die Handlungen des „Verteidigungsministeriums“ verurteilt, was eine starke Reaktion der Regierung auslöste. Der Rechtsstreit wurde an ein kalifornisches Gericht überwiesen, und Anthropic fordert die Aufhebung des „Lieferkettenrisiko“-Labels, das zuvor dazu führte, dass die Regierung sein KI-Modell Claude sperrte.
Die Richterin stellte fest, dass die Maßnahmen der Regierung scheinbar nichts mit nationalen Sicherheitsinteressen zu tun haben, sondern eher eine Bestrafung von Anthropic darstellen. Michael Mungan, der Anthropic vertritt, erklärte, dass eine solche Vorgehensweise bisher nicht vorgekommen sei, die Befugnisse zu eng gefasst seien und eine vollständige Sperrung der KI-Technologie nicht rechtfertigten. Die Richterin betonte, dass im Kern des Falls die Frage stehe, ob die Regierung rechtswidrig gehandelt habe, und nicht die Rechtmäßigkeit der Nutzung von KI.
Zuvor hatte Anthropic mit mehreren Bundesbehörden zusammengearbeitet und einen Vertrag im Wert von 200 Millionen US-Dollar mit dem Pentagon unterzeichnet, der die Nutzung des Systems in geheimen Netzwerken erlaubte. Doch die Verhandlungen stockten, als Claude in die GenAI.mil-Plattform integriert werden sollte. Das Pentagon wollte vollen Zugriff für militärische Einsätze, während Anthropic klar gegen eine militärische Nutzung seiner Technologie war und strengere Nutzungsbeschränkungen forderte. Der Anwalt der Regierung, Hamilton, erklärte, dass das Unternehmen den Vertrag nicht ablehne, sondern die Rechtmäßigkeit der militärischen Nutzung in Frage stelle.
Das Claude-KI-System wurde kürzlich aktualisiert und kann nun automatisch Aufgaben auf dem Computer des Nutzers ausführen, wie Präsentationen erstellen, Meeting-Einladungen verschicken und Anhänge versenden, wodurch es in die Riege der KI-Agenten ohne ständige Eingaben aufgestiegen ist. Der Erfolg von OpenClaw beschleunigt diesen Trend, da sowohl Anthropic- als auch OpenAI-Modelle Aufgaben über WhatsApp oder Telegram empfangen, auf lokale Dateien zugreifen und effiziente Automatisierungen durchführen können.
Dieses Urteil betrifft nicht nur die militärische Nutzung und Vertragsdurchführung von KI-Technologien, sondern wirft auch Bedenken hinsichtlich möglicher Machtmissbräuche der US-Regierung im Bereich digitaler Innovationen auf. Der Fall Anthropic verdeutlicht die komplexen Spannungen zwischen KI-Entwicklung, Meinungsfreiheit und technischer Autonomie, wobei die zukünftigen Auswirkungen auf weitere innovative Unternehmen und das globale KI-Ökosystem wahrscheinlich zunehmen werden.