Amerikanischer Richter stellt Fünf-Sterne-Verteidigungsministerium in Frage, das Anthropic unterdrückt, Kunstintelligenzfreiheit erregt Aufmerksamkeit

GateNews

Gate News Nachrichten, US-Bundesrichterin Rita Lin in San Francisco entschied, dass die Maßnahmen des Pentagon gegen das Unternehmen Anthropic möglicherweise gegen den Ersten Verfassungszusatz verstoßen und eine Vergeltung für die Meinungsfreiheit darstellen. Das Unternehmen hatte zuvor öffentlich die Handlungen des „Verteidigungsministeriums“ verurteilt, was eine starke Reaktion der Regierung auslöste. Der Rechtsstreit wurde an ein kalifornisches Gericht überwiesen, und Anthropic fordert die Aufhebung des „Lieferkettenrisiko“-Labels, das zuvor dazu führte, dass die Regierung sein KI-Modell Claude sperrte.

Die Richterin stellte fest, dass die Maßnahmen der Regierung scheinbar nichts mit nationalen Sicherheitsinteressen zu tun haben, sondern eher eine Bestrafung von Anthropic darstellen. Michael Mungan, der Anthropic vertritt, erklärte, dass eine solche Vorgehensweise bisher nicht vorgekommen sei, die Befugnisse zu eng gefasst seien und eine vollständige Sperrung der KI-Technologie nicht rechtfertigten. Die Richterin betonte, dass im Kern des Falls die Frage stehe, ob die Regierung rechtswidrig gehandelt habe, und nicht die Rechtmäßigkeit der Nutzung von KI.

Zuvor hatte Anthropic mit mehreren Bundesbehörden zusammengearbeitet und einen Vertrag im Wert von 200 Millionen US-Dollar mit dem Pentagon unterzeichnet, der die Nutzung des Systems in geheimen Netzwerken erlaubte. Doch die Verhandlungen stockten, als Claude in die GenAI.mil-Plattform integriert werden sollte. Das Pentagon wollte vollen Zugriff für militärische Einsätze, während Anthropic klar gegen eine militärische Nutzung seiner Technologie war und strengere Nutzungsbeschränkungen forderte. Der Anwalt der Regierung, Hamilton, erklärte, dass das Unternehmen den Vertrag nicht ablehne, sondern die Rechtmäßigkeit der militärischen Nutzung in Frage stelle.

Das Claude-KI-System wurde kürzlich aktualisiert und kann nun automatisch Aufgaben auf dem Computer des Nutzers ausführen, wie Präsentationen erstellen, Meeting-Einladungen verschicken und Anhänge versenden, wodurch es in die Riege der KI-Agenten ohne ständige Eingaben aufgestiegen ist. Der Erfolg von OpenClaw beschleunigt diesen Trend, da sowohl Anthropic- als auch OpenAI-Modelle Aufgaben über WhatsApp oder Telegram empfangen, auf lokale Dateien zugreifen und effiziente Automatisierungen durchführen können.

Dieses Urteil betrifft nicht nur die militärische Nutzung und Vertragsdurchführung von KI-Technologien, sondern wirft auch Bedenken hinsichtlich möglicher Machtmissbräuche der US-Regierung im Bereich digitaler Innovationen auf. Der Fall Anthropic verdeutlicht die komplexen Spannungen zwischen KI-Entwicklung, Meinungsfreiheit und technischer Autonomie, wobei die zukünftigen Auswirkungen auf weitere innovative Unternehmen und das globale KI-Ökosystem wahrscheinlich zunehmen werden.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare