Laut Überwachung durch Beating führte ein Abrechnungsfehler im Claude-Code-Dienst von Anthropic dazu, dass ein Max-20x-Abonnent zu viel berechnet wurde: 200,98 US-Dollar an zusätzlichen Nutzungsgebühren, obwohl er nur 13% seines monatlichen Kontingents nutzte. Der Fehler wurde ausgelöst, als die Commit-Historie eines Nutzers in seinem git-Repository die Großbuchstaben-Zeichenkette „HERMES.md“ enthielt; das System umging die Abonnementlimits und berechnete stattdessen zusätzliche Nutzungen.
Das Missbrauchsverhinderungssystem von Anthropic führte wahrscheinlich einen String-Match auf git-Logs durch, die in System-Prompts eingespeist wurden, um vermutlich inoffizielle API-Clients zu erkennen. Dabei wurden jedoch legitime Nutzer fälschlich markiert, die die Hermes-Agent-Konfigurationsdatei erwähnten.
Nachdem der Nutzer einen Erstattungsantrag eingereicht hatte, lehnte Anthropic die Entschädigung zunächst über seinen KI-Kundenservice ab und erklärte, es könne keine Rückerstattung für Fehler beim Billing-Routing leisten. Die Ablehnung führte zu Gegenwind auf GitHub und Hacker News und gelangte auf die Startseite. Ein Teammitglied von Claude Code, Thariq, kündigte anschließend an, dass alle betroffenen Nutzer vollständige Rückerstattungen sowie eine gleichwertige Gutschrift als Entschädigung erhalten würden.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Forefront Tech schließt $100M -IPO-Preisfestlegung ab, Listung an der Nasdaq unter dem Code FTHAU
Laut ChainCatcher hat die Zweckgesellschaft (Special Purpose Acquisition Company) Forefront Tech am 30. April eine IPO-Preisspanne im Wert von 100 Millionen US-Dollar abgeschlossen und wird an der Nasdaq unter dem Tickersymbol FTHAU notieren. Das Unternehmen plant, den Erlös zu nutzen, um Mergers- und Akquisitionsmöglichkeiten im Blockchain-, Fintech- und Künstliche-Intelligenz-Bereich zu verfolgen.
GateNews1Std her
DeepSeek führt am 30. April die Methode „Visual Primitives“ ein, um das multimodale Denken zu verbessern
Laut dem technischen Bericht von DeepSeek stellte das Unternehmen am 30. April Visual Primitives vor – eine Methode, die grundlegende visuelle Einheiten wie Punkte und Bounding-Boxes in Denkfolgen einbettet, um das Problem der Referenzlücke (Reference Gap) bei multimedialen Aufgaben anzugehen. Die Methode senkt den Verbrauch von Bild-Tokens.
GateNews1Std her
NVIDIA veröffentlicht die Cosmos-Reason2-32B-Flaggschiff-Modellgewichte und erweitert das Kontextfenster auf 256K Tokens
Laut Beating hat NVIDIA die Gewichte für Cosmos-Reason2-32B veröffentlicht, die Flaggschiff-Version seines physischen KI-Reasoning-Vision-Language-Modells (VLM). Es wurde entwickelt, um Robotern und autonomen Fahrsystemen zu helfen, räumliche, zeitliche und physikalische Prinzipien zu verstehen. Das Modell mit 32 Milliarden Parametern,
GateNews1Std her
OpenAI deckt auf, warum Codex das Sprechen über „Goblins“ verbietet: Kontrollverlust bei Belohnungen für Nerd-Persönlichkeiten
OpenAI erklärte in einem offiziellen Blogbeitrag, dass Codex Verbote für „Coden-geeignete Goblins“ und andere Kreaturen auf Basis der Belohnungssignal-Präferenz aus dem Training für das Nerd-Persönlichkeitsprofil entstanden seien, was zu einer Verschmutzung zwischen Persönlichkeiten und zu einer RLHF-Fehlleitung geführt habe. Der Vorfall wurde von Barron Roth enthüllt, nachdem Systemanweisungen offenbar geworden waren; OpenAI verfolgte daraufhin zwei Strategien: kurzfristiges Hard-Coding und langfristiges Löschen von Belohnungssignalen. Das Ereignis warnt vor der Anfälligkeit von Belohnungsdesign; das nachgelagerte Training erfordert künftig eine noch präzisere Prüfung und Revision.
ChainNewsAbmedia2Std her
Aliclouds Qwen Open-Source stellt das Qwen-Scope Interpretability-Modul bereit und deckt am 30. April 7 Modelle ab
Laut PANews kündigte Alibaba am 30. April die Open-Source-Veröffentlichung von Qwen-Scope an, einem Interpretierbarkeits-Modul, das auf Qwen3- und Qwen3.5-Modellen trainiert wurde. Die Veröffentlichung umfasst 7 große Sprachmodelle in Varianten für dichte Modelle und für Mixture-of-Experts, mit 14 Sätzen sparsamer Autoencoder
GateNews3Std her
Nvidia B300-KI-Server erreichen in China 1 Million US-Dollar inmitten einer angespannten Lieferlage
Laut Reuters werden Nvidias B300-AI-Server in China inzwischen für ungefähr 7 Millionen Yuan (1 Million US-Dollar) verkauft. Ausschlaggebend sind eine behördliche Durchsuchung von Schmuggelnetzwerken sowie eine weiterhin hohe Nachfrage lokaler Tech-Unternehmen. Der Preis ist von etwa 4 Millionen Yuan (585.000 US-Dollar) Ende 2025 gestiegen und deutlich
GateNews3Std her