Anthropic-Abrechnungsfehler, der zu einer Überzahlung von 200 US-Dollar führte, wurde zunächst abgelehnt, später jedoch kompensiert

BlockBeatNews

Laut Beating Monitoring gibt es einen Abrechnungsfehler bei Claude Code: Solange der Commit-Verlauf im Git-Repository die Großschreibung HERMES.md enthält, umgehen alle API-Anfragen das Max-Abonnementkontingent und werden direkt aus dem zusätzlichen Verbrauch (extra usage) abgerechnet. Ein Max 20x Nutzer (monatliche Gebühr 200 USD) wurde daher heimlich mit 200,98 USD an zusätzlichem Verbrauch belastet, obwohl sein Abonnement nur zu 13 % ausgeschöpft war.

Die Auslösebedingung ist äußerst präzise: Es muss die Großschreibung HERMES.md sein, Groß- und Kleinschreibung unterscheiden, mit der Endung .md. Klein geschriebenes hermes.md ist unproblematisch, das Entfernen der Endung bei HERMES ist ebenfalls unproblematisch, HERMES.txt verursacht keinen Fehler. Der Auslöser ist nicht, ob diese Datei auf der Festplatte existiert, sondern dass Claude Code beim Einfügen der Commit-Informationen in die Systemprompt den Text vom Anti-Missbrauchssystem des Servers auf String-Match überprüft. HERMES ist der Name der Konfigurationsdatei des Hermes Agent, eines Open-Source-AI-Agent-Frameworks von Nous Research. Das Anti-Missbrauchssystem von Anthropic erkennt wahrscheinlich, ob Nutzer die API über inoffizielle Clients aufrufen, aber es trifft versehentlich alle normalen Nutzer, die diesen Dateinamen in Commit-Infos erwähnen.

Der Melder hat stundenlang mit Binärsuche die Ursache eingegrenzt: Zuerst wurde das Repository geklont und ein isolierter Branch getestet, dann wurde der Commit-Bereich schrittweise verkleinert, bis schließlich die auslösende Zeichenkette identifiziert war. Ein anderer Nutzer hat das Problem unabhängig reproduziert und ein automatisiertes Diagnose-Skript geschrieben. Boris Cherny, Leiter von Claude Code, bestätigte, dass es sich um ein „übermäßig aktives Anti-Missbrauchssystem“ handelt, das am selben Tag behoben wurde.

Doch die Rückerstattung geriet ins Stocken. Nach der Rückerstattungsanfrage des Nutzers antwortete der AI-Kundenservice von Anthropic mit „Wir können keine Entschädigung für Downgrade-Services oder technische Fehler bei der Abrechnung anbieten“ und lehnte ab. Diese Antwort löste auf GitHub und Hacker News eine Welle aus und landete auf der HN-Startseite. Die Community ist vor allem empört über mehr als nur 200 USD: Das Anti-Missbrauchssystem sollte Fehlentscheidungen nicht als „Kontingent erschöpft“ tarnen, und es ist inakzeptabel, nach der Bestätigung eines Bugs eine Rückerstattung zu verweigern. Das Claude Code-Teammitglied Thariq kündigte anschließend an, dass alle betroffenen Nutzer eine vollständige Rückerstattung plus gleichwertige Punkte als Ausgleich erhalten werden.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Forefront Tech schließt $100M -IPO-Preisfestlegung ab, Listung an der Nasdaq unter dem Code FTHAU

Laut ChainCatcher hat die Zweckgesellschaft (Special Purpose Acquisition Company) Forefront Tech am 30. April eine IPO-Preisspanne im Wert von 100 Millionen US-Dollar abgeschlossen und wird an der Nasdaq unter dem Tickersymbol FTHAU notieren. Das Unternehmen plant, den Erlös zu nutzen, um Mergers- und Akquisitionsmöglichkeiten im Blockchain-, Fintech- und Künstliche-Intelligenz-Bereich zu verfolgen.

GateNews1Std her

Anthropic Claude Code berechnete dem Nutzer 200,98 US-Dollar zu viel wegen eines Abrechnungsfehlers, verweigerte zunächst die Rückerstattung, bevor die volle Kompensation erfolgte

Laut Überwachung durch Beating führte ein Abrechnungsfehler im Claude-Code-Service von Anthropic dazu, dass ein Max-20x-Abonnent um 200,98 US-Dollar für zusätzliche Nutzungsgebühren zu viel abgerechnet wurde, obwohl er nur 13% ihres monatlichen Kontingents verbrauchte. Der Fehler wurde ausgelöst, wenn die Commit-Historie eines Benutzers in einem git-Repository das Großbuchstaben enthielt

GateNews1Std her

DeepSeek führt am 30. April die Methode „Visual Primitives“ ein, um das multimodale Denken zu verbessern

Laut dem technischen Bericht von DeepSeek stellte das Unternehmen am 30. April Visual Primitives vor – eine Methode, die grundlegende visuelle Einheiten wie Punkte und Bounding-Boxes in Denkfolgen einbettet, um das Problem der Referenzlücke (Reference Gap) bei multimedialen Aufgaben anzugehen. Die Methode senkt den Verbrauch von Bild-Tokens.

GateNews1Std her

NVIDIA veröffentlicht die Cosmos-Reason2-32B-Flaggschiff-Modellgewichte und erweitert das Kontextfenster auf 256K Tokens

Laut Beating hat NVIDIA die Gewichte für Cosmos-Reason2-32B veröffentlicht, die Flaggschiff-Version seines physischen KI-Reasoning-Vision-Language-Modells (VLM). Es wurde entwickelt, um Robotern und autonomen Fahrsystemen zu helfen, räumliche, zeitliche und physikalische Prinzipien zu verstehen. Das Modell mit 32 Milliarden Parametern,

GateNews1Std her

OpenAI deckt auf, warum Codex das Sprechen über „Goblins“ verbietet: Kontrollverlust bei Belohnungen für Nerd-Persönlichkeiten

OpenAI erklärte in einem offiziellen Blogbeitrag, dass Codex Verbote für „Coden-geeignete Goblins“ und andere Kreaturen auf Basis der Belohnungssignal-Präferenz aus dem Training für das Nerd-Persönlichkeitsprofil entstanden seien, was zu einer Verschmutzung zwischen Persönlichkeiten und zu einer RLHF-Fehlleitung geführt habe. Der Vorfall wurde von Barron Roth enthüllt, nachdem Systemanweisungen offenbar geworden waren; OpenAI verfolgte daraufhin zwei Strategien: kurzfristiges Hard-Coding und langfristiges Löschen von Belohnungssignalen. Das Ereignis warnt vor der Anfälligkeit von Belohnungsdesign; das nachgelagerte Training erfordert künftig eine noch präzisere Prüfung und Revision.

ChainNewsAbmedia2Std her

Aliclouds Qwen Open-Source stellt das Qwen-Scope Interpretability-Modul bereit und deckt am 30. April 7 Modelle ab

Laut PANews kündigte Alibaba am 30. April die Open-Source-Veröffentlichung von Qwen-Scope an, einem Interpretierbarkeits-Modul, das auf Qwen3- und Qwen3.5-Modellen trainiert wurde. Die Veröffentlichung umfasst 7 große Sprachmodelle in Varianten für dichte Modelle und für Mixture-of-Experts, mit 14 Sätzen sparsamer Autoencoder

GateNews3Std her
Kommentieren
0/400
Keine Kommentare