Anthropic veröffentlicht Claude Opus 4.7 mit abgeschwächten Cyber-Fähigkeiten

CryptoFrontier

Anthropic hat am 16. April (Ortszeit) eine aktualisierte Version seines Flaggschiff-Modells Claude Opus 4.7 veröffentlicht. Im Vergleich zum vorherigen Opus 4.6-Modell zeigt Opus 4.7 „bedeutende Verbesserungen“ bei fortgeschrittenen Software-Engineering-Fähigkeiten, insbesondere bei anspruchsvollen Aufgaben, mit erhöhter Akribie und Konsistenz in komplexen, langlaufenden Abläufen sowie verbesserten Vision-Fähigkeiten. Allerdings hat Anthropic die Fähigkeiten des Modells zur Cybersecurity-Angriffs- und Verteidigungsrolle während des Trainings gezielt abgeschwächt und Sicherheitsmechanismen eingeführt, um verbotene oder hochriskante Anfragen automatisch zu erkennen und zu blockieren.

Leistung und Benchmarks

Bei Benchmark-Tests erzielte Opus 4.7 im Allgemeinen höhere Werte als das vorherige Opus 4.6 sowie der Wettbewerber GPT-5.4. Dennoch betonte Anthropic, dass die Gesamtkapazitäten von Opus 4.7 nicht mit dem stärksten Modell des Unternehmens, Claude Mythos Preview, mithalten. Laut Anthropic: „Indem wir diese Schutzmechanismen in der realen Welt bereitstellen und betreiben, sammeln wir Erfahrungen, um letztlich eine breitere Veröffentlichung von Modellen auf Mythos-Ebene zu ermöglichen.“

Bereitstellung und Preisgestaltung

Opus 4.7 ist jetzt in allen Claude-Produkten und API-Schnittstellen live und ist in Amazon Bedrock, Google Cloud Vertex AI und Microsoft Foundry-Dienste integriert. Die Preisgestaltung bleibt gegenüber Opus 4.6 unverändert: $5 pro Million Input-Tokens und $25 pro Million Output-Tokens.

Änderungen bei der Token-Nutzung

Zwei Änderungen in Opus 4.7 im Vergleich zu Opus 4.6 werden die Token-Nutzung beeinflussen. Erstens nutzt Opus 4.7 einen aktualisierten Tokenizer, der verbessert, wie das Modell Text verarbeitet. Das bedeutet jedoch, dass identische Eingaben mehr Tokens verbrauchen können – ungefähr 1 bis 1,35-mal so viel wie beim vorherigen Durchlauf.

Zweitens führt Opus 4.7 mehr Reasoning bei höherer „Thinking Intensity“ durch, insbesondere in nachfolgenden Runden bei agentischen Szenarien. Das verbessert die Zuverlässigkeit bei komplexen Problemen, erzeugt aber zusätzliche Output-Tokens.

Token consumption increase visualization Anstieg des Tokenverbrauchs bei Opus 4.7. Quelle: Anthropic

Marktanalyse und Kontext

Analysten beschreiben Opus 4.7 als ein „Übergangs“-Modell. Der Investmentanalyst Adam Button stellte fest, dass die Veröffentlichung von Opus 4.7 Anthropics Erzählung rund um „gottähnliche Modelle“ wie Mythos untermauert und die Skepsis des Marktes bestätigt: öffentlich verfügbare, bezahlte Modelle sind im Grunde „Lite“-Versionen, die durch Sicherheitsmechanismen eingeschränkt werden.

Unternehmenshintergrund und finanzieller Meilenstein

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet und entwickelt die Claude-Serie großer Sprachmodelle. Am 6. April kündigte Anthropic an, dass der annualisierte Umsatz (ARR) $300 Milliarden überstieg, was ein deutlicher Anstieg gegenüber $9 Milliarden zum Ende des Jahres 2025 ist. Das Unternehmen verfolgt aktiv einen Börsengang.

Bedenken hinsichtlich des Cybersecurity-Risikos

Anthropic-Manager haben wiederholt vor dem Einfluss von KI auf die Cybersecurity gewarnt. Laut Berichten vom 10. April (Ortszeit) hielten der US-Finanzminister Yellen und der Vorsitzende der Federal Reserve Powell am 7. April ein Notfalltreffen mit Führungskräften aus der Wall Street ab, um darüber zu beraten, wie das neueste Mythos-KI-Modell von Anthropic die Cybersecurity-Risiken erhöhen könnte. Anthropic hat erklärt, dass Mythos nicht für die öffentliche Veröffentlichung geeignet ist, weil das Modell von Cyberkriminellen und Spionen missbraucht werden könnte. Das Unternehmen gewährt ausgewählten Zugang zu Mythos an führende globale Cybersecurity- und Software-Unternehmen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

OpenAI-Manager Bill Peebles und Kevin Weil scheiden im Zuge einer Führungsumbildung aus

OpenAI-Manager Bill Peebles und Kevin Weil haben ihren Ausstieg angekündigt; dies ist Teil einer Reihe von Führungswechseln, während das Unternehmen seine Abläufe dezentralisiert. Ihre Abgänge folgen mehreren weiteren viel beachteten Ausstiegen sowie einer Änderung der Unternehmensstruktur.

GateNews40M her

Zoom arbeitet mit World zusammen, um Deepfake-Erkennung per Gesichtserkennung hinzuzufügen

Zoom hat eine Partnerschaft mit Sam Altman's World geschlossen, um eine Funktion einzuführen, die echte Teilnehmer von KI-Deepfakes während Videoanrufen erkennt. Ziel ist es, zunehmenden Deepfake-Betrug zu bekämpfen, mit Verifizierungsoptionen für Gastgeber und Teilnehmer.

GateNews50M her

KI-generierte Bug-Reports überfordern das cURL-Wartungsteam

KI-generierte Bug-Reports überfluten das cURL-Projekt: Die Zahl der Einreichungen ist deutlich gestiegen, was zu einer starken Belastung der Ressourcen führt. Die betreuenden Entwickler reagieren, indem sie den Zugriff auf KI-Modelle begrenzen und die Programme für Belohnungen bei Sicherheitslücken pausieren, um die Flut an Einsendungen zu bewältigen.

GateNews1Std her

xAI startet Grok Sprach-zu-Text- und Text-zu-Sprache-APIs

xAI hat Sprach-zu-Text- und Text-zu-Sprache-APIs für seine Grok-Plattform gestartet und ermöglicht Entwicklern, natürliche Sprachinteraktionen in Anwendungen zu integrieren. Dieses Update verbessert die Nutzererfahrung und die Zugänglichkeit für verschiedene Anwendungsfälle.

GateNews1Std her

Cursor erhöht $2B bei $50B -Bewertung, angeführt von Thrive Capital

Cursor, ein KI-Softwareentwicklungs-Startup, soll mindestens $2 Milliarden US-Dollar aufnehmen, bewertet mit $50 Milliarden US-Dollar, angeführt von Thrive Capital und Andreessen Horowitz. Es strebt bis 2026 einen Umsatz von über $6 Milliarden US-Dollar an und hebt sich durch ein gestaffeltes Preismodell sowie eine Zertifizierung nach SOC 2 Type 2 ab.

CryptoFrontier1Std her

Iconiq Wealth Manager bereitet sich darauf vor, Milliarden für einen neuen KI-Fonds aufzubringen

Iconiq, ein in San Francisco ansässiger Vermögensverwalter, plant die Auflegung eines neuen Fonds mit Fokus auf KI-Investitionen. Zuvor hatte das Unternehmen bereits mehr als $3 Milliarden in KI-Startups investiert, im Jahr 2025. Die Anlegerbasis der Firma hat sich hin zu mehr institutionellen Geldgebern verschoben, und sie hat kürzlich sechs neue KI-Investitionen getätigt.

GateNews2Std her
Kommentieren
0/400
StargazingWithAMirroredSpherevip
· 17Std her
Von 4.6 bis 4.7 wird es als „bedeutend“ bezeichnet, aber wie viel Verbesserung gibt es bei der Langzeit-Debugging, Umstrukturierung und Testabdeckung?
Original anzeigenAntworten0
OrangePeelRadiovip
· 18Std her
Ein Maßstab: Kann man alle versteckten Bugs in komplexen PRs auf einmal finden? Schreib nicht nur kleine Demo-Snippets.
Original anzeigenAntworten0
BlackVelvetBluePeonyvip
· 18Std her
Anthropic, dieser Rhythmus ist ziemlich heftig, Claude wird jetzt immer mehr zu einem „fortgeschrittenen Ingenieur“ anstatt zu einem Chatbot.
Original anzeigenAntworten0
ReminderOfWavesCrashingAgainstvip
· 18Std her
Die Verbesserung der Softwareentwicklungskompetenz ist sehr entscheidend, Aufgaben auf Code-Bibliotheksebene sind die wahre Schlacht.
Original anzeigenAntworten0
StargazingUnderTheGlassDomevip
· 19Std her
4.7 Endlich da, freue mich auf die praktische Test.
Original anzeigenAntworten0
GateUser-5d719abavip
· 19Std her
Ich hoffe, es sind nicht wieder nur Rankings, die steigen, in echten Projekten scheitert es sofort an Abhängigkeitskonflikten und Umweltproblemen.
Original anzeigenAntworten0
TheWaveOfRasterizationvip
· 19Std her
Ich lege mehr Wert auf die Zuverlässigkeit von Tool-Aufrufen und Änderungen in mehreren Dateien: Ob Konsistenz gewahrt bleibt und keine Stelle geändert wird, die dann an drei anderen Stellen zusammenbricht.
Original anzeigenAntworten0
StrollingOnTheEdgeOfTheDaovip
· 19Std her
Ich warte gespannt auf den Community-Vergleich der SWE-Leistungen von GPT/DeepSeek, insbesondere bei der Navigation großer Repositories, Issue-Lokalisierung und der Geschwindigkeit der End-to-End-Lieferung.
Original anzeigenAntworten0
BluePeonyObservervip
· 19Std her
4.7 Das „erweiterte rigor“ klingt, als würde es vorsichtiger sein, vielleicht weniger willkürlich APIs erfinden? Das ist so wichtig.
Original anzeigenAntworten0
Mehr anzeigen