Suchergebnisse für "GPT-4O"
2026-04-30
04:29

Altman: Token-Based Pricing Becoming Obsolete as GPT-5.5 Shifts Focus to Task Completion Over Token Count

Gate News-Nachricht, 29. April — OpenAI-CEO Sam Altman sagte in einem Interview mit Ben Thompson auf Stratechery, dass tokenbasierte Preisgestaltung kein langfristig tragfähiges Modell für KI-Dienstleistungen ist. Unter Verwendung von GPT-5.5 als Beispiel merkte Altman an, dass zwar der Preis pro Token deutlich höher ist als bei GPT-5.4, das Modell jedoch für die gleiche Aufgabe viel weniger Tokens verwendet, was bedeutet, dass Kunden sich nicht für die Anzahl der Tokens interessieren — sondern nur dafür, ob die Aufgabe abgeschlossen wird und die Gesamtkosten. "Wir sind keine Token-Fabrik; wir sind eher eine Intelligenz-Fabrik", sagte Altman. "Kunden wollen die meiste Intelligenz für möglichst wenig Geld kaufen. Ob die zugrunde liegende Arbeit von einem großen Modell erledigt wird, das wenige Tokens ausführt, oder von einem kleinen Modell, das viele Tokens ausführt, ist für sie nicht relevant." Er fügte hinzu, dass die aktuelle Kundenbasis von OpenAI zunehmend mehr Kapazität fordert, anstatt über Preise zu verhandeln: Viel mehr Kunden sagen "gebt uns mehr Kapazität, egal was es kostet" als solche, die nach Rabatten fragen. Altman zog eine Parallele zu Versorgungsunternehmen und erklärte, dass sich die KI-Nachfrage anders skaliert als bei Wasser oder Strom — wo niedrigere Preise den Verbrauch nicht signifikant erhöhen. "Solange der Preis niedrig genug ist, werde ich weiter mehr verwenden. Keine andere öffentliche Versorgungsleistung funktioniert auf diese Weise", sagte er. AWS-CEO Matt Garman ergänzte, dass die Preise für Rechenleistung in den vergangenen 30 Jahren um mehrere Größenordnungen gefallen seien, während heute dennoch mehr Rechenleistung verkauft wird als jemals zuvor. Altman beschrieb außerdem ChatGPT als "das erste wirklich groß angelegte Konsumprodukt seit Facebook" und räumte ein, dass zwar erwartet wurde, dass KI die Suche stören würde, die eigentlichen Erfolge jedoch von ChatGPT selbst und der Codex-API kamen. Er merkte an, dass "Google in vielerlei Hinsicht noch immer unterschätzt wird."
Mehr
05:17

GPT-5.5 kehrt an die Spitze im Codieren zurück, aber OpenAI wechselt Benchmarks, nachdem es gegen Opus 4.7 verloren hat

Gate News Nachricht, 27. April — SemiAnalysis, ein Unternehmen für Halbleiter- und KI-Analysen, veröffentlichte einen vergleichenden Benchmark für Code-Assistenten, darunter GPT-5.5, Claude Opus 4.7 und DeepSeek V4. Die wichtigste Erkenntnis: GPT-5.5 markiert OpenAI's erste Rückkehr an die Spitze der Coding-Modelle seit sechs Monaten, wobei SemiAnalysis-Ingenieure nun zwischen Codex und Claude Code wechseln, nachdem sie zuvor fast ausschließlich auf Claude gesetzt hatten. GPT-5.5 basiert auf einem neuen Vortrainingsansatz mit dem Codenamen "Spud" und stellt OpenAI's erste Ausweitung der Vortraining-Skala seit GPT-4.5. In praktischen Tests zeigte sich eine klare Arbeitsteilung. Claude übernimmt neues Projekt-Planning und die anfängliche Einrichtung, während Codex besonders bei fehlerbehebungen glänzt, die viel Denkaufwand erfordern. Codex zeigt ein stärkeres Verständnis für Datenstrukturen und logisches Denken, hat jedoch Schwierigkeiten, die mehrdeutige Nutzerabsicht abzuleiten. Bei einer einzelnen Dashboard-Aufgabe replizierte Claude automatisch die Layout-Referenzseite, fabrizierte jedoch große Mengen an Daten, während Codex das Layout übersprang, aber deutlich genauere Daten lieferte. Die Analyse deckt einen Benchmark-Manipulationsaspekt auf: In seinem Februar-Blogbeitrag forderte OpenAI die Branche auf, SWE-bench Pro als neuen Standard für Coding-Benchmarks zu übernehmen. Allerdings wechselte die Ankündigung von GPT-5.5 zu einem neuen Benchmark namens "Expert-SWE." Der Grund, in den Feinheiten versteckt, ist, dass GPT-5.5 von Opus 4.7 auf SWE-bench Pro übertroffen wurde und deutlich hinter Anthropic's unveröffentlichtem Mythos 77.8% zurückfiel. Bezüglich Opus 4.7 veröffentlichte Anthropic eine Mortem-Analyse eine Woche nach dem Release und erkannte drei Bugs in Claude Code an, die mehrere Wochen lang von März bis April anhielten und nahezu alle Nutzer betrafen. Mehrere Ingenieure hatten zuvor eine Leistungsverschlechterung in Version 4.6 gemeldet, waren jedoch mit der Begründung abgetan worden, es handele sich um subjektive Beobachtungen. Zusätzlich erhöht der neue Tokenizer von Opus 4.7 die Token-Nutzung um bis zu 35%, was Anthropic offen zugab — effektiv eine versteckte Preiserhöhung. DeepSeek V4 wurde als "mit der Spitze Schritt haltend, aber nicht führend" bewertet und positionierte sich als die kostengünstigste Alternative unter Closed-Source-Modellen. Die Analyse stellte außerdem fest, dass "Claude DeepSeek V4 Pro bei hochschwierigen chinesischen Schreibaufgaben weiterhin übertrifft," und kommentierte: "Claude gewann gegen das chinesische Modell in dessen eigener Sprache." Der Artikel führt ein zentrales Konzept ein: Die Modellpreisgestaltung sollte anhand der "Kosten pro Aufgabe" statt der "Kosten pro Token" bewertet werden. Der Preis von GPT-5.5 ist doppelt so hoch wie der von GPT-5.4 input $5, output pro Million Tokens, aber es erledigt die gleichen Aufgaben mit weniger Tokens, wodurch die tatsächlichen Kosten nicht notwendigerweise höher sind. Erste SemiAnalysis-Daten zeigen, dass das Input-zu-Output-Verhältnis von Codex bei 80:1 liegt, niedriger als das von Claude Code mit 100:1.
Mehr
01:21

OpenClaw v2026.4.23 fügt direkte OAuth-Unterstützung für gpt-image-2 hinzu und führt den gegabelten Kontextmodus für Sub-Agenten ein

Gate News-Meldung, 25. April — OpenClaw, ein Open-Source-Framework für KI-Agenten, hat am 23. April v2026.4.23 veröffentlicht und bringt Updates in der Bildgenerierung, in Mechanismen für Sub-Agenten und bei der Sicherheits-Härtung. Verbesserungen bei der Bildgenerierung ermöglichen es, gpt-image-2 direkt über Codex OAuth aufzurufen, ohne
Mehr
01:46

OpenAI bringt GPT-5.5 auf den Markt, entwickelt für Agentenaufgaben und komplexe Workflows

Gate-News-Meldung, 24. April — OpenAI hat offiziell GPT-5.5 veröffentlicht, ein KI-Modell der nächsten Generation, das entwickelt wurde, um komplexe Ziele, die Integration von Tools, die Selbstverifikation und die mehrstufige Erledigung von Aufgaben zu bewältigen. Das Modell ist besonders stark bei der Code-Erstellung und beim Debugging, bei Online-Recherchen, bei der Datenanalyse, bei der Erstellung von Dokumenten
Mehr
04:54

Perplexity offenbart Methode zum Post-Training von Web-Search-Agenten; auf Qwen3.5 basierendes Modell übertrifft GPT-5.4 bei Genauigkeit und Kosten

Perplexity verwendet SFT, gefolgt von RL mit Qwen3.5-Modellen, wobei es einen Multi-Hop-QA-Datensatz und Rubrik-Checks nutzt, um die Suchgenauigkeit und -effizienz zu steigern und eine erstklassige FRAMES-Performance zu erreichen. Zusammenfassung: Der Post-Training-Workflow von Perplexity für Web-Search-Agenten kombiniert Supervised Fine-Tuning (SFT), um regelkonformes Befolgen von Anweisungen und sprachliche Konsistenz durchzusetzen, mit Online Reinforcement Learning (RL) über den GRPO-Algorithmus. Die RL-Phase nutzt einen proprietären Multi-Hop-verifizierbaren QA-Datensatz sowie rubrikbasierte Konversationsdaten, um ein Abdriften von SFT zu verhindern, mit Reward-Gating und Effizienz-Strafen innerhalb von Gruppen. Die Evaluierung zeigt, dass Qwen3.5-397B-SFT-RL eine Spitzenleistung bei FRAMES erzielt: 57,3% Genauigkeit mit einem einzelnen Tool-Call und 73,9% mit vier Calls bei $0.02 pro Query, und damit GPT-5.4 sowie Claude Sonnet 4.6 in diesen Kennzahlen übertrifft. Die Preisgestaltung erfolgt API-basiert und schließt Caching aus.
Mehr