Berkeley GEPA-Analyse: KI kann neue Aufgaben lernen, ohne Gewichte zu aktualisieren, 35-mal geringere Trainingskosten als RL

ChainNewsAbmedia

Ein Forschungsteam der University of California, Berkeley, hat eine neue KI-Trainingsmethode namens GEPA vorgestellt, die von der ICLR 2026 als Oral-Paper angenommen wurde. GEPA aktualisiert keine Modellgewichte, benötigt kein GPU-Training und nutzt lediglich einen einzelnen LLM, der „Trainingsprotokolle liest“, um die Prompts für das KI-System wiederholt umzuschreiben. Damit liegt GEPA bei 6 Aufgaben im Durchschnitt 6% vor gängigen Reinforcement-Learning-Methoden (GRPO), erreicht ein Spitzenplus von 20% und benötigt 35-mal weniger Trainingsversuche (rollouts). Nachdem die Forschung von der KI-Engineering-Community aufbereitet und in der X-Plattform diskutiert wurde, ist GEPA inzwischen in DSPy als erstklassiger Optimierer integriert.

Was GEPA macht: Trainingsprotokolle als Lehrmaterial nutzen, nicht nur auf Scores schauen

Der Workflow traditioneller Reinforcement-Learning-Methoden (z. B. GRPO) ist: Die KI führt eine Aufgabe einmal aus, bekommt basierend auf dem Ergebnis eine „+1 oder -1“-Punktzahl und passt dann die Modellgewichte wiederholt mithilfe dieser Punktzahl an. Das Problem: Der Ablauf, wie die KI einmal eine Aufgabe ausführt, umfasst typischerweise tausende Token an Inferenzschritten, Tool-Aufrufe und Fehlermeldungen – all diese reichen Details werden zu einem einzigen Score komprimiert und der Prozessinhalt geht verloren. Daher muss RL zehntausende Male laufen, um zu konvergieren.

GEPA geht genau umgekehrt vor: Nach jeder Aufgaben-Ausführung übergibt die KI die komplette Prozesskette (reasoning, Tool-Aufrufe, Fehlerprotokolle) vollständig an einen weiteren „Reflect-LLM“, der sie liest. Der Reflect-LLM verhält sich wie ein erfahrener Ingenieur, der Programmlogs studiert: Er identifiziert, wo genau ein Fehler auftrat, warum der Fehler auftrat, und wie der Prompt für die entsprechende Komponente angepasst werden sollte; anschließend schreibt er den Prompt für genau diese Komponente direkt um. Bei gleicher Aufgabenanzahl entnimmt GEPA damit deutlich mehr Signalmenge als RL aus dem einzelnen Score.

Warum es gewinnt: aus „Scoring“ wird „das ganze Prozessprotokoll lesen“

GEPA liegt bei 6 Aufgaben im Durchschnitt 6% vor GRPO; das Maximum beträgt 20%. Im Vergleich zu einem weiteren gängigen Prompt-Optimierer MIPROv2 schneidet GEPA ebenfalls um über 10% besser ab (bei AIME-2025-Mathematikaufgaben als Benchmark +12%). Am wichtigsten ist jedoch die Trainingskosten: Um die gleiche Leistung zu erreichen, benötigt GEPA nur 35-mal weniger rollouts (also einen vollständigen Lauf der Aufgabe).

Eine weitere Kennzahl: Nach der Integration von GEPA in DSPy kann der „Full Program Adapter“ das gesamte DSPy-Programm optimieren (inklusive signature, Module und Kontrollfluss). In MATH-Mathematikbenchmarks erreicht er 93% Genauigkeit und liegt damit deutlich über der ursprünglichen ChainOfThought-Schreibweise von DSPy, die 67% erreicht. GEPA zeigt zudem besonders starke Leistung in multi-module Workflows (AI-Agenten mit mehreren Modulen in Serie): Es kann gezielt das Prompt einer bestimmten fehlerhaften Modulkomponente neu schreiben, statt das gesamte System zu verändern.

Wer es zuerst nutzt: DSPy als erstklassiger Bürger, GitHub bereits Open Source

Der GEPA-Code ist auf GitHub veröffentlicht. Er ist als dspy.GEPA in das DSPy-Framework integriert und wird außerdem als eigenständige Python-Bibliothek veröffentlicht. Das Forschungsteam umfasst Partner aus UC Berkeley, Stanford, Notre Dame, Anthropic und weiteren Einrichtungen. Zu den Paper-Autoren gehören Matei Zaharia (Mitgründer von Databricks, Hauptautor von DSPy) und Omar Khattab (Hauptautor von DSPy).

Für die Entwickler-Community bietet GEPA eine neue Lösung für ein verbreitetes Problem: „Wir haben viele rollouts, aber wissen nicht, wie wir sie nutzen.“ Viele Teams haben bereits tausende oder zehntausende Agent-Task-Laufprotokolle gesammelt, aber abgesehen davon, dass man bei Fehlern ein paar Einträge durchblättert, fehlt eine systematische Methode, diese Protokolle in Modellverbesserungen umzuwandeln. Der nächste Beobachtungspunkt ist, ob GEPA in Unternehmen bei agentic Workflows (z. B. Kundenservice-Automatisierung, automatische Programmreparatur) praktisch eingeführt wird – und ob es entsprechende GEPA-Implementierungen geben wird, die unabhängig vom DSPy-Framework funktionieren.

Der Artikel „Berkeley GEPA erklärt“: Nicht Gewichte aktualisieren, und trotzdem lernt die KI neue Aufgaben – mit 35-mal weniger Trainingsaufwand und besser als RL – erschien zuerst in der Kette-news ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Roblox bringt KI-Software auf den Markt, um Unity und Epic Games herauszufordern

Laut Bloomberg bringt Roblox eine neue KI-Software auf den Markt, um mit Unity Technologies und Epic Games zu konkurrieren, deren Engines die Entwicklung von Spielen mit hohem Budget dominieren. CEO Dave Baszucki sagte, das Tool solle es Kreativen ermöglichen, einfacher Multiplayer-Spiele mit fotorealistischen Grafiken zu erstellen, angetrieben von ar

GateNews4Std her

Die US Navy unterzeichnet einen Vertrag über nahezu 100 Millionen US-Dollar mit Domino Data Lab für die Minenerkennung in der Straße von Hormus

Laut Xinhua News Agency hat der Information Warfare Systems Command der US Navy kürzlich einen Vertrag mit dem in San Francisco ansässigen KI-Unternehmen Domino Data Lab unterzeichnet, um Machine-Learning-Softwarelösungen zu beschaffen und einzusetzen. Der Vertrag hat einen Wert von nahezu 100 Millionen US-Dollar, falls er vollständig umgesetzt wird, und zielt darauf ab,

GateNews6Std her

XAI Grok führt benutzerdefinierte Stimmen ein: 2 Minuten zum Klonen, zweistufige Identitätsprüfung

xAI bringt Grok Custom Voices heraus: In der Konsole werden etwa 1 Minute Sprachmaterial aufgenommen, innerhalb von 2 Minuten entsteht ein maßgeschneidertes Sprachmodell, das für TTS- und Voice-Agent-APIs genutzt werden kann. Gleichzeitig werden Grok 4.3 und die Voice Library veröffentlicht. Zum Schutz vor Klonen wird eine zweistufige Verifizierung eingesetzt: Zuerst wird ein Verifizierungssatz vorgelesen, anschließend wird ein Abgleich per Speaker-Embedding durchgeführt, um sicherzustellen, dass nur dieselbe Person generieren kann. Die Voice Library bündelt die Verwaltung selbst erstellter und vorgefertigter Stimmen: über 80 Arten, 28 Sprachen, mit späterer Erweiterung.

ChainNewsAbmedia8Std her

OpenAI Codex Desktop-Version erhält Haustier-Funktion: 3 Zustandsanzeigen, schlüpft je nach verwendeter Sprache

OpenAI Codex Desktop-Version hat kürzlich die Funktion „Haustiere“ (Pets) veröffentlicht. Sie ermöglicht Entwicklern, beim Programmieren über schwebende animierte Figuren den Codex-Aufgabenstatus in Echtzeit zu verfolgen. Laut OpenAI-Offiziellen Dokumenten wechselt das Haustier-Overlay je nach aktuellem Codex-Status zu 3

ChainNewsAbmedia9Std her

MoonPay bringt am Freitag die MoonAgents-Karte auf den Markt: eine virtuelle Mastercard für KI-Agenten

Laut The Block hat MoonPay am Freitag die MoonAgents Card auf den Markt gebracht, eine virtuelle Mastercard-Debitkarte. Die Karte ist sowohl für KI-Agenten als auch für Nutzer ausgelegt, wandelt Stablecoins beim Zahlungsvorgang in Fiat um und ermöglicht das Bezahlen bei jedem Online-Händler weltweit, der Mastercard akzeptiert. Die Karte i

GateNews19Std her

OpenAI startet Codex Pets, einen KI-gestützten virtuellen Begleiter mit benutzerdefinierter Generierung

Laut Beating hat OpenAI eine neue „Codex Pets“-Funktion zur Codex-Desktopanwendung hinzugefügt. Sie ermöglicht es Nutzern, einen animierten virtuellen Begleiter zu erstellen und mit ihm zu interagieren. Nutzer können ein Haustier aktivieren, indem sie im Editor /pet eintippen. Die Funktion arbeitet als Indikator für den Agentenstatus und zeigt ein

GateNews05-02 04:53
Kommentieren
0/400
Keine Kommentare