Akshay analysiert die Claude-Code-6-Schichtenarchitektur: Das Modell ist nur ein Knoten in einer Schleife

ChainNewsAbmedia

Der KI-Ingenieur Akshay Pachaar veröffentlichte am 10. Mai auf X eine vollständige Architekturzeichnung von Claude Code, indem er das gesamte System in 6 Ebenen zerlegt und betont, dass „das Modell nur ein Knoten in einer Schleife“ ist. Pachaar verweist in seinem Post auf sein ausführliches Essay vom 6. April mit dem Titel „The Anatomy of an Agent Harness“. Der Kernpunkt ist: Claude Code wirkt „wie Magie“ – nicht wegen des Modells selbst, sondern wegen der präzisen Konstruktion des harness.

6-stufige Architektur: Das Modell ist nur ein Knoten darunter

Pachaar hat die Claude-Code-6-Ebenen folgendermaßen aufgeschlüsselt:

Input Layer (Eingabeebene): Verantwortlich für Session-Management, Zugriffskontrolle und Vertrauensebenen, die per YAML konfiguriert werden. Jede Anweisung, bevor sie das Modell erreicht, läuft zuerst durch diese Ebene.

Knowledge Layer (Wissensebene): Enthält eine skill registry, einen context compressor (3 Ebenen Komprimierung, 92%-Schwellenwert zur Auslösung), eine task graph sowie ein speicher für Sitzungen übergreifendes Gedächtnis. Hier befindet sich die „Intelligenz“ des harness – getrennt von den Modellgewichten.

Execution Layer (Ausführungsebene): Versendet Tool-Aufrufe über eine typed registry; jedes Tool hat einen eigenen handler – bash, read, write, grep, glob, revert. Das Streaming-runtime unterstützt parallele Ausführung, prompt cache nutzt wiederholt stabile Präfixe, wodurch die Kosten auf 10% sinken.

Integration Layer (Integrationsschicht): Das MCP runtime verbindet externe Server (filesystem, git, benutzerdefinierte Tools). Tools registrieren sich nach innen, während Erinnerungen nach außen in agent_memory.md geschrieben werden.

Multi-Agent Layer (Multi-Agent-Ebene): Enthält einen subagent spawner, teammate mailboxes für Kommunikation via redis pub/sub, ein Zustandsautomaten-Protokoll (IDLE→REQUEST→WAIT→RESPOND), ein atomarer Lock für ein autonomous board sowie worktree-Isolation (jede Aufgabe hat ein eigenes git branch).

Observability Layer (Beobachtungsebene): Umfasst Event-Message-Broker und lifecycle hooks für alle Ebenen; ein Hintergrund-Executor arbeitet per daemon thread nicht blockierend.

Im Zentrum steht die „master agent loop“ (Haupt-Agenten-Schleife): Wahrnehmen → Handeln → Beobachten. Anthropic ordnet diese Schleife selbst als „dumb loop“ ein – die gesamte Intelligenz liegt in der Modellinferenzen, das harness ist nur für das Scheduling zuständig.

Zentrale Designidee: context compressor und worktree-Isolation

Einige Details, die man im Blick behalten sollte:

Context compressor 3-stufige Komprimierung, 92%-Schwelle: Wenn der Kontext nahe an 92% Kapazität heranrückt, werden Zusammenfassung und Kompression ausgelöst, Architekturentscheidungen sowie ungeklärte Bugs beibehalten und doppelte Tool-Ausgaben verworfen. Das spiegelt die von Anthropic veröffentlichte „context engineering“-Anleitung wider: die kleinste Menge an token mit hoher Signalstärke finden und die Wahrscheinlichkeit maximieren, das Ziel zu erreichen.

Worktree-Isolation: Jeder subagent arbeitet in einem eigenen git worktree und auf einem eigenen Branch; beim Zusammenführen werden Konfliktdetektionen durchgeführt. Mit diesem Design wird paralleles paralleles Ändern derselben Codebasis durch mehrere Agents möglich, ohne dass sie sich gegenseitig ins Gehege kommen. Unter den drei subagent-Ausführungsmodi „Fork / Teammate / Worktree“ von Claude Code ist Worktree die stärkste Isolationsstufe.

Prompt-cache mit 10% Kosten: Über das Caching stabiler Präfixe (system prompt, Tool-Definitionen, CLAUDE.md) zahlen wiederholte Aufrufe mit demselben Präfix nur 10% der Standard-token-Kosten. Das ist der entscheidende Punkt, damit langfristige Session-Aufgaben die Kosten unter Kontrolle halten.

Warum diese Analyse in der Community auf Resonanz stößt

Pachaar erhielt 522 Likes und 115 Retweets; im Kommentarbereich tauchten Rückmeldungen auf wie „Ich dachte, es wäre nur ein CLI-Tool“ oder „Ich dachte, Claude Code sei gleichbedeutend mit model + terminal access, und wusste nicht, dass in der multi-agent layer so viel läuft“. Das zeigt, dass das Verständnis vieler Entwickler von Claude Code noch immer bei „Claude API verpackt als eine CLI-Ebene“ stehen bleibt und die Komplexität des harness-engineerings unterschätzt.

Pachaar zitiert als Kernargument den Satz von LangChain-Vivek Trivedy: „Wenn du nicht das Modell bist, bist du das harness.“ Die Tests von LangChain auf TerminalBench 2.0 zeigen – mit denselben Modellgewichten, nur die äußere harness-Umgebung geändert, stieg das Ranking von Platz 30 auf Platz 5.

Für Leser von abmedia liefert diese Analyse einen konkreten Referenzpunkt: Wenn du die Unterschiede zwischen Agentenprodukten wie Claude Code, Codex, Gemini Code Assist usw. siehst, liegen die meisten Unterschiede nicht im Modell selbst, sondern im harness-Design – Strategien zum Kontextmanagement, Umfang der Tools, Validierungs-Schleifen und Multi-Agent-Kooperationsmodi. Wenn sich die Modellversion erhöht, entscheidet die Auswahl im harness-engineering darüber, wie hoch das Produkterlebnis ausfällt.

Dieser Artikel: Akshay analysiert die 6 Ebenen der Claude-Code-Architektur: Das Modell ist nur ein Knoten in der Schleife Erstmals erschienen bei Kettennews ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare