Gate News Nachrichten, am 9. März hat Eureka Labs Gründer und OpenAI Mitbegründer Andrej Karpathy gestern (8. März) das Open-Source-Projekt autoresearch veröffentlicht, das den zuvor im LLM-Trainingsprojekt nanochat entwickelten AI-Agenten-Autotuning-Workflow eigenständig verpackt und Entwicklern zur Verfügung stellt. Das Projekt folgt dem Designmuster „Menschen schreiben Markdown, AI schreibt Code“: Entwickler definieren die Forschungsrichtung durch das Schreiben der Datei program.md, woraufhin der AI-Agent eigenständig den vollständigen GPT-Modellcode, Muon + AdamW Optimierer und den Trainingsloop in train.py (ca. 630 Zeilen) modifiziert. Jede Experiment läuft fest 5 Minuten, wobei die Bewertung anhand der Bits pro Byte (val_bpb) im Validierungsset erfolgt. Verbesserungen gegenüber der Basislinie werden beibehalten und eingereicht, andernfalls verworfen. Bei diesem Tempo können etwa 12 Experimente pro Stunde durchgeführt werden, was in einer Nacht etwa 100 Experimente ermöglicht. Das von Karpathy präsentierte Beispiel zeigt, dass bei 83 Experimenten 15 signifikante Verbesserungen erzielt wurden. Das Projekt benötigt nur eine NVIDIA-GPU (bereits auf H100 getestet), basiert auf PyTorch und einigen wenigen Softwarepaketen und ist unter MIT-Lizenz open source. Derzeit gibt es bereits Community-Branches für macOS und MLX.