Laut 1M AI News Monitoring hat Cursor den technischen Bericht zu Composer 2 veröffentlicht und erstmals den vollständigen Trainingsplan offengelegt. Das Basismodell Kimi K2.5 basiert auf MoE-Architektur, mit insgesamt 1,04 Billionen Parametern und 32 Milliarden aktivierten Parametern. Das Training erfolgt in zwei Phasen: Zunächst wird auf Code-Daten weiter vortrainiert, um das Codierungswissen zu stärken, dann wird durch groß angelegtes Reinforcement Learning die End-to-End-Codierungsfähigkeit verbessert. Die RL-Umgebung simuliert vollständig reale Cursor-Anwendungsszenarien, einschließlich Dateibearbeitung, Terminaloperationen, Code-Suche und Tool-Aufrufe, sodass das Modell unter Bedingungen lernt, die der Produktionsumgebung nahekommen.
Der Bericht veröffentlicht auch die Methode zur Erstellung des selbstentwickelten Benchmarks CursorBench: Es werden Aufgaben aus echten Programmier-Sitzungen des Engineering-Teams gesammelt, anstatt sie künstlich zu erstellen. Das Basismodell Kimi K2.5 erreichte auf diesem Benchmark nur 36,0 Punkte. Nach zweistufigem Training erreichte Composer 2 61,3 Punkte, eine Steigerung um 70 %. Cursor gibt an, dass die Inferenzkosten deutlich niedriger sind als bei fortschrittlichen Modellen wie GPT-5.4 und Claude Opus 4.6, und somit eine Pareto-Optimierung zwischen Genauigkeit und Kosten erreicht wird.