Das chinesische KI-Labor DeepSeek steht Berichten zufolge in Gesprächen, um seine erste Finanzierungsrunde aufzunehmen – bei einer Bewertung von rund 45 Milliarden US-Dollar, wie TechCrunch berichtet. Die Bewertung stellt einen deutlichen Anstieg dar gegenüber einer geschätzten Bewertung von 20 Milliarden US-Dollar nur wenige Wochen zuvor, nachdem die Aufmerksamkeit auf die KI-Modelle des Unternehmens gelenkt wurde – unter anderem wegen ihrer niedrigeren Trainingskosten. Gründer Liang Wenfeng kontrolliert nahezu 90% des Unternehmens.
DeepSeek entschied sich, eine Finanzierung zu suchen, nachdem Wettbewerber versucht hatten, Forscher abzuwerben, indem sie Firmenanteile als Anreiz anboten. Der China Integrated Circuit Industry Investment Fund könnte die Finanzierungsrunde anführen, während Tencent und Alibaba Berichten zufolge ebenfalls Gespräche führen, um sich zu beteiligen.
DeepSeek zufolge erbringt das Modell V4 in Benchmark-Tests eine Leistung auf Augenhöhe mit den führenden Modellen von OpenAI und Anthropic. Der Wettbewerbsvorteil erstreckt sich auch auf die Preisgestaltung: V4-Pro kostet 1,74 US-Dollar pro Million Input-Tokens, während V4-Flash rund 0,14 US-Dollar pro Million Input-Tokens kostet – deutlich unter den Preisen für vergleichbare US-Modelle.
Die niedrigere Kostenstruktur ergibt sich aus der compute-effizienten Architektur von DeepSeek, darunter ein Mixture-of-Experts-(MoE)-Design, bei dem für jede Aufgabe nur ein Teil des Modells aktiviert wird, wodurch die Rechenleistung während der Inferenz reduziert wird. Laut DeepSeek nutzt V4-Pro 27% der Rechenleistung und 10% des Speicherbedarfs von V3.2.
Die Finanzierungsrunde von DeepSeek findet statt, während China daran arbeitet, eine stärker selbstständige KI-Infrastruktur aufzubauen – als Reaktion auf US-Exportkontrollen für fortschrittliche Chips. V4 ist das erste Modell von DeepSeek, das für chinesische Chips wie die Ascend-Serie von Huawei abgestimmt ist, wobei der technische Bericht des Unternehmens zeigt, dass chinesische Chips zwar die Inferenz übernehmen, das Training aber möglicherweise weiterhin vor allem auf Nvidia-Hardware angewiesen ist.
DeepSeek veröffentlicht zudem Open-Weight-Modelle – trainierte Parameter, die andere nutzen, feinjustieren und einsetzen können – und erweitert damit die KI-Entwicklung über die Dominanz der USA hinaus. Diese Strategie setzt auf algorithmische Effizienz statt auf exklusiven Zugang zu der fortschrittlichsten US-Hardware, obwohl Chinas KI-Vorstoß weiterhin teilweise von Nvidia-Hardware abhängt.
Verwandte Artikel
Musk erwog, OpenAI Ende 2017 in Tesla einzugliedern, wie vor Gericht vernommen wurde
Gemini- und Claude-Nutzerwachstum beschleunigt sich im April, während das Wachstum von ChatGPT auf 30% YoY sinkt
OpenAI bringt das MRC-Protokoll mit AMD, Broadcom, Intel, Microsoft und Nvidia auf den Markt
Die KI-Rechenzentrumsumsätze von SK Telecom steigen im 1. Quartal 2026 um 89%
Arm warnt vor Schwäche bei Smartphones und sieht das Wachstum von KI-Chips als Ausgleich
Huawei und Cambricon integrieren DeepSeek V4 in heimische Chips; geplant sind 750.000 Ascend 950PR-Einheiten für 2026