DeepSeek V4 startet mit einem 1M-Kontextfenster; Huawei Ascend- und Cambricon-Chips erreichen vollständige Kompatibilität

Gate News Nachricht, 24. April — DeepSeek V4-Pro und DeepSeek V4-Flash wurden am 24. April offiziell veröffentlicht und Open-Source gestellt; die Länge der Kontextverarbeitung wurde deutlich von 128K auf 1M erweitert, was einer nahezu 10-fachen Kapazitätserhöhung entspricht. Huawei Computing kündigte an, dass seine Ascend-Supernode-Produkte die DeepSeek-V4-Serienmodelle vollständig unterstützen, durch enge Zusammenarbeit zwischen Chip- und Modelltechnologien.

Huawei Ascend 950 erreicht ein Deployment für DeepSeek-V4-Modell-Inferenz mit hohem Durchsatz und geringer Latenz durch Techniken wie fusionierte Kernel und Multi-Stream-Parallelität, um den Overhead für Attention-Berechnungen und Speicherzugriffe zu reduzieren. Für DeepSeek V4-Pro mit 8K-Eingabe erreicht Ascend 950 ungefähr 20ms TPOT mit 4.700 TPS Single-Card-Decode-Durchsatz; für DeepSeek V4-Flash bei 8K-Eingabe erreicht es ungefähr 10ms TPOT mit 1.600 TPS-Durchsatz. Die Ascend-A3-Supernode-Serie erreicht ebenfalls eine vollständige Kompatibilität, wobei Trainings-Referenzimplementierungen für schnelles Fine-Tuning bereitgestellt werden. Basierend auf der Ascend-A3-64-Card-Supernode mit großem EP-Modus erreicht DeepSeek V4-Flash in Szenarien mit 8K/1K Input-Output über 2.000 TPS Single-Card-Decode-Durchsatz unter Verwendung der vLLM-Inferenz-Engine. Huawei unterstützt mit seiner kompletten Ascend-A2-, A3- und 950-Produktpalette sowohl DeepSeek V4-Flash als auch V4-Pro.

Huawei Cloud kündigte die Vorreiter-Kompatibilität mit DeepSeek V4 an und bietet Entwicklern über seine MaaS-Plattform Ein-Klick-API-Token-Services. Huawei Cloud optimierte Systemebenen-, Operator- und Cluster-Ebene-Fähigkeiten, um eine schnelle Modelladaption und ein leistungsstarkes Deployment sicherzustellen. Unternehmen einschließlich Kingsoft WPS und 360 haben DeepSeeks neues Modell bereits über Huawei Cloud integriert.

Cambricon kündigte ebenfalls die Day-0-Kompatibilität mit DeepSeek V4-Flash und V4-Pro auf Basis des vLLM-Inferenz-Frameworks an, wobei Anpassungscode Open-Source für die GitHub-Community bereitgestellt wurde. Cambricon hatte zuvor eine Vorreiter-Anpassung erreicht, als DeepSeek V3.2 im vergangenen Jahr veröffentlicht wurde; dabei wurde eine tiefgreifende Software-Hardware-kooperative Performance-Optimierung an DeepSeek-Serienmodellen durchgeführt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

China und die USA stehen sich in einem KI-Duell gegenüber: Vorwürfe wegen Modell-Destillation und Investitionsbeschränkungen

Gate News-Meldung, 24. April — China hat US-Vorwürfe zurückgewiesen, dass seine Tech-Giganten amerikanische KI-Technologie über eine industrielle großskalige Destillation ausnutzen, während beide Länder sich auf eine große Konfrontation über die Entwicklung von KI und die Kontrolle über Investitionen einstellen. Die Trump-Regierung bereitet sich darauf vor,

GateNews7M her

Google plant, bis zu $40 Milliarden in Anthropic zu investieren, und sagt 5+ Gigawatt Rechenleistung zu

Gate News Nachricht, 24. April — Laut Marktdaten plant Google, bis zu $40 Milliarden in Anthropic zu investieren. Die Investition beginnt mit einem anfänglichen $10 Milliarden-Betrag in bar, gefolgt von bis zu zusätzlichen $30 Milliarden, abhängig vom Erreichen festgelegter Meilensteine. Google wird außerdem Anthropic mindestens 5 Gigawatt Rechenleistung als Teil der Partnerschaft bereitstellen.

GateNews2Std her

Schweizer Aufseher FINMA warnt, dass das KI-Tool Mythos von Anthropic ein finanzielles Risiko darstellt

Gate-News-Meldung, 24. April – Die Eidgenössische Finanzmarktaufsicht (FINMA) hat erklärt, dass das Zulassen, dass Banken Anthropics KI-Tool Mythos rasch und bequem übernehmen, ernsthafte Risiken für das

GateNews2Std her

Fere AI schließt eine 1,3-Millionen-US-Dollar-Finanzierungsrunde ab, angeführt von Ethereal Ventures

Gate News-Meldung, 24. April — Fere AI, eine KI-gestützte Plattform für digitale Asset-Handelsagenten, gab den Abschluss einer Finanzierungsrunde in Höhe von 1,3 Millionen US-Dollar bekannt, die von Ethereal Ventures angeführt wurde, mit Beteiligung von Galaxy Vision Hill und Kosmos Ventures. Die Plattform unterstützt plattformübergreifende Netzwerke einschließlich Ethereum,

GateNews3Std her

Anthropic rollt Änderungen an Claude Code zurück, nachdem die Qualität nachgelassen hat; alle Fixes abgeschlossen

Gate-News-Meldung, 24. April — Anthropic hat einen jüngsten Rückgang der Claude-Code-Qualität anerkannt und bestätigt, dass alle damit zusammenhängenden Probleme durch Rollbacks und Fixes behoben wurden. Die Probleme rührten von drei Produkt- und Prompt-Anpassungen her, die zwischen Anfang und Mitte April vorgenommen wurden. Am 4. März hat der

GateNews5Std her

NeoSoul-Mitgründer Kaelan: Die KI-Branche sollte erlauben, dass es „Spielzeuge“ gibt; Innovation beginnt oft als experimentelle Produkte

Gate News-Mitteilung, 24. April — Auf einem kürzlich in Hongkong abgehaltenen Forum für intelligentes verschlüsseltes Finanzwesen teilte Kaelan, Mitgründer von NeoSoul, Einblicke in die Bewertung von KI-Projekten in der Frühphase einer schnelllebigen, sich rasch entwickelnden KI-Branche. Neben der Beurteilung aktueller Produkte müssen Teams die Fähigkeit unter Beweis stellen, mit den zugrunde liegenden Modellfähigkeiten Schritt zu halten, wie er sagte.

GateNews5Std her
Kommentieren
0/400
Keine Kommentare