《All-In Podcast》AI-Krieg wendet sich der Deduktion zu, Wiederaufnahme des Siliziumchip-Kriegs, neue Start-ups können ebenfalls hervortreten

ChainNewsAbmedia

In der neuesten Folge des „All-In Podcast“ enthüllten die vier Moderatoren, dass OpenAI eine bedeutende Partnerschaft mit dem US-amerikanischen KI-Chip-Startup Cerebras eingegangen ist. In den nächsten drei Jahren werden bis zu 750 Billionen Watt an Rechenleistung bei Cerebras eingekauft, was insgesamt im Milliarden-Dollar-Bereich liegt. Der Schwerpunkt dieser Transaktion liegt nicht auf dem Modelltraining, sondern auf einem entscheidenden Aspekt der KI-Kommerzialisierung: (Inference), also die Rechenleistung, die erforderlich ist, um Modelle in Echtzeit Antworten und Dienste bereitzustellen. Die vier Moderatoren betonten, dass dies ein Zeichen dafür ist, dass sich der Wettbewerb in der KI-Branche allmählich von „Wer trainiert das größte Modell“ zu „Wer kann die schnellste, stabilste und kosteneffizienteste Inferenz bereitstellen“ verschiebt.

Drei Jahre 750 Billionen Watt Rechenleistung – OpenAI plant für Inferenz

Im Programm wurde erwähnt, dass OpenAI zugesagt hat, innerhalb von drei Jahren bis zu 750 Billionen Watt an Rechenressourcen bei Cerebras zu erwerben, was der Leistung eines großen Kraftwerks entspricht und speziell die praktische Anwendung von KI-Systemen unterstützt.

Die Moderatoren betonten, dass diese Partnerschaft nicht auf das Training neuer Modelle abzielt, sondern die Echtzeit-Inferenz für ChatGPT, API-Dienste und verschiedene KI-Anwendungen unterstützen soll. Mit der raschen Zunahme der Nutzerzahlen und Anwendungsszenarien wird die für die Inferenz benötigte Rechenleistung deutlich höher sein als während der Trainingsphase.

Cerebras-Technologie: Das ganze Wafer wird zu einem Chip

Der Gast im Programm erklärte, dass Cerebras von Anfang an eine andere Route gewählt hat als die gängigen Chip-Designs.

Während herkömmliche Chips auf einem Wafer in viele kleine Chips zerschnitten und einzeln verpackt werden, geht Cerebras einen anderen Weg: Das gesamte Wafer wird zu einem riesigen Chip gestaltet, auf dem eine Vielzahl von Recheneinheiten und Speicher integriert sind.

Dieses Design verkürzt die physikalische Entfernung zwischen Rechen- und Speichereinheiten erheblich, Daten müssen nicht zwischen mehreren Chips hin- und her übertragen werden. Dadurch sinkt die Systemkomplexität und die Gesamteffizienz der Berechnungen wird verbessert.

Cerebras setzt auf niedrige Latenz, Geschwindigkeit im Inferenz-Szenario

Im Programm wurde hervorgehoben, dass bei der Inferenz die wichtigsten Kennzahlen die Reaktionsgeschwindigkeit, die Latenz und die Systemstabilität sind. Nach Eingabe eines Befehls muss das Modell sofort die Berechnung abschließen und das Ergebnis zurückliefern; jede Verzögerung wirkt sich direkt auf die Nutzererfahrung aus.

Da Cerebras große Rechenleistung und Speicher auf einem einzigen riesigen Chip konzentriert, fließen Daten über sehr kurze Distanzen, was besonders für Szenarien geeignet ist, die eine hohe Frequenz und niedrige Latenz bei der Reaktion erfordern.

Es wurde erwähnt, dass die ersten groß angelegten Einsätze von Cerebras-Systemen in Institutionen im Nahen Osten erfolgen, darunter auch in den Vereinigten Arabischen Emiraten. Nach der tatsächlichen Implementierung zeigten sich bei bestimmten Inferenzaufgaben deutliche Geschwindigkeitsvorteile.

OpenAI diversifiziert die Lieferkette, um Risiken durch einzelne Anbieter zu vermeiden

Die Moderatoren wiesen darauf hin, dass OpenAI in den letzten Jahren eine „Multi-Lieferanten-Strategie“ verfolgt, um nicht mehr ausschließlich auf einen Chip-Hersteller angewiesen zu sein.

Derzeit nutzt OpenAI umfangreich die Rechenleistung von (NVIDIA) und arbeitet auch mit (AMD) zusammen. Mit der Einbindung von Cerebras entsteht nun eine mehrgleisige Versorgungslinie. Ziel ist es, Risiken zu streuen und die Stabilität der Dienste zu sichern, falls es bei einem Anbieter zu Kapazitäts-, Preis- oder politischen Änderungen kommt.

Das Programm bezeichnet dies als eine „Dezentralisierung“ der Rechenressourcen-Kette, um sicherzustellen, dass bei Problemen auf einer Route der Dienst weiterhin ununterbrochen läuft.

Siliziumindustrie im Umbruch – Neue Start-ups haben Chancen

Die Moderatoren sind der Ansicht, dass diese Partnerschaft nicht nur eine strategische Neuausrichtung von OpenAI darstellt, sondern auch ein Zeichen dafür ist, dass die KI-Chip-Industrie in eine neue Phase des Wettbewerbs eintritt.

In den nächsten 10 bis 20 Jahren könnte sich ein Szenario wiederholen, das in der Frühzeit der Personal-Computer-Industrie üblich war, mit vielen Unternehmen, die um Marktanteile konkurrieren. Nicht nur große Chip-Unternehmen, sondern auch viele Start-ups könnten im Bereich der Inferenz-Chips, spezialisierter Rechenleistung und vertikaler Anwendungen Fuß fassen.

Angesichts der anhaltenden Nachfrage nach KI-Kommerzialisierung haben kleine, innovative Unternehmen weiterhin die Chance, schnell im Markt aufzusteigen, solange sie die richtige technologische Richtung verfolgen.

Branchenfokus verschiebt sich: Vom Training zum Inferenz-Wettbewerb

Abschließend fasste das Programm zusammen, dass in der Anfangsphase der KI-Entwicklung der Markt darauf fokussiert war, wer die größten und stärksten Modelle trainieren kann. Mit der praktischen Anwendung wird jedoch zunehmend entscheidend, wer die Inferenzdienste mit höherer Geschwindigkeit, geringeren Kosten und größerer Stabilität bereitstellen kann.

Die Zusammenarbeit zwischen OpenAI und Cerebras gilt als ein bedeutender Indikator für den Branchenwandel und zeigt, dass der Wettbewerb in der KI allmählich vom „Trainingsvolumen“ zum „Inferenz-Effizienz“ verschoben wird.

(„All-In Podcast“ Prognose 2026: KI, Kupfer und Strom werden die neuen globalen Wirtschaftsmotoren)

Dieser Artikel „All-In Podcast“ KI-Kampf verschiebt sich auf Inferenz, Siliziumchip-Revival, neue Start-ups können aufsteigen, erschien zuerst bei ABMedia.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare