Am Dienstag, im vorbörslichen Handel, fiel der Kurs von Nvidia um 3,2 %, nachdem berichtet wurde, dass Meta Gespräche über die Nutzung von Googles KI-Chips führt. Angetrieben von dieser Nachricht stieg der Kurs von Alphabet um 2,1 %, während die Anleger die möglichen Veränderungen im KI-Hardware-Markt verarbeiten.
Die “The Information” berichtete am Montag, dass Meta in Erwägung zieht, bis 2027 Tensor Processing Units (TPU) von Google in seinen Rechenzentren einzusetzen. Der Social-Media-Riese könnte möglicherweise bereits nächstes Jahr TPU von Google Cloud mieten.
Für Google wird der Gewinn von Meta als Kunde die Wirksamkeit seiner maßgeschneiderten Chip-Technologie bestätigen. Die TPU wurde ursprünglich 2018 eingeführt und ist für den internen Gebrauch im Google Cloud-Geschäft gedacht. Diese Chips haben mehrere Entwicklungsstufen durchlaufen, wobei jede Generation speziell für AI-Workloads entworfen wurde. Die maßgeschneiderte Natur der TPU gibt Google einen Vorteil. Experten weisen darauf hin, dass Chips, die für spezifische Aufgaben entwickelt wurden, im Vergleich zur allgemeinen Berechnung eine höhere Effizienz bieten können.
Meta ist einer der größten Investoren in KI-Infrastruktur weltweit. Das Unternehmen erwartet, dass die Investitionsausgaben in diesem Jahr allein zwischen 70 und 72 Milliarden Dollar betragen werden. Diese starke Kaufkraft macht Metas Chip-Auswahl für die gesamte Branche einflussreich.
Technologieunternehmen suchen aktiv nach Alternativen zu Nvidia-Grafikprozessoren. Obwohl Nvidia weiterhin die Marktführerschaft behauptet, wird der Trend zur Diversifizierung immer deutlicher.
Google hat kürzlich eine Vereinbarung mit Anthropic getroffen, um bis zu 1 Million TPUs zu beschaffen. Der Seaport-Analyst Jay Goldberg bezeichnete diese Vereinbarung als “starke Bestätigung” dieser Technologie. Er wies darauf hin, dass viele Unternehmen zuvor TPUs evaluiert haben und nun möglicherweise noch mehr Unternehmen in Erwägung ziehen, diese zu übernehmen.
Die Unterschiede in der Chiparchitektur sind entscheidend. GPUs wurden ursprünglich für die Renderung von Grafiken in Videospielen entwickelt. Es hat sich herausgestellt, dass sie sich hervorragend für das Training von künstlicher Intelligenz eignen, da sie große Datenmengen und parallele Berechnungen gut verarbeiten können. TPUs hingegen verfolgen einen anderen Ansatz; sie sind spezielle integrierte Schaltungen, die von Anfang an für diskrete Anwendungen entwickelt wurden, und Google hat sie speziell für Aufgaben der künstlichen Intelligenz und des maschinellen Lernens entworfen. (CoinCentral)