Google tìm cách mở rộng hệ sinh thái chip AI với Marvell khi cuộc cạnh tranh với Nvidia đang nóng lên

Theo một số nguồn tin, Google của Alphabet Inc. đang trong các cuộc đàm phán với Marvell Technology để phát triển hai chip mới nhằm cải thiện cách các mô hình trí tuệ nhân tạo được vận hành.
Tóm tắt

  • Google đang đàm phán với Marvell để phát triển hai chip tập trung cho AI, bao gồm một bộ xử lý xử lý bộ nhớ (memory processing unit) và một TPU thế hệ tiếp theo, nhằm cải thiện hiệu quả của mô hình.
  • Bước đẩy này là một phần nỗ lực của Google nhằm định vị các TPU của mình như một lựa chọn thay thế cho GPU Nvidia, đồng thời mở rộng quan hệ đối tác với Intel và Broadcom.
  • Động thái này diễn ra bên cạnh việc ra mắt Gemma 4, khi Google đồng bộ các mô hình AI và hệ thống phần cứng của mình trong bối cảnh cạnh tranh trong mảng điện toán AI ngày càng gay gắt.

Theo một báo cáo của The Information, trích dẫn các nguồn am hiểu vấn đề, một trong hai chip được đề xuất có thể là một bộ xử lý bộ nhớ được xây dựng để hoạt động song song với các tensor processing units của Google, hay TPU. Chip thứ hai được kỳ vọng là một TPU mới, được tùy chỉnh riêng để chạy các tác vụ AI hiệu quả hơn.

Động thái này là một phần nỗ lực của Google nhằm định vị các chip do hãng tự phát triển như một lựa chọn thay thế cho GPU của Nvidia. Việc áp dụng TPU đã góp phần thúc đẩy tăng trưởng doanh thu của Google Cloud, khi công ty tìm cách chứng minh hiệu quả từ khoản chi cho hạ tầng AI.

Báo cáo cho biết thêm rằng Google dự định hoàn tất thiết kế của chip tập trung vào bộ nhớ vào năm tới, trước khi chuyển sang giai đoạn kiểm thử sản xuất. Đồng thời, công ty đã mở rộng quan hệ đối tác với các nhà sản xuất chip như Intel và Broadcom để hỗ trợ nhu cầu đang tăng lên đối với hạ tầng AI.

Cạnh tranh gia tăng trong phần cứng AI

Khi Google tăng tốc phát triển các bộ tăng tốc AI, hãng có thể bắt đầu thách thức vị thế dẫn đầu lâu năm của Nvidia trong điện toán hiệu năng cao.

Chẳng hạn, NVIDIA đang đẩy mạnh danh mục các chip suy luận AI của riêng mình, bao gồm các thiết kế tích hợp công nghệ từ Groq. Việc một đối thủ lớn quy mô khác gia nhập cuộc đua có thể làm gia tăng mức độ cạnh tranh trong mảng phần cứng AI và định hình lại cách các công ty tìm nguồn cung cấp sức mạnh tính toán cho các mô hình.

Các nhà đầu tư có khả năng sẽ tìm kiếm thêm sự rõ ràng khi Google công bố kết quả kinh doanh quý 1 vào ngày 29 tháng 4. Bản công bố lợi nhuận dự kiến sẽ cung cấp tín hiệu về hiệu suất của mảng cloud, xu hướng quảng cáo, và mức độ quyết liệt công ty dự định đầu tư vào AI và chất bán dẫn trong các quý tới.

Những tiến bộ của mô hình AI thúc đẩy nỗ lực về phần cứng

Các cuộc thảo luận chip mới nhất của Google diễn ra trong lúc hãng tiếp tục mở rộng năng lực mô hình AI của mình. Đầu tháng này, công ty đã giới thiệu Gemma 4, một họ mô hình mã nguồn mở mới được xây dựng cho khả năng suy luận nâng cao và các quy trình làm việc kiểu tác nhân.

Gemma 4 có sẵn trong bốn kích cỡ và được thiết kế để xử lý logic nhiều bước và giải quyết vấn đề có cấu trúc hiệu quả hơn. Nó cũng đã mang lại kết quả được cải thiện trong các bài kiểm tra gắn với các tác vụ toán học và làm theo hướng dẫn.

Các mô hình bao gồm các tính năng như gọi hàm native (native function calling), đầu ra JSON có cấu trúc, và các chỉ dẫn cấp hệ thống, cho phép nhà phát triển xây dựng các hệ thống tự chủ có thể kết nối với API và các công cụ bên ngoài. Chúng cũng có thể tạo mã offline, biến các máy cục bộ thành trợ lý lập trình AI có năng lực.

Cùng với các kế hoạch nâng cấp mô hình và phát triển chip, những điều này cho thấy Google đang đồng bộ phần mềm và hệ thống phần cứng của mình khi cạnh tranh trong lĩnh vực AI tiếp tục gia tăng.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek giới thiệu phương pháp Visual Primitives để nâng cao khả năng suy luận đa phương thức vào ngày 30 tháng 4

Theo báo cáo kỹ thuật của DeepSeek, vào ngày 30 tháng 4, công ty đã giới thiệu Visual Primitives, một phương pháp nhúng các đơn vị thị giác cơ bản như điểm và hộp giới hạn vào chuỗi suy luận nhằm giải quyết vấn đề Reference Gap trong các tác vụ đa phương thức. Phương pháp này giúp giảm mức tiêu thụ token hình ảnh

GateNews10phút trước

NVIDIA Phát hành Trọng số mô hình Cosmos-Reason2-32B chủ lực, mở rộng cửa sổ ngữ cảnh lên 256K token

Theo Beating, NVIDIA đã phát hành các trọng số cho Cosmos-Reason2-32B, phiên bản chủ lực của mô hình ngôn ngữ-thị giác suy luận AI vật lý (VLM) nhằm giúp robot và các hệ thống lái xe tự động hiểu các nguyên lý về không gian, thời gian và vật lý. Mô hình 32 tỷ tham số,

GateNews13phút trước

OpenAI tiết lộ Codex vì sao bị cấm nói về “goblin”: kiểm soát phần thưởng “nhân cách lập trình viên” bị vượt tầm

OpenAI trong blog chính thức đã giải thích Codex cấm không nhắc đến goblin và các sinh vật khác, bắt nguồn từ việc ưu tiên tín hiệu phần thưởng trong huấn luyện tính cách kiểu “dân mọt sách”, khiến hình ảnh so sánh mang tính sinh vật gây ô nhiễm chéo giữa các nhân cách và dẫn đến RLHF bị hiểu sai. Sự việc được Barron Roth tiết lộ sau khi bộc lộ các chỉ lệnh hệ thống, sau đó OpenAI áp dụng hai chiến lược: mã hóa cứng ngắn hạn và xóa dần các tín hiệu phần thưởng trong dài hạn, đồng thời cảnh báo về sự mong manh của thiết kế phần thưởng; giai đoạn kiểm toán sau huấn luyện cần chi tiết hơn.

ChainNewsAbmedia56phút trước

Module diễn giải Qwen-Scope nguồn mở của Alibaba mở rộng, bao phủ 7 mô hình vào ngày 30 tháng 4

Theo PANews, vào ngày 30/4, Qwen của Alibaba đã công bố mã nguồn mở cho Qwen-Scope, một mô-đun khả giải thích được huấn luyện trên các mô hình thuộc dòng Qwen3 và Qwen3.5. Bản phát hành bao gồm 7 mô hình ngôn ngữ lớn ở các biến thể dense và mixture-of-experts, với 14 bộ sparse autoencoder

GateNews1giờ trước

Các máy chủ AI Nvidia B300 đạt mốc 1 triệu USD tại Trung Quốc trong bối cảnh thiếu hụt nguồn cung

Theo Reuters, các máy chủ AI B300 của Nvidia hiện được bán với giá khoảng 7 triệu nhân dân tệ (1 triệu USD) tại Trung Quốc, nhờ việc siết chặt các đường dây buôn lậu và nhu cầu tiếp tục từ các công ty công nghệ trong nước. Giá đã tăng từ khoảng 4 triệu nhân dân tệ (585.000 USD) vào cuối năm 2025, đáng kể

GateNews1giờ trước

Lợi nhuận hoạt động của LG CNS tăng 19% trong quý 1 nhờ tăng trưởng AI và Cloud

Theo Chosun Daily, LG CNS cho biết vào ngày 30 tháng 4 rằng lợi nhuận hoạt động quý 1 tăng 19,4% so với cùng kỳ năm ngoái lên 94,2 tỷ won (64,1 triệu USD), nhờ nhu cầu về AI và điện toán đám mây. Doanh thu tăng 8,6% lên 1,3 nghìn tỷ won (894 triệu USD). Bộ phận AI và đám mây của công ty tạo ra 765,4 tỷ

GateNews2giờ trước
Bình luận
0/400
Không có bình luận