Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Ark Invest: Tình hình hiện tại và tương lai của hạ tầng AI
Nguồn: Frank Downing, Ark Invest; Biên dịch: 金色财经Claw
Chi tiêu cho hạ tầng AI bùng nổ
Trong ba năm kể từ khi ChatGPT ra mắt, nhu cầu về tính toán tăng tốc đã tăng vọt. Doanh thu hàng năm của Nvidia đã tăng gần 8 lần, từ 27 tỷ USD năm 2022 lên 216 tỷ USD năm 2025, thị trường dự kiến sẽ tăng thêm 62% vào năm 2026, đạt 3500 tỷ USD. Đầu tư vào hệ thống trung tâm dữ liệu toàn cầu (bao gồm phần cứng tính toán, mạng và lưu trữ) đã tăng tốc từ mức trung bình 5% mỗi năm trong thập kỷ đến 30% trong ba năm qua, dự kiến sẽ tăng hơn 30% nữa vào năm 2026, đạt 653 tỷ USD.
Nghiên cứu của ARK cho thấy, tính toán tăng tốc do GPU và mạch tích hợp chuyên dụng AI (ASIC) thúc đẩy (so với CPU phổ thông) hiện chiếm ưu thế trong đầu tư máy chủ, chiếm 86% doanh số bán máy chủ tính toán.
Giảm giá mạnh thúc đẩy sử dụng tăng tốc
Động lực thúc đẩy chi tiêu cho hạ tầng tính toán tăng tốc để chạy các mô hình AI, đến từ việc mở rộng các ứng dụng của AI tạo sinh trong tiêu dùng và doanh nghiệp, cũng như nhu cầu huấn luyện các mô hình cơ bản thông minh hơn trong quá trình theo đuổi “siêu trí tuệ”.
Giá thành giảm nhanh đang thúc đẩy nhu cầu tăng trưởng hơn nữa. Theo nghiên cứu của chúng tôi, chi phí huấn luyện AI giảm 75% mỗi năm. Chi phí suy luận giảm còn nhanh hơn — trong các bài kiểm tra chuẩn do Artificial Analysis theo dõi, hơn 50% các mô hình đạt điểm số, mức giảm trung bình hàng năm lên tới 95%.
Hai lực lượng này cùng nhau thúc đẩy giảm giá mạnh: thứ nhất là các nhà lãnh đạo ngành như Nvidia liên tục ra mắt sản phẩm mới hàng năm, mang lại những bước tiến về hiệu năng phần cứng; thứ hai là các cải tiến thuật toán phần mềm, giúp nâng cao hiệu quả huấn luyện và suy luận trên cùng phần cứng.
Phản hồi mạnh mẽ từ người tiêu dùng và doanh nghiệp
Tốc độ người tiêu dùng áp dụng AI rõ ràng nhanh hơn so với thời điểm họ chuyển sang internet. Tỷ lệ phổ biến của AI trong ba năm đã mở rộng lên khoảng 20%, gấp hơn hai lần tốc độ chuyển đổi sang internet của người tiêu dùng.
Nhu cầu của doanh nghiệp cũng tăng trưởng với tốc độ đáng kinh ngạc. Ví dụ, theo dữ liệu của OpenRouter, kể từ tháng 12 năm 2024, nhu cầu token đã tăng 28 lần.
Trong hai năm qua, phòng thí nghiệm AI được doanh nghiệp ưa chuộng nhất là Anthropic đã đạt mức tăng trưởng doanh thu đáng kinh ngạc khoảng 100 lần — từ 100 triệu USD doanh thu hoạt động hàng năm cuối năm 2023, tăng lên 8-10 tỷ USD vào cuối năm 2025. Đà tăng của Anthropic vẫn tiếp tục vào năm 2026, tháng 2 năm nay công bố doanh thu hàng năm đạt 14 tỷ USD và huy động vốn vòng mới trị giá 30 tỷ USD, định giá đạt 380 tỷ USD.
Trong cuộc cạnh tranh đồng thời trên cả hai chiến tuyến của người tiêu dùng và doanh nghiệp, OpenAI cũng đạt được sự tăng trưởng mạnh mẽ trong khách hàng doanh nghiệp, đến tháng 11 năm 2025 đã có 1 triệu khách hàng doanh nghiệp. Theo Giám đốc tài chính Sarah Friar, doanh thu từ doanh nghiệp của OpenAI tăng nhanh hơn so với mảng tiêu dùng, dự kiến sẽ chiếm 50% tổng doanh thu của công ty vào năm 2026. Trong một bài blog tháng 1 năm 2026, Friar cũng giải thích lý do tiếp tục đầu tư hạ tầng: trong ba năm qua, doanh thu của OpenAI tỷ lệ thuận với khả năng tính toán của họ.
Thị trường tư nhân cung cấp vốn cho xây dựng AI
Để đáp ứng các tín hiệu nhu cầu mạnh mẽ này, đầu tư hạ tầng quy mô lớn đã trở thành điều tất yếu. Theo dữ liệu của Crunchbase, năm 2025, các vòng gọi vốn của phòng thí nghiệm AI tư nhân vượt quá 200 tỷ USD, trong đó khoảng 80 tỷ USD chảy vào các nhà phát triển mô hình cơ bản như OpenAI, Anthropic và xAI. Trên thị trường công khai, các tập đoàn đám mây quy mô lớn đang huy động tiền mặt và tìm kiếm các hình thức huy động vốn khác để hỗ trợ kế hoạch chi tiêu vốn cho AI — dự kiến quy mô chi tiêu này có thể lên tới 700 tỷ USD vào năm 2026.
Theo báo cáo, thương vụ trị giá 30 tỷ USD giữa Meta và Blue Owl là giao dịch tư nhân lớn nhất từ trước đến nay. Giao dịch này được xây dựng dưới dạng liên doanh, chủ yếu dựa trên tài trợ nợ, cấu trúc SPV (công ty mục đích đặc biệt) sẽ giúp khoản nợ dự án không phản ánh trên bảng cân đối kế toán của Meta, điều này đã gây ra nhiều tranh cãi lớn.
AMD và các nhà cung cấp khác trở thành thách thức mạnh mẽ của Nvidia
Ngoài các trung tâm dữ liệu vật lý, chip tính toán luôn là trung tâm của chi tiêu vốn AI. Nvidia luôn dẫn đầu trong kỷ nguyên tính toán tăng tốc, nhưng nay các nhà mua chip AI lớn nhất đang cố gắng nâng cao hiệu quả mỗi đô la đầu tư để có được sức mạnh tính toán AI nhiều hơn. Kể từ khi mua lại ATI Technologies vào năm 2006, AMD đã song hành cùng Nvidia trong thị trường tiêu dùng với các GPU, nay cũng trở thành đối thủ mới trong thị trường doanh nghiệp. Từ khi ra mắt dòng xử lý EPYC vào năm 2017, thị phần CPU máy chủ của AMD đã tăng từ gần như bằng 0 lên 40% vào năm 2025.
Về các mô hình nhỏ, GPU của AMD đã gần như sánh ngang hiệu năng và tổng chi phí sở hữu (TCO) so với Nvidia. TCO tính cả chi phí mua chip ban đầu (chi phí vốn) và chi phí vận hành trong suốt vòng đời sử dụng (chi phí vận hành). Thước đo hiệu năng dựa trên chỉ số InferenceMax của SemiAnalysis, đo bằng số token xử lý mỗi giây tối ưu hóa cho throughput, còn thước đo chi phí dựa trên ước tính của SemiAnalysis về chi phí vốn và vận hành theo giờ.
Dù AMD đã bắt kịp về hiệu năng các mô hình nhỏ, Nvidia vẫn giữ vị trí dẫn đầu rõ rệt về hiệu năng các mô hình lớn, như hình dưới đây.
Giải pháp GPU của Nvidia với quy mô rack Grace Blackwell kết nối 72 GPU Grace Blackwell (GB200), hoạt động như một GPU siêu lớn chia sẻ bộ nhớ. Việc liên kết chặt chẽ giữa các chip này tăng cường khả năng suy luận của các mô hình lớn — các mô hình này cần phân phối trọng số trên nhiều GPU hơn, đòi hỏi băng thông truyền thông cao hơn. Để rút ngắn khoảng cách trước khi Nvidia ra mắt Vera Rubin, AMD dự kiến sẽ ra mắt giải pháp rack vào nửa cuối năm 2026. Hiện tại, AMD đã có đơn hàng từ Microsoft, Meta, OpenAI, xAI và Oracle.
Các nhà cung cấp chip tùy chỉnh quy mô lớn dẫn đầu cuộc cách mạng
Ngoài các nhà cung cấp GPU thương mại, các tập đoàn đám mây quy mô lớn và phòng thí nghiệm AI cũng muốn tự phát triển chip để kiểm soát ảnh hưởng của Nvidia, giảm chi phí tính toán AI. Trong hơn một thập kỷ, Google đã thiết kế mạch tích hợp chuyên dụng AI của riêng mình — TPU (Tensor Processing Unit), dùng để chạy các mô hình đề xuất cho dịch vụ tìm kiếm của họ, và trên thế hệ TPU v7 mới nhất đã tối ưu hiệu suất cho AI tạo sinh. SemiAnalysis ước tính, Google tự phát triển TPU để xử lý khối lượng công việc nội bộ, giúp giảm chi phí mỗi lần tính toán xuống 62% so với Nvidia. Anthropic và Meta đang mở rộng khả năng tính toán của họ bằng TPU của Google, có thể xác nhận ước tính giảm 62% này không quá xa thực tế.
Chip Trainium của Amazon dường như là giải pháp tầm trung. Sau khi mua lại Annapurna Labs vào năm 2015, Amazon đã phát triển chip tùy chỉnh cho dịch vụ đám mây của mình, mở rộng dựa trên CPU ARM Graviton và đơn vị xử lý dữ liệu Nitro (DPU), để hỗ trợ năng lực tính toán quan trọng của AWS. Gần đây, Amazon tuyên bố rằng năm 2025, Graviton đã cung cấp hơn một nửa khả năng CPU mới của AWS liên tục trong ba năm liên tiếp. Ngoài TPU, Anthropic còn chọn AWS và Trainium làm nền tảng huấn luyện chính của họ.
Microsoft gia nhập lĩnh vực chip tùy chỉnh muộn hơn, năm 2023 ra mắt AI accelerator Maia 100, nhưng ban đầu chưa tập trung vào AI tạo sinh. Hiện tại, sản phẩm thế hệ thứ hai của họ đang ra mắt, chủ yếu hướng tới các ứng dụng suy luận AI.
Bó mạch dẫn đầu thị trường dịch vụ chip tùy chỉnh
Google và Amazon tập trung vào thiết kế chip phía trước (kiến trúc và chức năng), còn các đối tác thiết kế phía sau chịu trách nhiệm chuyển đổi logic thành chip silicon, quản lý đóng gói tiên tiến và phối hợp sản xuất với các nhà gia công wafer như TSMC. Trong bối cảnh Intel gặp khó khăn trong hoạt động gia công wafer, TSMC đã trở thành đối tác hợp tác hàng đầu cho hầu hết các dự án chip AI lớn, còn Broadcom trở thành đối tác thiết kế hậu kỳ hàng đầu cho các chip tùy chỉnh của Google TPU, Meta MTIA và dự kiến của OpenAI vào năm 2026. Apple luôn tự thiết kế toàn bộ quy trình chip cho điện thoại và PC của mình, nhưng có tin đồn họ cũng đang hợp tác với Broadcom để phát triển chip AI. Citi dự đoán, doanh thu AI của Broadcom trong hai năm tới có thể tăng gấp năm lần, từ 20 tỷ USD năm 2025 lên 100 tỷ USD năm 2027.
Con đường phát triển chip của Amazon Trainium khá đặc biệt — theo báo cáo, Trainium 2 hợp tác với Marvell, nhưng do Marvell thực thi kém, Trainium 3 và Trainium 4 đã chuyển sang hợp tác với Alchip. Việc Amazon có thể thay đổi đối tác hậu kỳ cho thấy sự rủi ro của việc tích hợp dọc đối với các công ty như Broadcom. Đáng chú ý, Apple và Tesla trực tiếp hợp tác với các nhà gia công wafer. Google có thể cũng sẽ làm như vậy trên TPU v8 — sản phẩm này có hai SKU, một do Broadcom hợp tác thiết kế, còn một do Google tự thiết kế và kiểm soát dưới sự hỗ trợ của MediaTek.
Hoạt động của các startup chip tăng nhiệt
Nghiên cứu của chúng tôi cho thấy, một nhóm các startup thử nghiệm các kiến trúc mới có thể tạo ra lực lượng dài hạn thách thức vị thế của các nhà sản xuất chip hiện tại. Cerebras nổi tiếng với engine wafer-level (một chip khổng lồ làm từ một tấm wafer silicon, kích thước như hộp pizza), cung cấp tốc độ xử lý token nhanh nhất thị trường, dự kiến sẽ ra mắt trong năm nay. Công ty gần đây công bố hợp tác với OpenAI để ra mắt mô hình lập trình tốc độ cao Codex Spark, sau khi đã hợp tác từ tháng 1 năm nay. Groq cũng nổi bật với tốc độ xử lý token mỗi giây, đã ký thỏa thuận cấp phép sở hữu trí tuệ trị giá 20 tỷ USD với Nvidia, bao gồm 90% nhân viên của Groq và CEO kiêm đồng sáng lập TPU Jonathan Ross. Đây thực chất là một thương vụ mua bán đội ngũ và công nghệ của Groq, dạng giao dịch ngày càng phổ biến trong thị trường mua bán sáp nhập, nhằm tránh các trì hoãn do kiểm soát của cơ quan quản lý. Trong các hoạt động mua bán khác, Intel gần đây đã thất bại trong đàm phán mua lại và đã hợp tác với SambaNova. Kể từ năm 2014, Intel đã thực hiện bốn lần mua bán trong lĩnh vực AI nhưng vẫn chưa ra mắt sản phẩm AI được thị trường đón nhận rộng rãi, điều này thật đáng tiếc.
Triển vọng tương lai: quy mô đạt 1,4 nghìn tỷ USD vào năm 2030
Theo nghiên cứu của chúng tôi, trong năm năm tới, nhu cầu liên tục tăng và hiệu năng không ngừng cải thiện sẽ thúc đẩy sự phát triển của phần mềm AI và dịch vụ đám mây, chi tiêu cho hạ tầng AI sẽ tăng gấp ba lần — từ 500 tỷ USD năm 2025 lên gần 1,5 nghìn tỷ USD vào năm 2030.
Dự báo của chúng tôi dựa trên quan sát lịch sử về đầu tư hệ thống trung tâm dữ liệu so với doanh thu phần mềm. Vào đầu thập niên 2010, cùng với sự bùng nổ của điện toán đám mây, đầu tư hệ thống chiếm khoảng 50% chi tiêu phần mềm toàn cầu. Đến năm 2021, sau đại dịch COVID-19, đầu tư quá mức và tối ưu hóa của khách hàng đã giảm tỷ lệ này xuống hơn 20%. Dự báo 1,5 nghìn tỷ USD của chúng tôi giả định rằng, vào năm 2030, mức đầu tư sẽ chiếm khoảng 20% dự kiến chi tiêu phần mềm toàn cầu (khoảng 7 nghìn tỷ USD vào năm 2030), như đã trình bày trong một bài blog của chúng tôi năm ngoái. Chúng tôi cho rằng mức 20% này đã tính đến rủi ro quá mức đầu tư tiềm năng trước năm 2030 và khả năng doanh thu phần mềm tăng chậm hơn so với dự báo trung tính — trong trường hợp đó, đầu tư hạ tầng sẽ vẫn duy trì tốc độ tăng trưởng cao như thời kỳ đầu thập niên 2010.
Khi nhu cầu tính toán dựa trên AI tiếp tục tăng, chúng tôi dự đoán tỷ trọng chip tùy chỉnh trong chi tiêu tính toán sẽ ngày càng lớn — vì thời gian và vốn đầu tư để thiết kế chip phù hợp với các tải công việc cụ thể sẽ thể hiện lợi thế hiệu suất trên mỗi đô la ngày càng rõ ràng khi quy mô mở rộng. Chúng tôi dự đoán, đến năm 2030, ASIC tùy chỉnh có thể chiếm hơn một phần ba thị trường tính toán.
Tổng thể, nghiên cứu của chúng tôi cho thấy, các hoạt động xây dựng hạ tầng hiện tại không phải là bong bóng sắp vỡ mà là một cuộc cách mạng nền tảng hiếm có. ARK dự đoán, đến năm 2030, chi tiêu hàng năm cho hạ tầng AI sẽ gần 1,5 nghìn tỷ USD, thị trường này được thúc đẩy bởi nhu cầu thực tế và liên tục tăng từ người tiêu dùng và doanh nghiệp, trong khi chi phí giảm liên tục đang xác nhận và giải phóng các kịch bản sử dụng mới. Chúng tôi tin rằng, trong năm năm tới, các doanh nghiệp nổi bật sẽ là những doanh nghiệp có khả năng thiết kế chip hiệu quả nhất, xây dựng các mô hình mạnh nhất và triển khai quy mô lớn cả hai yếu tố này.
Như CEO Nvidia Jensen Huang đã trình bày trong cuộc họp báo tài chính quý IV năm 2026, các AI thực sự hữu ích mới chỉ bắt đầu được triển khai quy mô lớn trong vài tháng gần đây. Chúng tiêu thụ token khổng lồ, nhưng năng lực vượt xa các sản phẩm AI mà hầu hết người dùng từng quen thuộc trước đây. Mở rộng các trí tuệ này đến hàng triệu doanh nghiệp sẽ là công việc đòi hỏi tính toán cực kỳ cao, và theo chúng tôi, những nâng cao năng suất từ đó sẽ hoàn toàn xứng đáng với các khoản đầu tư này.