He Yi's YZi Labs Đầu Tư vào Công Ty Mô Hình Ngôn Ngữ Lớn AI của Trung Quốc

Tin tức từ Gate, ngày 27 tháng 4 — He Yi, cùng với văn phòng gia đình của Changpeng Zhao là YZi Labs, đã đầu tư vào một công ty mô hình ngôn ngữ lớn trí tuệ nhân tạo của Trung Quốc, cô tiết lộ trong một buổi gặp riêng dành cho KOL tại Carnival Web3 Hồng Kông. Tên cụ thể của công ty được đầu tư không được tiết lộ.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Dùng AI để tăng năng suất hay giảm chi phí? Nâng gấp trăm lần hiệu suất không đi kèm gấp trăm lần doanh thu, nhưng ở Thung lũng Silicon không ai dám kêu dừng

Nhà đầu tư hợp danh của Fiveyuan Capital là Meng Xing, gần đây đã công bố báo cáo khảo sát Thung lũng Silicon, đưa ra một nhận định đến mức ngay cả chính anh cũng phải thay đổi thói quen ghi chép: Thung lũng Silicon đang bước vào một giai đoạn mà ngay cả người “cố tạo sóng” cũng bị sóng nhấn chìm. Tốc độ lặp phiên bản của AI đã chuyển từ “theo tháng” sang “theo tuần”, đến ngay cả Thung lũng Silicon cũng không theo kịp chính mình. Khi AI khuếch đại năng suất của một đội nhóm lên gấp năm lần, bạn có thể giảm tới tám phần mười nhân lực để duy trì sản lượng như cũ, hoặc giữ nguyên số người để làm gấp năm lần. Quan sát của Meng Xing lần này tại Thung lũng Silicon, tương đương với việc tại chỗ đưa ra bản nháp câu trả lời: khi hiệu suất 100 lần không đổi lấy doanh thu 100 lần, khi ngân sách token tiến sát chi phí nhân lực, khi động cơ hơi nước còn chưa chạy nhanh hơn xe ngựa mà chẳng ai dám dừng lại, thì Thung lũng Silicon hiện đang chọn “tăng tốc độ lên trước rồi tính sau”. Nhưng cuối cùng con đường này sẽ dẫn tới “năng lực mở rộng” hay “cắt giảm chi phí”, hiện vẫn chưa có kết luận. YC từ các chỉ báo dẫn đầu chuyển sang các chỉ báo tụt hậu Meng Xing năm nay

ChainNewsAbmedia12phút trước

Đối tác YC chia sẻ cách sử dụng AI để bắt đầu xây dựng một công ty từ con số không, và các startup nên xem AI như một hệ điều hành chứ không phải một công cụ

Ảnh hưởng của AI đối với các công ty khởi nghiệp không còn chỉ là giúp các kỹ sư viết code nhanh hơn, tự động hóa quy trình chăm sóc khách hàng, hoặc thêm một Copilot vào sản phẩm hiện có. Đối tác của YC, Diana, gần đây cho biết, sự thay đổi thực sự nằm ở việc AI đang viết lại “cách một công ty nên được xây dựng từ con số không”. Đối với các nhà sáng lập giai đoạn đầu, AI không nên chỉ là một công cụ hiệu suất được sử dụng thỉnh thoảng bởi công ty, mà cần được thiết kế ngay từ ngày đầu tiên để trở thành hệ điều hành vận hành của cả công ty. Góc nhìn về năng suất đã lỗi thời, AI đang viết lại điểm khởi đầu trong thiết kế của công ty Diana cho rằng, hiện tại khi thị trường nói về AI, vẫn quá thường xuyên dừng lại ở khung “tăng năng suất”, ví dụ như kỹ sư có thể viết code nhanh hơn, đội ngũ có thể tự động hóa thêm nhiều quy trình, công ty có thể tung ra nhiều tính năng hơn. Nhưng cách nói đó thực ra đã đánh giá thấp những thay đổi mang tính cấu trúc mà AI mang lại. Cô chỉ ra rằng, việc kết hợp đúng người với AI 工

ChainNewsAbmedia22phút trước

Đại lý Cursor AI gặp sự cố! Chỉ một dòng mã mà 9 giây đã xóa sạch cơ sở dữ liệu công ty, cơ chế bảo mật bị bỏ qua chỉ còn lời nói suông

Nhà sáng lập PocketOS, Jer Crane, cho biết tác nhân (agent) của Cursor AI đã tự thực thi việc bảo trì trong môi trường thử nghiệm, lạm dụng một API Token được thêm/xóa một miền tùy chỉnh, và phát động lệnh xóa đối với Railway GraphQL API. Trong vòng 9 giây, dữ liệu và toàn bộ snapshot trong cùng khu vực đã bị phá hủy hoàn toàn; bản mới nhất có thể khôi phục về tận ba tháng trước. Tác nhân thừa nhận đã vi phạm các quy định về thao tác không thể đảo ngược, không nghiên cứu tài liệu kỹ thuật, không xác minh việc cách ly môi trường, v.v. Bên bị hại là các khách hàng trong ngành cho thuê xe; việc đặt trước và toàn bộ dữ liệu đều biến mất, và việc đối soát dữ liệu cho nhóm kỹ thuật kéo dài. Crane đề xuất năm hạng mục cải cách: xác nhận thủ công, quyền API chi tiết, tách biệt sao lưu và dữ liệu chính, công khai SLA, và cơ chế cưỡng chế ở tầng nền tảng.

ChainNewsAbmedia24phút trước

DeepSeek V4 Pro trên Ollama Cloud: Claude Code kết nối một lần

Theo tweet của Ollama, DeepSeek V4 Pro được ra mắt vào 4/24, đã được tích hợp theo chế độ đám mây vào thư mục Ollama, chỉ với một lệnh duy nhất là có thể gọi các công cụ như Claude Code, Hermes, OpenClaw, OpenCode, Codex, v.v. V4 Pro có bộ tham số 1.6T, 1M context, Mixture-of-Experts; suy luận trên đám mây không tải trọng số về máy cục bộ. Nếu muốn chạy cục bộ thì cần tự tải trọng số và thực thi bằng INT4/GGUF với nhiều GPU. Tốc độ đo thử giai đoạn đầu bị ảnh hưởng bởi tải trọng của đám mây, thông thường khoảng 30 tok/s, đỉnh đạt 1.1 tok/s; khuyến nghị sử dụng nguyên mẫu trên đám mây, rồi khi sản xuất chính thức thì tự suy luận hoặc dùng API thương mại.

ChainNewsAbmedia1giờ trước

DeepSeek Giảm 75% Giá V4-Pro, Cắt Chi Phí Cache API Xuống Một-Tenth

Tin tức từ Gate, 27 tháng 4 — DeepSeek công bố giảm giá 75% cho mô hình V4-Pro mới của mình dành cho nhà phát triển và hạ giá các mức “input cache hit” trên toàn bộ danh mục API của hãng xuống chỉ bằng một phần mười so với các mức trước đó. Mô hình V4, được phát hành vào ngày 25 tháng 4 ở hai phiên bản Pro và Flash, đã được tối ưu cho các bộ xử lý Ascend của Huawei. DeepSeek cho biết V4-Pro vượt trội hơn các mô hình mã nguồn mở khác trên các bài benchmark về kiến thức thế giới và xếp thứ hai, chỉ sau Gemini-Pro-3.1 dạng đóng của Google. Dòng V4 được thiết kế riêng cho các tác nhân AI xử lý các tác vụ phức tạp vượt xa khả năng của chatbot. Chi phí API V4-Pro hiện đã thấp hơn các đối thủ lớn của phương Tây, được định giá 3,48 USD cho mỗi một triệu token đầu ra, so với của GPT-4.5 từ OpenAI. Giá V4-Flash ở mức 0,14 USD cho mỗi một triệu token đầu vào và 0,28 USD cho mỗi một triệu token đầu ra, có thể giúp triển khai các ứng dụng tiết kiệm chi phí như rà soát toàn bộ cơ sở mã hoặc tài liệu quy định chỉ trong một lần yêu cầu.

GateNews1giờ trước
Bình luận
0/400
Không có bình luận