Dịch vụ Đám mây Amazon (AWS) đã ra mắt các tính năng mới nhằm nâng cao hiệu quả của mô hình trí tuệ nhân tạo (AI) và giảm chi phí học tập. Trọng tâm của lần cập nhật này là tùy chọn tinh chỉnh dựa trên học tăng cường “RFT” và chức năng tùy chỉnh không máy chủ. Các tính năng này nhằm mục đích giúp các nhà phát triển có thể cải tiến mô hình AI theo nhu cầu người dùng mà chỉ cần rất ít kiến thức chuyên môn về học máy.
AWS đã công bố các tính năng liên quan sẽ được áp dụng trên Amazon Bedrock và SageMaker AI tại hội nghị thường niên “AWS re:Invent 2025” tổ chức ngày 3/12 (giờ địa phương) ở Las Vegas. Amazon Bedrock là một nền tảng cho phép xây dựng các chức năng AI sinh thành dựa trên “mô hình nền tảng” của các công ty AI lớn, và bản cập nhật RFT lần này đã mở đường cho doanh nghiệp tối ưu hóa tác nhân AI mà không cần cơ sở hạ tầng học máy mạnh mẽ.
Doanh nghiệp thường sử dụng các mô hình ngôn ngữ lớn hiệu suất cao nhất (LLM) cho tác nhân AI, nhưng điều này đòi hỏi công suất xử lý suy luận rất lớn. Ngay cả với các nhiệm vụ lặp đi lặp lại như xác nhận lịch hay truy xuất tài liệu, cũng xuất hiện vấn đề lãng phí tài nguyên. AWS tin rằng tính năng tùy chỉnh mới dựa trên học tăng cường có thể giải quyết các vấn đề này. Nói một cách đơn giản, đây là một cấu trúc đảm bảo hiệu quả tối ưu với lượng tính toán tối thiểu.
Trước đây, việc ứng dụng học tăng cường đòi hỏi rào cản kỹ thuật rất lớn. Bao gồm chuẩn bị dữ liệu huấn luyện, thu thập phản hồi, xây dựng cơ sở hạ tầng tính toán hiệu năng cao, có thể mất nhiều tháng. Nhưng với tính năng RFT trên Amazon Bedrock, nhà phát triển chỉ cần chọn mô hình cần thiết, tải lên nhật ký tương tác người dùng hoặc dữ liệu huấn luyện, sau đó chỉ định hàm thưởng, quá trình tinh chỉnh mô hình sẽ được thực hiện tự động. AWS giải thích rằng quy trình này không yêu cầu nhân sự chuyên môn về học máy, chỉ cần “ý tưởng về kết quả tốt là gì” là đủ.
Giai đoạn đầu, tính năng này chỉ hỗ trợ độc quyền cho mô hình Nova 2 Lite của Amazon, nhưng sẽ mở rộng ra hàng chục mô hình khác trong tương lai. Amazon SageMaker AI cũng sẽ bổ sung tính năng tương tự dưới dạng không máy chủ. SageMaker là nền tảng hỗ trợ doanh nghiệp thiết kế và triển khai mô hình AI riêng, dự kiến sẽ cung cấp môi trường “tác nhân hóa” giúp tích hợp tùy chọn học tăng cường dễ dàng hơn.
Ở chế độ tác nhân hóa, người dùng nhập yêu cầu bằng ngôn ngữ tự nhiên và tác nhân AI sẽ hướng dẫn toàn bộ quá trình từ tạo dữ liệu đến đánh giá mô hình. Đồng thời, cũng cung cấp phương thức tự động cho nhà phát triển nâng cao, mở rộng phạm vi lựa chọn cho người dùng. AWS cho biết, tính năng này còn có thể áp dụng đồng thời nhiều kỹ thuật học tăng cường như học dựa trên phản hồi, học dựa trên thưởng có thể xác minh, tinh chỉnh bằng học có giám sát… Tính năng này không chỉ tương thích với Nova mà còn với các mô hình như Llama, Qwen, DeepSeek, GPT-OSS…
Song song đó, AWS cũng công bố sẽ bổ sung chức năng “huấn luyện không checkpoint” trên SageMaker HyperPod. Trước đây, khi xảy ra lỗi trong quá trình huấn luyện, việc khôi phục trạng thái mất hơn hàng chục phút, nhưng nay có thể phục hồi chỉ trong vài phút mà không cần khách hàng can thiệp. Điều này đạt được nhờ lưu trữ trạng thái mô hình theo thời gian thực trên toàn bộ cụm máy chủ.
Ngoài ra, AWS cũng đã chuyển mã nguồn mở khung tác nhân AI “Strands Agents” sang ngôn ngữ TypeScript. Ngôn ngữ này ổn định hơn JavaScript, khả năng phát sinh lỗi thấp hơn, hứa hẹn mang lại môi trường phát triển tác nhân ổn định hơn.
Việc ra mắt này diễn ra trong bối cảnh các đối thủ trên thị trường AI sinh thành đều đang tăng cường tính năng tùy chỉnh. Google (GOOGL), Microsoft (MSFT) cũng đang đẩy mạnh ra mắt các chức năng tương tự, dự kiến sẽ thúc đẩy nhanh việc người dùng tự xây dựng môi trường mô hình AI tối ưu. Sự phát triển công nghệ này dường như sẽ đóng vai trò chất xúc tác, giúp AI thâm nhập sâu hơn vào môi trường doanh nghiệp thực tế.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
AWS tự động hóa giảm ngưỡng tiếp cận tùy chỉnh AI thông qua học tăng cường
Dịch vụ Đám mây Amazon (AWS) đã ra mắt các tính năng mới nhằm nâng cao hiệu quả của mô hình trí tuệ nhân tạo (AI) và giảm chi phí học tập. Trọng tâm của lần cập nhật này là tùy chọn tinh chỉnh dựa trên học tăng cường “RFT” và chức năng tùy chỉnh không máy chủ. Các tính năng này nhằm mục đích giúp các nhà phát triển có thể cải tiến mô hình AI theo nhu cầu người dùng mà chỉ cần rất ít kiến thức chuyên môn về học máy.
AWS đã công bố các tính năng liên quan sẽ được áp dụng trên Amazon Bedrock và SageMaker AI tại hội nghị thường niên “AWS re:Invent 2025” tổ chức ngày 3/12 (giờ địa phương) ở Las Vegas. Amazon Bedrock là một nền tảng cho phép xây dựng các chức năng AI sinh thành dựa trên “mô hình nền tảng” của các công ty AI lớn, và bản cập nhật RFT lần này đã mở đường cho doanh nghiệp tối ưu hóa tác nhân AI mà không cần cơ sở hạ tầng học máy mạnh mẽ.
Doanh nghiệp thường sử dụng các mô hình ngôn ngữ lớn hiệu suất cao nhất (LLM) cho tác nhân AI, nhưng điều này đòi hỏi công suất xử lý suy luận rất lớn. Ngay cả với các nhiệm vụ lặp đi lặp lại như xác nhận lịch hay truy xuất tài liệu, cũng xuất hiện vấn đề lãng phí tài nguyên. AWS tin rằng tính năng tùy chỉnh mới dựa trên học tăng cường có thể giải quyết các vấn đề này. Nói một cách đơn giản, đây là một cấu trúc đảm bảo hiệu quả tối ưu với lượng tính toán tối thiểu.
Trước đây, việc ứng dụng học tăng cường đòi hỏi rào cản kỹ thuật rất lớn. Bao gồm chuẩn bị dữ liệu huấn luyện, thu thập phản hồi, xây dựng cơ sở hạ tầng tính toán hiệu năng cao, có thể mất nhiều tháng. Nhưng với tính năng RFT trên Amazon Bedrock, nhà phát triển chỉ cần chọn mô hình cần thiết, tải lên nhật ký tương tác người dùng hoặc dữ liệu huấn luyện, sau đó chỉ định hàm thưởng, quá trình tinh chỉnh mô hình sẽ được thực hiện tự động. AWS giải thích rằng quy trình này không yêu cầu nhân sự chuyên môn về học máy, chỉ cần “ý tưởng về kết quả tốt là gì” là đủ.
Giai đoạn đầu, tính năng này chỉ hỗ trợ độc quyền cho mô hình Nova 2 Lite của Amazon, nhưng sẽ mở rộng ra hàng chục mô hình khác trong tương lai. Amazon SageMaker AI cũng sẽ bổ sung tính năng tương tự dưới dạng không máy chủ. SageMaker là nền tảng hỗ trợ doanh nghiệp thiết kế và triển khai mô hình AI riêng, dự kiến sẽ cung cấp môi trường “tác nhân hóa” giúp tích hợp tùy chọn học tăng cường dễ dàng hơn.
Ở chế độ tác nhân hóa, người dùng nhập yêu cầu bằng ngôn ngữ tự nhiên và tác nhân AI sẽ hướng dẫn toàn bộ quá trình từ tạo dữ liệu đến đánh giá mô hình. Đồng thời, cũng cung cấp phương thức tự động cho nhà phát triển nâng cao, mở rộng phạm vi lựa chọn cho người dùng. AWS cho biết, tính năng này còn có thể áp dụng đồng thời nhiều kỹ thuật học tăng cường như học dựa trên phản hồi, học dựa trên thưởng có thể xác minh, tinh chỉnh bằng học có giám sát… Tính năng này không chỉ tương thích với Nova mà còn với các mô hình như Llama, Qwen, DeepSeek, GPT-OSS…
Song song đó, AWS cũng công bố sẽ bổ sung chức năng “huấn luyện không checkpoint” trên SageMaker HyperPod. Trước đây, khi xảy ra lỗi trong quá trình huấn luyện, việc khôi phục trạng thái mất hơn hàng chục phút, nhưng nay có thể phục hồi chỉ trong vài phút mà không cần khách hàng can thiệp. Điều này đạt được nhờ lưu trữ trạng thái mô hình theo thời gian thực trên toàn bộ cụm máy chủ.
Ngoài ra, AWS cũng đã chuyển mã nguồn mở khung tác nhân AI “Strands Agents” sang ngôn ngữ TypeScript. Ngôn ngữ này ổn định hơn JavaScript, khả năng phát sinh lỗi thấp hơn, hứa hẹn mang lại môi trường phát triển tác nhân ổn định hơn.
Việc ra mắt này diễn ra trong bối cảnh các đối thủ trên thị trường AI sinh thành đều đang tăng cường tính năng tùy chỉnh. Google (GOOGL), Microsoft (MSFT) cũng đang đẩy mạnh ra mắt các chức năng tương tự, dự kiến sẽ thúc đẩy nhanh việc người dùng tự xây dựng môi trường mô hình AI tối ưu. Sự phát triển công nghệ này dường như sẽ đóng vai trò chất xúc tác, giúp AI thâm nhập sâu hơn vào môi trường doanh nghiệp thực tế.