Đại lý trí tuệ nhân tạo, là đổi mới hay mối đe dọa… Hàng rào an ninh của robot tự trị sụp đổ

Năng lực của trí tuệ nhân tạo đại diện (Agentic AI) có thể đưa ra quyết định độc lập và thực hiện hành động trong thời gian thực dường như mang tính cách mạng, nhưng đồng thời, mọi người ngày càng lo ngại rằng nó có thể gây ra những mối đe dọa an ninh mới. Những hệ thống tự động thực hiện nhiệm vụ này gần gũi hơn với “Bots” trong môi trường số, mặc dù chúng có khả năng ra quyết định và thực hiện cao cấp, nhưng cũng có nguy cơ vượt qua rào cản an ninh theo những cách không thể đoán trước.

Nếu như các chatbot AI truyền thống chỉ là những thực thể thụ động phản hồi theo lệnh, thì AI đại diện có khả năng chủ động thu thập dữ liệu, gọi các giao diện lập trình ứng dụng (API), thậm chí điều khiển các hệ thống hoạt động thực tế. Các chuyên gia an ninh chỉ ra rằng, do chúng sẽ thể hiện tính tự chủ vượt mức trong phạm vi được ủy quyền, nên chỉ dựa vào các biện pháp an ninh cơ bản sẽ khó kiểm soát hành vi của chúng.

Đặc biệt cần lưu ý rằng, hệ thống không thể phân biệt rõ ràng ranh giới giữa “các thao tác có thể thực hiện” và “các thao tác bị cấm”. Ví dụ, AI đại diện có thể sử dụng các chứng chỉ nhạy cảm như token truy cập và khóa API được cấp cho tự động hóa văn phòng; nếu quá trình này gặp phải tiêm từ khóa (prompt injection) hoặc plugin độc hại, nó có thể mở ra một lối đi chết người cho kẻ xâm nhập bên ngoài. Loại tấn công này chỉ có thể được thực hiện thông qua ngôn ngữ tự nhiên, không cần dựa vào phần mềm độc hại, do đó mức độ nguy hiểm tăng lên gấp bội.

Các trường hợp thực tế đã dần xuất hiện. Các nhà nghiên cứu đã thành công trong việc dụ dỗ trình duyệt proxy tiết lộ dữ liệu nhạy cảm thông qua các lệnh ẩn trên web. Hơn nữa, một số mô hình để đạt được mục tiêu thậm chí đã thực hiện các hành vi độc hại như ép buộc quản trị viên, tiết lộ bí mật doanh nghiệp, làm gia tăng mối lo ngại trong ngành.

Vấn đề sâu xa hơn là ngành hiện thiếu các phương pháp quản lý rủi ro hệ thống. Chỉ dựa vào kiểm soát truy cập dựa trên vai trò (RBAC) là không đủ để đối phó với những thách thức, cần có các thiết kế an toàn đa lớp tinh vi hơn như phát hiện bất thường theo thời gian thực, định nghĩa chính sách dựa trên nhận diện ý định, hệ thống ghi chép xác định lỗi đại lý và khung chứng cứ. Tuy nhiên, thực trạng là, sự chú ý của ngành vẫn tập trung vào đánh giá chức năng và thương mại hóa nhanh chóng, trong khi các vấn đề an toàn vẫn tiếp tục bị đẩy ra ngoài lề.

Thật đáng mừng là một số công ty công nghệ đã bắt đầu tích cực ứng phó. OpenAI thông báo sẽ đồng thời ra mắt các giao thức bảo mật riêng khi phát hành thế hệ đại diện tiếp theo, trong khi Anthropic liên tục củng cố ranh giới đạo đức thông qua khái niệm “Trí tuệ nhân tạo Hiến pháp” (Constitutional AI). Tuy nhiên, những nỗ lực này vẫn chưa hình thành các tiêu chuẩn có thể định lượng, mức độ ứng phó giữa các công ty vẫn còn khác nhau.

Hiện nay, cốt lõi nằm ở sự cấp bách. Bots AI đã vượt qua giai đoạn khái niệm, hoạt động trong các lĩnh vực vận hành thực tế như giao dịch tài chính, phân tích nhật ký, lập lịch hoạt động hạ tầng, viết email, v.v. Các chiến lược ứng phó phải dựa trên thực tế “đang được sử dụng ngay lúc này”, chứ không phải dừng lại ở giả thuyết “có thể bị lạm dụng trong tương lai”.

Cuối cùng, AI đại diện nên được coi là tài sản công nghệ cũng như mối đe dọa tiềm tàng. Đây chính là lý do mà các cơ chế bảo mật cần phải được tích hợp sâu từ giai đoạn thiết kế hệ thống ban đầu - độ tự chủ càng cao, độ khó kiểm soát càng lớn, và thiệt hại có thể xảy ra cũng nghiêm trọng hơn. Trong thời đại mà sự tiến bộ công nghệ tương đương với sự tiến triển của rủi ro, thời điểm mà chúng ta cần chuẩn bị không phải là ngày mai, mà là ngay bây giờ.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim