Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Tính toán Bảo mật là Cách AI Lấy lại Lòng tin Mà Nó Đã Mất — Và Tại Sao Nó Cần Trở Thành Tiêu Chuẩn Mới
Tóm tắt
Khi việc áp dụng AI vượt xa sự tin tưởng của công chúng, Ahmad Shadid của ORGN lập luận rằng tính toán bí mật và thực thi có thể xác minh cung cấp bằng chứng mật mã mà các chính sách bảo mật riêng tư chỉ đơn thuần không thể.
Các hệ thống AI đang tiến nhanh vào các quy trình nhạy cảm — viết mã, xử lý dữ liệu khách hàng, và hỗ trợ quyết định trong các lĩnh vực có quy định như tài chính và y tế. Tốc độ tích hợp này đã tạo ra một vấn đề cấu trúc mà ngành công nghiệp vẫn chưa giải quyết thỏa đáng.
Thách thức là sự tin tưởng. Một nghiên cứu do Đại học Melbourne phối hợp với KPMG thực hiện, khảo sát hơn 48.000 người ở 47 quốc gia, cho thấy trong khi 66% người được khảo sát sử dụng AI thường xuyên, thì chưa đến một nửa — chỉ 46% — sẵn sàng tin tưởng vào các hệ thống AI. Việc sử dụng và sự tự tin đang đi theo hai hướng trái ngược nhau, và khoảng cách giữa chúng ngày càng mở rộng.
Khía cạnh bảo vệ quyền riêng tư của dữ liệu trong sự thiếu tin tưởng này đặc biệt gay gắt. Theo Chỉ số AI 2025 của Stanford, niềm tin toàn cầu rằng các công ty AI bảo vệ dữ liệu cá nhân giảm từ 50% năm 2023 xuống còn 47% năm 2024, trong khi ít người hơn tin rằng các hệ thống AI không thiên vị và không phân biệt đối xử so với năm trước. Sự giảm sút này diễn ra đúng lúc AI ngày càng được tích hợp sâu vào đời sống hàng ngày và môi trường chuyên nghiệp, làm tăng đáng kể rủi ro của việc đặt niềm tin sai lệch.
Ahmad Shadid, CEO của ORGN, môi trường phát triển bí mật đầu tiên trên thế giới, lập luận rằng giai đoạn tiếp theo của AI sẽ không dựa trên sự tin tưởng — mà dựa trên bằng chứng. Tính toán bí mật và thực thi có thể xác minh đang làm cho việc chứng minh chính xác cách dữ liệu được xử lý trở nên khả thi, thay vì chỉ hứa hẹn rằng dữ liệu an toàn.
Trong cuộc trò chuyện với MPost, ông giải thích cách các công nghệ này giải quyết các khoảng trống về quyền riêng tư và niềm tin mà các biện pháp bảo mật truyền thống để lại trong quy trình AI, và những điều cần thiết để chúng trở thành phổ biến.
Cách các công ty AI bảo vệ dữ liệu hiện nay — Và tại sao chưa đủ
Hầu hết các công ty AI hiện dựa vào sự kết hợp của mã hóa, kiểm soát truy cập và chính sách quản trị để bảo vệ dữ liệu nhạy cảm. Mã hóa được áp dụng cho dữ liệu khi lưu trữ và truyền tải bằng các thuật toán đã được thiết lập, trong khi kiểm soát truy cập dựa trên vai trò, ghi nhật ký và phát hiện bất thường để quản lý ai có thể tương tác với hệ thống và trong điều kiện nào. Những biện pháp này đại diện cho mức cơ bản của ngành, và đối với nhiều trường hợp sử dụng, chúng đủ.
Vấn đề phát sinh tại một thời điểm cụ thể và phần lớn bị bỏ qua: khi dữ liệu được giải mã trong bộ nhớ để huấn luyện mô hình hoặc suy luận. Lúc đó, một cửa sổ lộ ra mở ra. Tính toán bí mật giải quyết trực tiếp vấn đề này bằng cách mã hóa dữ liệu trong khi nó đang được xử lý, ngay trong phần cứng, để ngay cả nhà cung cấp hạ tầng cũng không thể nhìn thấy những gì đang diễn ra bên trong máy.
Shadid xác định một lỗ hổng cấu trúc mà các phương pháp bảo mật tiêu chuẩn chưa hoàn toàn khắc phục. Khi dữ liệu được giải mã trên một máy chủ mà khách hàng không kiểm soát trực tiếp — chẳng hạn như môi trường đám mây công cộng hoặc nền tảng AI của bên thứ ba — khách hàng không có phương tiện kỹ thuật để xác minh chính xác điều gì xảy ra với dữ liệu đó. Trong thực tế, họ phải dựa vào lời của nhà cung cấp.
Mối quan tâm này không chỉ giới hạn ở người dùng cuối. Trong các môi trường có quy định, các CISO, kiểm toán tuân thủ và cơ quan quản lý cũng gặp vấn đề tương tự. Họ thường dựa vào chứng chỉ ISO 27001, báo cáo SOC 2 và các tài liệu chính sách — các công cụ, theo lời Shadid, chứng minh ý định hơn là chứng minh chính xác điều gì xảy ra với dữ liệu trong quá trình sử dụng. Tính toán bí mật với chứng thực thay đổi phương trình đó bằng cách cung cấp bằng chứng mật mã chống giả mạo rằng một phiên bản mô hình cụ thể đã chạy trong môi trường thực thi đáng tin cậy được chứng thực với bộ phần mềm đã được phê duyệt. Sự đảm bảo chuyển từ ý định đã ghi chép sang thực tế kỹ thuật có thể xác minh.
Đà thúc đẩy quy định cho sự thay đổi này đã rõ ràng. Theo Nghiên cứu về Tính toán Bí mật của IDC tháng 7 năm 2025, việc giới thiệu Luật Khả năng vận hành số của EU khiến 77% tổ chức có khả năng xem xét tính toán bí mật nhiều hơn, trong đó 75% đã áp dụng nó dưới một hình thức nào đó. Những lợi ích chính được báo cáo là cải thiện tính toàn vẹn dữ liệu, đảm bảo bí mật đã được chứng minh, và tuân thủ quy định chặt chẽ hơn.
Thực tế về thực thi có thể xác minh
Đối với khán giả phi kỹ thuật, Shadid mô tả thực thi có thể xác minh như nhận được một biên lai mật mã sau khi hệ thống AI xử lý dữ liệu. Biên lai đó chứng minh, theo cách có thể xác minh bằng toán học, rằng AI đã chạy trên phần cứng chứng nhận chính hãng, rằng nó đã thực thi phiên bản phần mềm mong đợi và không có gì khác đi cùng, và môi trường đã được bảo vệ thích hợp trước khi dữ liệu nhạy cảm được mở khóa. Tính toàn vẹn của quá trình không còn dựa vào niềm tin vào lời hứa của nhà cung cấp nữa — mà dựa trên việc xác minh bằng chứng.
Về mặt kỹ thuật, điều này đạt được thông qua ba cơ chế liên kết với nhau. Môi trường thực thi đáng tin cậy, hay TEEs, cho phép bộ xử lý tạo ra một vùng kín — bộ nhớ và thực thi cô lập ở cấp silicon — để cả hệ điều hành, hypervisor, hay nhà cung cấp đám mây đều không thể đọc những gì đang diễn ra bên trong. Chứng thực từ xa sau đó cho phép bên thứ ba xác minh rằng một TEE chính hãng đang chạy bộ phần mềm đã được phê duyệt trước khi bất kỳ khóa giải mã hoặc dữ liệu nhạy cảm nào được giải phóng. Cuối cùng, các kết quả có thể xác minh cho phép một số hệ thống ký kết kết quả của chúng bằng chứng liên kết chứng thực, để bất kỳ ai nhận kết quả đều có thể xác nhận nó đến từ ứng dụng mong đợi trong môi trường được bảo vệ và không bị thay đổi trong quá trình truyền tải.
Shadid lập luận rằng lợi ích của tính toán bí mật mở rộng trên toàn chuỗi giá trị AI. Các nhà phát triển AI có thể huấn luyện và chạy mô hình trên các tập dữ liệu nhạy cảm hoặc có quy định trong các môi trường đám mây chia sẻ mà không tiết lộ dữ liệu thô cho nhà vận hành nền tảng. Đối với doanh nghiệp, công nghệ này giảm thiểu rủi ro pháp lý và uy tín bằng cách cung cấp bằng chứng rõ ràng rằng dữ liệu cá nhân vẫn được bảo vệ trong quá trình xử lý AI — hỗ trợ các yêu cầu quyền riêng tư theo GDPR và các quy định ngành cụ thể. Nó cũng mở ra khả năng hợp tác dữ liệu liên tổ chức, vì mỗi bên có thể xác minh rằng dữ liệu của họ chỉ được xử lý trong các môi trường được chứng thực, phù hợp chính sách, loại bỏ một trong những rào cản chính đối với các dự án AI chung.
Đối với người dùng cuối, lợi ích là sự đảm bảo mạnh mẽ và rõ ràng hơn rằng dữ liệu cá nhân của họ không thể bị nhà vận hành, nội bộ hoặc các khách thuê đám mây khác truy cập trong khi hệ thống AI đang hoạt động. Nó cũng làm cho các dịch vụ có giá trị cao hơn — như hướng dẫn chăm sóc sức khỏe cá nhân hoặc tư vấn tài chính chi tiết — trở nên khả thi hơn, những dịch vụ trước đây bị xem là quá nhạy cảm để cung cấp qua hạ tầng đám mây.
Shadid dựa trên kinh nghiệm của mình như một kỹ sư phần mềm để minh họa một trong những rủi ro ít được đề cập hơn. Các nhà phát triển thường dán mã độc quyền, tệp cấu hình, khóa API và token vào các công cụ lập trình AI, thường với khả năng nhìn hạn chế về cách dữ liệu đó được lưu trữ hoặc sử dụng. Tốc độ của ngành khiến việc tránh xa các công cụ này trở nên khó khăn. Chính sự căng thẳng này — cần phải nhanh chóng trong khi nhận thức rõ về rủi ro IP — đã thúc đẩy ông xây dựng ORGN, một môi trường phát triển bí mật dựa trên nguyên tắc tính toán bí mật.
Tại sao việc chấp nhận rộng rãi vẫn chưa xảy ra
Dù 75% doanh nghiệp đã áp dụng dưới một hình thức nào đó, nghiên cứu của IDC cho thấy chỉ 18% tổ chức đã tích hợp tính toán bí mật vào môi trường sản xuất. Shadid xác định ba rào cản chính: độ phức tạp của xác thực chứng thực, nhận thức vẫn còn hạn chế về công nghệ này như một lĩnh vực đặc thù, và thiếu kỹ sư có kỹ năng phù hợp.
Ông giải thích, xác thực chứng thực phức tạp hơn nhiều so với vẻ bề ngoài. Bằng chứng chứng thực đến dưới dạng các cấu trúc nhị phân hoặc đối tượng JSON chứa các phép đo, chứng chỉ và tài liệu liên quan cần được phân tích, kiểm tra theo các chuẩn của nhà cung cấp, và xác thực tính mới mẻ cũng như việc thu hồi. Các nhà phát triển sau đó phải xác định những gì được coi là đáng tin cậy — các phiên bản firmware, hàm băm hình ảnh, và các phép đo ứng dụng nào là chấp nhận được — và tích hợp logic đó vào hệ thống điều khiển hoặc hệ thống quản lý khóa của riêng họ. Các nhà cung cấp đám mây lớn như AWS, Azure và Oracle đã cung cấp tính toán bí mật với chi phí tương đương hạ tầng tiêu chuẩn, nên rào cản không phải là truy cập hay giá cả. Đó là độ sâu kỹ thuật cần thiết để vận hành xác thực chứng thực đúng cách.
Shadid cho rằng, việc mở rộng chấp nhận sẽ phụ thuộc vào ba lực lượng hội tụ. Thứ nhất, xác thực chứng thực cần trở nên dễ tiếp cận hơn đáng kể, thông qua tiêu chuẩn hóa hoặc công cụ mã nguồn mở giúp trừu tượng hóa độ phức tạp khỏi các nhóm phát triển cá nhân. Thứ hai, áp lực quy định sẽ tiếp tục thúc đẩy việc chấp nhận như DORA đã làm — nếu các khuôn khổ trong các lĩnh vực khác theo đà tương tự, lợi ích kinh doanh của tính toán bí mật sẽ ngày càng khó bỏ qua. Thứ ba, và có lẽ quan trọng nhất, nhận thức của công chúng về những gì xảy ra với dữ liệu trong hệ thống AI cần được nâng cao. Hầu hết mọi người, theo Shadid, không rõ ràng về những gì xảy ra khi họ gửi một yêu cầu đến công cụ AI tiêu dùng. Nhận thức rõ hơn về mức độ phơi nhiễm đó — cả trong giới phát triển lẫn người dùng chung — sẽ tạo ra áp lực xã hội thúc đẩy việc chấp nhận nhanh hơn nhiều so với các lý lẽ kỹ thuật.
Nhìn xa hơn, ông gợi ý rằng nếu tính toán bí mật và thực thi có thể xác minh trở thành hạ tầng mặc định, cách các dịch vụ AI được thiết kế, bán và quản lý sẽ thay đổi đáng kể. Khách hàng sẽ nhận được bằng chứng mật mã về cách dữ liệu của họ được xử lý thay vì các cam kết chính sách, giúp các doanh nghiệp chứng minh tuân thủ cho các cơ quan quản lý và hội đồng quản trị theo cách cụ thể hơn là bằng tài liệu. Phương châm của Shadid là so sánh với mã hóa lưu trữ và mạng, vốn đã chuyển từ biện pháp bảo mật tùy chọn sang tiêu chuẩn chung trong một thời gian ngắn. Hướng đi của thực thi bí mật, ông lập luận, cũng tương tự — và khi nó trở thành hiện thực, mọi suy luận, mọi công việc tinh chỉnh, và mọi chuyển giao dữ liệu sẽ mang theo một chứng thực mật mã, biến tính toàn vẹn của quy trình thành một thực tế có thể xác minh chứ không còn dựa vào niềm tin tổ chức.