Năm 2026, ngành công nghiệp AI xuất hiện một sự đồng thuận mới: thứ quyết định chất lượng của sản phẩm AI không còn là bản thân mô hình nữa, mà là lớp thứ gọi là “harness” nằm bên ngoài mô hình. Khi các mô hình nền tảng mà Claude Code, Cursor, OpenClaw sử dụng ngày càng tiến gần đến nhau, thì thứ thực sự tạo ra khoảng cách về sản phẩm chính là thiết kế harness. Các bài viết kỹ thuật của Martin Fowler, phát biểu của người phụ trách sản phẩm tại Anthropic là trq212, và những ý kiến gần đây của Andrej Karpathy đều hướng đến cùng một điểm: chiến trường tiếp theo của AI là Harness Engineering.
Hệ thống Harness của Agent là gì
Một AI agent có thể được tách thành hai phần: mô hình (Model) và harness. Mô hình là bộ não, chịu trách nhiệm hiểu ngôn ngữ và suy luận. Harness là mọi thứ ngoài mô hình — gọi công cụ, quản lý bộ nhớ, lắp ghép ngữ cảnh, lưu trữ bền trạng thái, xử lý lỗi, rào chắn an toàn, lập lịch tác vụ, quản lý vòng đời.
Dùng một phép so sánh trực quan: LLM giống như một con ngựa, còn harness là bộ yên ngựa và đồ trang bị — dây cương, yên ngựa, cùng với cấu trúc kết nối giữa ngựa và xe ngựa. Không có bộ đồ ngựa, dù ngựa có mạnh đến đâu cũng không kéo được xe. AI agent cũng tương tự: mô hình có thông minh đến đâu đi nữa, nếu không có harness tốt thì cũng không thể hoàn thành đáng tin cậy các nhiệm vụ thực tế.
Trong một bài đăng dạng tweet được lan truyền rộng rãi, Akshay Pachaar đưa ra một phép so sánh khác: “Một LLM trần giống như CPU không có hệ điều hành — nó có thể tính toán, nhưng tự nó không làm được bất kỳ việc gì hữu ích.” Harness chính là hệ điều hành đó.
Vì sao Harness Engineering đột nhiên trở nên quan trọng vào năm 2026
Có ba lý do:
Thứ nhất, năng lực mô hình đang dần trở nên đồng chất. Chênh lệch trong các bài kiểm thử đa số của GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro đã thu hẹp về chỉ còn vài phần trăm. Khi mô hình không còn là nút thắt, sự khác biệt hóa sản phẩm sẽ tự nhiên chuyển sang tầng harness.
Thứ hai, agent chuyển từ thử nghiệm sang vận hành sản xuất. Phần lớn agent năm 2025 là demo; đến năm 2026, agent phải chạy trong môi trường doanh nghiệp — cần xử lý khôi phục sau gián đoạn, chạy trong thời gian dài, các nhiệm vụ nhiều bước, kiểm soát quyền hạn. Tất cả đều là công việc của harness.
Thứ ba, LLM vốn dĩ không có trạng thái. Mỗi session mới lại bắt đầu từ đầu, mô hình không nhớ được cuộc hội thoại trước đó. Harness chịu trách nhiệm lưu trữ bền vững trí nhớ, ngữ cảnh và tiến độ công việc để agent có thể làm việc liên tục như một “đồng nghiệp” thực thụ.
Các thành phần cốt lõi của Harness
Một agent harness hoàn chỉnh thường bao gồm các lớp sau:
Thành phần Chức năng Tương tự Orchestration Loop điều khiển vòng lặp “suy nghĩ → hành động → quan sát” của agent Vòng lặp chính của hệ điều hành Tool Management quản lý các công cụ mà agent có thể sử dụng (đọc/ghi tệp, gọi API, thao tác trình duyệt, v.v.) Trình điều khiển Context Engineering xác định mỗi lần gọi mô hình thì gửi vào những thông tin nào, cắt bớt những thông tin nào Quản lý bộ nhớ State Persistence lưu tiến độ công việc, lịch sử hội thoại, kết quả trung gian Lưu trữ cứng Error Recovery phát hiện thất bại và tự động thử lại hoặc quay lui Khôi phục lỗi Exception handling xử lý ngoại lệ giới hạn phạm vi hành vi của agent, ngăn chặn các thao tác nguy hiểm Rào chắn an toàn Safety Guardrails giới hạn phạm vi hành vi của agent, ngăn chặn thao tác nguy hiểm Tường lửa Verification Loops khiến agent tự kiểm tra chất lượng đầu ra Vòng lặp kiểm chứng Unit testing kiểm thử đơn vị
Ba lớp kỹ thuật: Prompt, Context và Harness
Các thực hành kỹ thuật xoay quanh LLM có thể được phân thành ba lớp hình tròn đồng tâm:
Lớp trong cùng là Prompt Engineering — thiết kế chỉ dẫn được gửi cho mô hình, quyết định mô hình “suy nghĩ như thế nào”. Đây là kỹ năng chủ đạo trong năm 2023.
Lớp trung gian là Context Engineering — quản lý “nhìn thấy gì” của mô hình. Nó quyết định những thông tin nào được đưa vào context window vào thời điểm nào và thông tin nào nên cắt bớt. Khi context window mở rộng lên hàng triệu token, tầm quan trọng của lớp này bắt đầu nổi lên từ năm 2025.
Lớp ngoài cùng là Harness Engineering — bao gồm hai lớp trước, cộng thêm toàn bộ cơ sở hạ tầng nền tảng của ứng dụng: điều phối công cụ, lưu trữ bền trạng thái, khôi phục lỗi, vòng lặp xác minh, cơ chế an toàn, quản lý vòng đời. Đây là chiến trường cốt lõi của năm 2026.
Ví dụ: Vì sao cùng một mô hình nhưng thể hiện khác biệt rất lớn trong các sản phẩm khác nhau
Claude Opus 4.6 có thể dành ra một giờ để tái cấu trúc toàn bộ kho mã trong Claude Code. Nhưng nếu dùng cùng một mô hình, nối qua API với một harness sơ sài, thì nó có thể không làm tốt ngay cả việc sửa lỗi liên quan đến nhiều tệp. Sự khác biệt không nằm ở mô hình, mà nằm ở harness.
Claude Code đã làm gì với harness?
Tự động tìm kiếm toàn bộ kho mã để xác định các tệp liên quan, thay vì bắt người dùng chỉ định từng tệp
Trước khi sửa thì đọc nội dung tệp, sau khi sửa thì chạy các bài kiểm thử để xác minh
Gặp lỗi khi kiểm thử thì tự động phân tích nguyên nhân và thử lại
Kết nối công cụ bên ngoài thông qua MCP (GitHub, cơ sở dữ liệu, v.v.)
Hệ thống bộ nhớ lưu giữ sở thích người dùng và ngữ cảnh dự án qua nhiều session
Chiến lược Advisor cho phép các mô hình với năng lực khác nhau phối hợp làm việc theo phân công
Tất cả đều là công lao của harness.
Feedforward và Feedback: Hai chế độ điều khiển chính của Harness
Theo phân tích trên blog kỹ thuật của Martin Fowler, cơ chế điều khiển của harness được chia thành hai loại:
Feedforward (điều khiển tiền hô) — thiết lập quy tắc trước khi agent hành động để ngăn ngừa các đầu ra không mong muốn. Ví dụ: các nguyên tắc hành vi trong system prompt, danh sách trắng công cụ, quyền truy cập tệp.
Feedback (điều khiển phản hồi) — kiểm tra kết quả sau khi agent hành động, cho phép tự sửa. Ví dụ: chạy kiểm thử để xác nhận mã đúng, đối chiếu đầu ra với định dạng kỳ vọng, phát hiện ảo giác và tạo lại.
Một harness tốt sử dụng đồng thời hai loại điều khiển: vừa giới hạn phạm vi hành vi vừa giữ lại tính linh hoạt.
Việc “sản phẩm hóa” Harness Engineering: Anthropic làm như thế nào
Các bản cập nhật sản phẩm mà Anthropic dồn dập ra mắt vào tháng 4 năm 2026 hầu như đều là việc sản phẩm hóa harness engineering:
Managed Agents — biến cơ sở hạ tầng của harness (sandbox, lập lịch, quản lý trạng thái) thành dịch vụ được quản lý, để nhà phát triển chỉ cần xác định hành vi của agent
Advisor strategy — kiến trúc trộn mô hình ở tầng harness, tự động quyết định khi nào nên hỏi một mô hình mạnh hơn
Phiên bản Cowork cho doanh nghiệp — cung cấp harness đầy đủ (kiểm soát quyền, quản lý chi phí, phân tích sử dụng) cho người dùng không chuyên kỹ thuật, để họ không cần hiểu công nghệ nền tảng
Phát biểu của người phụ trách sản phẩm tại Anthropic là trq212 chính xác nhất: “Prompting là kỹ năng khi trò chuyện với agent, nhưng nó được harness trung gian. Mục tiêu cốt lõi của tôi là tăng thông lượng giữa con người và agent.”
Ý nghĩa đối với nhà phát triển: nghề nghiệp và kỹ năng mới
Harness Engineering đang trở thành một lĩnh vực kỹ thuật độc lập. Tổ hợp kỹ năng mà nó cần khác với kỹ thuật backend truyền thống hoặc kỹ thuật ML:
Hiểu giới hạn năng lực của LLM và các dạng thất bại
Thiết kế quy trình gọi công cụ đáng tin cậy và xử lý lỗi
Quản lý context window — khi nào nhét vào thông tin gì
Xây dựng khả năng quan sát — theo dõi đường đi quyết định của agent và việc sử dụng công cụ
Thiết kế an toàn — giới hạn phạm vi hành vi của agent mà không bóp nghẹt khả năng của nó
Đối với những người đang học Vibe Coding hoặc sử dụng công cụ AI để phát triển, việc hiểu khái niệm harness sẽ giúp bạn cộng tác với AI agent hiệu quả hơn — vì bạn sẽ biết vấn đề nằm ở mô hình hay ở harness, và cải thiện kết quả bằng cách điều chỉnh cấu hình harness (thay vì cứ lặp lại việc sửa prompt).
Kết luận: Cuộc tranh giành cơ sở hạ tầng của thập kỷ tiếp theo
Cuộc cạnh tranh giữa các mô hình AI sẽ không dừng lại, nhưng lợi ích cận biên đang giảm dần. Cuộc cạnh tranh ở tầng harness Engineering mới chỉ bắt đầu — ai xây dựng được harness đáng tin cậy, linh hoạt và an toàn nhất thì người đó sẽ chuyển đổi năng lực mô hình tương tự thành trải nghiệm sản phẩm tốt hơn.
Điều này cũng giải thích vì sao Anthropic, OpenAI và Google đang chuyển đổi từ “công ty mô hình” sang “công ty nền tảng” — họ không bán chỉ riêng API mô hình nữa, mà là toàn bộ cơ sở hạ tầng harness. Đối với nhà phát triển, hiểu harness engineering không phải là lựa chọn, mà là năng lực cốt lõi để xây dựng sản phẩm trong kỷ nguyên AI.
Bài viết này “Harness Engineering là gì? Chiến trường tiếp theo của AI không phải là mô hình, mà là lớp kiến trúc nằm bên ngoài mô hình” lần đầu xuất hiện tại Chain News ABMedia.