ตลอดทั้งปี 2025 ชุมชนวิศวกรรม AI ถกเถียงไม่จบในประเด็นว่า “MCP vs CLI” แบบไหนเหมาะกับการเรียกใช้งานเครื่องมือของ Agent มากกว่าจนกระทั่งงานวิจัยของ Anthropic ที่ตีพิมพ์ในเดือนพฤศจิกายน 2025 เรื่อง “Code execution with MCP” ได้กำหนดนิยามปัญหาขึ้นใหม่จากหลักการพื้นฐานที่สุด akshay_pachaar 5/10 สรุปไว้ใน thread ว่า ปัญหาไม่ได้อยู่ที่ “ตัวโปรโตคอล” เอง แต่คือ “นิสัยเก่าๆ ที่ยัดคำอธิบายเครื่องมือทั้งหมดเข้าไปใน context ตั้งแต่เริ่ม session” โดยวิธีของ Anthropic คือให้โมเดลเขียนโค้ดเพื่อเรียกเครื่องมือ ส่วน runtime เป็นผู้จัดการรายละเอียดเครื่องมือแทน รูปแบบใหม่นี้เรียกว่า “Code Mode”
ปัญหาของโหมดเดิม: ใน 150K tokens โมเดลใช้ไม่มากนัก
โครงสร้างที่สูญเปล่าในโหมด MCP แบบเดิม:
Playwright MCP: 13.7K tokens (ยัดให้เต็มครั้งเดียว)
Chrome DevTools MCP: 18K tokens
ตั้งค่า 5 server: ยังไม่ทันเริ่มทำงานก็เผา 55K tokens แล้ว
รัน workflow เดียวแบบครบทุกขั้น: อาจพองไปถึง 150K tokens
โมเดลใช้งานจริง: เกือบทั้งหมดกลับใช้ไม่ได้
ฝ่ายที่วิจารณ์โต้ว่าให้หันไปใช้ CLI แต่ CLI ในแอปแบบหลายผู้เช่า (multi-tenant) มักพลาดได้ง่าย ไม่มี typed contract และ agent ต้องวนแปลผลเป็นข้อความเมื่อไม่คุ้นกับ API ทั้งสองฝ่ายต่างก็มีเหตุผล แต่ต่างฝ่ายก็ชี้เป้าปัญหาผิด
ทางออก: ให้โมเดลเขียนโค้ดเรียกเครื่องมือ แทนที่จะเรียกจาก context โดยตรง
แก่นของ “Code Mode” ที่ Anthropic เสนอ:
พลิกบทบาทของโมเดล: ไม่ใช่โมเดลเรียกเครื่องมือผ่าน context แต่เป็นโมเดลเขียนโค้ด และ runtime เป็นผู้เรียกเครื่องมือ
เครื่องมืออยู่ใน runtime เท่านั้น โมเดลเห็นแค่ส่วนที่ตน import
type วิ่งตาม import: โมเดล import เครื่องมือไหนก็จะได้ typed contract ของเครื่องมือนั้น
เรียกผ่าน Bash ไปยังไบนารีที่ติดตั้งอยู่ (git, curl ฯลฯ)
ใช้ typed module imports เพื่อเรียก API เฉพาะทาง
ตัวอย่างของ Anthropic: สตรีมบันทึกข้อความจาก Google Drive ไหลเข้ามาปรับปรุง Salesforce CRM วิธีเดิมคือโหลด schema ของเครื่องมือทั้งสอง แล้วส่งบันทึกข้อความทั้งช่วงให้โมเดลประมวลผล 2 รอบ; วิธีใหม่ใช้ TypeScript แค่ 10 บรรทัด โดย import เฉพาะที่ต้องใช้ และงานเดียวกันจากเดิม 150K tokens ถูกลดลงเหลือ 2K tokens ลดลง 98.7%
Cloudflare ดันไปสุดทาง: 2,500 endpoint API จาก 1.17M tokens เหลือ 1K
Cloudflare ทำเวอร์ชันที่ก้าวร้าวที่สุด:
ขนาด API ดั้งเดิม: 2,500 endpoint และ schema รวม 1.17M tokens
วิธีใหม่: เปิดเผยแค่ฟังก์ชัน 2 ตัว search และ execute รวม 1K tokens
ให้ agent เขียนโค้ดก่อนใช้ search เพื่อดูไดเรกทอรีเครื่องมือ แล้วค่อยใช้ execute เพื่อเรียกเครื่องมือที่ตรงกัน
อัตราการบีบอัด: มากกว่า 1,000 เท่า
คำกล่าว “MCP ตายแล้ว” ไม่ถูกต้อง—Anthropic เผยยอดดาวน์โหลด MCP SDK อยู่ที่ 300 ล้าน และต้นปีอยู่ที่ 100 ล้าน ซึ่งเป็นหนึ่งในโครงสร้างพื้นฐานสำหรับ Agent ที่โตเร็วที่สุดในเวลานี้ สิ่งที่ “ตาย” คือการเขียนแบบ “โหลดเครื่องมือทั้งหมดครั้งเดียวตอนเริ่ม session” และนั่นแหละคือความคิดที่ไม่ดีอยู่แล้ว สำหรับนักพัฒนา Agent ในปี 2026 กฎเรียบง่าย: คำจำกัดความของเครื่องมือเป็นของ code ไม่ใช่ของ context; โมเดลเขียนกี่บรรทัดโค้ดเพื่อเรียกใช้งานก็ให้ runtime จัดการส่วนที่เหลือ
เหตุการณ์ที่ติดตามต่อได้แบบเจาะจง: ความเร็วที่ยอดดาวน์โหลด MCP SDK จาก 300 ล้านยังเพิ่มขึ้นต่อเนื่อง, Anthropic จะทำให้ Code Mode กลายเป็นโหมดแนะนำอย่างเป็นทางการตามข้อกำหนดของ MCP หรือไม่ และความคืบหน้าการนำ Code Mode ไปใช้ของแพลตฟอร์ม Agent อื่นๆ เช่น OpenAI, Google, Cursor
บทความนี้เกี่ยวกับว่า Anthropic Code Mode ชนะความขัดแย้ง MCP vs CLI อย่างไร: เครื่องมืออยู่ใน runtime และ tokens จาก 150K ถูกบีบเหลือ 2K ซึ่งปรากฏครั้งแรกใน 鏈新聞 ABMedia
news.related.news
Anthorpic เปิดตัว AI Agent เฉพาะทางด้านการเงิน และมีคนในวงการเผยว่า Claude ไม่สามารถแทนที่นักวิเคราะห์ได้ในจุดสำคัญ
OpenAI เผยคะแนน CoT ส่งผลกระทบโดยไม่คาดคิด: การคงการตรวจสอบสายโซ่ความคิด (CoT) คือแนวป้องกันสำคัญในการทำให้ AI Agent ตรงแนว
วิศวกรของ Anthropic: HTML คือรูปแบบเอาต์พุตที่ดีที่สุดสำหรับ Claude Code ไม่ใช่ Markdown
Claude/GPT ชอบเอาใจเกินไปหรือไม่? พรอมต์ Claude.md ทำให้ AI ให้คำตอบที่แข็งกร้าวและแม่นยำ
ผู้รับผิดชอบ Claude Code Boris: เอเจนต์ AI ยกระดับประสิทธิผลของมนุษย์ เปลี่ยนโฉมประวัติศาสตร์การพัฒนาซอฟต์แวร์