Згідно з детальним репортажем CNBC, під час двох закритих зустрічей у Кремнієвій долині цього тижня кілька CEO AI-стартапів і інженерів прямо заявили, що під час масштабування розгортання AI agent постають дві структурні проблеми: «масова марнотратність token» і «неймовірний хаос між системами». Ця жива нотатка з місця проведення й оптимістичні очікування, які CEO Nvidia Дженсен Хуанг висловив у березні, назвавши AI agent «наступним ChatGPT», разюче контрастують одна з одною та демонструють, що реальні вузькі місця цього напряму не в обчислювальних потужностях, а в дизайні рішень, ефективності token та інтеграції багатьох систем.
Найбільша проблема — перекласти всі завдання на LLM
Учасник зустрічі, CEO AI-стартапу Meibel Кевін Макграт (Kevin McGrath), зазначив: «Найбільша проблема, з якою ми маємо справу зараз, — це помилкове переконання, що всі задачі потрібно обробляти великими мовними моделями — просто викидати всі token і всі гроші в одного AI-бота, і він спалить кілька мільйонів token». Він підкреслив: коли компанії проєктують робочі процеси agent, їм потрібно точніше визначати, які саме завдання справді потребують LLM, а які можна виконати за допомогою значно дешевшої правило-орієнтованої логіки чи традиційного машинного навчання.
Це спостереження перегукується з ринковою реакцією після того, як Anthropic перевела корпоративну версію Claude на оплату за фактичним обсягом — коли споживання token безпосередньо перетворюється на витрати, фінансовий тиск одразу стає очевидним для підходу «сліпо віддавати все agent». Погляд Meibel відображає групу інженерів-практиків, які проти хайпу: мистецтво архітектури agent полягає в обмеженнях, а не в безконтрольності.
Хаос у системах кооперації multi agent, які взаємозалежні
Ще одне ключове слово, яке неодноразово фігурує в репортажі CNBC, — «хаотичний» (chaotic). Коли компанії одночасно запускають кілька AI agent — наприклад, один обробляє клієнтську підтримку, один займається розкладом, один — фінансами — взаємовпливають передавання повідомлень між agent, узгодженість станів, реакції на помилки. Будь-яка нестабільна поведінка одного agent запускає ланцюгову реакцію. Карпаті (Karpathy) цього тижня теж згадував, що особисто веде робочі процеси з одночасним запуском 10–20 agent, але визнав, що вузьким місцем стали code review і процес PR.
Такий хаос у multi agent системах по суті є повторенням старої проблеми розподілених систем у епоху LLM: немає чітких SLA, немає меж транзакцій, немає семантики повторних спроб у разі невдачі. Хоч Anthropic та OpenAI й запускають протокольні рівні на кшталт MCP та Agent SDK, у практичному впровадженні в компаніях стандартизація все ще дуже сильно відстає від зростання кількості agent.
Охолодження дискусій про token-підвищення на 250 тис. доларів
У березні CEO Nvidia Дженсен Хуанг активно просував концепцію «token зарплати» на GTC і в подальших інтерв’ю, стверджуючи: «Якщо інженер із річною зарплатою 500 тис. доларів не споживає хоча б 250 тис. доларів token, я відчую серйозне занепокоєння». Його логіка така: інженер має замінити себе AI agent для низькорівневих дій, а абсолютний обсяг спожитих token є проксі-показником продуктивності. Це твердження можна переглянути в найновішому інтерв’ю Дженсена Хуанга (частина I), де він докладно розповідає про повний обсяг потреби в AI обчислювальних потужностях.
Але думки з місця, які наведені в репортажі CNBC, показують, що інженерне середовище Кремнієвої долини дедалі більше зберігає обережність щодо цієї тези: кількість спожитих token не дорівнює продуктивності, і навіть може бути сигналом поганого дизайну agent. Реальна цінність інженера досі полягає в «ухваленні рішень, які задачі варто передавати agent, як розкладати завдання та як проєктувати обробку помилок» — ці роботи самі по собі неможливо виміряти обсягом спожитих token.
Перетин Crypto та AI agent ще потребує часу
Для індустрії crypto тренд цього тижня, коли AI поглинає 80% світового венчурного інвестування, а також те, що DeFi-проєкти активно інтегрують автономні agent, ґрунтуються на припущенні, що «технологія agent уже досягла рівня, придатного для розгортання». Але цей репортаж CNBC нагадує: навіть у чистому середовищі web2 ефективність token agent і інтеграція багатьох систем ще не є стабільними. Поставити agent у режим 7×24 у ланцюгове середовище, де активи можуть бути миттєво викрадені, означає, що й технічні ризики, і фінансові ризики багаторазово зростають. Справжня точка старту для Crypto × AI, імовірно, настане лише після того, як на рівні фреймворків agent (наприклад, MCP, LangGraph, Cloudflare Agents) стандартизація дозріє.
Ця стаття «Реальність Кремнієвої долі: AI Agent: масова марнотратність token, надзвичайно хаотична інтеграція систем; прогноз Дженсена Хуанга про “наступного ChatGPT” потребує перевірки» була вперше опублікована в «Радіо/ЗМІ про блокчейн ABMedia».
Пов'язані статті
Протокол MCP уражено вразливістю RCE на рівні проєктування; Anthropic відмовляється вносити зміни в архітектуру
Фонд 0G співпрацює з Alibaba Cloud, щоб вивести LLM Qwen ончейн для агентів ШІ
OpenShell від Nvidia випускає v0.0.33 із драйвером MicroVM libkrun для пісочниці AI Agent
ProCap Financial співпрацює з Kalshi для запуску AI-підсиленої дослідницької послуги ринків прогнозів
Alipay запускає платежі за допомогою AI-агентів у Ханчжоу та досягає 100 млн користувачів