Автоматизація досліджень Claude Code здобула перемогу в хакатоні! Переможець: Взагалі не знаю, як це виграли

На Autoresearch Hackathon, який проводить Paradigm, учасник, який майже «не проєктував стратегії вручну», зрештою здобув перемогу. Переможець Ryan Li, який також є CEO SurfAI, зазначає, що весь процес розв’язання задачі майже повністю виконав AI: він навіть «не знає, як виграв», але все одно посів перше місце в Prediction Market Challenge.

Ці змагання вимагають від учасників розробити маркет-мейкерську стратегію на імітованому бінарному ринку прогнозів. За допомогою лімітних ордерів вони мають надавати ліквідність у стакані та досягати балансу прибутку між «арбітражниками» та «роздрібним потоком» (retail flow). Підсумкові позиції визначаються середнім edge (перевагою в прибутку) від стратегії в 200 випадкових симуляціях. Фінальний результат Ryan становив 42.32 долара mean edge (обчислено як медіана у трьох наборах випадкових seed), а після повторного оцінювання він піднявся на перше місце.

Claude Code + Codex автоматичне дослідження — 1039 стратегій

На відміну від традиційної кількісної торгівлі або маркет-мейкерських стратегій, які покладаються на участь людей-експертів для підстроювання та моделювання, Ryan застосував підхід «Bitter Lesson», запропонований Rich Sutton упродовж останніх років: обчислювальна потужність і масштаб пошуку мають перемогти людський досвід. Він перетворив всю задачу на процес «автоматизованого дослідження» (autoresearch), використовуючи кілька AI agent для паралельного пошуку в просторі рішень, а не ручну оптимізацію.

У процесі він задіяв від 8 до 20 паралельно запущених AI agent (переважно на основі Claude Code, із допомогою Codex). Кожен agent відповідав за власні припущення та параметричний простір: безперервно генерував стратегії, виконував симуляції, а потім звітував про результати. У підсумку він накопичив 1,039 варіантів стратегій, провів понад 2,000 оцінювань і автоматично згенерував 47 скриптів для параметричного сканування. Загальний масштаб пошуку — це фактично стиснення кількох тижнів ручних експериментів до кількох годин.

900 рядків Python від AI для алгоритму маркет-мейкінгу — перемога на хакатоні

На рівні стратегій фінальною переможною схемою стала маркет-мейкерська логіка приблизно з 900 рядків Python. Її ключова ідея не походить від одного-єдиного дизайну: це нашарування кількох модулів, які «підтвердили свою ефективність». Зокрема, він уникав надвузьких діапазонів цін, де арбітражники гарантовано виграють; оцінював реальну ціну через теорію інформації; динамічно коригував масштаби котирувань залежно від ризику арбітражу; а також активно заходив, коли ворожий стакан ордерів «висмоктували», щоб перехопити зони з вищим прибутком.

Найважливіший прорив прийшов із одного AI agent, який «повністю відкинув наявні стратегії та почав з нуля». Коли загальна оптимізація застопорилася приблизно на +25 edge, цей agent самостійно знайшов модель sizing, що спиралася на «ймовірність арбітражного ризику» як ключову основу. Це разом підняло результат стратегії до +44 і стало поворотним моментом усієї гри. Цей результат також безпосередньо підтвердив методологію Ryan: коли пошук застрягає в локальному оптимумі, перезапуск ефективніший, ніж точне доопрацювання.

Абсолютна перевага AI-досліджень: автоматизовані спроби й помилки

У підсумку Ryan зазначив, що ключ у цій грі не в тому, щоб придумати «розумну стратегію», а в тому, щоб створити систему, яка здатна масштабно здійснювати пошук, перевіряти та відсівати ідеї. Замість того щоб покладатися на людську інтуїцію, він дав AI можливість пробувати в величезному просторі рішень і підсилювати ефективність завдяки паралелізації та автоматизації.

Цей кейс також додатково підкреслив зміну ролі «Agentic AI» у інженерних і дослідницьких процесах: AI більше не просто допоміжний інструмент — він може прямо виконувати роль центрального виконавця для дослідження та ухвалення рішень. У деяких високоструктурованих і таких, що піддаються симуляції, задачах людина може навіть повністю вийти з позиції «розв’язувача» і натомість спроєктувати самі рамки пошуку та механізми оцінювання.

Ця стаття про те, як автоматизоване дослідження Claude Code здобуло перемогу на хакатоні! Переможець: «Я взагалі не знаю, як виграв» — вперше з’явилася в 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів