Змагання між США та Китаєм у сфері штучного інтелекту продовжують посилюватися. Нещодавно OpenAI подав до Конгресу США меморандум, у якому звинуватив китайську компанію AI DeepSeek у неправомірному використанні технології «дистиляції» для витягання результатів роботи провідних американських моделей з метою тренування власного чат-бота R1. OpenAI назвав цей крок «зачіпкою», що загрожує не лише комерційним інтересам американських компаній, а й може вплинути на національну безпеку та технологічну приватність.
OpenAI: DeepSeek використовує «техніку дистиляції» для обходу захисних механізмів
За повідомленням Bloomberg, у меморандумі, поданому до Спеціального комітету з питань Китаю Палати представників США, OpenAI зазначає, що DeepSeek застосовує так звану «дистиляцію», щоб навчатися на вихідних даних передових американських моделей штучного інтелекту, тим самим посилюючи можливості свого чат-бота R1.
Дистиляція — це поширена у сфері штучного інтелекту методика тренування, яка полягає у тому, що менша модель навчається на вихідних даних більшої моделі для підвищення її ефективності. Однак OpenAI стверджує, що DeepSeek застосовує «новий та заплутаний спосіб» обходу захисних механізмів платформи, зокрема через використання сторонніх маршрутизаторів для приховування джерела, доступу до сервісів через несанкціонованих перепродавців та автоматичне отримання великої кількості вихідних даних американських моделей.
(Чи зможе OpenAI перетворити ChatGPT на «золоту жилу» перед витратами у сотні мільярдів доларів?)
Безкоштовні моделі — удар по платних бізнес-моделях американських AI-компаній
У меморандумі OpenAI попереджає, що поширення практики дистиляції може послабити конкурентоспроможність американських AI-компаній. Зокрема, компанії як OpenAI та Anthropic інвестували мільярди доларів у створення обчислювальної інфраструктури та отримують доходи через підписки або корпоративні послуги.
На відміну від них, DeepSeek та більшість китайських моделей здебільшого використовують низьку або майже безкоштовну цінову політику. Якщо за допомогою технології дистиляції можна буде копіювати передові можливості за меншими витратами, це може змінити структуру конкуренції у сфері AI та ще більше звузити ринок для американських компаній.
Питання національної безпеки та експорту чіпів виходять на передній план
Крім комерційних аспектів, у меморандумі OpenAI піднімає питання національної безпеки, зокрема щодо цензури контенту чат-ботів DeepSeek щодо Тайваню та Тяньаньмень, а також можливого послаблення механізмів безпеки під час дистиляції, що ускладнює захист у високоризикових сферах, таких як біологія або хімія, та може сприяти зловживанням.
У відповідь на це у політичних колах США висловлюють різку реакцію. Голова комітету John Moolenaar зазначив, що це типова тактика Китаю — «крадіжка, плагіат і придушення».
Крім того, раніше компанія Nvidia продавала Китаю чіпи H800, що також стало предметом обговорення. США досліджували, чи отримувала DeepSeek ці апаратні ресурси через третю сторону, що пов’язує цю технологічну суперечку з питаннями експортного контролю напівпровідників.
(DeepSeek відзначає рік з моменту запуску: що сталося з розвитком китайських моделей AI?)
Змагання у сфері AI набирає обертів
Майкл МакКол, колишній керівник групи з контролю експорту у Палаті представників, зазначив: «DeepSeek має стати попередженням, яке нагадує про небезпеку продажу передових напівпровідникових чіпів Китаю».
Китай, використовуючи менш потужні чіпи Nvidia, створив найпередовіші відкриті моделі у світі. Уявляючи, що вони можуть зробити з більш сучасним обладнанням, наприклад, з чіпами H200, мене охоплює холодний страх.
Загалом, ця суперечка вже не просто технічна справа між окремими компаніями, а відображає боротьбу за лідерство у галузі AI та геополітичну боротьбу. Зі швидким розвитком генеративних моделей AI, конкуренція між США та Китаєм щодо можливостей моделей, постачання чіпів та регуляторних рамок, ймовірно, буде лише посилюватися.
Ця стаття «OpenAI звинуватив DeepSeek у «зачіпці»! Вкрадання американських технологій AI для тренування власних моделей» була вперше опублікована на Chain News ABMedia.