OpenAI, Anthropic і Google запускають спільний механізм для виявлення AI-витоку шляхом дистиляції

AI蒸餾行為

За повідомленням Bloomberg від 16 квітня, OpenAI, Anthropic PBC і Google розпочали співпрацю через галузеву неприбуткову організацію Frontier Model Forum, щоб ділитися інформацією для виявлення та зупинення протиправної практики дистиляції (distillation) проти умов надання сервісу. OpenAI підтвердив Bloomberg, що бере участь у роботі з обміну інформацією щодо протиправної дистиляції.

Рамки співпраці: механізм обміну інформацією Frontier Model Forum

Frontier Model Forum був заснований у 2023 році OpenAI, Anthropic, Google та Microsoft спільно. За повідомленням Bloomberg, наразі ці три компанії обмінюються інформацією через цю організацію з метою ідентифікувати запити проти масштабного обсягу даних (adversarial data requests), відстежувати спроби дистиляції, що порушують умови надання сервісу, і координувати припинення відповідних дій. Google публікував допис, у якому зазначив, що виявив зростання спроб вилучення (model extraction).

За повідомленням Bloomberg, такі моделі обміну інформацією відповідають усталеним практикам у сфері кібербезпеки, яка протягом тривалого часу посилювала захист, обмінюючись між компаніями даними про атаки та стратегіями опонентів.

Парламентський меморандум OpenAI та пов’язані звинувачення

Згідно з меморандумом, поданим OpenAI до Спеціального комітету Палати представників США з питань Китаю (House Select Committee on China) (лютий 2026 року), OpenAI звинувачує китайські AI-компанії DeepSeek у спробі «зайти в ролі пасажира (ride along)» на розроблених OpenAI та іншими американськими передовими лабораторіями технологіях, а також стверджує, що вона й надалі використовує технології дистиляції даних, щоб витягати результати з американських моделей для розробки нової версії чат-бота, і що застосовувані методи стають дедалі більш складними.

Anthropic у лютому 2026 року опублікував заяву, в якій ідентифікував три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — і висунув звинувачення, що вони незаконно витягують функціональність моделей Claude через протиправну дистиляцію. Раніше Anthropic у 2025 році заборонив китайським компаніям використовувати Claude. Bloomberg також повідомляв, що після того, як DeepSeek у січні 2025 року оприлюднив модель міркувань R1, Microsoft і OpenAI розпочали розслідування щодо того, чи DeepSeek незаконно вилучав дані моделей США.

Позиція адміністрації Трампа та обмеження комплаєнсу щодо антимонопольного законодавства

Згідно з оприлюдненими документами з політики, посадовці адміністрації Трампа заявили, що готові сприяти обміну інформацією між AI-компаніями, щоб протидіяти загрозам протиправної дистиляції. У《Плані дій щодо штучного інтелекту》, оприлюдненому президентом Трампом, прямо закликається створити центр обміну інформацією та аналітики; частина цілей — саме для протидії зазначеним діям.

За повідомленням Bloomberg, нинішній обсяг обміну інформацією про технічну дистиляцію між трьома компаніями залишається обмеженим через те, що вони не впевнені, які саме відомості можуть бути законно обмінені за чинними антимонопольними рекомендаціями; три компанії заявили, що мають намір розширити співпрацю після того, як у США уряд чітко визначить відповідні рамки керівництва.

Поширені запитання

OpenAI, Anthropic і Google — через яку організацію вони співпрацюють?

За повідомленням Bloomberg, три компанії здійснюють обмін інформацією через Frontier Model Forum — організацію, яку OpenAI, Anthropic, Google та Microsoft спільно заснували у 2023 році як галузеву неприбуткову організацію.

Що OpenAI подала до Конгресу США щодо проблеми AI-дистиляції?

Згідно з оприлюдненими даними OpenAI, OpenAI подала до Спеціального комітету Палати представників США з питань Китаю меморандум (лютий 2026 року), у якому звинуватила DeepSeek у тому, що вона на постійній основі витягує результати з американських моделей, використовуючи технології дистиляції даних, і розробляє на цій основі нову версію чат-бота.

Які оприлюднені дії зробила Anthropic у зв’язку з проблемою дистиляції китайських AI-лабораторій?

Згідно з оприлюдненою заявою Anthropic, Anthropic у 2025 році заборонила китайським компаніям використовувати модель Claude, а в лютому 2026 року виявила три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — та звинуватила їх у незаконному витягу од функціональності моделі Claude через протиправну дистиляцію.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Акції Alibaba зросли більш ніж на 3% після оголошення Alibaba Cloud про підвищення цін на сервіси ШІ

16 квітня акції Alibaba зросли більш ніж на 3% після оголошення підвищення цін на її сервіси ШІ з метою стабілізації постачання та операцій. Компанія також представила Happy Oyster — інноваційну модель для 3D-середовищ, орієнтовану на ігрову та кіноіндустрії, прагнучи підвищити виручку від ШІ та хмарних сервісів до $100 мільярдів за п’ять років.

GateNews22хв. тому

ЄС зобов’язує Google відкрити пошукові дані конкурентам і AI-ботам для чатів, змінюючи ландшафт пошуку

Європейська комісія зобов’язала Google ділитися своєю ключовою пошуковою аналітикою з конкурентами та AI-ботами для чатів у межах Закону про цифрові ринки. Це має на меті стимулювати конкуренцію, надаючи AI-сервісам на кшталт ChatGPT доступ до цінних даних користувачів. Google планує оскаржити це рішення, посилаючись на міркування конфіденційності.

GateNews35хв. тому

Google і Boston Dynamics інтегрують моделі Gemini AI в робота Spot для керування природною мовою та виконання завдань

Google і Boston Dynamics інтегрували моделі Gemini Robotics у робота Spot, що дає йому змогу розуміти команди природною мовою, розпізнавати об’єкти та виконувати завдання автономно, підвищуючи ефективність і адаптивність у робототехніці.

GateNews1год тому

Креатор Nas Daily Нусейр Яссін залучив $27M у Series A для платформи AI-побудовника бізнесу

Nas.com, заснований Нусейром Яссіном (Nuseir Yassin) з Nas Daily, залучив $27 мільйонів у раунді фінансування Series A під керівництвом Khosla Ventures. Це підкреслює тенденцію, за якою креатори переходять у техсферу, використовуючи свою аудиторію для зростання бізнесу.

GateNews1год тому

Sama скоротить понад 1,100 працівників у Кенії після завершення контракту з Meta

Samasource Impact Sourcing Inc звільнить понад 1,100 працівників у Найробі через припинення Meta ключового контракту. Попри зусилля з утримання робочих місць, залежність компанії від великих американських технологічних клієнтів підкреслює нестабільність сектора аутсорсингу ШІ в Африці.

GateNews1год тому

Anthropic випустила Claude Opus 4.7: еволюція здібностей до міркування, вже не лише інструмент для відповідей

Anthropic опублікувала Claude Opus 4.7, яка посилила можливості міркування та обробку довгих текстів: від відповідачів-інструментів вона перетворюється на помічника для ухвалення рішень, підвищуючи розуміння контексту та безпеку. Це оновлення показує, що акценти конкурентної боротьби в галузі зміщуються з продуктивності моделей до практичності, а генеративний ШІ переходить від експериментальних технологій до зрілих застосувань.

ChainNewsAbmedia1год тому
Прокоментувати
0/400
Немає коментарів