Зловживання штучним інтелектом викликає високопрофільні скандали, змушуючи регуляторів по всьому світу прагнути до прозорості, згоди та відповідальності у використанні, тоді як дебати тривають щодо того, чи здатні існуючі рамки наздогнати швидко розвиваючуся технологію.
Штучний інтелект швидко трансформує творчі практики, але його зловживання поширюється так само швидко. Неоприлюднене використання AI для допомоги у написанні текстів, клонування голосу та зображень, створених AI, з’являється знову і знову після публікації або навіть нагородження, викликаючи високопрофільні скандали та руйнуючи довіру до культурних інституцій.
Регулятори та платформи намагаються реагувати за допомогою вимог до розкриття інформації, пропозицій щодо маркування контенту, стандартів походження та водяних знаків, а також цілеспрямованого застосування законів. Однак поточна система залишається фрагментарною, повільною і часто неясною. Як законодавці можуть захистити творців і споживачів, не заважаючи інноваціям? Чи здатні існуючі правила наздогнати швидко змінюваний ландшафт AI? Ці питання лежать в центрі одних із найнагальніших дискусій у сфері технологій і творчості сьогодні.
Одним із найяскравіших скандалів останніх років є Sympathy Tower Tokyo Рі Кудан, переможець премії Акутагави 2024 року. Автор повідомив, що приблизно 5% роману — переважно відповіді чатбота у сюжеті — було згенеровано за допомогою ChatGPT. Це відкриття викликало дебати щодо авторства та прозорості у літературі. Критики розділилися: одні хвалили роботу як інноваційне використання AI для дослідження мови та технологій, інші вважали це викликом традиційним нормам оригінального авторства та літературної цілісності. Статті у провідних ЗМІ підкреслювали теми книги — справедливість, емпатію та соціальні наслідки AI — і процедурні питання, що виникають при використанні генеративних моделей у нагороджуваних роботах, що спричинило заклики до більш чітких стандартів розкриття та перегляду критеріїв нагородження. Цей випадок став еталоном у ширших дискусіях про творчий вплив, авторські права та етичні межі використання AI у мистецтві, з довгостроковими наслідками для видавців, журі та норм авторства.
Ще один високопрофільний інцидент стосувався Darkhollow Academy: Year Two Лени МакДональд, де читачі виявили в третьому розділі підказку AI та примітки до редагування. Це випадкове розкриття показало, що автор використовував інструмент AI для імітації стилю іншого письменника, що викликало негайну критику та широке висвітлення. Цей випадок підкреслив обмеження сучасних процесів публікації та необхідність чітких норм щодо допомоги AI у написанні. Він посилив заклики до прозорості, спровокував дискусії щодо редакційного контролю та якості, а також підживив ширші дебати про атрибуцію, стилістичне імітування та ризики інтелектуальної власності у комерційній фантастиці.
У сфері образотворчого мистецтва німецький фотограф Боріс Елдагсен викликав скандал, коли з’ясувалося, що зображення, яке він подав на премію Sony World Photography Awards, було цілком створене AI. Робота спочатку виграла у категорії Creative Open, викликавши дебати про межі між контентом, створеним AI, і традиційною фотографією. Фотограф відмовився від нагороди, тоді як критики та представники індустрії поставили питання, як конкурси мають ставитися до робіт із допомогою AI або створених AI.
Музична індустрія стикнулася з подібними викликами. Трек британського EDM “I Run” від Haven став високопрофільним скандалом у 2025 році після того, як з’ясувалося, що головний вокал пісні був згенерований за допомогою технології синтетичного голосу, що нагадує реального виконавця. Головні стрімінгові платформи видалили трек за порушення правил імітації та авторських прав, викликавши широке засудження, нові заклики до явної згоди та атрибуції при імітації живих виконавців AI, а також прискорили політичні та правові дискусії щодо того, як стрімінгові сервіси, правовласники та регулятори мають управляти музикою з допомогою AI для захисту виконавців, дотримання авторських прав і збереження довіри до творчої атрибуції.
Регулятори борються з шкодами AI: ЄС, США, Великобританія та Італія впроваджують ризик-орієнтовані рамки
Проблема шкоди від використання AI — включно з випадками, коли творці видають роботи, створені AI, за людські — стала нагальною, і нові регуляторні рамки починають її вирішувати.
Закон про AI Європейського Союзу встановлює ризик-орієнтовану правову основу, яка набрала чинності у 2024 році, з поетапними зобов’язаннями до 2026–2027 років. Закон вимагає прозорості для генеративних систем, включаючи маркування контенту, створеного AI у певних контекстах, оцінки ризиків та управління високоризиковими застосуваннями, а також надає повноваження Європейському офісу AI і національним регуляторам забезпечувати відповідність. Ці положення безпосередньо спрямовані на виклики, такі як непроявлені медіа, створені AI, та непрозорі тренінги моделей.
Національні законодавці також швидко рухаються у деяких сферах. Наприклад, Італія у 2025 році просунулася у прийнятті всеохоплюючого національного закону про AI, запроваджуючи суворіші штрафи за шкідливі використання, такі як глибокі підробки, і закріплюючи вимоги до прозорості та людського контролю — демонструючи, як місцеве законодавство може доповнювати правила ЄС. Європейська комісія одночасно розробляє необов’язкові інструменти та галузеві кодекси практики, зокрема для AI загального призначення, хоча їх впровадження стикнулося з затримками та опором галузі, що відображає складність швидкого створення практичних правил для швидко змінюваних технологій.
Велика Британія застосовує “прогресивний інноваційний” підхід до регулювання, поєднуючи урядові білі книги, галузеві рекомендації від регуляторів, таких як Ofcom і ICO, та принципи нагляду, що наголошують на безпеці, прозорості, справедливості та відповідальності. Замість запровадження єдиного коду у стилі ЄС, британські органи зосереджені на рекомендаціях і поступовому нарощуванні можливостей нагляду.
У США політики застосовують секторний, агентський підхід, закріплений у Виконавчому наказі 14110 від жовтня 2023 року, що координує федеральні дії щодо безпечного, надійного та довіреного AI. Цей підхід наголошує на управлінні ризиками, тестуванні безпеки та цілеспрямованому регулюванні, а документи міжагентств, такі як План дій США щодо AI, надають рекомендації, стандарти та правила закупівель, а не єдину всеохоплюючу законодавчу базу.
Мартін Касадо виступає за регулювання AI, орієнтоване на використання, щоб захистити творців і не заважати інноваціям
Для творців і платформ практичні наслідки очевидні. Регулятори наполягають на посиленні вимог до розкриття, включаючи чітке маркування контенту, створеного AI, правила згоди щодо клонування голосу та зображень, стандарти походження та водяних знаків для згенерованих медіа, а також посилення авторських прав і правил щодо похідних робіт. Ці заходи мають запобігти імітації, захистити виконавців і авторів, а також підвищити відповідальність платформ за потенційно оманливий контент — фактично реалізуючи “орієнтований на використання” підхід, рекомендований партнером Andreessen Horowitz Мартіном Касадо у подкасті a16z.
Він стверджує, що політика має зосереджуватися на тому, як застосовується AI і які конкретні шкоди він може спричинити, а не на контролі за розробкою моделей AI, що швидко змінюється, важко визначити і легко обійти. Венчурний капіталіст попереджає, що надмірно широкі, орієнтовані на розробку правила можуть охолодити відкриті дослідження і послабити інновації.
Мартін Касадо наголошує, що нелегальні або шкідливі дії, здійснювані за допомогою AI, мають залишатися підслідними за чинним законодавством, і що регулювання має спершу забезпечити ефективне застосування кримінальних, захисту прав споживачів, цивільних прав і антимонопольних законів. Там, де залишаються прогалини, він виступає за нове законодавство, засноване на емпіричних даних і цілеспрямоване на конкретні ризики, а не на широкі, спекулятивні мандати, що можуть зашкодити технологічному прогресу.
За словами експерта, важливо зберігати відкритість у розвитку AI, наприклад, підтримуючи open-source моделі, щоб зберегти довгострокові інновації і конкурентоспроможність, водночас забезпечуючи, щоб регуляторні заходи були точними, практичними і зосередженими на реальних шкодах.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
ШІ у творчих галузях: зловживання, суперечки та прагнення до регулювання, орієнтованого на використання
Коротко
Зловживання штучним інтелектом викликає високопрофільні скандали, змушуючи регуляторів по всьому світу прагнути до прозорості, згоди та відповідальності у використанні, тоді як дебати тривають щодо того, чи здатні існуючі рамки наздогнати швидко розвиваючуся технологію.
Штучний інтелект швидко трансформує творчі практики, але його зловживання поширюється так само швидко. Неоприлюднене використання AI для допомоги у написанні текстів, клонування голосу та зображень, створених AI, з’являється знову і знову після публікації або навіть нагородження, викликаючи високопрофільні скандали та руйнуючи довіру до культурних інституцій.
Регулятори та платформи намагаються реагувати за допомогою вимог до розкриття інформації, пропозицій щодо маркування контенту, стандартів походження та водяних знаків, а також цілеспрямованого застосування законів. Однак поточна система залишається фрагментарною, повільною і часто неясною. Як законодавці можуть захистити творців і споживачів, не заважаючи інноваціям? Чи здатні існуючі правила наздогнати швидко змінюваний ландшафт AI? Ці питання лежать в центрі одних із найнагальніших дискусій у сфері технологій і творчості сьогодні.
Одним із найяскравіших скандалів останніх років є Sympathy Tower Tokyo Рі Кудан, переможець премії Акутагави 2024 року. Автор повідомив, що приблизно 5% роману — переважно відповіді чатбота у сюжеті — було згенеровано за допомогою ChatGPT. Це відкриття викликало дебати щодо авторства та прозорості у літературі. Критики розділилися: одні хвалили роботу як інноваційне використання AI для дослідження мови та технологій, інші вважали це викликом традиційним нормам оригінального авторства та літературної цілісності. Статті у провідних ЗМІ підкреслювали теми книги — справедливість, емпатію та соціальні наслідки AI — і процедурні питання, що виникають при використанні генеративних моделей у нагороджуваних роботах, що спричинило заклики до більш чітких стандартів розкриття та перегляду критеріїв нагородження. Цей випадок став еталоном у ширших дискусіях про творчий вплив, авторські права та етичні межі використання AI у мистецтві, з довгостроковими наслідками для видавців, журі та норм авторства.
Ще один високопрофільний інцидент стосувався Darkhollow Academy: Year Two Лени МакДональд, де читачі виявили в третьому розділі підказку AI та примітки до редагування. Це випадкове розкриття показало, що автор використовував інструмент AI для імітації стилю іншого письменника, що викликало негайну критику та широке висвітлення. Цей випадок підкреслив обмеження сучасних процесів публікації та необхідність чітких норм щодо допомоги AI у написанні. Він посилив заклики до прозорості, спровокував дискусії щодо редакційного контролю та якості, а також підживив ширші дебати про атрибуцію, стилістичне імітування та ризики інтелектуальної власності у комерційній фантастиці.
У сфері образотворчого мистецтва німецький фотограф Боріс Елдагсен викликав скандал, коли з’ясувалося, що зображення, яке він подав на премію Sony World Photography Awards, було цілком створене AI. Робота спочатку виграла у категорії Creative Open, викликавши дебати про межі між контентом, створеним AI, і традиційною фотографією. Фотограф відмовився від нагороди, тоді як критики та представники індустрії поставили питання, як конкурси мають ставитися до робіт із допомогою AI або створених AI.
Регулятори борються з шкодами AI: ЄС, США, Великобританія та Італія впроваджують ризик-орієнтовані рамки
Проблема шкоди від використання AI — включно з випадками, коли творці видають роботи, створені AI, за людські — стала нагальною, і нові регуляторні рамки починають її вирішувати.
Закон про AI Європейського Союзу встановлює ризик-орієнтовану правову основу, яка набрала чинності у 2024 році, з поетапними зобов’язаннями до 2026–2027 років. Закон вимагає прозорості для генеративних систем, включаючи маркування контенту, створеного AI у певних контекстах, оцінки ризиків та управління високоризиковими застосуваннями, а також надає повноваження Європейському офісу AI і національним регуляторам забезпечувати відповідність. Ці положення безпосередньо спрямовані на виклики, такі як непроявлені медіа, створені AI, та непрозорі тренінги моделей.
Національні законодавці також швидко рухаються у деяких сферах. Наприклад, Італія у 2025 році просунулася у прийнятті всеохоплюючого національного закону про AI, запроваджуючи суворіші штрафи за шкідливі використання, такі як глибокі підробки, і закріплюючи вимоги до прозорості та людського контролю — демонструючи, як місцеве законодавство може доповнювати правила ЄС. Європейська комісія одночасно розробляє необов’язкові інструменти та галузеві кодекси практики, зокрема для AI загального призначення, хоча їх впровадження стикнулося з затримками та опором галузі, що відображає складність швидкого створення практичних правил для швидко змінюваних технологій.
Велика Британія застосовує “прогресивний інноваційний” підхід до регулювання, поєднуючи урядові білі книги, галузеві рекомендації від регуляторів, таких як Ofcom і ICO, та принципи нагляду, що наголошують на безпеці, прозорості, справедливості та відповідальності. Замість запровадження єдиного коду у стилі ЄС, британські органи зосереджені на рекомендаціях і поступовому нарощуванні можливостей нагляду.
У США політики застосовують секторний, агентський підхід, закріплений у Виконавчому наказі 14110 від жовтня 2023 року, що координує федеральні дії щодо безпечного, надійного та довіреного AI. Цей підхід наголошує на управлінні ризиками, тестуванні безпеки та цілеспрямованому регулюванні, а документи міжагентств, такі як План дій США щодо AI, надають рекомендації, стандарти та правила закупівель, а не єдину всеохоплюючу законодавчу базу.
Мартін Касадо виступає за регулювання AI, орієнтоване на використання, щоб захистити творців і не заважати інноваціям
Для творців і платформ практичні наслідки очевидні. Регулятори наполягають на посиленні вимог до розкриття, включаючи чітке маркування контенту, створеного AI, правила згоди щодо клонування голосу та зображень, стандарти походження та водяних знаків для згенерованих медіа, а також посилення авторських прав і правил щодо похідних робіт. Ці заходи мають запобігти імітації, захистити виконавців і авторів, а також підвищити відповідальність платформ за потенційно оманливий контент — фактично реалізуючи “орієнтований на використання” підхід, рекомендований партнером Andreessen Horowitz Мартіном Касадо у подкасті a16z.
Він стверджує, що політика має зосереджуватися на тому, як застосовується AI і які конкретні шкоди він може спричинити, а не на контролі за розробкою моделей AI, що швидко змінюється, важко визначити і легко обійти. Венчурний капіталіст попереджає, що надмірно широкі, орієнтовані на розробку правила можуть охолодити відкриті дослідження і послабити інновації.
Мартін Касадо наголошує, що нелегальні або шкідливі дії, здійснювані за допомогою AI, мають залишатися підслідними за чинним законодавством, і що регулювання має спершу забезпечити ефективне застосування кримінальних, захисту прав споживачів, цивільних прав і антимонопольних законів. Там, де залишаються прогалини, він виступає за нове законодавство, засноване на емпіричних даних і цілеспрямоване на конкретні ризики, а не на широкі, спекулятивні мандати, що можуть зашкодити технологічному прогресу.
За словами експерта, важливо зберігати відкритість у розвитку AI, наприклад, підтримуючи open-source моделі, щоб зберегти довгострокові інновації і конкурентоспроможність, водночас забезпечуючи, щоб регуляторні заходи були точними, практичними і зосередженими на реальних шкодах.