OpenAI обіцяє посилити регулювання Sora, щоб запобігти глибоким фальшивим контентам AI

PANews 21 жовтня повідомляє, що 20 жовтня за місцевим часом Американський гільдія акторів (SAG-AFTRA), OpenAI, Брайан Кренстон та кілька артистичних компаній випустили спільну заяву про конструктивну співпрацю для забезпечення захисту прав голосу та зображення в Sora2, заявивши, що OpenAI посилила заходи безпеки щодо функції копіювання голосу та зображення для неавторизованих користувачів. OpenAI впровадила політику вибору щодо використання особистого голосу та зображення в Sora2. Всі художники, виконавці та особи мають право вирішувати, чи дозволяти імітувати їхній образ та конкретні способи. Ця політика відображає зобов'язання компанії щодо прав художників, прозорості та етики впровадження генеративних технологій, а також зобов'язується швидко реагувати на будь-які скарги.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів