Евросоюз объявит о знаковом законопроекте, регулирующем ChatGPT и технологии искусственного интеллекта

奔跑财经

Члены ЕС должны прийти к консенсусу по поводу сложностей введения правил ИИ для платформ, подобных ChatGPT.

Поскольку новые разработки в области искусственного интеллекта (ИИ) происходят с молниеносной скоростью, Европейский союз также находится на пороге знакового соглашения о регулировании таких платформ, как ChatGPT и других технологий искусственного интеллекта.

Законодатели ЕС обсуждают регулирование ChatGPT

В ходе продолжительной встречи, состоявшейся в среду, 6 декабря, участники переговоров достигли консенсуса по регулированию инструментов генеративного искусственного интеллекта (ИИ), таких как ChatGPT от OpenAI Inc. и Bard от Google. Соглашение было достигнуто в ходе дискуссий между Европейской комиссией, Европейским парламентом и представителями 27 государств-членов, что приблизило их к завершению работы над всеобъемлющим законодательством Закона об искусственном интеллекте.

Переговоры, начавшиеся в среду днем, подчеркнули сложность дебатов о регулировании ИИ. Предлагаемый законопроект об ИИ станет ключевым шагом в разработке знаковой политики в области ИИ, которая задаст тон регулированию инструментов генеративного ИИ во всем мире.

Кроме того, в ходе дискуссии были выявлены проблемы, с которыми сталкиваются политики при поиске баланса между защитой европейских стартапов в области ИИ и устранением потенциальных социальных рисков. Продолжающиеся усилия по доработке законопроекта об ИИ отражают безотлагательность принятия нормативных актов в преддверии предстоящих в июне европейских выборов, которые могут привести к изменениям и помешать прогрессу.

Интересно, что обсуждение состоялось в тот же день, когда Google продемонстрировал новые возможности Gemini AI. Более того, это произошло через несколько дней после того, как OpenAI устроила крупное драматическое событие, где Сэм Альтман был уволен и восстановлен в должности через несколько дней.

Государства-члены ЕС расходятся во мнениях по вопросам регулирования ИИ

ЕС, как и США и Великобритания, пытается найти баланс между защитой стартапов в области искусственного интеллекта, таких как французский Mistral AI и немецкий Aleph Alpha, с борьбой с потенциальными социальными рисками.

Борьба стала ключевым предметом спора на переговорах, и такие страны, как Франция и Германия, выразили свое несогласие с правилами, которые могут несправедливо поставить в невыгодное положение местные компании. Официальные лица все более оптимистично настроены в отношении соглашения, достигнутого ранее в четверг, хотя технические сложности законопроекта все еще нуждаются в дальнейшем обсуждении на последующих встречах.

Политики ЕС выступили с предложением, в котором изложены требования к разработчикам моделей ИИ, включая вспомогательные инструменты, такие как ChatGPT. Программа включает в себя ведение информации об обучении модели, обобщение использования материалов, защищенных авторским правом, и маркировку контента, созданного искусственным интеллектом. Кроме того, системы, которые считаются представляющими «системный риск», должны работать с комитетом в соответствии с отраслевым кодексом поведения для мониторинга и отчетности о любых инцидентах, возникающих в связи с моделью.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев