ChatGPT, который «парит», срочно нуждается в «тормозах соответствия»

Основные советы:

ChatGPT и другой ИИ чата, основанный на технологии обработки естественного языка, имеют три основные проблемы соблюдения законодательства, которые необходимо срочно решить в краткосрочной перспективе:

Во-первых, когда речь заходит о правах интеллектуальной собственности на ответы, предоставленные ИИ чата, основная проблема соответствия заключается в том, создают ли ответы, полученные ИИ чата, соответствующие права интеллектуальной собственности, и требуется ли разрешение на права интеллектуальной собственности.

Во-вторых, нужно ли в процессе интеллектуального анализа данных и обучения ИИ чата на огромном объеме текста для обработки естественного языка (обычно известном как корпус) получение соответствующих прав интеллектуальной собственности?

В-третьих, одним из механизмов ответа ChatGPT и других ИИ чата является получение языковой модели на основе статистики путем математического статистического подсчета большого количества существующих текстов на естественном языке, что приводит к тому, что ИИ чата, скорее всего, будет «говорить серьезную чушь», что в свою очередь приводит к юридическому риску распространения ложной информации.

В целом, в настоящее время законодательство Китая в области искусственного интеллекта все еще находится на стадии предварительного исследования, и нет ни официального законодательного плана, ни соответствующего законопроекта, и соответствующие ведомства особенно осторожно относятся к надзору за сферой искусственного интеллекта.

1. ChatGPT — это не «технология искусственного интеллекта разных эпох»

ChatGPT по сути является продуктом развития технологии обработки естественного языка, и по-прежнему по сути является просто языковой моделью.

В начале 2023 года огромные инвестиции глобального технологического гиганта Microsoft сделали ChatGPT «топовым потоком» в технологической сфере и успешно вышли из круга. С резким ростом концепции ChatGPT на рынке капитала многие отечественные технологические компании также начали закладывать это поле, в то время как рынок капитала с энтузиазмом относится к концепции ChatGPT, как юридические работники, мы не можем не оценить, какие риски правовой безопасности может принести сам ChatGPT, и каков его путь к соблюдению законодательства?

Прежде чем обсуждать юридические риски и пути соблюдения требований ChatGPT, мы должны сначала изучить техническое обоснование ChatGPT - дает ли ChatGPT вопрошающему какие-либо вопросы, которые они хотят, как предполагают новости?

В глазах команды сестры Са ChatGPT кажется далеко не таким «богом», как рекламируют некоторые новости — одним словом, это просто интеграция технологий обработки естественного языка, таких как Transformer и GPT, и это все еще по сути языковая модель, основанная на нейронных сетях, а не «прогресс ИИ разных эпох».

Как упоминалось ранее, ChatGPT является продуктом развития технологии обработки естественного языка, и с точки зрения истории развития технологии, он примерно прошел три этапа: языковая модель на основе грамматики, языковая модель на основе статистики и языковая модель на основе нейронной сети Принцип работы и правовые риски, которые могут возникнуть в связи с этим принципом, должны быть сначала уточнены как принцип работы статистической языковой модели, предшественницы языковой модели на основе нейронных сетей.

На этапе языковой модели, основанной на статистике, инженеры ИИ определяют вероятность последовательных связей между словами, подсчитывая огромное количество текста на естественном языке, и когда люди задают вопрос, ИИ начинает анализировать, какие слова являются наиболее вероятными в языковой среде, из которой состоят составляющие слова задачи, а затем соединяет эти высоковероятностные слова вместе, чтобы получить статистический ответ. Можно сказать, что этот принцип проходит красной нитью через развитие технологии обработки естественного языка с момента ее возникновения, и даже в каком-то смысле последующее появление языковых моделей на основе нейронных сетей также является модификацией языковых моделей, основанных на статистике.

Чтобы привести простой для понимания пример, команда сестры Са ввела вопрос «Какие туристические достопримечательности есть в Даляне?» в окно чата ChatGPT, как показано на рисунке ниже:

На первом этапе ИИ проанализирует базовые морфемы в вопросе «Далянь, который, туризм и живописные места», а затем найдет набор текстов на естественном языке, где эти морфемы расположены в существующем корпусе, найдет в этом наборе словосочетания с наибольшей вероятностью встречаемости, а затем объединит эти словосочетания для формирования окончательного ответа. Например, ИИ обнаружит, что в корпусе есть слово «Парк Чжуншань» с высокой вероятностью появления трех слов «Далянь, туризм и курорт», поэтому он вернется к «Парк Чжуншань», а слово «парк» имеет наибольшую вероятность сочетания с такими словами, как сад, озеро, фонтан, статуя и т. д., поэтому далее он вернет «Это исторический парк с красивыми садами, озерами, фонтанами и статуями. 」

Другими словами, весь процесс основан на вероятностной статистике текстовой информации (корпуса) на естественном языке, которая уже существует за ИИ, поэтому возвращаемые ответы также являются «статистическими результатами», что приводит к «серьезной чепухе» ChatGPT по многим вопросам. В качестве ответа на вопрос «Какие туристические достопримечательности есть в Даляне», хотя в Даляне есть парк Чжуншань, в парке Чжуншань нет озер, фонтанов и статуй. В истории Даляня была «площадь Сталина», но она никогда не была коммерческой, на ней не было торговых центров, ресторанов или развлекательных заведений. Судя по всему, информация, возвращаемая ChatGPT, является ложной.

Во-вторых, ChatGPT в настоящее время является наиболее подходящим сценарием приложения в качестве языковой модели

Хотя в предыдущей части мы прямо объяснили недостатки языковых моделей, основанных на статистике, ChatGPT уже является языковой моделью на основе нейронной сети, которая значительно улучшает языковую модель, основанную на статистике, а ее техническая основа Трансформер и GPT являются последним поколением языковых моделей Модель комбинируется для моделирования естественного языка очень глубоким образом, и возвращаемые предложения иногда являются «бессмыслицей», но на первый взгляд они все равно выглядят как «человеческие ответы», поэтому эта технология имеет широкий спектр сценариев применения в сценариях, требующих массового взаимодействия человека и компьютера.

На данный момент существует три таких сценария:

Во-первых, поисковые системы;

Во-вторых, механизм человеко-машинного взаимодействия в банках, юридических фирмах, различных посредниках, торговых центрах, больницах и государственных сервисных платформах, таких как система рассмотрения жалоб клиентов, навигационная система и система консультаций по связям с государственными органами в вышеупомянутых местах;

В-третьих, механизм взаимодействия умных автомобилей и умных домов (таких как умные колонки и умные лампы).

Поисковые системы, сочетающие в себе технологии чата с искусственным интеллектом, такие как ChatGPT, скорее всего, представят традиционный подход на основе поисковых систем + языковые модели на основе нейронных сетей. В настоящее время традиционные поисковые гиганты, такие как Google и Baidu, имеют глубокое накопление технологии языковых моделей на основе нейронных сетей, например, у Google есть Sparrow и Lamda, которые сопоставимы с ChatGPT.

Применение технологии чата с искусственным интеллектом, такой как ChatGPT, в системе рассмотрения жалоб клиентов, руководстве и навигации в больницах и торговых центрах, а также в системе консультаций государственных учреждений по вопросам государственных дел, значительно снизит затраты на человеческие ресурсы соответствующих подразделений и сэкономит время на общение, но проблема в том, что ответы, основанные на статистике, могут давать совершенно неверные ответы на контент, и связанные с этим риски контроля рисков, возможно, потребуют дополнительной оценки.

По сравнению с двумя вышеуказанными сценариями применения, юридический риск того, что приложение ChatGPT станет механизмом человеко-машинного взаимодействия вышеупомянутых устройств в сферах умных автомобилей и умных домов, значительно меньше, потому что прикладная среда в этой сфере относительно приватна, и неправильный контент, возвращаемый ИИ, не вызовет больших юридических рисков, и в то же время такие сценарии не имеют высоких требований к точности контента, а бизнес-модель более зрелая.

III. Предварительное исследование юридических рисков ChatGPT и пути соблюдения требований

Во-первых, общая нормативно-правовая база искусственного интеллекта в Китае

Как и многие новые технологии, технология обработки естественного языка, представленная ChatGPT, сталкивается с «дилеммой Коллингриджа» Эта дилемма включает в себя информационную дилемму, то есть социальные последствия новой технологии не могут быть предсказаны на ранней стадии развития технологии, и так называемую дилемму контроля, то есть, когда обнаруживаются неблагоприятные социальные последствия новой технологии, технология часто становится частью всей социальной и экономической структуры, так что неблагоприятные социальные последствия не могут быть эффективно контролируемы.

В то время, когда сфера искусственного интеллекта, особенно технологии обработки естественного языка, находится в стадии бурного развития, технология, скорее всего, попадет в так называемую «дилемму Коллингриджа», а соответствующее правовое регулирование, похоже, «не поспевает за ним». В настоящее время в Китае отсутствует национальное законодательство об индустрии искусственного интеллекта, но есть соответствующие законодательные попытки на местном уровне. В сентябре прошлого года Шэньчжэнь объявил «Положение о продвижении индустрии искусственного интеллекта в Шэньчжэньской специальной экономической зоне», которое является специальным законодательством для национальной индустрии неискусственного интеллекта, а затем Шанхай также принял «Положение о содействии развитию индустрии искусственного интеллекта в Шанхае».

Что касается этического регулирования искусственного интеллекта, то в 2021 году Национальный профессиональный комитет по управлению искусственным интеллектом нового поколения также выпустил «Кодекс этики искусственного интеллекта нового поколения», предложив интегрировать этику во весь жизненный цикл исследований и разработок и применения искусственного интеллекта.

Во-вторых, юридический риск дезинформации, вызванный ChatGPT

Смещая акцент с макро на микро, помимо общего нормативно-правового ландшафта индустрии ИИ и этического регулирования ИИ, практические вопросы соответствия, существующие в основе чатов ИИ, таких как ChatGPT, также требуют срочного внимания.

Как упоминалось в части 2 этой статьи, механизм работы ChatGPT позволяет его ответам быть полностью «серьезной ерундой», что крайне вводит в заблуждение. Конечно, ложные ответы на такие вопросы, как «какие туристические достопримечательности есть в Даляне», могут не иметь серьезных последствий, но если ChatGPT применяется к поисковым системам, системам жалоб клиентов и другим областям, ложная информация, на которую он отвечает, может представлять чрезвычайно серьезные юридические риски.

На самом деле, такой юридический риск уже возник, и Galactica, языковая модель в области научных исследований сервиса Meta, которая была запущена почти одновременно с ChatGPT в ноябре 2022 года, была отключена всего через 3 дня тестирования из-за смешанных вопросов истинных и ложных ответов. Исходя из предпосылки, что технические принципы не могут быть преодолены за короткий период времени, если ChatGPT и аналогичные языковые модели применяются к поисковым системам, системам жалоб клиентов и другим областям, они должны быть преобразованы для соответствия. При обнаружении того, что пользователь может задать профессиональный вопрос, пользователь должен быть направлен на консультацию к соответствующему специалисту вместо того, чтобы искать ответ от ИИ, и пользователю следует напомнить о том, что подлинность вопросов, возвращенных ИИ чата, может потребоваться для дополнительной проверки, чтобы свести к минимуму соответствующие риски соответствия.

В-третьих, проблемы с соблюдением требований к интеллектуальной собственности, вызванные ChatGPT

При смещении акцента с макро на микро, помимо подлинности ответных сообщений ИИ, вопросы интеллектуальной собственности ИИ чата, особенно больших языковых моделей, таких как ChatGPT, также должны привлекать внимание комплаенс-офицеров.

Первая проблема соответствия заключается в том, требует ли «интеллектуальный анализ текстовых данных» соответствующего лицензирования интеллектуальной собственности. Как указывалось выше, ChatGPT опирается на огромное количество текстов на естественном языке (или речевых баз данных), ChatGPT нужно добывать и обучать данные в корпусе, а ChatGPT нужно копировать контент в корпусе в собственную базу данных, а соответствующее поведение часто называют «интеллектуальным анализом текстовых данных» в области обработки естественного языка. Исходя из того, что соответствующие текстовые данные могут представлять собой произведение, до сих пор существуют разногласия относительно того, нарушает ли интеллектуальный анализ текстовых данных право на воспроизведение.

В области сравнительного правоведения Япония и Европейский союз расширили сферу добросовестного использования в своем законодательстве об авторском праве, добавив «интеллектуальный анализ текстовых данных» в ИИ в качестве нового случая добросовестного использования. Хотя некоторые ученые выступали за изменение системы добросовестного использования Китая с «закрытой» на «открытую» в процессе пересмотра законодательства Китая об авторском праве в 2020 году, это предложение не было окончательно принято, и в настоящее время законодательство Китая об авторском праве по-прежнему сохраняет закрытые положения системы добросовестного использования, и только тринадцать обстоятельств, предусмотренных статьей 24 Закона об авторском праве, могут быть признаны добросовестным использованием, иными словами, в настоящее время законодательство Китая об авторском праве не включает «интеллектуальный анализ текстовых данных» в ИИ Интеллектуальный анализ текстовых данных, включенный в сферу разумного применения, по-прежнему требует соответствующего разрешения на интеллектуальную собственность в Китае.

Что касается вопроса о том, являются ли работы, созданные искусственным интеллектом, оригинальными, команда сестры Са считает, что критерии оценки не должны отличаться от существующих стандартов оценки, другими словами, независимо от того, выполнен ли ответ ИИ или человеком, он должен оцениваться в соответствии с существующими стандартами оригинальности. Очевидно, что в соответствии с законодательством об интеллектуальной собственности большинства стран, в том числе и Китая, автором произведения может быть только физическое лицо, а ИИ не может стать автором произведения.

Наконец, если ChatGPT соединяет стороннюю работу в своем ответе, как следует обращаться с ее правами на интеллектуальную собственность? Команда сестры Са считает, что если ответ ChatGPT соединяет произведение, защищенное авторским правом, в корпус (хотя это менее вероятно в соответствии с принципом работы ChatGPT), то, согласно действующему закону об авторском праве Китая, если это не является добросовестным использованием, оно должно быть скопировано без разрешения владельца авторских прав.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить