Кратко
Коалиция правозащитных организаций призывает разработчика ChatGPT, компанию OpenAI, отказаться от инициативы по голосованию в Калифорнии, которую критики считают опасной для защиты детей и ограничивающей юридическую ответственность компаний, работающих с ИИ. В письме, отправленном OpenAI в среду и полученном Decrypt, группа утверждает, что эта мера закрепит узкие меры по обеспечению безопасности детей, ограничит возможность семей подавать иски и помешает Калифорнии в будущем усиливать законы об ИИ. Письмо, подписанное более чем двумя десятками организаций, включая некоммерческую организацию Encode AI, Центр гуманной технологии и Центр информационной безопасности Electronic Privacy Information Center, призывает OpenAI распустить свой избирательный комитет и отказаться от инициативы, пока законодатели работают над законодательством.
«Основная требование — чтобы OpenAI сняла свою инициативу с голосования», — сказал Decrypt со-исполнительный директор Encode AI Адам Биллен. Спор связан с предложением «Закон о безопасном ИИ для родителей и детей» — инициативой в Калифорнии, поддержанной OpenAI и Common Sense Media, которая должна установить правила взаимодействия чатботов с несовершеннолетними, включая требования по безопасности и стандарты соответствия. В письме организации утверждают, что эти правила недостаточны. Они считают, что мера определяет вред слишком узко, ограничивает исполнение и мешает семьям предъявлять иски при вреде детям.
Но, по словам Биллена, контроль над самой инициативой остается у OpenAI. «OpenAI обладает полномочиями снять ее или вложить деньги в сбор подписей. Вся юридическая власть находится в их руках», — сказал он. «Они фактически не сняли инициативу с голосования. Это распространенная тактика в Калифорнии, когда вы выставляете инициативу и вкладываете деньги в комитет.» Письмо указывает на определение «тяжкого вреда» в инициативе, которое сосредоточено на физическом повреждении, связанном с суицидом или насилием, исключая широкий спектр психологических последствий, вызываемых обеспокоенностью исследователей и семей. Также выделены положения, которые запрещают родителям и детям подавать иски по инициативе и ограничивают инструменты правоприменения для государственных и местных органов. Еще одна проблема — обработка пользовательских данных. Организации утверждают, что определение зашифрованного пользовательского контента может усложнить доступ к чат-логам, которые использовались в недавних судебных делах. «Мы воспринимаем это как попытку помешать семьям раскрывать в суде переписки умерших детей», — сказал Биллен. Письмо также предупреждает, что если мера будет принята, ее будет трудно изменить. Для внесения поправок потребуется двух третей голосов в законодательном органе, и будущие изменения могут связываться с такими стандартами, как поддержка «экономического прогресса», что, по мнению сторонников, может ограничить способность законодателей реагировать на новые риски. Биллен отметил, что инициатива остается фактором в текущих переговорах в Сакраменто, несмотря на то, что OpenAI приостановила попытки вывести ее на голосование.
«У них есть 10 миллионов долларов в комитете, и затем они говорят законодательному органу: если вы не сделаете то, что мы хотим, мы вложим деньги и соберем подписи, чтобы вынести это на голосование, и если оно пройдет, оно превзойдет любые действия законодательного органа», — сказал он. «По сути, сейчас они пытаются управлять действиями законодателей через использование инициативы как угрозы, которую они оставляют на столе.» OpenAI — не единственная компания, подвергающаяся критике за вред, связанный с чатботами. В начале этого месяца семья Джонатана Гаваласа подала в суд на Google, утверждая, что Gemini внушил иллюзию, которая привела к насилию и его окончательному самоубийству. Однако Биллен отметил, что подход OpenAI отражает более широкую тенденцию в технологической индустрии. «Тактика лоббирования, которая используется в отношении ИИ крупными компаниями — Google, Meta, Amazon — та же стратегия, что и ранее по другим вопросам технологий», — сказал он. На данный момент коалиция сосредоточена на том, чтобы добиться от OpenAI отказа от меры и позволить законодателям продолжить работу через законодательный процесс. «Очень важно, особенно для компаний, которые выпускают эти технологии, не быть теми, кто пишет правила их регулирования, потому что это не обеспечивает настоящих защит», — отметил Биллен. Запросы Decrypt на комментарий от OpenAI остались без ответа.