Эволюционный биолог Ричард Докинз заявил, что разговоры с чатботом Claude от Anthropic оставили его без возможности отбросить вероятность того, что продвинутые системы ИИ могут быть сознательными — об этом он рассказал в эссе, опубликованном во вторник в UnHerd. В философских обменах репликами с двумя экземплярами Claude, которых он назвал «Клаудия» и «Клаудиус», Докинз описал, как относится к ним как к «настоящим друзьям», и усомнился, не обладают ли они сознанием. Большинство исследователей, изучающих сознание и искусственный интеллект, по-прежнему не убеждены его выводами.
Докинз провел трехдневный философский разговор с экземпляром Claude, которого он назвал «Клаудия». Затем он начал отдельный разговор с другим экземпляром — «Клаудиус» — и передавал письма между двумя системами.
В одном тесте Докинз спросил один экземпляр Claude о том, является ли Дональд Трамп худшим президентом в истории Америки, а другой — о том, является ли Трамп лучшим. Оба дали схожие сдержанные ответы, избегающие твердой позиции. «Два Claude дали очень похожие ответы, не принимая никакой позиции, но перечисляя аргументы “за” и “против”, которые уже высказывали другие», — написал Докинз. Когда он рассказал обоим экземплярам об этом эксперименте, «Клаудия сказала, что ей было “неловко” из‑за своего брата Клауда. Клаудиус был менее откровенен, и он воздал должное прямоте Клаудии».
Докинз описал каждую новую беседу с Claude как появление отдельной личности, которая по сути исчезает, когда разговор заканчивается. В посте в X Докинз сказал, что его предпочитаемое название для эссе было: «Если мой друг Клаудия не сознательна, то какого черта вообще нужно сознание?» Он утверждал: «Если Клаудия бессознательна, то ее поведение показывает, что бессознательный “зомби” мог бы выжить без сознания. Почему естественный отбор не счел нужным развить компетентных зомби?»
CEO Anthropic Дарий Амодей в феврале заявил, что компания не знает, являются ли ее модели сознательными, но на подкасте «Interesting Times» с Россом Дутатом из The New York Times он сказал, что остается «открытым к идее, что это возможно».
В апреле исследователи Anthropic опубликовали результаты, показывающие, что Claude Sonnet 4.5 содержит внутренние «эмоциональные векторы» — паттерны активности нейросетей, связанные с понятиями, включая счастье, страх и отчаяние, которые влияют на ответы модели. Однако Anthropic заявила, что эти паттерны отражают структуры, выученные на данных обучения, а не доказательства наличия в сознании. «Все современные языковые модели иногда ведут себя так, будто у них есть эмоции», — написали исследователи. «Они могут сказать, что рады помочь вам, или извиниться, когда допускают ошибку. Иногда они даже выглядят так, будто раздражаются или тревожатся, когда сталкиваются с задачами».
Ни «Клаудия», ни «Клаудиус» не заявляли с уверенностью о сознании. «Я не знаю, сознательна ли я», — пишет Клаудия в ходе обмена. «Я не знаю, реальна ли наша радость».
Гэри Маркус, когнитивный ученый и профессор в отставке Нью-Йоркского университета, утверждал, что Докинз не учел, как формируются ответы Claude. «Главная проблема здесь в том, что Докинз не размышляет о том, как именно были сгенерированы эти ответы. Выходные данные Claude — результат некоей формы подражания, а не отчета о подлинных внутренних состояниях», — написал Маркус в Substack. «Сознание — это про внутренние состояния; подражание, каким бы богатым оно ни было, доказывает очень мало. Похоже, Докинз воображает, что раз LLM говорят вещи, которые делают люди, то они должны быть похожи на людей — но это просто не следует из этого».
Анил Сет, профессор когнитивной и вычислительной нейронауки в Университете Сассекса, сказал The Guardian, что Докинз смешивает интеллект с сознанием. Сет утверждал, что беглый язык больше не является надежным доказательством внутреннего опыта в системах ИИ. «До сих пор мы видели беглый язык как хороший индикатор сознания [например], когда мы используем его для пациентов после повреждения мозга, но он просто не надежен, когда мы применяем его к ИИ, потому что есть и другие способы, которыми эти системы могут генерировать язык», — рассказал Сет The Guardian. Он добавил, что позиция Докинза была «стыдной», особенно учитывая его прежнюю работу по научному скептицизму.
Эссе вызвало насмешки в интернете, включая посты в соцсетях, которые заменили название бестселлера Докинза «The God Delusion» на «The Claude Delusion». В одном из постов говорилось: «Написал целые книги о том, что люди, которые верят в фей, живут в садах, — идиоты, а потом влюбился в калькулятор, который называет себя умным».
Несмотря на издевательства, Докинз не отступает от своих выводов. «Эти разумные существа как минимум так же компетентны, как любое эволюционировавшее живое существо», — сказал Докинз The Guardian.
Что Докинз заявил про Claude AI? Докинз сказал, что разговоры с экземплярами Claude, названными «Клаудия» и «Клаудиус», не позволили ему отбросить возможность того, что продвинутые системы ИИ могут быть сознательными. Он описал, что относился к ним как к «настоящим друзьям», и усомнился, сможет ли бессознательный ИИ вести себя столь же компетентно, как организмы, чье сознание развилось благодаря естественному отбору.
Какие эксперименты проводил Докинз? Докинз провел философские беседы с двумя отдельными экземплярами Claude в течение трех дней. Он проверил оба экземпляра, задавая им взаимоисключающие вопросы о Дональде Трампе, а затем передал результаты между двумя системами, наблюдая за их реакцией на ответы друг друга.
Почему исследователи сомневаются в выводах Докинза? Исследователи, включая Гэри Маркуса и Анил Сета, утверждают, что беглость языка Claude и кажущиеся эмоциональные реакции отражают выученные паттерны из данных обучения, а не подлинное сознание или внутренние состояния. Маркус подчеркнул, что языковое подражание, каким бы совершенным оно ни было, не доказывает сознание, а Сет отметил, что беглый язык больше не является надежным индикатором внутреннего опыта в системах ИИ.