Лауреаты премии Тьюринга опасаются стать в индустрии искусственного интеллекта "Обенхаймерами"

DeepFlowTech

Автор: Moonshot

В 1947 году Алан Тьюринг в своем выступлении упомянул: «Мы хотим машины, которые могут учиться из опыта».

Через 78 лет, присуждается премия Тьюринга, получившая прозвище “Нобелевская премия в области информатики”, двум ученым, посвятившим свою жизнь решению проблемы Тьюринга.

Андрю Барто (Andrew Barto) и Ричард Саттон (Richard Sutton) были удостоены Премии Тьюринга 2024 года. Они разница в возрасте девять лет и являются наставником и учеником, а также основателями технологий AlphaGo и ChatGPT, пионерами в области машинного обучения.

Лауреат премии Тьюринга Андрю Барто (Andrew Barto) и Ричард Саттон (Richard Sutton)

Источник изображения: официальный сайт премии Тьюринга

Главный ученый Google Джефф Дин в своей речи премии написал: «Технология обучения с подкреплением, созданная Барто и Саттоном, напрямую отвечает на вопрос Тьюринга. Их работа является ключевым фактором прогресса искусственного интеллекта за последние десятилетия. Инструменты, которые они разработали, по-прежнему являются основой процветания искусственного интеллекта… Google с гордостью поддерживает премию ACM A.M. Тьюринга.

Единственным спонсором премии Тьюринга в 1 миллион долларов является Google.

А после награждения два ученых, стоящих под прожекторами, указали на крупные компании в области искусственного интеллекта и заявили СМИ: в настоящее время компании по искусственному интеллекту “подвержены коммерческим стимулам”, а не сосредотачиваются на технических исследованиях, они “строят непроверенный мост в обществе, позволяя людям переходить его и проводить тестирование”.

Не случайно, но в последний раз награда Тьюринга была вручена ученым в области искусственного интеллекта в 2018 году, Джошуа Бенджио, Джеффри Хинтон и Янь Лекун за свой вклад в области глубокого обучения.

Лауреаты премии Тьюринга 2018 года

Источник изображения: eurekalert

Среди них Джошуа Бенжио и Джеффри Хинтон (еще два лауреата Нобелевской премии по физике 2024 года) - два «отцов искусственного интеллекта», в последние два года также часто призывали глобальное общество и научное сообщество быть бдительными по отношению к злоупотреблению искусственным интеллектом крупными компаниями.

Джеффри Синтон даже ушел с работы в Google, чтобы “сказать, что думает”, и этот Сандтон, получивший награду, также работал в DeepMind в качестве исследователя с 2017 по 2023 год.

Когда самые высокие награды в мире компьютерных технологий снова и снова вручаются основателям основных технологий искусственного интеллекта, начинает проявляться интересное явление:

Почему эти ученые, стоящие на вершине своей науки, всегда поворачиваются под прожекторами и звучат тревожные звоночки об искусственном интеллекте?

“Строитель мостов” искусственного интеллекта

Если Алан Тьюринг считается проводником искусственного интеллекта, то Андрю Барто и Ричард Саттон - это “строители мостов” на этом пути.

Во время стремительного развития искусственного интеллекта, после того как им были вручены похвалы, они пересматривают свои построенные мосты, способны ли они обеспечить безопасное движение людей?

Возможно, ответ кроется в их полувековом академическом опыте - только вернувшись к тому, как они построили “машинное обучение”, можно понять, почему они остерегаются “технологического беспорядка”.

Источник изображения: Университет Карнеги-Меллон

В 1950 году Алан Тьюринг в своей знаменитой статье “Вычислительные машины и разум” сразу же поставил философский и технический вопрос:

Может ли машина думать?

Таким образом, Тьюринг разработал “Имитационную игру”, известную впоследствии как “Тест Тьюринга”.

В то же время Тьюринг предложил, что искусственный интеллект может быть получен путем обучения, а не только за счет заранее заданной программы. Он представил концепцию “Детской машины”, которая позволяет машине постепенно учиться, как ребенок, путем тренировки и опыта.

Основная цель искусственного интеллекта - создание интеллектуального существа, способного воспринимать и действовать лучше, а критерий интеллекта - способность судить, что “некоторые действия лучше других”.

Цель машинного обучения заключается в том, чтобы давать машине обратную связь после действий и позволять машине самостоятельно учиться на основе этого опыта. Другими словами, идея Тьюринга о машинном обучении на основе награды и наказания ничем не отличается от метода Павлова по дрессировке собак.

Я становлюсь сильнее, играя в игре все больше и больше, это также форма ‘усиленного обучения’.

Источник изображения: zequance.ai

Путь машинного обучения, заложенный Тьюрингом, был освоен только через тридцать лет учеником и учителем - обучение с подкреплением (RL).

В 1977 году Эндрю Барто, вдохновленный психологией и нейронаукой, начал исследовать новую теорию человеческого интеллекта: нейроны похожи на «гедонистов», внутри человеческого мозга миллиарды нейронов, каждый из которых стремится максимизировать удовольствие (награду) и минимизировать боль (наказание). Более того, нейроны не просто механически принимают и передают сигналы, если активность определенного нейрона приводит к положительной обратной связи, он склонен повторять этот образец, тем самым совместно приводя к процессу обучения человека.

В 1980-х годах Бато взял со собой своего аспиранта Ричарда Саттона, чтобы применить эту теорию нейронов, основанную на постоянных экспериментах и корректировке обратной связи для нахождения оптимальной модели поведения, к искусственному интеллекту, и так родилось обучение с подкреплением.

《Углубленное обучение: Введение》 стало классическим учебником и было цитировано почти 80000 раз

Источник изображения: IEEE

Учитель и ученик, используя математическую основу процесса принятия решений Маркова, разработали и написали множество основных алгоритмов обучения с подкреплением, систематически построили теоретическую основу обучения с подкреплением, а также написали учебник “Введение в обучение с подкреплением”, благодаря которому десятки тысяч исследователей смогли войти в область обучения с подкреплением, они могут быть названы отцами обучения с подкреплением.

Их цель в изучении обучения с подкреплением заключается в поиске эффективных, точных и оптимальных методов машинного обучения с максимизацией вознаграждения.

«Рука бога» обучения с подкреплением

Если машинное обучение можно назвать “забиванием головы”, то обучение с подкреплением можно назвать “выращиванием”.

Традиционное машинное обучение заключается в том, что модели подаются большие объемы размеченных данных, чтобы установить фиксированное отображение между вводом и выводом. Самая классическая ситуация - показать компьютеру кучу фотографий кошек и собак и сказать ему, какая из них кошка, а какая собака; если подавать достаточно много изображений, компьютер сможет распознать кошек и собак.

А укрепление обучения - это, когда машина, не имея явного руководства, путем непрерывных ошибок и механизма наказания и поощрения, постепенно корректирует свое поведение для оптимизации результатов. Вот как робот учится ходить: ему не нужно, чтобы человек постоянно говорил ему «этот шаг верный, а тот - нет», ему нужно просто попробовать, упасть, корректировать и, в конечном итоге, он научится ходить сам, даже развив собственный уникальный поход.

Очевидно, принцип обучения с подкреплением ближе к человеческому интеллекту, как каждый младенец учится ходить, падая, учиться захватывать, исследуя, учиться захватывать звуки, учиться языку.

За взрывным ‘роботом с ударом вращения’ стоит обучение с подкреплением

Источник изображения: Yushu Technology

<<>>

Топовые мастера го и комментаторы не ожидали, что AlphaGo сделает ход в эту позицию, поскольку для человеческих игроков этот ход выглядел как ‘непонятный’. После игры Ли Седол признал, что он совершенно не учитывал этот ход.

AlphaGo не выучил свой ‘божественный ход’ из книг по го, а самостоятельно исследовал его через бесчисленные самоигры, эксперименты, долгосрочное планирование и оптимизацию стратегий, что является сутью обучения с подкреплением.

Ли Сысок, чей ритм нарушил AlphaGo с помощью “Божественного хода”

Источник изображения: AP

Обучение с подкреплением даже изменяет главное влияние на человеческий интеллект, подобно тому как после того, как AlphaGo продемонстрировал свой “божественный ход”, шахматисты начали изучать и исследовать методы игры в Го с использованием искусственного интеллекта. Ученые также пытаются понять механизмы обучения в человеческом мозге, используя алгоритмы и принципы обучения с подкреплением. Одним из достижений исследования Бато и Санто является создание вычислительной модели, объясняющей роль дофамина в принятии решений и обучении у человека.

Кроме того, обучение с подкреплением особенно хорошо справляется с комплексными правилами, изменчивыми состояниями окружающей среды и находит оптимальное решение, например, в игре в Го, автоматическом управлении автомобилем, управлении роботами и беседе с непонятливыми людьми.

Это самые передовые и популярные области применения искусственного интеллекта в настоящее время, особенно в области крупных языковых моделей, практически все ведущие крупные языковые модели используют метод обучения RLHF (усиление обучения из обратной связи человека), то есть человек оценивает ответы модели, и модель улучшается на основе обратной связи.

Но именно это беспокоит Бато: после того как крупные компании построят мост, они проверяют его безопасность, заставляя людей ходить по мосту туда и обратно.

«Предоставлять программное обеспечение сотням миллионов пользователей без каких-либо мер безопасности - это не ответственное поведение», - сказал Бато в интервью после получения награды.

«Развитие технологий должно сопровождаться контролем и уменьшением потенциального негативного воздействия, но я не вижу, чтобы эти компании по искусственному интеллекту действительно выполняли это». — добавил он.

AI топового уровня на самом деле беспокоится о чем?

Теория угрозы искусственного интеллекта никогда не прекращается, потому что ученые больше всего боятся потери контроля над созданным ими будущим.

В выступлениях Бато и Сандона нет обвинений в адрес текущих технологий искусственного интеллекта, зато они полны недовольства компаниями по искусственному интеллекту.

В интервью они все предупредили, что развитие искусственного интеллекта в настоящее время основано на том, что крупные компании стараются выпустить мощные, но ошибочные модели, собирая при этом большие средства, и затем продолжая вкладывать десятки миллиардов долларов в гонку вооружений чипов и данных.

Все крупные инвестиционные банки переоценивают отрасль искусственного интеллекта

Источник изображения: Goldman Sachs

Действительно, согласно исследованию Deutsche Bank, общие инвестиции крупных технологических гигантов в области искусственного интеллекта составляют около 3400 миллиардов долларов, что превышает годовой ВВП Греции. Лидер отрасли OpenAI оценивается в 2600 миллиардов долларов и готовится к запуску нового раунда привлечения инвестиций на сумму 400 миллиардов долларов.

Фактически, многие эксперты по искусственному интеллекту согласны с точкой зрения Бато и Сандтон.

Ранее бывший руководитель Microsoft Стивен Синовски заявил, что индустрия искусственного интеллекта попала в затруднительное положение, где для технологического прогресса приходится сжигать деньги, что не соответствует тенденции истории развития технологий, где стоимость постепенно снижается, а не повышается.

7 марта бывший CEO Google Эрик Шмидт, основатель Scale AI Алекс Уанг и директор Центра по безопасности ИИ Дэн Хендрикс опубликовали совместную предупредительную статью.

Три лидера технологической отрасли считают, что сегодняшнее положение в области развития искусственного интеллекта напоминает гонку ядерного оружия, которая породила Проект Манхэттен; компании по искусственному интеллекту тайно ведут свои собственные «проекты Манхэттен», их инвестиции в ИИ удваиваются каждый год в последние десять лет, и если не вмешается регулирование, ИИ может стать самой нестабильной технологией с момента создания ядерной бомбы.

“Стратегия сверхумного” и соавторы

Источник изображения: nationalsecurity.ai

Заур Бенджио, удостоившийся премии Тьюринга в 2019 году за глубокое обучение, также опубликовал в блоге длинную статью, предупреждая, что сегодняшняя отрасль искусственного интеллекта имеет ценность в несколько триллионов долларов, что привлекает капитал для погони и ограбления, и обладает достаточным воздействием, способным серьезно нарушить текущий мировой порядок.

Многие технически подкованные технологи считают, что сегодняшняя отрасль искусственного интеллекта отошла от глубокого изучения технологий, осмысленного рассмотрения интеллекта и бдительности по отношению к злоупотреблению технологиями, перешла к капиталоемкой модели стремления к прибыли, где просто тратят деньги на стопку микросхем.

«Строить огромные центры обработки данных, принимать деньги от пользователей и позволять им использовать не всегда безопасное программное обеспечение — не моя концепция мотивации», — сказал Бато в интервью после получения награды.

Из 30 стран, 75 экспертов по искусственному интеллекту совместно разработали первый выпуск «Международного научного отчета о безопасности передового искусственного интеллекта», в котором указано: «Методы управления рисками общего искусственного интеллекта часто основаны на таком предположении: разработчики и политики могут правильно оценить способности и потенциальное воздействие AGI моделей и систем. Однако научное понимание внутреннего функционирования, способностей и социального влияния AGI на самом деле очень ограничено.»

Предостережение Иеговы Иисуса

Источник изображения: Yoshua Bengio

Не трудно заметить, что сегодняшняя “теория угроз искусственного интеллекта” уже переключила свое внимание с технических аспектов на крупные компании.

Эксперты предупреждают крупные компании: вы тратите деньги, складываете материалы, настраиваете параметры, но действительно ли вы понимаете продукт, который вы разрабатываете? Это также происходит от аналогии с «строительством мостов» Бато и Сандтона, потому что технологии принадлежат всему человечеству, но капитал принадлежит только крупным компаниям.

Кроме того, область исследований Бато и Сандтона: обучение с подкреплением. Его принципы ближе к человеческому интеллекту и обладают «черным ящиком», особенно в глубоком обучении с подкреплением, где модель поведения искусственного интеллекта становится сложной и необъяснимой.

Это также вызывает беспокойство у ученых: помогать и свидетельствовать о развитии искусственного интеллекта, но трудно понять его намерения.

Лауреаты премии Тьюринга, которые занимались разработкой технологий глубокого обучения и обучения с подкреплением, не беспокоятся о развитии общего искусственного интеллекта (AGI), а озабочены вооруженным состязанием между крупными компаниями, которое может привести к ‘интеллектуальному взрыву’ в области AGI, случайно создав суперинтеллект (ASI). Различие между ними не только в техническом плане, оно также касается будущей судьбы человеческой цивилизации.

Превзойдя интеллект человека, ASI, уровень информации, скорость принятия решений, саморазвития превысит пределы понимания человека, если не провести чрезвычайно осторожное проектирование и управление ASI, это может стать последней и наиболее непреодолимой технологической точкой в истории человечества.

В эпоху безумия по поводу искусственного интеллекта эти ученые, возможно, являются самыми компетентными “проливать воду”. Ведь пятьдесят лет назад, когда компьютер был еще гигантским монстром, они уже начали исследования в области искусственного интеллекта, они сформировали настоящее из прошлого и имеют основания сомневаться в будущем.

Лидеры в области искусственного интеллекта столкнутся с окончанием в стиле Обен-Геймера?

Источник изображения: Экономист

В интервью The Economist в феврале главы DeepMind и Anthropic заявили:

Беспокойство за то, что станешь следующим Олденхаймером, мешает заснуть на ночь.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев