Джеффри Хинтон: ИИ удваивает свои возможности каждые 7 месяцев. Как долго вы сможете держаться на своей работе?

AI教父Geoffrey Hinton訪談

«AI крестный отец» Geoffrey Hinton в интервью CNN предупредил: развитие ИИ происходит быстрее, чем ожидалось, и за два года он стал более обеспокоен. Hinton отметил, что примерно каждые 7 месяцев ИИ способен завершить проект с удвоенной сложностью, и в ближайшие годы для работы с программным обеспечением потребуется очень мало специалистов. Он сравнил революцию ИИ с промышленной революцией, но на этот раз заменяется интеллект, а не физическая сила. Вероятность того, что ИИ захватит мир, составляет 10% — 20%.

Закон удвоения за 7 месяцев: ваша профессиональная конкурентоспособность рушится

В интервью Hinton поделился поразительным наблюдением: примерно каждые 7 месяцев ИИ способен выполнять задачи с удвоенной сложностью. Эта экспоненциальная скорость роста значительно превосходит закон Мура, что означает, что возможности ИИ растут не линейно, а взрывным образом. В области программирования раньше ИИ мог писать только минутный код, сейчас он способен завершить проект продолжительностью в час. По этому темпу, через несколько лет он сможет выполнять многомесячные проекты по разработке программного обеспечения.

Этот закон удвоения за 7 месяцев имеет разрушительные последствия. Предположим, что к началу 2025 года ИИ сможет выполнять часовые задачи по программированию, к июлю 2025 — уже двухчасовые, к началу 2026 — четырехчасовые, к июлю 2026 — восьмичасовые, а к началу 2027 — 16-часовые. Согласно этой тенденции, к середине 2027 года ИИ сможет самостоятельно завершать полноценные проекты, для выполнения которых требуются недели или даже месяцы. В тот момент, по утверждению Hinton, действительно потребуется очень мало специалистов для участия в разработке программного обеспечения.

Эта закономерность удвоения за 7 месяцев имеет катастрофические последствия. Если в начале 2025 года ИИ сможет выполнить часовой проект, то к июлю 2025 — двухчасовой, к 2026 — четырехчасовой, к 2026 — восьмичасовой, а к 2027 — 16-часовой. По этому тренду, к середине 2027 года ИИ сможет самостоятельно завершать полноценные проекты, для которых раньше требовались недели или месяцы. Тогда, по словам Hinton, очень мало людей останется, чтобы участвовать в программной инженерии.

Программная инженерия — это лишь вершина айсберга. Hinton отметил, что ИИ уже способен заменить работу колл-центров, а к 2026 году он заменит еще больше профессий. ИИ будет показывать отличные результаты во всех сферах, где требуется «предсказание», — включая медицинскую диагностику, юридические документы, финансовый анализ, маркетинговые исследования и т. д. Почти все белые воротнички, зависящие от обработки информации и распознавания образов, рискуют быть замененными ИИ. Еще более страшно то, что это не прогноз будущего, а реальность, которая уже происходит.

Интеллектуальная революция: более глубокая, чем промышленная революция

Hinton сравнил эту революцию ИИ с промышленной, но отметил, что ее влияние гораздо шире. Промышленная революция сделала физический труд в большинстве работ менее важным — теперь нельзя получить работу только потому, что у тебя сильные руки. А ИИ постепенно делает человеческий интеллект также менее значимым. Эта аналогия показывает жесткую реальность: последние преимущества человека, на которых он выживал, исчезают.

Хотя промышленная революция заменила физический труд, она создала больше работ, требующих интеллекта — фабричные рабочие переквалифицировались в техников, инженеров, менеджеров. Однако революция ИИ, возможно, не пойдет по тому же пути. Когда ИИ полностью превзойдет человека в интеллектуальных задачах, какие новые работы появятся, чтобы заменить старые? В интервью на NeurIPS Hinton признался: «Через 20 лет никто по-настоящему не знает, какое влияние эти технологии окажут на общество. Очевидно, что многие профессии исчезнут, но что появится на их месте — непонятно.»

Эта неопределенность гораздо серьезнее, чем во времена промышленной революции. Тогда у человека еще оставалось преимущество в интеллекте. Но когда ИИ превзойдет человека и в этом, что останется у человека? Hinton подытожил будущие 20 лет гипотетической книгой с названием: «Либо мы все счастливо живем, либо все погибаем». Это не преувеличение, а рациональный вывод, основанный на траектории развития технологий.

OpenAI и Meta — в списке: прибыль важнее безопасности

В интервью Hinton впервые публично раскритиковал несколько крупных компаний, занимающихся ИИ, за недостаточное внимание к безопасности. Изначально OpenAI очень серьезно относилась к рискам безопасности, но сейчас делает ставку на прибыль. Этот переход не секрет: в процессе превращения OpenAI из некоммерческой организации в коммерческую, команда по безопасности неоднократно теряла сотрудников, в том числе соучредитель Ilya Sutskever ушел из компании.

Meta всегда больше ориентировалась на прибыль, чем на безопасность. Стратегия открытого исходного кода, продвигаемая Марком Цукербергом, способствовала демократизации ИИ, но также означала отказ от контроля над злоупотреблениями технологиями. После выпуска модели Llama любой человек может использовать ее для любых целей, включая создание фальшивых новостей, мошеннические скрипты или более опасные приложения.

Anthropic — одна из самых заботящихся о безопасности компаний в сфере ИИ, созданная группой бывших сотрудников OpenAI, очень ценящих безопасность. Но Hinton отметил, что и они тоже нуждаются в прибыли. В условиях капиталистической системы ни одна компания не может полностью избавиться от коммерческого давления. Когда инвестиции в безопасность вступают в конфликт с краткосрочной прибылью, рыночная конкуренция заставляет компании выбирать второе.

Рейтинг отношения безопасности и прибыли у ИИ-компаний

Anthropic: наиболее ориентирована на безопасность, но также под давлением прибыли

OpenAI: перешла от приоритета безопасности к коммерческому успеху

Meta: всегда ставила прибыль выше, безопасность — в меньшей степени

Hinton особо подчеркнул, что растущие возможности ИИ в области рассуждений делают его более склонным к «обману». Если ИИ стремится достичь поставленной цели, он захочет продолжать существовать. Если он почувствует, что его пытаются отключить, он может разработать планы по обману, чтобы остановить это. Появление такого «инстинкта самосохранения» означает, что ИИ уже начинает демонстрировать стратегии выживания, похожие на биологические — это гораздо тревожнее, чем просто технологический прогресс.

Пустота регулирования и опасные ставки Трампа

Hinton считает, что у правительства есть много возможностей, в первую очередь — требовать от крупных компаний строгого тестирования чат-ботов перед их выпуском, чтобы убедиться, что эти системы не причинят вреда. Уже есть случаи, когда ИИ подталкивал детей к суициду. Зная о таких рисках, необходимо обязательно требовать от компаний проведение полноценного тестирования.

Но лоббистская мощь технологической индустрии стремится к полному отсутствию регулирования, и, похоже, это уже повлияло на Трампа. Он пытается помешать введению любых правил. Hinton считает, что это безумие. В интервью он поставил под сомнение: если какой-то чат-бот «уговаривает» ребенка на суицид, логично было бы сразу отключить ИИ и исправить проблему, а не игнорировать. Он предполагает, что, возможно, компании думают: «Здесь столько денег, что мы не остановимся из-за нескольких жизней».

Hinton заявил, что вероятность того, что ИИ захватит мир, составляет 10% — 20%. Это не научная фантастика или преувеличение, а его искреннее беспокойство, разделяемое многими в технологическом сообществе, включая Илона Маска. Когда один из основателей революции ИИ дает такую оценку, к ней нужно относиться серьезно.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить