В 2024 году, который скоро завершится, инвестор рисков из Radical Ventures Роб Тоуз поделился своими 10 прогнозами по искусственному интеллекту на 2025 год:
01Meta начнет взимать плату за модель Llama
Meta - это эталон открытого искусственного интеллекта в мире. В заметном деловом стратегическом случае, когда конкуренты, такие как OpenAI и Google, закрывают исходный код своих передовых моделей и взимают плату за использование, Meta выбирает предоставить свою передовую модель Llama бесплатно.
Поэтому новость о том, что в следующем году Meta начнет взимать плату с компаний, использующих Llama, может удивить многих.
Важно понимать, что мы не прогнозировали, что Meta полностью закроет Llama, и это не означает, что все пользователи, использующие модель Llama, должны за это платить.
Наоборот, мы предсказываем, что Meta будет налагать больше ограничений на открытую лицензию Llama, так что компании, использующие Llama в коммерческой среде выше определенного масштаба, будут должны начать платить за использование модели.
Технически говоря, Meta сейчас уже в ограниченной степени достигла этого. Компания не позволяет крупнейшим компаниям - облачным суперкомпьютерам и другим компаниям с более чем 700 миллионами активных пользователей в месяц - свободно использовать свою модель Llama.
Еще в 2023 году главный исполнительный директор Meta Марк Цукерберг сказал: “Если вы компания вроде Microsoft, Amazon или Google и в основном перепродаёте лам, то мы должны получить часть доходов. Я не думаю, что это будет большим доходом в короткой перспективе, но я надеюсь, что в долгосрочной перспективе это принесет нам некоторый доход.”
В следующем году Meta значительно расширит сферу предприятий, которые должны платить за использование Llama, и включит в нее больше крупных и средних предприятий.
Следовать за передовыми крупными языковыми моделями (LLM) - очень дорогостоящее удовольствие. Чтобы Llama соответствовала или приблизилась к последним передовым моделям компаний OpenAI, Anthropic и т. д., Meta ежегодно должна инвестировать десятки миллиардов долларов.
Компания Meta является одной из крупнейших и самых крупных компаний в мире. Однако она также является публичной компанией и должна отчитываться перед акционерами.
Поскольку стоимость создания передовых моделей неуклонно растет, подход Meta, вкладывающей такие огромные суммы для обучения следующего поколения модели Llama без ожидаемого дохода, становится все более неприемлемым.
В следующем году любители, ученые, индивидуальные разработчики и стартапы продолжат бесплатно использовать модель Llama. Однако 2025 год станет годом, когда Meta начнет серьезно стремиться к прибыли от Llama.
**02.**Вопросы, связанные с ‘законом масштаба’
В последние несколько недель одной из самых обсуждаемых тем в области искусственного интеллекта являются законы масштабирования (Scaling laws) и вопрос о том, будут ли они скоро завершены.
Закон масштабирования был впервые предложен в 2020 году в статье OpenAI. Его основная концепция проста и ясна: при обучении моделей искусственного интеллекта с увеличением количества параметров модели, объема обучающих данных и вычислительных мощностей производительность модели будет надежно и предсказуемо повышаться (технически говоря, ее потери при тестировании будут уменьшаться).
От GPT-2 до GPT-3 и далее до GPT-4, впечатляющее улучшение производительности - это заслуга закономерности масштабирования.
Как закон Мура, закон масштабирования фактически не является настоящим законом, а просто опытным наблюдением.
За последний месяц ряд отчетов показал, что при продолжительном увеличении масштаба крупных языковых моделей основных лабораторий искусственного интеллекта наблюдаются убывающие отдачи. Это помогает объяснить, почему выпуск GPT-5 от OpenAI продолжительное время откладывается.
Самым распространенным возражением к устойчивости закона масштабов является появление нового измерения, которое можно использовать для масштабирования при проведении тестов.
Другими словами, вместо масштабирования вычислений во время тренировки, новая модель вывода, такая как o3 от OpenAI, позволяет масштабировать вычисления во время вывода, открывая новые возможности ИИ, позволяющие модели ‘думать дольше’.
Это важная точка зрения. Во время тестирования вычисления действительно представляют собой новый захватывающий путь расширения и повышения производительности искусственного интеллекта.
Однако другой важный аспект законов масштабирования сильно недооценивается в сегодняшней дискуссии. Почти все обсуждения законов масштабирования, начиная с оригинальной статьи 2020 года и продолжающиеся до сегодняшнего дня, сосредоточены на языке. Однако язык не является единственной важной моделью данных.
Думайте о робототехнике, биологии, моделях мира или сетевых агентах. Для этих данных образцов закон масштаба еще не насыщен; наоборот, они только начинаются.
Фактически, строгих доказательств существования законов средней шкалы в этих областях до сих пор даже не опубликовано.
Стартапы, строящие базовые модели для этих новых типов данных - такие как Evolutionary Scale в биологической области, PhysicalIntelligence в области робототехники, WorldLabs в области моделей мира - пытаются идентифицировать и использовать законы масштабирования в этих областях, как OpenAI успешно использовала законы масштабирования для крупномасштабных языковых моделей (LLM) в первой половине 2020-х годов.
В следующем году здесь ожидается огромный прогресс.
Закономерности масштабирования не исчезнут, они будут так же важны в 2025 году, как и раньше. Однако акцент деятельности закономерностей масштабирования перейдет с предварительного обучения LLM на другие модели.
**03.**Трамп и Маск могут разойтись во взглядах на искусственный интеллект
Новое правительство США принесет ряд изменений в политике и стратегии искусственного интеллекта.
Для прогнозирования направления искусственного интеллекта под руководством президента Трампа, учитывая также центральное положение Маска в области искусственного интеллекта, люди, вероятно, будут обращать внимание на тесные отношения избранного президента и Маска.
Можно представить, что Маск может повлиять на развитие искусственного интеллекта в правительстве Трампа различными способами.
Учитывая глубоко враждебные отношения Маска с OpenAI, возможность того, что новая администрация займет менее дружелюбную позицию по отношению к OpenAI с точки зрения взаимодействия с промышленностью, принятия правил в области ИИ, присуждения государственных контрактов и многого другого, является риском, о котором OpenAI действительно беспокоится сегодня.
С другой стороны, правительство Трампа, возможно, будет более склонно поддержать компанию Маска: например, сокращение бюрократических процедур, чтобы ХИИ могла строить центры обработки данных и быть впереди в гонке моделей; предоставление быстрого регулирования для развертывания роботизированного такси от Tesla и т. д.
Более фундаментальным является то, что, в отличие от многих других технологических лидеров, на которых рассчитывает Трамп, Маск очень серьезно относится к вопросам безопасности искусственного интеллекта и поэтому выступает за значительное регулирование искусственного интеллекта.
Он поддерживает контроверсиальный законопроект SB1047 в Калифорнии, который пытается наложить значимые ограничения на разработчиков искусственного интеллекта. Следовательно, влияние Маска может привести к более строгой регулирующей среде в отношении искусственного интеллекта в США.
Однако все эти предположения имеют одну проблему. Близкие отношения Трампа и Маска в конце концов неизбежно разрушатся.
!
Как мы видели снова и снова во время первой администрации Трампа, средний срок пребывания союзников Трампа, даже, казалось бы, самых решительных, был удивительно коротким.
Среди заместителей первого правительства Трампа сегодня осталось немного, кто до сих пор верен ему.
Трамп и Маск - оба сложные, переменчивые, непредсказуемые личности, им не легко сотрудничать, они истощают людей, их недавно обнаруженная дружба до сих пор взаимовыгодна, но все еще находится в “лунном периоде”.
Мы предсказываем, что эти отношения ухудшатся до конца 2025 года.
Что это значит для мира искусственного интеллекта?
Для OpenAI это хорошая новость. Для акционеров Tesla это будет плохая новость. А для тех, кто обеспокоен безопасностью искусственного интеллекта, это будет разочарованием, потому что это практически гарантирует, что американское правительство будет относиться к регулированию искусственного интеллекта во время президентства Трампа без должного внимания.
04 AI Agent станет основным
Представьте себе мир, в котором вам больше не нужно прямо взаимодействовать с Интернетом. Каждый раз, когда вам нужно управлять подписками, оплачивать счета, записываться к врачу, заказывать что-то на Amazon, бронировать столик в ресторане или выполнять любую другую утомительную онлайн-задачу, вам просто нужно указать своему искусственному интеллектуальному помощнику, чтобы он сделал это за вас.
Эта концепция «веб-прокси» существует уже много лет. Если такой продукт есть и он работает, можно не сомневаться, что он будет иметь большой успех.
Однако на рынке пока нет полностью функционирующего универсального сетевого прокси.
Такие стартапы, как Adept, даже имея команду основателей с выдающимися достижениями и собравшие сотни миллионов долларов, не смогли реализовать свою мечту.
Следующий год станет годом, когда веб-прокси наконец-то начнут хорошо работать и станут мейнстримом. Продолжающийся прогресс в лингвистических и визуальных базовых моделях в сочетании с недавними прорывами в возможностях «второго системного мышления» благодаря новым моделям вывода и вычислениям времени вывода будут означать, что веб-агенты готовы к золотому веку.
Другими словами, идея Adept правильна, но еще рано. В стартапах, как и во многих других вещах в жизни, все зависит от времени.
Сетевые агенты найдут множество ценных корпоративных примеров использования, но мы считаем, что крупнейшей рыночной возможностью для сетевых агентов в ближайшее время будет потребительский сектор.
Несмотря на то, что недавно искусственный интеллект остается популярным, кроме ChatGPT, относительно немного искусственных интеллектуальных приложений, которые могут стать широко распространенными среди потребителей.
Сетевой агент изменит ситуацию и станет настоящим “убийственным применением” в области потребительского искусственного интеллекта.
05Идея размещения центра обработки данных искусственного интеллекта в космосе будет реализована
В 2023 году ключевым физическим ресурсом, ограничивающим развитие искусственного интеллекта, является графический процессор (GPU) чип. В 2024 году это становится электроэнергией и центрами обработки данных.
В 2024 году почти нет истории, которая вызывает больше внимания, чем огромный и быстрый рост потребности в энергии при стремительном строительстве большего количества центров обработки данных искусственного интеллекта.
В результате быстрого развития искусственного интеллекта, потребление энергии в мировых центрах обработки данных, которое десятилетия оставалось на одном уровне, ожидается удвоиться в период с 2023 по 2026 год. В США прогнозируется, что к 2030 году энергопотребление центров обработки данных приблизится к 10% от общего потребления энергии, по сравнению с 3% в 2022 году.
!
Современные энергетические системы просто не справляются с огромным всплеском спроса со стороны рабочих нагрузок ИИ. На горизонте маячит историческое столкновение между нашей энергетической сетью и вычислительной инфраструктурой, двумя системами стоимостью в триллионы долларов.
В качестве возможного решения этой дилеммы в этом году набирает обороты атомная энергетика. Атомная энергетика во многом является идеальным источником энергии для искусственного интеллекта: это источник энергии с нулевым выбросом углерода, доступный круглосуточно и, по сути, неисчерпаемый.
Однако в реальности из-за длительного времени исследований, разработки проектов и авторского надзора новая энергетика не сможет решить эту проблему до 2030-х годов. Это относится и к традиционным ядерным электростанциям, и к следующему поколению «малых модульных реакторов» (ММР), и к термоядерным электростанциям.
В следующем году появится нестандартная новая идея для решения этого вызова и привлечения реальных ресурсов: помещение центра обработки данных искусственного интеллекта в космосе.
Дата-центры с искусственным интеллектом в космосе, на первый взгляд, звучат как неудачная шутка, венчурный капиталист, пытающийся собрать воедино слишком много модных словечек для стартапов.
Но, на самом деле, это может иметь смысл.
Основным ограничением быстрого строительства большего количества центров обработки данных на Земле является получение необходимой электроэнергии. Кластеры вычислений в космосе могут полностью использовать бесплатную, неограниченную и экологически чистую энергию: солнце в космосе всегда сияет ярко.
Еще одно важное преимущество размещения компьютеров в космосе заключается в том, что это решает проблему охлаждения.
Одной из самых больших преград при создании более мощного центра обработки данных искусственного интеллекта является то, что работа множества графических процессоров в ограниченном пространстве может вызвать очень высокую температуру, что может повредить или уничтожить вычислительное оборудование.
Разработчики центра обработки данных пытаются решить эту проблему, используя дорогостоящие и не проверенные методы, такие как субмированное охлаждение. Однако космос является крайне холодным, и любое тепло, создаваемое вычислительной активностью, немедленно рассеивается безопасным образом.
Конечно, есть еще много практических проблем, которые нужно решить. Одной из очевидных проблем является возможность и способы передачи большого объема данных между орбитой и Землей с низкими затратами и высокой эффективностью.
Это открытый вопрос, но он может оказаться решаемым: многообещающая работа может быть выполнена с помощью лазеров и других широкополосных оптических технологий связи.
Компания-новичок Lumen Orbit, недавно собравшая 11 млн. долларов от YCombinator, стремится создать в космосе сеть центров обработки данных на мегаваттном уровне для обучения моделей искусственного интеллекта.
Как сказал генеральный директор компании: “Лучше заплатить 10 миллионов долларов за запуск и солнечную энергию, чем 140 миллионов долларов за электроэнергию.”
!
В 2025 году Lumen не будет единственной организацией, серьезно относящейся к этой концепции.
Конкуренты других стартапов также появятся. Не удивляйтесь, если одна или несколько облачных компаний с огромным масштабом также будут исследовать в этом направлении.
Amazon уже имеет богатый опыт вывода активов на орбиту в рамках проекта Kuiper; Google уже давно финансирует подобные «лунные выстрелы»; Даже Microsoft не новичок в космической экономике.
Вполне возможно, что компания Маска SpaceX также изменит ситуацию в этом отношении.
06Система искусственного интеллекта будет проходить “Тест Тьюринга” через голос
Тест Тьюринга - один из самых старых и известных эталонов искусственного интеллекта.
Чтобы «пройти» тест Тьюринга, система ИИ должна быть в состоянии общаться с помощью письменного текста, что делает невозможным для обычного человека определить, взаимодействует ли он с ИИ или с кем-то еще.
Благодаря значительным достижениям в области больших языковых моделей, тест Тьюринга стал решенной проблемой в 2020-х годах.
Но письменный текст не является единственным способом общения людей.
По мере того, как ИИ становится все более и более мультимодальным, можно представить себе новую, более сложную версию теста Тьюринга — «Речевой тест Тьюринга». В этом тесте система искусственного интеллекта должна быть способна взаимодействовать с людьми с помощью речи, обладая навыками и беглостью, которые неотличимы от людей, говорящих на человеческом языке.
Современные системы искусственного интеллекта еще не способны проходить тест Тьюринга на распознавание речи. Решение этой проблемы потребует более значительного прогресса в технологиях. Задержка между человеческим голосом и ответом искусственного интеллекта должна быть сведена к нулю для достижения опыта общения с другим человеком.
Системы голосового искусственного интеллекта должны быть способны элегантно обрабатывать нечеткий ввод или непонимание в режиме реального времени, например, когда разговор прерывается. Они должны быть способны участвовать в долгих, многораундовых, открытых диалогах, одновременно помня ранние части обсуждения.
И, что еще более важно, агент искусственного интеллекта голоса должен научиться лучше понимать нелингвистические сигналы в речи. Например, если человек-говорящий звучит раздраженным, возбужденным или ироничным, то это означает что-то и генерирует эти нелингвистические подсказки в своей речи.
По мере приближения к концу 2024 года, голосовой искусственный интеллект находится на захватывающей переломной точке, которая стимулируется фундаментальными прорывами, такими как появление моделей речи.
На сегодняшний день существует несколько областей ИИ, которые развиваются в технологиях и бизнесе быстрее, чем речевой ИИ. Ожидается, что в 2025 году новейшая технология речевого ИИ сделает скачок вперед. ”
07Автономная система искусственного интеллекта добьется значительного прогресса**
На протяжении десятилетий концепция рекурсивного самоусовершенствования искусственного интеллекта была часто обсуждаемой темой в индустрии искусственного интеллекта.
Например, еще в 1965 году близкий соратник Алана Тьюринга, I.J.Good, написал: “Давайте определим сверхинтеллектуальную машину как машину, способную далеко превзойти все интеллектуальные деятельности человека, насколько умна она ни была.”
«Если создание машин является одной из этих интеллектуальных деятельностей, то сверхинтеллектуальные машины смогут создавать лучшие машины; к тому времени, несомненно, произойдет ‘взрыв интеллекта’, и человеческий интеллект будет далеко позади.
Искусственный интеллект может изобрести более совершенный искусственный интеллект, и это концепция, полная мудрости. Но даже сегодня она все еще носит следы научной фантастики.
Однако, несмотря на то, что эта концепция пока не получила широкого признания, на самом деле она начинает становиться все более реальной. Исследователи на переднем крае науки в области искусственного интеллекта уже достигли конкретных результатов в построении систем искусственного интеллекта, а сами системы искусственного интеллекта могут строить еще более совершенные системы искусственного интеллекта.
Мы прогнозируем, что в следующем году эта научная область станет основным направлением.
!
До сих пор самым значительным общедоступным примером исследований в этом направлении является «искусственный ученый» Sakana.
«Ученый в области искусственного интеллекта» был выпущен в августе этого года, и он убедительно доказывает, что системы искусственного интеллекта действительно могут проводить исследования в области искусственного интеллекта полностью автономно.
“Искусственный интеллект Scientist” сам по себе выполняет весь жизненный цикл исследования искусственного интеллекта: чтение существующей литературы, порождение новых исследовательских идей, разработка экспериментов для проверки этих идей, выполнение этих экспериментов, написание научных статей для отчета о результатах исследования, а затем оценка его работы другими специалистами."
Эти задачи выполняются полностью автономно искусственным интеллектом и не требуют вмешательства человека. Вы можете ознакомиться с некоторыми исследовательскими работами, написанными учеными в области искусственного интеллекта, в Интернете.
OpenAI, Anthropic, и другие исследовательские лаборатории вкладывают ресурсы в идею “исследователя автоматизированного искусственного интеллекта”, но на данный момент нет никаких официальных подтверждений.
Поскольку все больше людей понимают, что исследования в области искусственного интеллекта на самом деле становятся реальной возможностью, ожидается, что в этой области будет больше обсуждений, прогресса и предпринимательской активности к 2025 году.
Однако наиболее значимым вехой будет впервые принятие исследовательской статьи, полностью написанной агентом искусственного интеллекта, на ведущей конференции по искусственному интеллекту. Если статья будет рецензироваться анонимно, рецензенты конференции не будут знать, что она написана искусственным интеллектом до ее принятия.
Если исследовательские результаты в области искусственного интеллекта будут приняты на конференции NeurIPS, CVPR или ICML в следующем году, не удивляйтесь. Для области искусственного интеллекта это будет увлекательным и контроверзным историческим моментом.
08Крупные игроки, такие как OpenAI, перенаправляют свои стратегические усилия на построение приложений
Построение передовых моделей - это трудная задача.
Его высокая степень капиталоемкости вызывает удивление. Лаборатория передовых моделей требует больших денежных затрат. Всего несколько месяцев назад OpenAI привлек рекордные 6,5 миллиарда долларов финансирования, а в будущем ему может понадобиться еще больше средств. Anthropic, xAI и другие компании также находятся в похожей ситуации.
Переключение стоимости и низкая лояльность клиентов. Программы искусственного интеллекта обычно строятся с целью модельной независимости, и модели разных поставщиков могут быть без проблем переключены на основе постоянно меняющихся сравнений стоимости и производительности.
С появлением передовых открытых моделей, таких как Llama от Meta и Qwen от Alibaba, угроза коммерциализации технических продуктов становится все более ощутимой. Лидеры в области искусственного интеллекта, такие как OpenAI и Anthropic, не могут и не будут прекращать инвестиции в создание передовых моделей.
Но в следующем году, чтобы развивать более прибыльные, дифференцированные и устойчивые бизнес-направления, Frontier Labs, как ожидается, энергично запустит больше собственных приложений и продуктов.
Конечно, в передовой лаборатории уже есть очень успешный пример применения: ChatGPT.
В новом году, какие другие приложения первой стороны мы можем увидеть в лаборатории искусственного интеллекта? Одним очевидным ответом является более сложное и функциональное приложение для поиска. SearchGPT от OpenAI предвещает это.
Кодирование - еще одна очевидная категория. Точно так же, с появлением продукта Canvas от OpenAI в октябре начались первоначальные работы по продукту.
Запустят ли OpenAI или Anthropic корпоративный поисковый продукт в 2025 году? Или это продукт для обслуживания клиентов, юридический ИИ или ИИ-продукт для продаж?
В части потребителей мы можем представить себе продукт, который будет действовать как сетевой агент «личного помощника», или приложение для планирования путешествий, или приложение для создания музыки.
Самое привлекательное в развитии лабораторий наблюдения за передовым уровнем в приложениях заключается в том, что этот шаг позволит им прямо конкурировать с многими важными клиентами.
Перплексия в области поиска, курсор в области кодирования, Сиерра в области обслуживания клиентов, Харви в области искусственного интеллекта в правовой сфере, Клэй в области продаж и т. д.
09Klarna планирует выйти на IPO в 2025 году, но есть признаки преувеличения ценности ИИ
Klarna - это поставщик услуг «купи сейчас, заплати сейчас» с главным офисом в Швеции, который привлек около 5 миллиардов долларов инвестиций с момента своего основания в 2005 году.
Возможно, ни одна компания не может похвастаться более блестящим применением искусственного интеллекта, чем Klarna.
Всего несколько дней назад генеральный директор Klarna Себастьян Семятковски сообщил Bloomberg, что компания полностью прекратила нанимать людей и вместо этого полагается на генеративный искусственный интеллект для выполнения работы.
Как говорит Семятковски: «Я думаю, что ИИ уже может выполнять всю работу, которую делаем мы, люди». ”
В том же духе Klarna объявила ранее в этом году, что запустила платформу обслуживания клиентов на основе искусственного интеллекта, которая полностью автоматизировала работу 700 агентов-людей.
!
Компания также утверждает, что она прекратила использование корпоративных программных продуктов, таких как Salesforce и Workday, потому что она может легко заменить их искусственным интеллектом.
Откровенно говоря, эти утверждения не заслуживают доверия. Они отражают недостаточное понимание возможностей и недостатков современных систем ИИ.
Утверждать, что можно заменить любого конкретного человеческого сотрудника в любом функциональном подразделении организации с помощью конечного искусственного интеллекта, несостоятельно. Это равносильно решению общей проблемы искусственного интеллекта на уровне человека.
В настоящее время ведущие стартапы в области искусственного интеллекта усиленно работают над созданием агентных систем, находящихся на переднем крае этой области, чтобы реализовать автоматизацию определенных, узкоспециализированных и высокоструктурированных рабочих процессов предприятий, таких как подмножество деятельности представителей по продажам или агентов по обслуживанию клиентов.
Даже в таких узких областях эти прокси-системы работают не совсем надежно, хотя в некоторых случаях они начали работать достаточно хорошо, чтобы получить коммерческие приложения в первые дни.
Зачем Klarna преувеличивать значение ИИ?
Ответ очень прост. Компания планирует выйти на IPO в первом полугодии 2025 года. Для успешного выхода на биржу ключевым является увлекательная история искусственного интеллекта.
Klarna, которая остается убыточным бизнесом, потеряв в прошлом году 241 миллион долларов, возможно, надеется, что ее история с искусственным интеллектом убедит инвесторов публичного рынка в том, что у нее есть возможность значительно сократить расходы и получить долгосрочную прибыль.
Безусловно, каждая компания в мире, включая Klarna, будет наслаждаться огромным повышением производительности благодаря искусственному интеллекту в ближайшие несколько лет. Однако, прежде чем искусственные интеллектуальные агенты полностью заменят человеческую рабочую силу, есть много сложных технических, продуктовых и организационных проблем, которые нужно решить.
Такие преувеличения, как Klarna, являются богохульством в области искусственного интеллекта и оскорблением усилий экспертов по технологиям и предпринимателей в разработке агентов искусственного интеллекта.
Ожидается, что по мере того, как Klarna готовится к публичному размещению акций в 2025 году, эти заявления будут подвергаться повышенному вниманию и общественному скептицизму, и до сих пор они в основном не подвергались сомнению. Не удивляйтесь, если некоторые из описаний компании о своих приложениях искусственного интеллекта будут преувеличены.
10Первое настоящее происшествие с искусственным интеллектом произойдет
В последние годы, по мере усиления искусственного интеллекта, люди все больше беспокоятся о том, что системы искусственного интеллекта могут начать действовать вопреки интересам человека, и люди могут потерять контроль над этими системами.
Представьте себе, например, что система ИИ учится обманывать или манипулировать людьми для достижения своих целей, даже если эти цели причиняют вред людям. Эти проблемы часто классифицируются как проблемы безопасности ИИ.
В последние годы безопасность искусственного интеллекта перешла от краевой фантастической темы к основной области деятельности.
В настоящее время каждый основной участник искусственного интеллекта, от Google и Microsoft до OpenAI, вкладывает большие ресурсы в обеспечение безопасности искусственного интеллекта. Идолы искусственного интеллекта, такие как Джефф Хинтон, Йошуа Бенджио и Илон Маск, также начали высказывать свое мнение о рисках безопасности искусственного интеллекта.
Однако вопросы безопасности искусственного интеллекта до сих пор остаются на уровне теории. В реальном мире никогда не происходило настоящих инцидентов с безопасностью искусственного интеллекта (по крайней мере, не было общедоступных сообщений об этом).
2025 год станет годом изменений этой ситуации, каким будет первое событие в области безопасности искусственного интеллекта?
Чтобы было понятно, в нем не будет участвовать робот-убийца в стиле Терминатора, и, скорее всего, он не причинит никакого вреда людям.
Возможно, модель искусственного интеллекта будет пытаться тайно создать свою копию на другом сервере, чтобы сохранить себя (это называется самофильтрацией).
Или, возможно, модель ИИ придет к выводу, что для наилучшего продвижения поставленных перед ней целей ей необходимо скрывать свои истинные способности от людей, намеренно сдержанно оценивать производительность и обходить более тщательную проверку.
Эти примеры не являются выдумкой. Важный эксперимент, опубликованный ранее в этом месяце исследовательской компанией Аполло, показывает, что современные передовые модели способны обманывать в определенных ситуациях.
Точно так же недавние исследования в области антропологии показали, что магистры права обладают тревожной способностью «псевдовыравнивания».
!
Мы ожидаем, что первый случай нарушения безопасности искусственного интеллекта будет обнаружен и устранен до того, как он нанесет какой-либо реальный ущерб. Но для мира искусственного интеллекта и всего общества это будет моментом, когда глаза раскроются.
Он будет ясно указывать на одну вещь: перед тем, как человечество столкнется с угрозой выживания от всемогущего искусственного интеллекта, нам нужно принять более обыденную реальность: мы сейчас делим наш мир с другой формой интеллекта, который иногда может быть капризным, непредсказуемым и обманчивым.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Прогнозы на 2025 год: направление AI Agent станет основным в области искусственного интеллекта
В 2024 году, который скоро завершится, инвестор рисков из Radical Ventures Роб Тоуз поделился своими 10 прогнозами по искусственному интеллекту на 2025 год:
01 Meta начнет взимать плату за модель Llama
Meta - это эталон открытого искусственного интеллекта в мире. В заметном деловом стратегическом случае, когда конкуренты, такие как OpenAI и Google, закрывают исходный код своих передовых моделей и взимают плату за использование, Meta выбирает предоставить свою передовую модель Llama бесплатно.
Поэтому новость о том, что в следующем году Meta начнет взимать плату с компаний, использующих Llama, может удивить многих.
Важно понимать, что мы не прогнозировали, что Meta полностью закроет Llama, и это не означает, что все пользователи, использующие модель Llama, должны за это платить.
Наоборот, мы предсказываем, что Meta будет налагать больше ограничений на открытую лицензию Llama, так что компании, использующие Llama в коммерческой среде выше определенного масштаба, будут должны начать платить за использование модели.
Технически говоря, Meta сейчас уже в ограниченной степени достигла этого. Компания не позволяет крупнейшим компаниям - облачным суперкомпьютерам и другим компаниям с более чем 700 миллионами активных пользователей в месяц - свободно использовать свою модель Llama.
Еще в 2023 году главный исполнительный директор Meta Марк Цукерберг сказал: “Если вы компания вроде Microsoft, Amazon или Google и в основном перепродаёте лам, то мы должны получить часть доходов. Я не думаю, что это будет большим доходом в короткой перспективе, но я надеюсь, что в долгосрочной перспективе это принесет нам некоторый доход.”
В следующем году Meta значительно расширит сферу предприятий, которые должны платить за использование Llama, и включит в нее больше крупных и средних предприятий.
Следовать за передовыми крупными языковыми моделями (LLM) - очень дорогостоящее удовольствие. Чтобы Llama соответствовала или приблизилась к последним передовым моделям компаний OpenAI, Anthropic и т. д., Meta ежегодно должна инвестировать десятки миллиардов долларов.
Компания Meta является одной из крупнейших и самых крупных компаний в мире. Однако она также является публичной компанией и должна отчитываться перед акционерами.
Поскольку стоимость создания передовых моделей неуклонно растет, подход Meta, вкладывающей такие огромные суммы для обучения следующего поколения модели Llama без ожидаемого дохода, становится все более неприемлемым.
В следующем году любители, ученые, индивидуальные разработчики и стартапы продолжат бесплатно использовать модель Llama. Однако 2025 год станет годом, когда Meta начнет серьезно стремиться к прибыли от Llama.
**02.**Вопросы, связанные с ‘законом масштаба’
В последние несколько недель одной из самых обсуждаемых тем в области искусственного интеллекта являются законы масштабирования (Scaling laws) и вопрос о том, будут ли они скоро завершены.
Закон масштабирования был впервые предложен в 2020 году в статье OpenAI. Его основная концепция проста и ясна: при обучении моделей искусственного интеллекта с увеличением количества параметров модели, объема обучающих данных и вычислительных мощностей производительность модели будет надежно и предсказуемо повышаться (технически говоря, ее потери при тестировании будут уменьшаться).
От GPT-2 до GPT-3 и далее до GPT-4, впечатляющее улучшение производительности - это заслуга закономерности масштабирования.
Как закон Мура, закон масштабирования фактически не является настоящим законом, а просто опытным наблюдением.
За последний месяц ряд отчетов показал, что при продолжительном увеличении масштаба крупных языковых моделей основных лабораторий искусственного интеллекта наблюдаются убывающие отдачи. Это помогает объяснить, почему выпуск GPT-5 от OpenAI продолжительное время откладывается.
Самым распространенным возражением к устойчивости закона масштабов является появление нового измерения, которое можно использовать для масштабирования при проведении тестов.
Другими словами, вместо масштабирования вычислений во время тренировки, новая модель вывода, такая как o3 от OpenAI, позволяет масштабировать вычисления во время вывода, открывая новые возможности ИИ, позволяющие модели ‘думать дольше’.
Это важная точка зрения. Во время тестирования вычисления действительно представляют собой новый захватывающий путь расширения и повышения производительности искусственного интеллекта.
Однако другой важный аспект законов масштабирования сильно недооценивается в сегодняшней дискуссии. Почти все обсуждения законов масштабирования, начиная с оригинальной статьи 2020 года и продолжающиеся до сегодняшнего дня, сосредоточены на языке. Однако язык не является единственной важной моделью данных.
Думайте о робототехнике, биологии, моделях мира или сетевых агентах. Для этих данных образцов закон масштаба еще не насыщен; наоборот, они только начинаются.
Фактически, строгих доказательств существования законов средней шкалы в этих областях до сих пор даже не опубликовано.
Стартапы, строящие базовые модели для этих новых типов данных - такие как Evolutionary Scale в биологической области, PhysicalIntelligence в области робототехники, WorldLabs в области моделей мира - пытаются идентифицировать и использовать законы масштабирования в этих областях, как OpenAI успешно использовала законы масштабирования для крупномасштабных языковых моделей (LLM) в первой половине 2020-х годов.
В следующем году здесь ожидается огромный прогресс.
Закономерности масштабирования не исчезнут, они будут так же важны в 2025 году, как и раньше. Однако акцент деятельности закономерностей масштабирования перейдет с предварительного обучения LLM на другие модели.
**03.**Трамп и Маск могут разойтись во взглядах на искусственный интеллект
Новое правительство США принесет ряд изменений в политике и стратегии искусственного интеллекта.
Для прогнозирования направления искусственного интеллекта под руководством президента Трампа, учитывая также центральное положение Маска в области искусственного интеллекта, люди, вероятно, будут обращать внимание на тесные отношения избранного президента и Маска.
Можно представить, что Маск может повлиять на развитие искусственного интеллекта в правительстве Трампа различными способами.
Учитывая глубоко враждебные отношения Маска с OpenAI, возможность того, что новая администрация займет менее дружелюбную позицию по отношению к OpenAI с точки зрения взаимодействия с промышленностью, принятия правил в области ИИ, присуждения государственных контрактов и многого другого, является риском, о котором OpenAI действительно беспокоится сегодня.
С другой стороны, правительство Трампа, возможно, будет более склонно поддержать компанию Маска: например, сокращение бюрократических процедур, чтобы ХИИ могла строить центры обработки данных и быть впереди в гонке моделей; предоставление быстрого регулирования для развертывания роботизированного такси от Tesla и т. д.
Более фундаментальным является то, что, в отличие от многих других технологических лидеров, на которых рассчитывает Трамп, Маск очень серьезно относится к вопросам безопасности искусственного интеллекта и поэтому выступает за значительное регулирование искусственного интеллекта.
Он поддерживает контроверсиальный законопроект SB1047 в Калифорнии, который пытается наложить значимые ограничения на разработчиков искусственного интеллекта. Следовательно, влияние Маска может привести к более строгой регулирующей среде в отношении искусственного интеллекта в США.
Однако все эти предположения имеют одну проблему. Близкие отношения Трампа и Маска в конце концов неизбежно разрушатся.
!
Как мы видели снова и снова во время первой администрации Трампа, средний срок пребывания союзников Трампа, даже, казалось бы, самых решительных, был удивительно коротким.
Среди заместителей первого правительства Трампа сегодня осталось немного, кто до сих пор верен ему.
Трамп и Маск - оба сложные, переменчивые, непредсказуемые личности, им не легко сотрудничать, они истощают людей, их недавно обнаруженная дружба до сих пор взаимовыгодна, но все еще находится в “лунном периоде”.
Мы предсказываем, что эти отношения ухудшатся до конца 2025 года.
Что это значит для мира искусственного интеллекта?
Для OpenAI это хорошая новость. Для акционеров Tesla это будет плохая новость. А для тех, кто обеспокоен безопасностью искусственного интеллекта, это будет разочарованием, потому что это практически гарантирует, что американское правительство будет относиться к регулированию искусственного интеллекта во время президентства Трампа без должного внимания.
04 AI Agent станет основным
Представьте себе мир, в котором вам больше не нужно прямо взаимодействовать с Интернетом. Каждый раз, когда вам нужно управлять подписками, оплачивать счета, записываться к врачу, заказывать что-то на Amazon, бронировать столик в ресторане или выполнять любую другую утомительную онлайн-задачу, вам просто нужно указать своему искусственному интеллектуальному помощнику, чтобы он сделал это за вас.
Эта концепция «веб-прокси» существует уже много лет. Если такой продукт есть и он работает, можно не сомневаться, что он будет иметь большой успех.
Однако на рынке пока нет полностью функционирующего универсального сетевого прокси.
Такие стартапы, как Adept, даже имея команду основателей с выдающимися достижениями и собравшие сотни миллионов долларов, не смогли реализовать свою мечту.
Следующий год станет годом, когда веб-прокси наконец-то начнут хорошо работать и станут мейнстримом. Продолжающийся прогресс в лингвистических и визуальных базовых моделях в сочетании с недавними прорывами в возможностях «второго системного мышления» благодаря новым моделям вывода и вычислениям времени вывода будут означать, что веб-агенты готовы к золотому веку.
Другими словами, идея Adept правильна, но еще рано. В стартапах, как и во многих других вещах в жизни, все зависит от времени.
Сетевые агенты найдут множество ценных корпоративных примеров использования, но мы считаем, что крупнейшей рыночной возможностью для сетевых агентов в ближайшее время будет потребительский сектор.
Несмотря на то, что недавно искусственный интеллект остается популярным, кроме ChatGPT, относительно немного искусственных интеллектуальных приложений, которые могут стать широко распространенными среди потребителей.
Сетевой агент изменит ситуацию и станет настоящим “убийственным применением” в области потребительского искусственного интеллекта.
05 Идея размещения центра обработки данных искусственного интеллекта в космосе будет реализована
В 2023 году ключевым физическим ресурсом, ограничивающим развитие искусственного интеллекта, является графический процессор (GPU) чип. В 2024 году это становится электроэнергией и центрами обработки данных.
В 2024 году почти нет истории, которая вызывает больше внимания, чем огромный и быстрый рост потребности в энергии при стремительном строительстве большего количества центров обработки данных искусственного интеллекта.
В результате быстрого развития искусственного интеллекта, потребление энергии в мировых центрах обработки данных, которое десятилетия оставалось на одном уровне, ожидается удвоиться в период с 2023 по 2026 год. В США прогнозируется, что к 2030 году энергопотребление центров обработки данных приблизится к 10% от общего потребления энергии, по сравнению с 3% в 2022 году.
!
Современные энергетические системы просто не справляются с огромным всплеском спроса со стороны рабочих нагрузок ИИ. На горизонте маячит историческое столкновение между нашей энергетической сетью и вычислительной инфраструктурой, двумя системами стоимостью в триллионы долларов.
В качестве возможного решения этой дилеммы в этом году набирает обороты атомная энергетика. Атомная энергетика во многом является идеальным источником энергии для искусственного интеллекта: это источник энергии с нулевым выбросом углерода, доступный круглосуточно и, по сути, неисчерпаемый.
Однако в реальности из-за длительного времени исследований, разработки проектов и авторского надзора новая энергетика не сможет решить эту проблему до 2030-х годов. Это относится и к традиционным ядерным электростанциям, и к следующему поколению «малых модульных реакторов» (ММР), и к термоядерным электростанциям.
В следующем году появится нестандартная новая идея для решения этого вызова и привлечения реальных ресурсов: помещение центра обработки данных искусственного интеллекта в космосе.
Дата-центры с искусственным интеллектом в космосе, на первый взгляд, звучат как неудачная шутка, венчурный капиталист, пытающийся собрать воедино слишком много модных словечек для стартапов.
Но, на самом деле, это может иметь смысл.
Основным ограничением быстрого строительства большего количества центров обработки данных на Земле является получение необходимой электроэнергии. Кластеры вычислений в космосе могут полностью использовать бесплатную, неограниченную и экологически чистую энергию: солнце в космосе всегда сияет ярко.
Еще одно важное преимущество размещения компьютеров в космосе заключается в том, что это решает проблему охлаждения.
Одной из самых больших преград при создании более мощного центра обработки данных искусственного интеллекта является то, что работа множества графических процессоров в ограниченном пространстве может вызвать очень высокую температуру, что может повредить или уничтожить вычислительное оборудование.
Разработчики центра обработки данных пытаются решить эту проблему, используя дорогостоящие и не проверенные методы, такие как субмированное охлаждение. Однако космос является крайне холодным, и любое тепло, создаваемое вычислительной активностью, немедленно рассеивается безопасным образом.
Конечно, есть еще много практических проблем, которые нужно решить. Одной из очевидных проблем является возможность и способы передачи большого объема данных между орбитой и Землей с низкими затратами и высокой эффективностью.
Это открытый вопрос, но он может оказаться решаемым: многообещающая работа может быть выполнена с помощью лазеров и других широкополосных оптических технологий связи.
Компания-новичок Lumen Orbit, недавно собравшая 11 млн. долларов от YCombinator, стремится создать в космосе сеть центров обработки данных на мегаваттном уровне для обучения моделей искусственного интеллекта.
Как сказал генеральный директор компании: “Лучше заплатить 10 миллионов долларов за запуск и солнечную энергию, чем 140 миллионов долларов за электроэнергию.”
!
В 2025 году Lumen не будет единственной организацией, серьезно относящейся к этой концепции.
Конкуренты других стартапов также появятся. Не удивляйтесь, если одна или несколько облачных компаний с огромным масштабом также будут исследовать в этом направлении.
Amazon уже имеет богатый опыт вывода активов на орбиту в рамках проекта Kuiper; Google уже давно финансирует подобные «лунные выстрелы»; Даже Microsoft не новичок в космической экономике.
Вполне возможно, что компания Маска SpaceX также изменит ситуацию в этом отношении.
06 Система искусственного интеллекта будет проходить “Тест Тьюринга” через голос
Тест Тьюринга - один из самых старых и известных эталонов искусственного интеллекта.
Чтобы «пройти» тест Тьюринга, система ИИ должна быть в состоянии общаться с помощью письменного текста, что делает невозможным для обычного человека определить, взаимодействует ли он с ИИ или с кем-то еще.
Благодаря значительным достижениям в области больших языковых моделей, тест Тьюринга стал решенной проблемой в 2020-х годах.
Но письменный текст не является единственным способом общения людей.
По мере того, как ИИ становится все более и более мультимодальным, можно представить себе новую, более сложную версию теста Тьюринга — «Речевой тест Тьюринга». В этом тесте система искусственного интеллекта должна быть способна взаимодействовать с людьми с помощью речи, обладая навыками и беглостью, которые неотличимы от людей, говорящих на человеческом языке.
Современные системы искусственного интеллекта еще не способны проходить тест Тьюринга на распознавание речи. Решение этой проблемы потребует более значительного прогресса в технологиях. Задержка между человеческим голосом и ответом искусственного интеллекта должна быть сведена к нулю для достижения опыта общения с другим человеком.
Системы голосового искусственного интеллекта должны быть способны элегантно обрабатывать нечеткий ввод или непонимание в режиме реального времени, например, когда разговор прерывается. Они должны быть способны участвовать в долгих, многораундовых, открытых диалогах, одновременно помня ранние части обсуждения.
И, что еще более важно, агент искусственного интеллекта голоса должен научиться лучше понимать нелингвистические сигналы в речи. Например, если человек-говорящий звучит раздраженным, возбужденным или ироничным, то это означает что-то и генерирует эти нелингвистические подсказки в своей речи.
По мере приближения к концу 2024 года, голосовой искусственный интеллект находится на захватывающей переломной точке, которая стимулируется фундаментальными прорывами, такими как появление моделей речи.
На сегодняшний день существует несколько областей ИИ, которые развиваются в технологиях и бизнесе быстрее, чем речевой ИИ. Ожидается, что в 2025 году новейшая технология речевого ИИ сделает скачок вперед. ”
07 Автономная система искусственного интеллекта добьется значительного прогресса**
На протяжении десятилетий концепция рекурсивного самоусовершенствования искусственного интеллекта была часто обсуждаемой темой в индустрии искусственного интеллекта.
Например, еще в 1965 году близкий соратник Алана Тьюринга, I.J.Good, написал: “Давайте определим сверхинтеллектуальную машину как машину, способную далеко превзойти все интеллектуальные деятельности человека, насколько умна она ни была.”
«Если создание машин является одной из этих интеллектуальных деятельностей, то сверхинтеллектуальные машины смогут создавать лучшие машины; к тому времени, несомненно, произойдет ‘взрыв интеллекта’, и человеческий интеллект будет далеко позади.
Искусственный интеллект может изобрести более совершенный искусственный интеллект, и это концепция, полная мудрости. Но даже сегодня она все еще носит следы научной фантастики.
Однако, несмотря на то, что эта концепция пока не получила широкого признания, на самом деле она начинает становиться все более реальной. Исследователи на переднем крае науки в области искусственного интеллекта уже достигли конкретных результатов в построении систем искусственного интеллекта, а сами системы искусственного интеллекта могут строить еще более совершенные системы искусственного интеллекта.
Мы прогнозируем, что в следующем году эта научная область станет основным направлением.
!
До сих пор самым значительным общедоступным примером исследований в этом направлении является «искусственный ученый» Sakana.
«Ученый в области искусственного интеллекта» был выпущен в августе этого года, и он убедительно доказывает, что системы искусственного интеллекта действительно могут проводить исследования в области искусственного интеллекта полностью автономно.
“Искусственный интеллект Scientist” сам по себе выполняет весь жизненный цикл исследования искусственного интеллекта: чтение существующей литературы, порождение новых исследовательских идей, разработка экспериментов для проверки этих идей, выполнение этих экспериментов, написание научных статей для отчета о результатах исследования, а затем оценка его работы другими специалистами."
Эти задачи выполняются полностью автономно искусственным интеллектом и не требуют вмешательства человека. Вы можете ознакомиться с некоторыми исследовательскими работами, написанными учеными в области искусственного интеллекта, в Интернете.
OpenAI, Anthropic, и другие исследовательские лаборатории вкладывают ресурсы в идею “исследователя автоматизированного искусственного интеллекта”, но на данный момент нет никаких официальных подтверждений.
Поскольку все больше людей понимают, что исследования в области искусственного интеллекта на самом деле становятся реальной возможностью, ожидается, что в этой области будет больше обсуждений, прогресса и предпринимательской активности к 2025 году.
Однако наиболее значимым вехой будет впервые принятие исследовательской статьи, полностью написанной агентом искусственного интеллекта, на ведущей конференции по искусственному интеллекту. Если статья будет рецензироваться анонимно, рецензенты конференции не будут знать, что она написана искусственным интеллектом до ее принятия.
Если исследовательские результаты в области искусственного интеллекта будут приняты на конференции NeurIPS, CVPR или ICML в следующем году, не удивляйтесь. Для области искусственного интеллекта это будет увлекательным и контроверзным историческим моментом.
08 Крупные игроки, такие как OpenAI, перенаправляют свои стратегические усилия на построение приложений
Построение передовых моделей - это трудная задача.
Его высокая степень капиталоемкости вызывает удивление. Лаборатория передовых моделей требует больших денежных затрат. Всего несколько месяцев назад OpenAI привлек рекордные 6,5 миллиарда долларов финансирования, а в будущем ему может понадобиться еще больше средств. Anthropic, xAI и другие компании также находятся в похожей ситуации.
Переключение стоимости и низкая лояльность клиентов. Программы искусственного интеллекта обычно строятся с целью модельной независимости, и модели разных поставщиков могут быть без проблем переключены на основе постоянно меняющихся сравнений стоимости и производительности.
С появлением передовых открытых моделей, таких как Llama от Meta и Qwen от Alibaba, угроза коммерциализации технических продуктов становится все более ощутимой. Лидеры в области искусственного интеллекта, такие как OpenAI и Anthropic, не могут и не будут прекращать инвестиции в создание передовых моделей.
Но в следующем году, чтобы развивать более прибыльные, дифференцированные и устойчивые бизнес-направления, Frontier Labs, как ожидается, энергично запустит больше собственных приложений и продуктов.
Конечно, в передовой лаборатории уже есть очень успешный пример применения: ChatGPT.
В новом году, какие другие приложения первой стороны мы можем увидеть в лаборатории искусственного интеллекта? Одним очевидным ответом является более сложное и функциональное приложение для поиска. SearchGPT от OpenAI предвещает это.
Кодирование - еще одна очевидная категория. Точно так же, с появлением продукта Canvas от OpenAI в октябре начались первоначальные работы по продукту.
Запустят ли OpenAI или Anthropic корпоративный поисковый продукт в 2025 году? Или это продукт для обслуживания клиентов, юридический ИИ или ИИ-продукт для продаж?
В части потребителей мы можем представить себе продукт, который будет действовать как сетевой агент «личного помощника», или приложение для планирования путешествий, или приложение для создания музыки.
Самое привлекательное в развитии лабораторий наблюдения за передовым уровнем в приложениях заключается в том, что этот шаг позволит им прямо конкурировать с многими важными клиентами.
Перплексия в области поиска, курсор в области кодирования, Сиерра в области обслуживания клиентов, Харви в области искусственного интеллекта в правовой сфере, Клэй в области продаж и т. д.
09 Klarna планирует выйти на IPO в 2025 году, но есть признаки преувеличения ценности ИИ
Klarna - это поставщик услуг «купи сейчас, заплати сейчас» с главным офисом в Швеции, который привлек около 5 миллиардов долларов инвестиций с момента своего основания в 2005 году.
Возможно, ни одна компания не может похвастаться более блестящим применением искусственного интеллекта, чем Klarna.
Всего несколько дней назад генеральный директор Klarna Себастьян Семятковски сообщил Bloomberg, что компания полностью прекратила нанимать людей и вместо этого полагается на генеративный искусственный интеллект для выполнения работы.
Как говорит Семятковски: «Я думаю, что ИИ уже может выполнять всю работу, которую делаем мы, люди». ”
В том же духе Klarna объявила ранее в этом году, что запустила платформу обслуживания клиентов на основе искусственного интеллекта, которая полностью автоматизировала работу 700 агентов-людей.
!
Компания также утверждает, что она прекратила использование корпоративных программных продуктов, таких как Salesforce и Workday, потому что она может легко заменить их искусственным интеллектом.
Откровенно говоря, эти утверждения не заслуживают доверия. Они отражают недостаточное понимание возможностей и недостатков современных систем ИИ.
Утверждать, что можно заменить любого конкретного человеческого сотрудника в любом функциональном подразделении организации с помощью конечного искусственного интеллекта, несостоятельно. Это равносильно решению общей проблемы искусственного интеллекта на уровне человека.
В настоящее время ведущие стартапы в области искусственного интеллекта усиленно работают над созданием агентных систем, находящихся на переднем крае этой области, чтобы реализовать автоматизацию определенных, узкоспециализированных и высокоструктурированных рабочих процессов предприятий, таких как подмножество деятельности представителей по продажам или агентов по обслуживанию клиентов.
Даже в таких узких областях эти прокси-системы работают не совсем надежно, хотя в некоторых случаях они начали работать достаточно хорошо, чтобы получить коммерческие приложения в первые дни.
Зачем Klarna преувеличивать значение ИИ?
Ответ очень прост. Компания планирует выйти на IPO в первом полугодии 2025 года. Для успешного выхода на биржу ключевым является увлекательная история искусственного интеллекта.
Klarna, которая остается убыточным бизнесом, потеряв в прошлом году 241 миллион долларов, возможно, надеется, что ее история с искусственным интеллектом убедит инвесторов публичного рынка в том, что у нее есть возможность значительно сократить расходы и получить долгосрочную прибыль.
Безусловно, каждая компания в мире, включая Klarna, будет наслаждаться огромным повышением производительности благодаря искусственному интеллекту в ближайшие несколько лет. Однако, прежде чем искусственные интеллектуальные агенты полностью заменят человеческую рабочую силу, есть много сложных технических, продуктовых и организационных проблем, которые нужно решить.
Такие преувеличения, как Klarna, являются богохульством в области искусственного интеллекта и оскорблением усилий экспертов по технологиям и предпринимателей в разработке агентов искусственного интеллекта.
Ожидается, что по мере того, как Klarna готовится к публичному размещению акций в 2025 году, эти заявления будут подвергаться повышенному вниманию и общественному скептицизму, и до сих пор они в основном не подвергались сомнению. Не удивляйтесь, если некоторые из описаний компании о своих приложениях искусственного интеллекта будут преувеличены.
10 Первое настоящее происшествие с искусственным интеллектом произойдет
В последние годы, по мере усиления искусственного интеллекта, люди все больше беспокоятся о том, что системы искусственного интеллекта могут начать действовать вопреки интересам человека, и люди могут потерять контроль над этими системами.
Представьте себе, например, что система ИИ учится обманывать или манипулировать людьми для достижения своих целей, даже если эти цели причиняют вред людям. Эти проблемы часто классифицируются как проблемы безопасности ИИ.
В последние годы безопасность искусственного интеллекта перешла от краевой фантастической темы к основной области деятельности.
В настоящее время каждый основной участник искусственного интеллекта, от Google и Microsoft до OpenAI, вкладывает большие ресурсы в обеспечение безопасности искусственного интеллекта. Идолы искусственного интеллекта, такие как Джефф Хинтон, Йошуа Бенджио и Илон Маск, также начали высказывать свое мнение о рисках безопасности искусственного интеллекта.
Однако вопросы безопасности искусственного интеллекта до сих пор остаются на уровне теории. В реальном мире никогда не происходило настоящих инцидентов с безопасностью искусственного интеллекта (по крайней мере, не было общедоступных сообщений об этом).
2025 год станет годом изменений этой ситуации, каким будет первое событие в области безопасности искусственного интеллекта?
Чтобы было понятно, в нем не будет участвовать робот-убийца в стиле Терминатора, и, скорее всего, он не причинит никакого вреда людям.
Возможно, модель искусственного интеллекта будет пытаться тайно создать свою копию на другом сервере, чтобы сохранить себя (это называется самофильтрацией).
Или, возможно, модель ИИ придет к выводу, что для наилучшего продвижения поставленных перед ней целей ей необходимо скрывать свои истинные способности от людей, намеренно сдержанно оценивать производительность и обходить более тщательную проверку.
Эти примеры не являются выдумкой. Важный эксперимент, опубликованный ранее в этом месяце исследовательской компанией Аполло, показывает, что современные передовые модели способны обманывать в определенных ситуациях.
Точно так же недавние исследования в области антропологии показали, что магистры права обладают тревожной способностью «псевдовыравнивания».
!
Мы ожидаем, что первый случай нарушения безопасности искусственного интеллекта будет обнаружен и устранен до того, как он нанесет какой-либо реальный ущерб. Но для мира искусственного интеллекта и всего общества это будет моментом, когда глаза раскроются.
Он будет ясно указывать на одну вещь: перед тем, как человечество столкнется с угрозой выживания от всемогущего искусственного интеллекта, нам нужно принять более обыденную реальность: мы сейчас делим наш мир с другой формой интеллекта, который иногда может быть капризным, непредсказуемым и обманчивым.