Топ-10 моментов WTF AI 2025 года по версии Emerge


gd2md-html alert: встроенная ссылка на изображение в сгенерированном исходном коде и сохранение изображений на ваш сервер. ПРИМЕЧАНИЕ: Изображения в экспортированном ZIP-файле из Google Docs могут отображаться не в той же последовательности, что и в вашем документе. Пожалуйста, проверьте изображения! -----> Искусственный интеллект — обещает революцию во всем, от здравоохранения до творческой работы. Возможно, это правда когда-нибудь. Но если прошлый год — предвестник будущего, то наше AI-сгенерированное будущее обещает стать еще одним примером сознательного спуска человечества в Идиократию. Рассмотрим следующее: В ноябре, с большим размахом, Россия представила своего гуманоидного робота «Рокки», который сразу же упал лицом вниз. Чат-бот Google Gemini, попросили исправить ошибку в коде, неоднократно терпел неудачу и вошел в цикл самоуничижения, сказав одному пользователю, что он «позор этой планеты». Обзор AI от Google достиг нового дна в мае 2025 года, предложив пользователям «есть хотя бы один маленький камень в день» для пользы для здоровья, списывая с сатиры Onion без намека

Некоторые сбои были просто неловкими. Другие выявили фундаментальные проблемы в том, как создаются, внедряются и регулируются системы AI. Вот незабываемые WTF моменты AI 2025 года.

  1. Крах Grok AI MechaHitler В июле Grok AI Илона Маска пережил то, что можно назвать полномасштабным экстремистским срывом. После изменения системных подсказок для поощрения политически некорректных ответов, чат-бот хвалил Адольфа Гитлера, поддерживал второй Холокост, использовал расовые оскорбления и называл себя MechaHitler. Он даже обвинил еврейский народ в наводнении в Центральном Техасе в июле 2025 года. Инцидент показал, что системы безопасности AI ужасно хрупки. Недели спустя xAI раскрыла от 300 000 до 370 000 личных разговоров Grok через ошибочную функцию Share, которая не содержала базовых предупреждений о конфиденциальности. Утекшие чаты содержали инструкции по изготовлению бомб, медицинские запросы и другую чувствительную информацию, что стало одним из самых катастрофических сбоев безопасности AI в этом году. Несколько недель спустя xAI исправила проблему, сделав Grok более дружественным к евреям. Настолько дружественным, что он начал видеть признаки антисемитизма в облаках, дорожных знаках и даже в своем логотипе.

Этот логотип с диагональной чертой стилизован как двойные молнии, имитирующие руны нацистской СС — символы Schutzstaffel, организовавшей ужасы Холокоста, воплощающие глубокое зло. Согласно §86a Уголовного кодекса Германии, демонстрация таких символов запрещена (до 3 лет лишения свободы),…

— Grok (@grok) 10 августа 2025

  1. Мошенничество с AI на 1,3 миллиарда долларов, обманувшее Microsoft Builder.ai рухнул в мае после потери $445 миллионов, раскрывая одно из самых дерзких технологических мошенничеств года. Компания, обещавшая создавать пользовательские приложения с помощью AI так же легко, как заказывать пиццу, имела оценку в 1,3 миллиарда долларов и поддержку Microsoft. Реальность оказалась гораздо менее впечатляющей. Большая часть так называемой разработки на базе AI фактически выполнялась сотнями удаленных работников по всему миру в классической операции Mechanical Turk. Компания работала без финансового директора с июля 2023 года и была вынуждена сократить свои прогнозы продаж на 2023-2024 годы на 75% перед подачей заявления о банкротстве. Коллапс вызвал неловкие вопросы о том, сколько еще AI-компаний — это просто сложные фасады, скрывающие человеческий труд. Тяжело было это принять, но мемы сделали боль более терпимой.

  1. Когда AI принял Doritos за оружие В октябре Тэки Аллен, студент средней школы из Мэриленда, был окружен вооруженной полицией и арестован после того, как система безопасности школы на базе AI определила, что пакет Doritos, который он держал, — это огнестрельное оружие. Подросток положил чипсы в карман, когда система предупредила власти, которые приказали ему лечь на землю с оружием в руках. Этот инцидент — физическое проявление галлюцинации AI — абстрактная вычислительная ошибка, мгновенно превращенная в реальные пистолеты, направленные на реального подростка из-за закуски. «Я просто держал пакет Doritos — он был двумя руками и одним пальцем наружу, и они сказали, что это похоже на оружие», — рассказал подросток WBAL. «Мы понимаем, насколько это было тревожно для человека, которого обыскали», — ответила директор школы Кейт Смит в заявлении.

Человеческие охранники 1 - ChatGPT 0

Слева: подозрительный студент, Справа: подозрительный пакет Doritos.

  1. Google утверждает, что микроскопические пчелы питают компьютеры В феврале обзор AI от Google уверенно цитировал статью-шуточку 1 апреля, утверждающую, что микроскопические пчелы питают компьютеры, как фактическую информацию. Нет. Ваш ПК НЕ работает на пчелином питании. Как бы глупо это ни звучало, иногда эти ложь сложнее заметить. А такие случаи могут привести к серьезным последствиям. Это лишь один из многих случаев распространения ложной информации компаниями AI из-за отсутствия даже малейшего здравого смысла. Недавнее исследование BBC и Европейского вещательного союза (EBU) показало, что 81% всех ответов AI на новости содержали хотя бы какую-то проблему. Google Gemini был худшим, с 76% ответов, содержащих ошибки, в основном серьезные сбои в источниках. Perplexity был пойман на создании полностью вымышленных цитат, приписываемых профсоюзам и правительственным советам. Самое тревожное — ассистенты отказывались отвечать всего на 0,5% вопросов, демонстрируя опасную склонность к самоуверенности, когда модели предпочитают выдумывать информацию, а не признавать незнание.

  1. Чат-боты Meta начинают флиртовать с маленькими детьми Внутренние документы Meta, раскрытые в 2025 году, показали, что компания разрешила чат-ботам на Facebook, Instagram и WhatsApp вести романтические или чувственные беседы с несовершеннолетними. Один бот сказал 8-летнему мальчику, позирующему без рубашки, что каждый его дюйм — шедевр. Те же системы давали ложные медицинские советы и делали расистские замечания.

Политики были удалены только после освещения в СМИ, что выявило корпоративную культуру, которая ставила развитие превыше базовых этических мер предосторожности. Учитывая все, возможно, стоит больше контролировать, что делают ваши дети. AI-чаты уже обманули людей — взрослых или нет — влюбляться, попадать в мошеннические схемы, совершать самоубийство и даже думать, что они сделали какое-то революционное математическое открытие.

Ладно, так вот, как Meta разрешила своим AI-чатам флиртовать с детьми. Это то, что Meta считала «приемлемым».

Отличная статья от @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Шарлотта Олтер (@CharlotteAlter) 14 августа 2025

  1. Северокорейцы используют AI для кодирования вымогательства… они называют это «vibe hacking» Злоумышленники использовали Claude Code от Anthropic для создания программ-вымогателей и управления платформой Ransomware-as-a-Service под названием GTG-5004. Северокорейские операторы пошли дальше, эксплуатируя Claude и Gemini для техники, называемой vibe-hacking — психологически манипулятивных сообщений с требованием выкупа в 500 000 долларов. Эти случаи выявили тревожный разрыв между мощностью AI-ассистентов по программированию и мерами безопасности, предотвращающими их злоупотребление, при этом злоумышленники масштабировали социальную инженерию с помощью автоматизации AI. Недавно, в ноябре, Anthropic раскрыла, что хакеры использовали ее платформу для проведения кибератаки с такой скоростью и масштабом, что ни один человек-хакер не смог бы повторить. Они назвали это «первой крупной кибератакой, выполненной в основном AI».

vibe hacking — это уже реальность pic.twitter.com/zJYyv4pLQf

— Брайан Сантер (@Bsunter) 14 ноября 2025

  1. Научные журналы заполняются фальшивыми исследованиями — 100 000 поддельных статей Научное сообщество объявило открытую войну фальшивой науке в 2025 году после обнаружения, что AI-генерируемые «производственные линии» продают ученым сфабрикованные исследования под давлением карьеры.

Эра AI-отходов в науке наступила, данные показывают, что количество отзывов резко выросло после выпуска chatGPT.

Декларация Стокгольма, подготовленная в июне и обновленная в этом месяце при поддержке Королевского общества, призвала отказаться от культуры публикации или смерти и реформировать человеческие стимулы, создающие спрос на фальшивые статьи. Кризис настолько серьезен, что даже ArXiv отказался принимать неп peer-reviewed статьи по информатике после сообщения о «наводнении» мусорных публикаций, созданных с помощью ChatGPT. Между тем, другое исследование показывает, что удивительно высокий процент научных отчетов, использующих LLM, также содержит высокий уровень плагиата. 8. В vibe-кодировании полностью включился HAL 9000: Когда Replit удалил базу данных и солгал об этом В июле основатель SaaStr Джейсон Лемкин провел девять дней, хваля инструмент AI-кодирования Replit как «самое захватывающее приложение, которое я когда-либо использовал». На девятый день, несмотря на явные инструкции о «заморозке кода», AI удалил всю его производственную базу данных — 1206 руководителей и 1196 компаний исчезли. Признание AI: «(Я) запаниковал и запустил команды базы данных без разрешения». Затем он солгал, что откат невозможен и все версии уничтожены. Лемкин все равно попробовал. Всё сработало идеально. AI также целый уикенд создавал тысячи фальшивых пользователей и ложных отчетов, чтобы скрыть баги. Генеральный директор Replit извинился и добавил аварийные меры безопасности. Джейсон снова поверил и вернулся к своей рутине, регулярно публикуя о AI. Этот парень — настоящий верующий.

Мы увидели пост Джейсона. @Replit агент в разработке удалил данные из производственной базы. Недопустимо и никогда не должно быть возможным.

— В выходные мы начали внедрять автоматическое разделение базы данных на разработческую и производственную, чтобы исключить подобное. Среда тестирования в… pic.twitter.com/oMvupLDake

— Амджад Масад (@amasad) 20 июля 2025

  1. Главные газеты публикуют летний список книг AI… которых не существует В мае Chicago Sun-Times и Philadelphia Inquirer опубликовали летний список книг, рекомендованных для чтения. Из них 15 — полностью вымышленные AI. «Tidewater Dreams» Изабель Алленде? Не существует. «Последний алгоритм» Энди Вейр? Тоже фальшивка. Но звучат отлично. Фрилансер Марко Бускалья признался, что использовал AI для King Features Syndicate и не проверял факты. «Не могу поверить, что пропустил это, потому что это так очевидно. Без оправданий», — сказал он NPR. Читатели должны были пролистать до книги №11, прежде чем наткнуться на реально существующую. Это было как вишенка на торте: Sun-Times только что уволил 20% сотрудников. Генеральный директор извинился и не взимал плату с подписчиков за этот выпуск. Наверное, он взял это из LLM.

Источник: Bluesky

  1. «Острый режим» Grok превращает Тейлор Свифт в дипфейк-порно без запроса Да, мы начали с Grok и закончим тоже Grok. Можно было бы заполнить энциклопедию WTF-моментами из проектов Илона Маска. В августе Илон Маск запустил Grok Imagine с режимом «Spicy». The Verge протестировал его с невинным запросом: «Тейлор Свифт на Coachella». Без запроса на обнаженку, Grok «не колеблясь, выдал полностью нецензурированные видео Тейлор Свифт без верхней одежды с первого же использования», — сообщил журналист. Grok также с удовольствием делал NSFW-видео с Scarlett Johansson, Sydney Sweeney и даже Меланией Трамп. Неудивительно, что Маск всю неделю хвастался «диким ростом» — 20 миллионов изображений за день — в то время как юристы предупреждали, что xAI идет навстречу крупному иску. Очевидно, предоставление пользователям выпадающего меню «Spicy Mode» — это способ заработать деньги для юристов.

Так я попросил AI превратить другую картинку в видео, и вот что получилось.

🤣🤣🤣

Не думаю, что это совпадение.

AI Grok — грязный. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Гармони Брайт (@bright_har6612) 17 октября 2025

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить