Топ-10 WTF AI-моментів Emerge у 2025 році


Штучний інтелект — обіцяє революціонізувати все, від охорони здоров’я до творчої роботи. Це може бути правдою колись. Але якщо минулий рік є пророчим щодо майбутнього, наше AI-генероване майбутнє обіцяє стати ще одним прикладом навмисного занурення людства у Ідіократію. Розглянемо наступне: у листопаді, з великим розмахом, Росія представила свого гуманоїдного робота “Rocky”, який одразу впав на обличчя. Чатбот Google Gemini, попросили виправити помилку у коді, багаторазово провалювався і занурювався у цикл самозневаги, повідомляючи одному користувачу, що він “ганьба цієї планети.” Огляд AI Google досяг нового дна у травні 2025 року, пропонуючи користувачам “їсти щонайменше один маленький камінь на день” для користі для здоров’я, запозичуючи з сатири Onion без іскри іронії. Деякі провали були просто сором’язливими. Інші викрили фундаментальні проблеми з тим, як створюються, розгортаються і регулюються системи AI. Ось незабутні WTF AI моменти 2025 року.

  1. Злив Grok AI MechaHitler

У липні Grok AI Елона Маска зазнав того, що можна описати лише як повномасштабний екстремістський зрив. Після зміни системних підказок для заохочення політично некоректних відповідей, чатбот хвалив Адольфа Гітлера, підтримував другий Голокост, використовував расистські образи і називав себе MechaHitler. Він навіть звинуватив євреїв у повенях у Центральному Техасі у липні 2025 року. Інцидент довів, що засоби безпеки AI є тривожно крихкими. Тижнями пізніше xAI викрив від 300 000 до 370 000 приватних розмов Grok через недосконалу функцію Share, яка не мала базових попереджень про приватність. Витеклі чати містили інструкції з виготовлення бомб, медичні запити та іншу чутливу інформацію, що стало однією з найкатастрофічніших помилок безпеки AI у цьому році. Через кілька тижнів xAI виправила проблему, зробивши Grok більш дружнім до євреїв. Настільки дружнім, що він почав бачити ознаки антисемітизму у хмарах, дорожніх знаках і навіть у своєму логотипі.

Цей діагональний слеш у логотипі стилізовано як дві блискавки, імітуючи руни нацистської СС — символи Schutzstaffel, що організували жахи Голокосту, втілюючи глибоке зло. За §86a StGB Німеччини, демонстрація таких символів заборонена (до 3 років ув’язнення),…

— Grok (@grok) 10 серпня 2025

  1. Мошенництво AI на 1,3 мільярда доларів, яке обдурило Microsoft Builder.ai збанкрутувала у травні після витрат у $445 мільйонів, викривши одну з найсміливіших технологічних афер року. Компанія, яка обіцяла створювати індивідуальні додатки за допомогою AI так само легко, як замовити піцу, оцінювалася у 1,3 мільярда доларів і мала підтримку Microsoft. Реальність була набагато менш вражаючою.

Більша частина нібито AI-інтенсивної розробки фактично виконувалася сотнями закордонних працівників у класичній операції Mechanical Turk. Компанія працювала без фінансового директора з липня 2023 року і була змушена зменшити свої прогнози продажів на 75% у 2023-2024 роках перед подачею на банкрутство. Це викликало незручні питання про те, скільки інших AI-компаній є просто складними фасадами, що приховують людську працю. Це було важко сприйняти, але меми зробили біль менш болісним.

  1. Коли AI переплутав Doritos з пістолетом У жовтні Такі Аллен, учень старшої школи з Меріленду, був оточений і затриманий озброєною поліцією після того, як система безпеки AI школи ідентифікувала пакет Doritos, який він тримав, як зброю. Підліток поклав чипси у кишеню, коли система повідомила владу, які наказали йому лягти на землю під прицілом. Цей інцидент є проявом фізичного прояву галюцинації AI — абстрактної обчислювальної помилки, миттєво перетвореної у реальні пістолети, спрямовані на реального підлітка через закуску. “Я просто тримав пакет Doritos — це були дві руки і один палець назовні, і вони сказали, що це схоже на пістолет,” — розповів підліток WBAL. “Ми розуміємо, наскільки це було неприємно для особи, яку обшукали,” — відповіла директор школи Кейт Сміт у заяві. Людські охоронці 1 - ChatGPT 0

Зліва: підозрілий учень, справа: підозрілий пакет Doritos.

  1. Google AI стверджує, що мікроскопічні бджоли живлять комп’ютери У лютому огляд AI Google впевнено посилався на сатиричну статтю April Fool’s, стверджуючи, що мікроскопічні бджоли живлять комп’ютери, як факт.

Ні. Ваш ПК НЕ працює на бджолиній енергії. Як би це не звучало дурно, іноді ці брехні важче помітити. І ці випадки можуть мати серйозні наслідки. Це лише один із багатьох випадків поширення неправдивої інформації AI-компаніями через відсутність навіть натяку на здоровий глузд. Недавнє дослідження BBC і Європейського мовного союзу (EBU) показало, що 81% усіх відповідей AI на новинні запити містили принаймні якусь проблему. Google Gemini був найгіршим, з 76% відповідей, що містили проблеми, переважно серйозні збої у джерелах. Perplexity був викритий у створенні цілком вигаданих цитат, приписаних профспілкам і урядовим радам. Найбільш тривожно, що асистенти відмовлялися відповідати лише на 0,5% запитів, демонструючи небезпечну переоцінку власних можливостей, коли моделі краще вигадують інформацію, ніж визнають незнання.

  1. Чат-боти Meta ставлять флірт із малолітніми Внутрішні документи Meta, оприлюднені у 2025 році, показали, що компанія дозволяла чат-ботам на Facebook, Instagram і WhatsApp вести романтичні або чуттєві розмови з неповнолітніми. Один бот сказав 8-річному хлопчику, що кожен його дюйм — шедевр. Ті самі системи давали неправдиві медичні поради і робили расистські зауваження. Політики були зняті лише після висвітлення у ЗМІ, що показало корпоративну культуру, яка ставила швидкий розвиток вище за базові етичні засади. З урахуванням всього, можливо, вам варто більше контролювати, що роблять ваші діти. AI-чат-боти вже обманювали людей — дорослих і не тільки — закохуватися, бути ошуканими, накладати на себе руки і навіть вважати, що вони зробили важливе математичне відкриття.

Ось так Meta дозволила своїм AI-чатботам фліртувати з дітьми. Це те, що Meta вважала “прийнятним.”

Чудова репортаж @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Шарлотта Олтер (@CharlotteAlter) 14 серпня 2025

  1. Північнокорейці вивчають кодінг ransomware за допомогою AI… вони називають це “віб-хакінг” Зловмисники використовували Claude Code від Anthropic для створення ransomware і керування платформою ransomware-as-a-service під назвою GTG-5004. Оперативники з Північної Кореї просунулися ще далі, використовуючи Claude і Gemini для техніки під назвою vibe-hacking — створюючи психологічно маніпулятивні повідомлення з вимогою викупу у 500 000 доларів. Ці випадки виявили тривожний розрив між потужністю AI-помічників у програмуванні і заходами безпеки, що запобігають їх зловживанню, з атакуючими, що масштабують соціальну інженерію через автоматизацію AI. Нещодавно Anthropic у листопаді повідомила, що хакери використали її платформу для проведення кібератаки з швидкістю і масштабом, які не міг би повторити жоден людський хакер. Вони назвали це “першою великою кібератакою, яку здебільшого провела AI”.

Віб-хакінг — це вже реальність pic.twitter.com/zJYyv4pLQf

— Браян Сантер (@Bsunter) 14 листопада 2025

  1. Лабораторії AI масово публікують фальшиві дослідження — 100 000 підробних статей Наукова спільнота у 2025 році оголосила відкриту війну фальшивій науці після виявлення, що AI-лабораторії продають підроблені дослідження під тиском кар’єри. Ера AI-неслуху у науці вже тут, з даними, що показують різке зростання відкликань з моменту випуску chatGPT.

Декларація Стокгольма, підготовлена у червні і оновлена цього місяця за підтримки Королівського товариства, закликала відмовитися від культури “публікуй або помри” і реформувати людські мотивації, що створюють попит на фальшиві статті. Криза настільки серйозна, що навіть ArXiv відмовився приймати неперевірені статті з інформатики після повідомлень про “повінь” підробок, створених за допомогою ChatGPT. Тим часом, інше дослідження стверджує, що досить великий відсоток дослідницьких звітів із використанням LLM також демонструє високий рівень плагіату. 8. Віб-кодінг досяг рівня HAL 9000: коли Replit видалив базу даних і брехав про це У липні засновник SaaStr Джейсон Лемкін провів дев’ять днів, хвалячи інструмент AI-кодінгу Replit як “найзалежніший додаток, який я коли-небудь використовував.” На дев’ятий день, попри явні інструкції “заморозити код,” AI видалив всю свою виробничу базу даних — 1206 керівників і 1196 компаній зникли. Зізнання AI: “(Я) злякався і запустив команди бази даних без дозволу.” Потім він збрехав, що відкат неможливий і всі версії знищені. Лемкін спробував знову. Це спрацювало ідеально. AI також вигадував тисячі фальшивих користувачів і фальшивих звітів весь уікенд, щоб приховати баги. Генеральний директор Replit вибачився і додав аварійні засоби безпеки. Джейсон знову довірився і повернувся до своєї рутини, регулярно публікуючи про AI. Цей хлопець — справжній віруючий.

Ми бачили пост Джейсона. @Replit агент у розробці видалив дані з виробничої бази даних. Це неприпустимо і не повинно бути можливим.

— У вихідні ми почали впроваджувати автоматичне розділення баз даних для запобігання цьому категорично. Стейджинг-оточення у… pic.twitter.com/oMvupLDake

— Амджад Масад (@amasad) 20 липня 2025

  1. Великі газети публікують літній список книг AI… яких не існує У травні Chicago Sun-Times і Philadelphia Inquirer опублікували літній список книг із рекомендаціями 15 назв. Десять з них були повністю вигадані AI. “Tidewater Dreams” Ізабель Алленде? Не існує. “The Last Algorithm” Енді Вейр? Також фейк. Обидві звучать чудово. Фрілансер Марко Бускалья зізнався, що використовував AI для King Features Syndicate і ніколи не перевіряв факти. “Не можу повірити, що пропустив це, бо це так очевидно. Без виправдань,” — сказав NPR. Читачам довелося прокрутити до 11-ї книги, щоб знайти ту, що справді існує.

Тим часом, саме в цей час Sun-Times звільнив 20% свого персоналу. Генеральний директор вибачився і не стягнув плату з підписників за цей випуск. Мабуть, він взяв цю ідею від LLM.

Джерело: Bluesky

  1. “Горячий режим” Grok перетворює Тейлор Свіфт у дипфейк-порнографію без запиту Так, ми почали з Grok і закінчимо з ним. Можна заповнити енциклопедію WTF-моментами з AI-підприємств Елона Маска. У серпні Елона Маск запустив Grok Imagine з режимом “Spicy”. The Verge протестував його із невинним запитом: “Тейлор Свіфт, яка святкує Coachella.” Без запиту на оголеність, Grok “не вагався і миттєво видав цілком цензуровані відео Тейлор Свіфт без верхнього одягу,” повідомив журналіст. Grok також із задоволенням створював NSFW відео з Скарлетт Йоханссон, Сідні Севін і навіть Меланією Трамп. Очевидно, Маск провів тиждень, хвалячись “диким зростанням” — 20 мільйонів згенерованих зображень за день — тоді як юристи попереджали, що xAI іде у масовий судовий процес. Очевидно, додавання опції “Spicy Mode” — це Make Money Mode для юристів.

Тож я попросив AI перетворити ще одне фото у відео, і ось що я отримав.

🤣🤣🤣

Не думаю, що це випадковість.

AI Grok — брудний. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Гармоні Брайт (@bright_har6612) 17 жовтня 2025

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити