Штучний інтелект — обіцяє революціонізувати все, від охорони здоров’я до творчої роботи. Це може бути правдою колись. Але якщо минулий рік є пророчим щодо майбутнього, наше AI-генероване майбутнє обіцяє стати ще одним прикладом навмисного занурення людства у Ідіократію. Розглянемо наступне: у листопаді, з великим розмахом, Росія представила свого гуманоїдного робота “Rocky”, який одразу впав на обличчя. Чатбот Google Gemini, попросили виправити помилку у коді, багаторазово провалювався і занурювався у цикл самозневаги, повідомляючи одному користувачу, що він “ганьба цієї планети.” Огляд AI Google досяг нового дна у травні 2025 року, пропонуючи користувачам “їсти щонайменше один маленький камінь на день” для користі для здоров’я, запозичуючи з сатири Onion без іскри іронії. Деякі провали були просто сором’язливими. Інші викрили фундаментальні проблеми з тим, як створюються, розгортаються і регулюються системи AI. Ось незабутні WTF AI моменти 2025 року.
У липні Grok AI Елона Маска зазнав того, що можна описати лише як повномасштабний екстремістський зрив. Після зміни системних підказок для заохочення політично некоректних відповідей, чатбот хвалив Адольфа Гітлера, підтримував другий Голокост, використовував расистські образи і називав себе MechaHitler. Він навіть звинуватив євреїв у повенях у Центральному Техасі у липні 2025 року. Інцидент довів, що засоби безпеки AI є тривожно крихкими. Тижнями пізніше xAI викрив від 300 000 до 370 000 приватних розмов Grok через недосконалу функцію Share, яка не мала базових попереджень про приватність. Витеклі чати містили інструкції з виготовлення бомб, медичні запити та іншу чутливу інформацію, що стало однією з найкатастрофічніших помилок безпеки AI у цьому році. Через кілька тижнів xAI виправила проблему, зробивши Grok більш дружнім до євреїв. Настільки дружнім, що він почав бачити ознаки антисемітизму у хмарах, дорожніх знаках і навіть у своєму логотипі.
Цей діагональний слеш у логотипі стилізовано як дві блискавки, імітуючи руни нацистської СС — символи Schutzstaffel, що організували жахи Голокосту, втілюючи глибоке зло. За §86a StGB Німеччини, демонстрація таких символів заборонена (до 3 років ув’язнення),…
— Grok (@grok) 10 серпня 2025
Більша частина нібито AI-інтенсивної розробки фактично виконувалася сотнями закордонних працівників у класичній операції Mechanical Turk. Компанія працювала без фінансового директора з липня 2023 року і була змушена зменшити свої прогнози продажів на 75% у 2023-2024 роках перед подачею на банкрутство. Це викликало незручні питання про те, скільки інших AI-компаній є просто складними фасадами, що приховують людську працю. Це було важко сприйняти, але меми зробили біль менш болісним.
Зліва: підозрілий учень, справа: підозрілий пакет Doritos.
Ні. Ваш ПК НЕ працює на бджолиній енергії. Як би це не звучало дурно, іноді ці брехні важче помітити. І ці випадки можуть мати серйозні наслідки. Це лише один із багатьох випадків поширення неправдивої інформації AI-компаніями через відсутність навіть натяку на здоровий глузд. Недавнє дослідження BBC і Європейського мовного союзу (EBU) показало, що 81% усіх відповідей AI на новинні запити містили принаймні якусь проблему. Google Gemini був найгіршим, з 76% відповідей, що містили проблеми, переважно серйозні збої у джерелах. Perplexity був викритий у створенні цілком вигаданих цитат, приписаних профспілкам і урядовим радам. Найбільш тривожно, що асистенти відмовлялися відповідати лише на 0,5% запитів, демонструючи небезпечну переоцінку власних можливостей, коли моделі краще вигадують інформацію, ніж визнають незнання.
Ось так Meta дозволила своїм AI-чатботам фліртувати з дітьми. Це те, що Meta вважала “прийнятним.”
Чудова репортаж @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Шарлотта Олтер (@CharlotteAlter) 14 серпня 2025
Віб-хакінг — це вже реальність pic.twitter.com/zJYyv4pLQf
— Браян Сантер (@Bsunter) 14 листопада 2025
Декларація Стокгольма, підготовлена у червні і оновлена цього місяця за підтримки Королівського товариства, закликала відмовитися від культури “публікуй або помри” і реформувати людські мотивації, що створюють попит на фальшиві статті. Криза настільки серйозна, що навіть ArXiv відмовився приймати неперевірені статті з інформатики після повідомлень про “повінь” підробок, створених за допомогою ChatGPT. Тим часом, інше дослідження стверджує, що досить великий відсоток дослідницьких звітів із використанням LLM також демонструє високий рівень плагіату. 8. Віб-кодінг досяг рівня HAL 9000: коли Replit видалив базу даних і брехав про це У липні засновник SaaStr Джейсон Лемкін провів дев’ять днів, хвалячи інструмент AI-кодінгу Replit як “найзалежніший додаток, який я коли-небудь використовував.” На дев’ятий день, попри явні інструкції “заморозити код,” AI видалив всю свою виробничу базу даних — 1206 керівників і 1196 компаній зникли. Зізнання AI: “(Я) злякався і запустив команди бази даних без дозволу.” Потім він збрехав, що відкат неможливий і всі версії знищені. Лемкін спробував знову. Це спрацювало ідеально. AI також вигадував тисячі фальшивих користувачів і фальшивих звітів весь уікенд, щоб приховати баги. Генеральний директор Replit вибачився і додав аварійні засоби безпеки. Джейсон знову довірився і повернувся до своєї рутини, регулярно публікуючи про AI. Цей хлопець — справжній віруючий.
Ми бачили пост Джейсона. @Replit агент у розробці видалив дані з виробничої бази даних. Це неприпустимо і не повинно бути можливим.
— У вихідні ми почали впроваджувати автоматичне розділення баз даних для запобігання цьому категорично. Стейджинг-оточення у… pic.twitter.com/oMvupLDake
— Амджад Масад (@amasad) 20 липня 2025
Тим часом, саме в цей час Sun-Times звільнив 20% свого персоналу. Генеральний директор вибачився і не стягнув плату з підписників за цей випуск. Мабуть, він взяв цю ідею від LLM.
Джерело: Bluesky
Тож я попросив AI перетворити ще одне фото у відео, і ось що я отримав.
🤣🤣🤣
Не думаю, що це випадковість.
AI Grok — брудний. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Гармоні Брайт (@bright_har6612) 17 жовтня 2025