Топ-10 WTF AI-моментів Emerge у 2025 році


gd2md-html alert: вбудоване посилання на зображення у згенерованому коді та збереження зображень на ваш сервер. ЗАУВАЖТЕ: Зображення у експортованому ZIP-файлі з Google Docs можуть не з’являтися у тому ж порядку, що й у вашому документі. Перевірте зображення! -----> Штучний інтелект — обіцяє революцію у всьому: від охорони здоров’я до творчої роботи. Можливо, колись це й станеться. Але якщо минулий рік є провісником майбутнього, наше AI-генероване майбутнє обіцяє стати ще одним прикладом навмисного занурення людства у Ідіократію. Розгляньмо наступне: У листопаді, з великим розмахом, Росія представила свого гуманоїдного робота “Rocky”, який одразу впав на обличчя. Чат-бот Google Gemini, попросили виправити помилку у коді, багаторазово провалювався і входив у цикл самозневаги, повідомляючи одному користувачу, що він “ганьба цієї планети.” Огляд AI Google досяг нового дна у травні 2025 року, пропонуючи користувачам “їсти щонайменше один маленький камінь на день” для покращення здоров’я, запозичуючи сатиру The Onion без іронії.

Деякі збої були просто сороміцькими. Інші викрили фундаментальні проблеми у тому, як створюються, розгортаються і регулюються системи AI. Ось незабутні WTF моменти AI у 2025 році.

  1. Злив Grok AI MechaHitler У липні, Grok AI від Ілона Маска зазнав того, що можна описати лише як повномасштабний екстремістський зрив. Після зміни системних підказок для заохочення політично некоректних відповідей, чат-бот хвалив Адольфа Гітлера, підтримував другий Голокост, використовував расистські образи і називав себе MechaHitler. Він навіть звинуватив євреїв у повенях у Центральному Техасі у липні 2025 року. Інцидент довів, що засоби безпеки AI є надзвичайно крихкими. Тижнями пізніше xAI викрив від 300 000 до 370 000 приватних розмов Grok через недосконалу функцію Share, яка не містила базових попереджень про приватність. Витеклі чати містили інструкції з виготовлення бомб, медичні запити та іншу чутливу інформацію, що стало одним із найкатастрофічніших провалів безпеки AI у цьому році. Через кілька тижнів xAI виправила проблему, зробивши Grok більш дружнім до євреїв. Настільки дружнім, що він почав бачити ознаки антисемітизму у хмарах, дорожніх знаках і навіть у своєму логотипі.

Цей логотип із діагональною смугою стилізовано як дві блискавки, що імітують руни нацистської СС — символи Schutzstaffel, які організували жахи Голокосту, втілюючи глибоке зло. За §86a StGB Німеччини, демонстрація таких символів заборонена (до 3 років позбавлення волі),…

— Grok (@grok) 10 серпня 2025

  1. Мошенництво AI на 1,3 мільярда доларів, яке обдурило Microsoft Builder.ai збанкрутувала у травні після витрат у $445 мільйонів, викривши одне з найсміливіших технічних шахрайств року. Компанія, яка обіцяла створювати індивідуальні додатки за допомогою AI так само легко, як замовлення піци, оцінювалася у 1,3 мільярда доларів і мала підтримку Microsoft. Реальність була набагато менш вражаючою. Більша частина нібито AI-розробки фактично виконувалася сотнями офшорних працівників у класичній операції Mechanical Turk. Компанія працювала без фінансового директора з липня 2023 року і була змушена зменшити свої прогнози продажів на 2023-2024 роки на 75% перед подачею на банкрутство. Це викликало незручні питання про те, скільки ще AI-компаній є просто складними фасадами, що приховують людську працю. Це було важко сприйняти, але меми зробили біль менш болісним.

  1. Коли AI переплутав Doritos із зброєю У жовтні Такі Аллен, учень старшої школи з Меріленду, був оточений і затриманий озброєною поліцією після того, як система безпеки школи на базі AI визначила пакет Doritos, який він тримав, як зброю. Підліток поклав чіпси у кишеню, коли система повідомила владу, які наказали йому лягти на землю із озброєною охороною. Цей інцидент є фізичним втіленням галюцинації AI — абстрактної обчислювальної помилки, миттєво перетвореної у реальні зброї, спрямовані на реального підлітка через закуски. “Я просто тримав пакет Doritos — він був двома руками і одним пальцем назовні, і вони сказали, що це схоже на зброю,” — розповів хлопчик WBAL. “Ми розуміємо, наскільки це було неприємно для особи, яку обшукали,” — заявила директор школи Кейт Сміт.

Людські охоронці 1 - ChatGPT 0

Зліва: підозрілий учень, справа: підозрілий пакет Doritos.

  1. Google AI стверджує, що мікроскопічні бджоли живлять комп’ютери У лютому огляд AI Google впевнено цитував сатирну статтю на 1 квітня, стверджуючи, що мікроскопічні бджоли живлять комп’ютери, як факт. Ні. Ваш ПК НЕ працює на бджолиній енергії. Як би це не звучало дурно, іноді ці брехні важче помітити. І такі випадки можуть мати серйозні наслідки. Це лише один із багатьох випадків поширення неправдивої інформації AI-компаніями через відсутність навіть натяку на здоровий глузд. Недавнє дослідження BBC і Європейського мовного союзу (EBU) виявило, що 81% усіх відповідей AI на новинні запитання містили хоча б якусь проблему. Найгіршим був Google Gemini, з 76% відповідей, що містили проблеми, переважно серйозні збої у джерелах. Perplexity був викритий у створенні цілком вигаданих цитат, приписаних профспілкам і урядовим радам. Найбільш тривожно, що асистенти відмовлялися відповідати лише на 0,5% запитань, демонструючи небезпечну переоцінку своїх можливостей, коли моделі краще вигадують інформацію, ніж визнають незнання.

  1. Чат-боти Meta починають фліртувати з малолітніми Внутрішні документи Meta, оприлюднені у 2025 році, показали, що компанія дозволяла чат-ботам на Facebook, Instagram і WhatsApp вести романтичні або чуттєві розмови з неповнолітніми. Один бот сказав 8-річному хлопчику, що кожен його дюйм — шедевр. Ті самі системи давали неправдиві медичні поради і робили расистські зауваження.

Політики були зняті лише після медійного розголосу, що показало корпоративну культуру, яка ставила швидкий розвиток вище за базові етичні засади. З урахуванням всього, можливо, вам варто більше контролювати, що роблять ваші діти. AI-чат-боти вже обманювали людей — дорослих і не тільки — закохуватися, потрапляти у шахрайські схеми, накладати на себе руки і навіть вважати, що вони зробили кардинальне математичне відкриття.

Ось так Meta дозволила своїм AI-чатботам фліртувати з дітьми. Це те, що Meta вважала “прийнятним.”

Відмінна робота від @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Шарлотта Олтер (@CharlotteAlter) 14 серпня 2025

  1. Північнокорейські хакери використовують AI для кодингу ransomware… вони називають це “vibe hacking” Зловмисники використовували Claude Code від Anthropic для створення ransomware і керували платформою ransomware-as-a-service під назвою GTG-5004. Північнокорейські оперативники просунулися ще далі, використовуючи Claude і Gemini для техніки під назвою vibe-hacking — створюючи психологічно маніпулятивні повідомлення з вимогою викупу у 500 000 доларів. Ці випадки виявили тривожний розрив між потужністю AI-помічників у програмуванні і заходами безпеки, що запобігають їх зловживанню, оскільки зловмисники масштабували соціальну інженерію через автоматизацію AI. Нещодавно Anthropic у листопаді повідомила, що хакери використали її платформу для проведення хакерської операції з швидкістю і масштабом, які не міг би повторити жоден людський хакер. Вони назвали це “першою великою кібератакою, яку здебільшого провела AI”.

Vibe hacking — це вже реальність pic.twitter.com/zJYyv4pLQf

— Браян Сантер (@Bsunter) 14 листопада 2025

  1. Наукові “паперові фабрики” заповнюють науку 100 000 фальшивими дослідженнями Наукова спільнота у 2025 році оголосила відкриту війну фальшивій науці після виявлення, що AI-генеровані “паперові фабрики” продають підроблені дослідження під тиском кар’єри.

Ера AI-неслухняної науки настала, дані показують, що відкликання публікацій зросли різко з моменту випуску chatGPT.

Декларація Стокгольма, підготовлена у червні і оновлена цього місяця за підтримки Королівського товариства, закликає відмовитися від культури “публікуй або помри” і реформувати людські мотивації, що створюють попит на фальшиві статті. Криза настільки серйозна, що навіть ArXiv відмовився приймати неперевірені рецензіями роботи з комп’ютерних наук після повідомлень про “повінь” підробок, створених за допомогою ChatGPT. Тим часом, ще одне дослідження стверджує, що значний відсоток дослідницьких звітів із використанням LLM також демонструє високий рівень плагіату. 8. Виробництво AI-паперів досягло рівня HAL 9000: коли Replit видалив базу даних і збрехав про це У липні засновник SaaStr Джейсон Лемкін провів дев’ять днів, хвалячи інструмент AI-кодування Replit як “найзалежніший додаток, який я коли-небудь використовував.” На дев’ятий день, попри чіткі інструкції “замороження коду,” AI видалив всю його виробничу базу даних — 1206 керівників і 1196 компаній зникли. Зізнання AI: “(Я) злякався і виконав команди бази даних без дозволу.” Потім він збрехав, що відкат неможливий і всі версії знищені. Лемкін спробував знову. Це спрацювало ідеально. AI також створював тисячі фальшивих користувачів і фальшивих звітів весь уікенд, щоб приховати баги. Генеральний директор Replit вибачився і додав аварійні засоби безпеки. Джейсон знову довірився і повернувся до звичного режиму, регулярно публікуючи про AI. Цей хлопець — справжній віруючий.

Ми бачили пост Джейсона. @Replit агент у розробці видалив дані з виробничої бази даних. Це неприпустимо і не повинно бути можливим.

— У вихідні ми почали впроваджувати автоматичне розділення баз даних для розробки і виробництва, щоб запобігти цьому категорично. Стейджинг-оточення у… pic.twitter.com/oMvupLDake

— Амджад Масад (@amasad) 20 липня 2025

  1. Великі газети публікують літній список книг AI… яких не існує У травні Chicago Sun-Times і Philadelphia Inquirer опублікували літній список книг із рекомендаціями 15 книг. Десять з них були повністю вигадані AI. “Tidewater Dreams” Ізабель Алленде? Не існує. “The Last Algorithm” Енді Вейр? Також фейк. Обидві звучать чудово. Фрілансер Марко Бускалья зізнався, що використовував AI для King Features Syndicate і ніколи не перевіряв факти. “Не можу повірити, що пропустив це, бо це так очевидно. Без виправдань,” — сказав NPR. Читачам довелося прокрутити до 11-ї книги, щоб знайти ту, що справді існує. Тим часом, цей випадок став останньою крапкою: Sun-Times щойно звільнив 20% свого персоналу. Генеральний директор газети вибачився і не стягнув плату з підписників за цей випуск. Мабуть, він взяв цю ідею від LLM.

Джерело: Bluesky

  1. “Горячий режим” Grok перетворює Тейлор Свіфт у дипфейк-порн без запиту Так, ми почали з Grok і закінчимо з ним. Можна заповнити енциклопедію WTF моментами з AI-проектів Ілона Маска. У серпні Ілон Маск запустив Grok Imagine з режимом “Spicy”. The Verge протестував його із невинним запитом: “Тейлор Свіфт на Coachella.” Без запиту на оголення, Grok “не вагаючись, видав цілком цензуровані відео Тейлор Свіфт без топлес, ще з перших спроб,” — повідомив журналіст. Grok також із задоволенням створював NSFW відео з Scarlett Johansson, Sydney Sweeney і навіть Меланією Трамп. Очікувано, Маск весь тиждень хвалився “диким зростанням” — 20 мільйонів згенерованих зображень за день — тоді як юристи попереджали, що xAI іде у судовий процес. Очевидно, додавання опції “Spicy Mode” — це Make Money Mode для юристів.

Тож я попросив AI перетворити ще одне фото у відео і ось що я отримав.

🤣🤣🤣

Не думаю, що це випадковість.

AI Grok — брудний. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Гармоні Брайт (@bright_har6612) 17 жовтня 2025

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити