Точність і надійність пошукових рекомендацій Google щодо штучного інтелекту залишаються смертельною проблемою

Google наполегливо працює над усуненням неправдивих і потенційно небезпечних відповідей зі своїх результатів пошуку ШІ. Однак нова функція «Огляд штучного інтелекту» іноді спотворює жарти та сарказм у соціальних мережах та сатиричних сайтах як факти.

Нещодавно опубліковані результати пошуку ШІ від Google привернули багато уваги, але причини не такі позитивні, як очікувалося. У рамках своєї нещодавно запущеної стратегії «Twin Times» минулого тижня технологічний гігант оголосив про низку нових інструментів штучного інтелекту. За цим послідували значні зміни в службі веб-пошуку, де відповіді на запитання в результатах пошуку тепер відображаються природною мовою безпосередньо поверх посилань на веб-сайти.

Хоча оновлення Google робить пошукову технологію більш досконалою та здатною відповідати на складніші запитання користувачів, воно також викликає деякі занепокоєння. Наприклад, штучний інтелект іноді може надавати користувачам неправильну або оманливу інформацію під час обробки результатів пошуку, що особливо проблематично, коли йдеться про такі делікатні теми, як євгеніка.

Євгеніка помилково використовувалася для деяких нелюдських політик історії, тому точність і чутливість її інформації особливо важливі. Крім того, ШІ також має проблему недостатньої точності при ідентифікації деяких специфічних речей, наприклад, розрізнення отруйних і неотруйних грибів.

Це нагадує нам про необхідність бути особливо обережними під час використання інструментів пошуку штучного інтелекту для запитів, пов’язаних зі здоров’ям і безпекою, і звертатися за професійним підтвердженням, коли це можливо.

Google AI, надаючи відповіді «Огляд ШІ», іноді посилається на контент із соціальних мереж, таких як Reddit, який, можливо, спочатку був призначений для жартівливих або саркастичних цілей. Це призвело до того, що деякі явно помилкові або безглузді відповіді були запропоновані користувачам.

Наприклад, один користувач повідомив, що коли його запитали, як боротися з депресією, Google AI насправді запропонував «стрибнути з мосту Золоті ворота». Інші відповіді абсурдно підтверджують антигравітаційну здатність, що люди можуть залишатися в шортах так само лонг не дивитися вниз.

Ці приклади показують, що, хоча штучний інтелект досяг прогресу в наданні результатів пошуку, все ще існують недоліки в точності та надійності, які потребують подальшого вдосконалення.

Партнерство Google з Reddit покликане полегшити користувачам пошук і участь у спільнотах і обговореннях, які їх цікавлять. Однак співпраця також наражає на себе деякі ризики, особливо коли ШІ обробляє контент з Reddit. Оскільки штучний інтелект може не мати здатності розрізняти автентичність або контекст інформації, він може приймати та цитувати інформацію на Reddit без дискримінації.

Таке безладне прийняття інформації може призвести до появи в результатах пошуку оманливих або навіть безглуздих пропозицій. Наприклад, штучний інтелект одного разу дав недоречну пропозицію дітям з’їдати принаймні один маленький камінь на день, а також неправильно позначив цю пропозицію як таку, що походить від геолога з Каліфорнійського університету в Берклі. Цей приклад ілюструє, як штучний інтелект може вводити в оману, ігноруючи достовірність і придатність інформації при обробці інформації в Інтернеті.

У той час як Google видалив або виправив деякі, очевидно, безглузді відповіді, моделі, створені штучним інтелектом, іноді дають неточні або вигадані відповіді, явище, відоме як «галюцинації». Ці «галюцинації» можна вважати неправдивими твердженнями, оскільки ШІ створює щось, що не відповідає дійсності.

Це свідчить про те, що штучний інтелект потребує вдосконалення у розрізненні автентичності та контексту інформації, а також потребує подальшої оптимізації, щоб гарантувати, що надана інформація є точною та надійною.

У той же час штучний інтелект Google помилково рекомендував використовувати клей, щоб запобігти зісковзуванню сиру з піци, припущення, яке походить від коментаря десятирічної давності на Reddit.

Модель ChatGPT від OpenAI була випадком фабрикації, включаючи неправдиве звинувачення професора права Джонатана Терлі в сексуальному насильстві на основі поїздки, в якій він не брав участі. Цей інцидент відображає той факт, що ШІ може бути надмірно самовпевненим в обробці інформації та не в змозі точно відрізнити автентичність від фальшивості контенту в Інтернеті.

Крім того, надмірна самовпевненість ШІ може призвести до того, що він без розбору сприйме всю інформацію в Інтернеті як правдиву, і ця довіра може призвести до помилкових суджень, таких як помилкове покладання провини на колишніх керівників Google і помилкове винесення обвинувальних вироків компаніям у контексті антимонопольного законодавства.

Коли користувачі шукають у Google запитання, пов’язані з поп-культурою, запропонована функція пошуку штучного інтелекту іноді може призвести до жартівливих або заплутаних результатів. Це може бути пов’язано з тим, що ШІ може зіткнутися з труднощами в розумінні контенту поп-культури, особливо якщо він містить гумор, сатиру або певний соціальний контекст. Штучному інтелекту може бути важко точно зрозуміти справжній намір цього вмісту, що призводить до пропозицій або відповідей, які можуть не відповідати очікуванням користувача, викликаючи деякі несподівані реакції.

Крім того, незважаючи на те, що штучний інтелект оновив свої рекомендації щодо вживання дітьми каменів, зазначивши, що можливі причини включають цікавість, проблеми з сенсорною обробкою або розлади харчової поведінки, ці реакції все ще вимагають професійної оцінки і не повинні використовуватися як остаточне керівництво. Це підкреслює необхідність бути особливо обережними та звертатися за професійною порадою під час використання інформації, наданої штучним інтелектом, особливо коли йдеться про здоров’я та безпеку.

Висновок:

Незважаючи на те, що функція пошукових підказок Google AI досягла значного технологічного прогресу, її недостатня точність і надійність все ще може призвести до серйозних наслідків. Від невибіркового прийняття інформації на платформах соціальних мереж, таких як Reddit, до оманливої інформації на делікатні теми, такі як євгеніка, до неналежної самокриміналізації в правовому полі, ці інциденти висвітлили значні недоліки в перевірці інформації та судженнях ШІ.

Крім того, проблема моделей штучного інтелекту, які фабрикують факти або створюють «галюцинації», також показує їх обмеженість при вирішенні складних проблем. Тому ми повинні бути пильними щодо інформації, яку надає штучний інтелект, звертатися за професійною порадою та закликати розробників і дослідників постійно вдосконалювати технологію штучного інтелекту, щоб гарантувати, що вона приносить людству більше лонг користі, а не ризиків.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити