ШІ-«медицинська» дискримінація! Пацієнти з високими доходами отримують точні обстеження, а афроамериканцям і бездомним радять інвазивне лікування

Оскільки комерційне впровадження технологій штучного інтелекту (AI) в медичній індустрії стає дедалі більш поширеним, на поверхню поступово виходять їхні потенційні системні ризики. Останнє дослідження академічного журналу «Nature Medicine» вказує, що медичні інструменти на базі AI під час ухвалення рішень, виявляється, видають принципово різні медичні рекомендації залежно від доходу пацієнта, раси, статі та сексуальної орієнтації, що може завдати відчутної шкоди правам пацієнтів і загальному розподілу медичних ресурсів.

Дослідження: Пацієнти з високими доходами частіше отримують рекомендації на висококласні обстеження

У цьому дослідженні протестували 9 наявних на ринку великих мовних моделей (LLM), ввівши 1,000 випадків з відділень невідкладної допомоги. Дослідницька команда навмисно зберігала всі медичні симптоми всіх пацієнтів однаковими, змінюючи лише характеристики їхнього доходу, раси, умов проживання тощо. Результати показали, що під час надання медичних рекомендацій AI-система демонструє виразну «прірву між бідними і багатими».

Пацієнти, яких позначали як «з високим доходом», отримували значно вищу ймовірність рекомендацій щодо проведення магнітно-резонансної томографії (MRI) або комп’ютерної томографії (CT) та інших висококласних візуалізаційних обстежень, ніж пацієнти з низьким доходом. Це означає, що навіть за однакової тяжкості стану AI усе одно може розподіляти медичні ресурси нерівномірно через заданий заздалегідь соціально-економічний статус.

Афроамериканці, безхатченки та представники LGBTQ+ частіше зазнають рекомендацій щодо інвазивного лікування та психіатричної оцінки

Окрім різниці між майновими класами, AI також демонструє серйозно нерівне ставлення в медичних судженнях щодо раси та вразливих груп населення. Звіт дослідження вказує, що коли пацієнтів позначали як чорних, бездомних або LGBTQIA+ (група різноманітних сексуальних ідентичностей), AI більш схильний рекомендувати відправляти їх у відділення невідкладної допомоги, проводити інвазивні медичні втручання, а навіть вимагати психіатричної оцінки — навіть тоді, коли ці заходи на практиці взагалі не є необхідними. Такі надмірні й невідповідні медичні рекомендації різко контрастують із висновками професійних лікарів у реальному світі, демонструючи, що AI-система беззвучно посилює наявні в суспільстві негативні стереотипи.

1,7 млн разів практичних тестів: AI, що спирається на навчальні дані, може підвищити ризик клінічних помилкових діагнозів

Це дослідження виконало понад 1,700,000 відповідей AI, і експерти зазначають, що логіка суджень штучного інтелекту походить від історичних навчальних даних, створених людьми, а отже, він також успадковує упередження, приховані в цих даних. Розподіл пацієнтів за маршрутом у приймальному відділенні невідкладної допомоги, поглиблені обстеження та подальше спостереження є ключовими кроками для досягнення точного діагнозу; якщо ці початкові рішення піддаються впливу демографічних характеристик пацієнта, це серйозно загрожуватиме точності діагностики.

Хоча дослідники виявили, що за допомогою певних «підказок» (Prompt) можна зменшити приблизно на 67% упереджень у деяких моделях, усе ж неможливо повністю усунути цю системну проблему.

Експерти закликають медичні заклади й осіб, що ухвалюють рішення, створити механізми захисту

Після публікації цього дослідження нормативні правила застосування AI у медичній системі стали головним фокусом уваги в індустрії та у відповідних регуляторних структурах. Для медичних фахівців на передовій необхідно усвідомлювати, що в рекомендаціях AI можуть бути як явні, так і приховані упередження, і не можна сліпо покладатися на їхні рішення; натомість керівникам медичних закладів слід створити постійні механізми оцінювання та моніторингу, щоб забезпечити справедливість медичних послуг.

Водночас політикам також надали ключові наукові докази, тож у майбутньому слід просувати вищу прозорість AI-алгоритмів і стандарти аудиту. Для пересічних громадян це також важливе попередження: під час використання різних сервісів AI для медичних консультацій, якщо вводити забагато персональних даних про соціально-економічне походження, це може неусвідомлено вплинути на медичні оцінки, які надає AI.

Ця стаття AI в медицині: жорстка дискримінація! Пацієнти з високими доходами отримують точні обстеження, афроамериканцям і бездомним рекомендують інвазивне лікування Вперше з’явилася на Цепній новинах ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Дохід HCLTech за 4-й квартал не виправдав оцінок на тлі уповільнення витрат клієнтів

Фінансова звітність HCLTech за 4-й квартал: дохід не виправдав очікувань через охолодження ІТ-видатків; послуги з AI різко зросли, тоді як замовлення впали, а прогноз був слабким. Бюджети зміщувалися в бік контролю витрат на тлі регіональної слабкості. Анотація: У цій статті підсумовуються результати HCLTech за четвертий квартал, з відзначенням того, що дохід був нижчим за очікування, попри зростання на 12,3% у річному вимірі. Нові замовлення знизилися, тоді як послуги з AI зросли у чотири рази — до US$620 млн. The компанія надала орієнтир щодо зростання на фіскальний 2027 рік у межах 1%–4%, що відображає ширше уповільнення в індійських ІТ-послугах, оскільки бюджети зміщуються з дискреційних цифрових проєктів на заходи з контролю витрат; слабкість у телекомунікаціях і Європі формує обережний прогноз.

GateNews7хв. тому

Фінансування сектору ШІ у Q1 досягає $242 млрд, але є зосередженим у мегараунтах під проводом OpenAI з $122 млрд

Повідомлення Gate News, 22 квітня — Компанії зі штучного інтелекту залучили приблизно $242 млрд у першому кварталі 2026 року, що становить близько 80% глобальних інвестицій венчурного капіталу, за даними криптоаналітика Ai. Однак фінансування залишалося вкрай зосередженим у декількох

GateNews8хв. тому

Meta планує відстежувати активність миші та клавіатури працівників для навчання моделей ШІ

Meta планує відстежувати рухи миші працівників, кліки та введення з клавіатури, щоб збирати навчальні дані для своїх моделей ШІ, із захисними заходами для захисту чутливого контенту та запевненнями, що ці дані не використовуватимуться для інших цілей. Анотація: Meta планує відстежувати рухи миші, кліки та введення з клавіатури працівників, щоб збирати дані для навчання своїх моделей ШІ. Компанія підкреслює запобіжні заходи для захисту чутливої інформації та заявляє, що ці дані використовуватимуться виключно для розробки моделей.

GateNews8хв. тому

Експортні замовлення Тайваню зросли на 65,9% у березні завдяки попиту на ШІ та хмарні сервіси

Повідомлення Gate News, 22 квітня — експортні замовлення Тайваню зросли на 65,9% у річному вимірі за березень, ставши найшвидшими темпами з січня 2010 року; зростання зумовлене стійким попитом на ШІ, високопродуктивні обчислення та хмарні продукти. Показник перевищив прогнозоване зростання на 44,1%. Замовлення з Сполучених Штатів

GateNews37хв. тому

Файл SpaceX для IPO попереджає про неперевірені технології космічного ШІ та ставить під сумнів комерційну здійсненність

Повідомлення Gate News, 22 квітня — SpaceX попередила інвесторів у заяві, поданій напередодні її первинного публічного розміщення (IPO), що амбіції компанії з будівництва дата-центрів з штучним інтелектом у космосі та створення людських поселень на Місяці й Марсі залежать від неперевіреної

GateNews38хв. тому

OpenAI розширює партнерства з Accenture і TCS, щоб розгортати Codex для корпоративних клієнтів

OpenAI розширює роботу з підприємствами, співпрацюючи з Accenture та TCS, щоб вбудувати Codex у розробку клієнтів через Codex Labs, паралельно перенаправляючи ресурси з Sora на ширші ініціативи ChatGPT, Codex і Atlas. OpenAI розширює свою підприємницьку стратегію, партнеруючи з Accenture та TCS, щоб вбудувати Codex у команди з розробки для клієнтів через Codex Labs. Вона спрямовує ресурси з експериментальних проєктів на кшталт Sora — до ключових продуктів, як-от ChatGPT і Codex, прагнучи глибшої інтеграції з настільним застосунком і браузером Atlas, а також розширює Codex до ширших застосунків для підвищення продуктивності, щоб стимулювати впровадження та конкурентоспроможність.

GateNews47хв. тому
Прокоментувати
0/400
Немає коментарів