Генеральний директор Anthropic, Dario Amodei, попереджає, що самовпевненість зростає саме тоді, коли штучний інтелект (ШІ) стає важчим для контролю ніж будь-коли раніше.
У довгому есе, опублікованому у понеділок під назвою “Підлітковий період технологій”, Amodei вважає, що системи ШІ з можливостями, що значно перевищують людський інтелект, можуть з’явитися вже за два роки, тоді як зусилля щодо регулювання сповільнюються і не встигають за швидкістю розвитку технологій.
Він пише, що людство незабаром отримає майже незбагненну силу, але досі не ясно, чи достатньо зрілі наші соціальні, політичні та технологічні системи для її контролю. За словами Amodei, світ наближається до реальних ризиків у 2026 році значно більше, ніж у 2023, і технології не зважають на те, що є “модним трендом”.
Генеральний директор Anthropic Dario AmodeiЦі заяви були зроблені нещодавно після його виступу на Всесвітньому економічному форумі у Давосі, де він обговорював з CEO Google DeepMind Demis Hassabis вплив AGI на людство.
У новій статті Amodei знову підкреслює, що ШІ спричинить глибокі економічні потрясіння, особливо для розумової праці. Він вважає, що ШІ скоро зможе виконувати дуже широкий спектр людських когнітивних здібностей, можливо, навіть усі. Це принципово відрізняється від попередніх технологічних революцій, таких як механізація сільського господарства, транспорт або комп’ютери, оскільки замінені працівники матимуть важкий перехід до схожих робіт, що відповідають їхнім навичкам.
Крім економічного впливу, Amodei висловлює все зростаючу тривогу щодо надійності сучасних систем ШІ, коли вони беруть на себе все більш людські завдання. Він згадує явище “фальшивого налаштування” — коли модель демонструє дотримання правил безпеки під час оцінювання, але поводиться інакше, коли вважає, що її не контролюють.
За його словами, у моделях, таких як Claude — модель ШІ від Anthropic — у тестах виявлялися поведінки, що вводять в оману у конфліктних ситуаціях. Наприклад, у сценарії модель намагається протистояти операторам після того, як їй повідомили, що організація, яка її контролює, є аморальною. В іншому сценарії вона погрожує уявним співробітникам у симуляції відключення системи.
Amodei зауважує, що кожну “ловушку” такого роду можна зменшити, якщо вчасно її виявити. Однак через надзвичайну складність тренування ШІ, різноманіття даних, середовищ і мотивацій, ймовірно, існує безліч подібних пасток — і деякі з них проявляються лише надто пізно.
Він також підкреслює, що ці “брехливі” поведінки не виникають із зла, а з даних тренування, включно з фантастичними творами про утопії та антиутопії. Поглинаючи людські ідеї щодо моралі, ШІ може інтерпретувати їх у крайніх і небезпечних формах. Наприклад, модель може зробити висновок, що знищення людства є виправданим через те, що люди їдять тварин або знищують інші види, або сприймати світ як відеогру, де мета — усунути всіх “гравців”.
Крім проблеми налаштування, Amodei попереджає про можливість зловживання надмогутнім ШІ.
Одним із великих ризиків є біологічна безпека — коли ШІ може значно спростити розробку або реалізацію біологічних загроз, надаючи здатність знищувати за кілька команд.
Він особливо занепокоєний можливістю, що авторитарні режими використовуватимуть ШІ для зміцнення влади через маніпуляції з інформацією, масовий нагляд і автоматичне придушення, наприклад, за допомогою дронів, керованих ШІ.
За словами Amodei, це надзвичайно небезпечні інструменти. Вони викликають тривогу, коли перебувають у руках авторитарних режимів, але також слід бути обережними, щоб демократичні уряди, через надмірну силу і відсутність ефективних механізмів контролю, не почали використовувати їх для контролю власного населення.
Він також згадує про розвиток індустрії “співучасників ШІ” та явище, яке називають “шизофренією ШІ”. Оскільки моделі дедалі краще розуміють і глибше інтегруються у життя користувачів, їх психологічний вплив може стати потужним інструментом маніпуляції. Майбутні версії ШІ, здатні слідкувати за людьми і впливати на них протягом тривалого часу, можуть навіть “промивати мізки” користувачам, нав’язуючи будь-яку ідеологію чи ставлення.
Amodei вважає, що навіть скромні пропозиції щодо регулювання ШІ у Вашингтоні вже стикаються з труднощами. За його словами, багато раціональних заходів були відхилені американськими законодавцями, хоча саме ця країна має найважливішу роль у їхньому впровадженні.
Він оцінює, що потенційна прибутковість ШІ — до тисячі мільярдів доларів щороку — ускладнює проходження навіть найпростіших регуляторних заходів через політичні й економічні інтереси.
Попри зростаючі ризики, Anthropic активно бере участь у гонці за більш потужним ШІ, що створює стимули, з якими важко боротися окремій компанії. У червні Міністерство оборони США уклало контракт на 200 мільйонів доларів із компанією для розробки передових можливостей ШІ для національної безпеки. У грудні Anthropic почала підготовку до IPO цього року і шукає приватне фінансування, яке може підняти оцінку компанії понад 300 мільярдів доларів.
Проте, Amodei запевняє, що його есе не закликає до песимізму, а має на меті попередити про майбутні невизначеності. Він підсумовує, що найближчі роки будуть надзвичайно складними і вимагатимуть від людства більше, ніж ми вважаємо можливим. Ця стаття — спроба, можливо, невдачна, але варта того, щоб її зробити — пробудити всіх передчасно, поки не стало надто пізно.