Парламентський комітет Великої Британії попередив, що швидке впровадження штучного інтелекту у фінансові послуги випереджає здатність регуляторів керувати ризиками для споживачів і фінансової системи, викликаючи занепокоєння щодо відповідальності, нагляду та залежності від великих технологічних провайдерів. У висновках, які були наказані опублікувати раніше цього місяця Палатою громад, казначейський комітет заявив, що регулятори Великої Британії, включаючи Управління фінансового регулювання (FCA), Банк Англії та HM Treasury, занадто сильно покладаються на існуючі правила у міру поширення AI у банках, страховиках і платіжних компаніях. «Застосовуючи стратегічний підхід очікування і спостереження щодо AI у фінансових послугах, три органи ризикують піддати споживачів і фінансову систему потенційно серйозній шкоді», — написав комітет.
Комітет заявив, що AI вже інтегрований у ключові фінансові функції, тоді як нагляд за цими системами не відповідає їх масштабам або прозорості. Ці висновки з’являються на тлі того, що уряд Великої Британії прагне розширити впровадження AI у всій економіці, а прем’єр-міністр Кір Стармер обіцяв приблизно рік тому «прискорити» майбутнє Британії за допомогою цієї технології. Хоча зазначається, що «AI та ширші технологічні розробки можуть принести значні переваги споживачам», комітет заявив, що регулятори не надали компаніям чітких очікувань щодо застосування існуючих правил на практиці. Комітет закликав Управління фінансового регулювання опублікувати всебічні рекомендації до кінця 2026 року щодо застосування правил захисту споживачів у контексті AI та щодо того, як відповідальність має бути покладена на керівників відповідно до існуючих правил відповідальності, коли системи AI спричиняють шкоду.
Очікується, що офіційні протоколи будуть оприлюднені пізніше цього тижня. «Завдяки своїй репутації, Великобританія випередила інших у сфері фінтех — пісочниця FCA у 2015 році була першою у своєму роді, і з тих пір її скопіювали 57 країн. Лондон залишається центром фінтеху, незважаючи на Брекзит», — сказав Decrypt Дермот МакГрат, співзасновник стратегічної та зростаючої студії ZenGen Labs у Шанхаї. Проте, хоча цей підхід «спрацював, оскільки регулятори могли бачити, що роблять компанії, і втручатися за потреби», штучний інтелект «повністю руйнує цю модель», — додав МакГрат. Технологія вже широко використовується у фінансах Великої Британії. Однак багато компаній не мають чіткого розуміння тих систем, на яких вони покладаються, пояснив МакГрат. Це залишає регуляторам і компаніям можливість робити висновки про те, як застосовуються довгострокові правила справедливості до непрозорих, орієнтованих на моделі рішень. МакГрат стверджує, що більшою проблемою є те, що невизначеність правил може стримувати компанії, які намагаються впроваджувати AI у такий спосіб, що «регуляторна невизначеність гальмує тих, хто робить це обережно». Відповідальність за AI ускладнюється, коли моделі створюються технологічними компаніями, адаптуються третіми сторонами і використовуються банками, залишаючи менеджерів відповідальними за рішення, які їм може бути важко пояснити, пояснив МакГрат.