2024 рік наближається до кінця, інвестор з Radical Ventures Роб Тоуз ділиться своїми 10 прогнозами щодо штучного інтелекту на 2025 рік:
01Meta розпочне стягувати плату за модель Llama
Meta є символом світу відкритого штучного інтелекту. У захоплюючому випадку стратегічного аналізу підприємства, коли конкуренти, такі як OpenAI і Google, закривають свої передові моделі із вихідним кодом і збирають плату за використання, Meta вирішила безкоштовно надавати свою передову модель Llama.
Тому, що Meta почне стягувати плату з компаній, які використовують Llama, наступного року, це повідомлення здивує багатьох.
Важливо зазначити, що ми не передбачали, що Meta повністю закриє Llama, і це не означає, що будь-який користувач, який використовує модель Llama, повинен за це платити.
Навпаки, ми передбачаємо, що Meta зробить більше обмежень на ліцензійних умовах Llama з відкритим кодом, що означає, що компанії, які використовують модель Llama в комерційному середовищі з певної масштабування, повинні починати платити, щоб використовувати її.
Технічно кажучи, Meta вже досягла цього в обмеженому масштабі. Компанія не дозволяє найбільшим компаніям - хмарним суперкомп’ютерам та іншим компаніям з понад 700 мільйонами активних користувачів - вільно використовувати свою модель Llama.
Уже в 2023 році голова Meta Марк Цукерберг сказав: “Якщо ви компанія, така як Microsoft, Amazon або Google, і ви фактично перепродаєте лам, то ми повинні отримувати частину доходу з цього. Я не думаю, що це буде велика сума в найближчий час, але в довгостроковій перспективі сподіваюся, що це стане деяким доходом.”
Наступного року Meta значно розширить обсяг платного користування Llama в корпоративному секторі, включивши в нього більше середніх і великих підприємств.
Стежити за передовими великими мовними моделями (LLM) - це дуже дорого. Щоб зробити так, щоб Llama була або наблизилася до останніх моделей передових компаній, таких як OpenAI, Anthropic, Meta потрібно вкладати десятки мільярдів доларів щороку.
Meta - одна з найбільших і найбагатших компаній у світі. Однак, вона є публічною компанією і повинна відповідати перед своїми акціонерами.
При зростанні вартості навчання передових моделей виробництва підприємство Meta витрачає на навчання наступного покоління моделі Llama такі великі кошти без очікуваного доходу, що це стає все більш неприйнятним.
У 2025 році Meta почне серйозно отримувати прибуток від Llama, але аматори, вчені, індивідуальні розробники і стартапи продовжать безкоштовно використовувати модель Llama.
**02.**Проблеми, пов’язані з “правилом масштабування”
Останніми тижнями однією з найбільш обговорюваних тем у сфері штучного інтелекту є закони масштабування (Scaling laws) та питання їхнього можливого завершення.
Закон масштабування був вперше висунутий в 2020 році в одній з публікацій OpenAI. Його основна концепція досить проста: під час тренування моделей штучного інтелекту зі збільшенням кількості параметрів моделі, обсягу тренувальних даних і обчислювальної потужності ефективність моделі буде надійно та передбачувано покращуватися (технічно кажучи, її втрати під час тестування будуть зменшуватися).
Від GPT-2 до GPT-3, а тепер GPT-4, вражаюче покращення продуктивності - це заслуга закону масштабування.
Як і закон Мура, закон масштабування насправді не є справжнім правилом, а лише простим спостереженням.
Протягом минулого місяця серія звітів свідчила про те, що при подальшому збільшенні масштабів великих мовних моделей основних лабораторій з штучного інтелекту спостерігається зменшення виходу. Це допомагає пояснити, чому випуск GPT-5 від OpenAI знову й знову відкладається.
Найпоширенішим спротивом до закону масштабування, який проголошує стабільність масштабування, є те, що обчислення, які здійснюються під час тестування, відкривають нове вимірювання, на якому можна розширювати масштаб.
Це означає, що замість великомасштабного розширення обчислень під час тренування нова модель мислення, така як o3 від OpenAI, робить можливим великомасштабне розширення обчислень під час мислення, дозволяючи моделі “думати довше” для розблокування нових можливостей штучного інтелекту.
Це важлива точка зору. Під час тестування обчислення справді представляють собою новий захоплюючий шлях розширення, а також покращення продуктивності штучного інтелекту.
Але щодо ще однієї думки щодо закону масштабування, яка є набагато важливішою та в даний час сильно недооцінюється в дискусіях. Практично всі дискусії про закон масштабування, починаючи з початкової статті 2020 року, і далі увага приділяється обчисленням під час тестування, зосереджена на мові. Але мова не єдиний важливий шаблон даних.
Подумайте про робототехніку, біологію, світову модель чи мережевого агента. Для цих моделей даних закон масштабування ще не насичений, а навпаки, він тільки починається.
Фактично, жоден строгий доказ про існування масштабних законів у цих галузях досі навіть не опубліковано.
Для цих стартапів, які будують базові моделі для цих нових типів даних, таких як Evolutionary Scale в галузі біології, PhysicalIntelligence в галузі робототехніки та WorldLabs в галузі світових моделей, наразі намагаються виявити та використовувати масштабні закони цих галузей, так само як OpenAI успішно використовував закони масштабування великих мовних моделей (LLM) у першій половині 2020-х років.
Наступного року тут передбачається величезний прогрес.
Закони масштабування не зникнуть, вони будуть так само важливими у 2025 році. Однак центром активності законів масштабування стане інший режим, а не LLM передпідготовки.
**03.**Трамп і Маск можуть мати розбіжності в напрямку штучного інтелекту
Новий уряд США принесе ряд змін у політиці та стратегії щодо штучного інтелекту.
Для того, щоб передбачити напрямок розвитку штучного інтелекту під час інавгурації президента Трампа, а також враховуючи нинішню центральну роль Маска у сфері штучного інтелекту, можна було б зосередитися на тісних стосунках обраного президента з Маском.
Цілком можливо, що Маск може вплинути на розробки адміністрації Трампа, пов’язані зі штучним інтелектом, кількома різними способами.
У зв’язку з глибоким ворожнечу Маска та OpenAI, нова влада може ставитися до OpenAI не дуже дружелюбно в контактах з галуззю, розробці правил штучного інтелекту, укладенні угод з урядом, це справжнє хвилювання OpenAI сьогодні.
З іншого боку, уряд Трампа, можливо, більше схильний підтримувати компанію самого Маска: наприклад, знизити бюрократичні перешкоди, щоб дозволити xAI встановлювати центри обробки даних та бути в лідерах у змаганні за передові моделі; забезпечувати швидке регулювання для розгортання роботів-таксі від Tesla тощо.
Що більш фундаментально, на відміну від багатьох інших технологічних лідерів, яких підтримує Трамп, Маск дуже серйозно ставиться до ризиків безпеки ШІ, і тому виступає за значне регулювання штучного інтелекту.
Він підтримує спірний законопроект SB1047 Каліфорнійського штату, який намагається накласти суттєві обмеження на розробників штучного інтелекту. Таким чином, вплив Маска може призвести до посилення регуляторного середовища для штучного інтелекту в США.
Однак з усіма цими спекуляціями є проблема. Близькість між Трампом і Маском неминуче розпадеться.
!
Як ми бачили в першу ж року уряду Трампа і раз за разом, середня тривалість перебування в уряді союзників Трампа, навіть найбільш стійких, дуже коротка.
Серед небагатьох залишився вірним до першого уряду Трампа.
Трамп і Маск - обидва складні, змінні, непередбачувані особистості, вони не легко співпрацюють, вони виснажують, їхнє нове дружба вже приносить взаємовигідність, але все ще перебуває в “медовому місяці”.
Ми передбачаємо, що ці відносини погіршаться до кінця 2025 року.
Що це означає для світу штучного інтелекту?
Це хороша новина для OpenAI. Для акціонерів Tesla це буде нещаслива новина. А для тих, хто стежить за безпекою штучного інтелекту, це буде розчарування, оскільки це майже гарантує, що уряд США під час президентства Трампа буде відноситися до регулювання штучного інтелекту легковажно.
04AI Агент стане основним
Уявіть, що в цьому світі вам вже не потрібно прямо взаємодіяти з Інтернетом. Кожного разу, коли вам потрібно керувати підписками, оплачувати рахунки, записатися до лікаря, замовляти речі на Amazon, бронювати ресторани або виконувати будь-які інші нудні онлайн-завдання, вам просто потрібно вказати штучному інтелектуальному помічнику зробити це за вас.
Ця концепція ‘мережевого проксі’ існує вже декілька років. Якщо такий продукт існує та працює належним чином, то без сумніву він стане дуже успішним продуктом.
Однак на ринку ще немає універсального веб-проксі, який би працював належним чином.
Стартапи, такі як Adept, з чистою кров’ю засновницької команди та залученням сотень мільйонів доларів, не змогли реалізувати свої бажання.
Наступний рік стане роком, коли мережеве посередництво нарешті почне працювати добре і стане основним. Постійні вдосконалення мовних та візуальних базових моделей, а також останні прориви в здатності до “мислення другою системою” за рахунок нових моделей мислення і обчислень часу мислення означатимуть, що мережеве посередництво готове до входу в золоту еру.
Іншими словами, ідея Adept правильна, просто ще зарано. У стартапів, як і в багатьох інших речах у житті, все залежить від часу.
Мережевий агент буде знаходити різноманітні цінні справи для підприємств, але ми вважаємо, що найбільшим ринковим шансом для мережевого агента в найближчий час буде споживач.
Незважаючи на те, що за останнім часом штучний інтелект не втрачає популярності, проте окрім ChatGPT, штучних інтелектуальних нативних додатків, які могли б стати популярними серед споживачів, відносно мало.
Мережевий проксі змінить цю ситуацію і стане наступним справжнім «смертоносним» застосуванням в галузі штучного інтелекту для споживачів.
05Ідея розміщення центру обробки даних зі штучним інтелектом в космосі буде реалізована
У 2023 році ключовими фізичними ресурсами, що обмежують розвиток штучного інтелекту, є чіпи GPU. У 2024 році це сталося з електроенергією та дата-центрами.
У 2024 році мало що може порівнятися з історією штормового зростання потреби в енергії, яку створює штучний інтелект, якій виникла одночасно з великим попитом на будівництво додаткових центрів обробки даних з штучним інтелектом.
Завдяки бурхливому розвитку штучного інтелекту, попит на електроенергію у світових дата-центрах, після десятиліть стабільності, очікується подвоїтися між 2023 та 2026 роками. У США очікується, що споживання енергії дата-центрами досягне майже 10% від загального обсягу до 2030 року, у той час як у 2022 році цей показник складатиме всього 3%.
!
Сучасна енергетична система не здатна впоратися з величезним зростанням попиту на робочі навантаження штучного інтелекту. Наша енергетична мережа та обчислювальна інфраструктура, які мають значення в десятки трильйонів доларів, стануть свідками історичного зіткнення.
Як можливий варіант вирішення цієї проблеми ядерна енергія в цьому році стрімко розвивається. Ядерна енергія є ідеальним джерелом енергії штучного інтелекту в багатьох відношеннях: вона є енергією без викидів CO2, доступною цілодобово, і фактично безмежною.
Однак насправді, через тривалий час досліджень, розробки та нагляду за проектами, нова енергетика не зможе вирішити цю проблему до 2030-х років. Це справедливо для традиційних атомних електростанцій поділу, наступного покоління «малих модульних реакторів» (ММР) та електростанцій ядерного синтезу.
Наступного року з’явиться незвичайна нова ідея для вирішення цього виклику і приверне справжні ресурси: розмістити центр обробки даних штучного інтелекту в космосі.
Центр обробки даних із штучним інтелектом у космосі - на перший погляд, це звучить як погана прикмета, коли інвестор намагається поєднати занадто багато модних стартапів.
Але насправді це може мати сенс.
Найбільшою перешкодою у швидкій побудові більше центрів обробки даних на Землі є отримання необхідної електроенергії. Обчислювальні кластери на орбіті можуть цілодобово користуватися безкоштовною, необмеженою, нульовою за викидами вуглецю електроенергією: сонце завжди сяє у космосі.
Ще одна важлива перевага розміщення обчислень у космосі полягає в тому, що вони вирішують проблему охолодження.
Одним з найбільших інженерних перешкод при будівництві потужнішого центру обробки даних штучного інтелекту є те, що одночасне використання багатьох графічних процесорів в обмеженому просторі може призвести до перегріву, а висока температура може пошкодити або знищити обчислювальне обладнання.
Розробники центрів обробки даних використовують дорогі та непідтверджені методи, такі як занурення в рідину для спроби вирішити цю проблему. Але космос є надзвичайно холодним, тому будь-який тепло, що виникає внаслідок обчислювальної діяльності, миттєво розсіюється безпечно.
Звичайно, є багато практичних викликів, які потребують вирішення. Одне очевидне питання - чи можна і яким чином передавати великі обсяги даних між орбітою та Землею з низькими витратами та високою ефективністю.
Це питання, яке залишається відкритим, але, ймовірно, може виявитися вирішуваним: можна використовувати лазери та інші високобандові оптичні технології для проведення перспективної роботи.
Стартап YCombinator під назвою Lumen Orbit нещодавно залучив 11 мільйонів доларів, щоб втілити це бачення в реальність: побудувати багатомегаватну мережу центрів обробки даних у космосі для навчання моделей штучного інтелекту.
Як сказав генеральний директор компанії: “Замість платити 140 мільйонів доларів за електроенергію, краще заплатити 10 мільйонів доларів за запуск та сонячну енергію.”
!
У 2025 році Lumen не буде єдиною організацією, яка серйозно ставиться до цього поняття.
З’являться й інші конкуренти для стартапів. Не дивуйтесь, якщо кілька великих хмарних обчислювальних компаній також розглядають цю концепцію.
Amazon вже має багатий досвід виведення активів на орбіту за допомогою Project Kuiper; Google вже давно фінансує подібні «moonshots»; Навіть Microsoft не новачок у космічній економіці.
Можна уявити, що компанія SpaceX Ілона Маска також зробить свій внесок у цьому напрямку.
06 Система штучного інтелекту пройде тест Тюрінга на мовлення.
Тест Тьюринга є одним з найстаріших і найвідоміших бенчмарків штучного інтелекту.
Для того щоб “пройти” тест Тьюрінга, система штучного інтелекту повинна бути здатна спілкуватися за допомогою письмового тексту так, щоб звичайна людина не могла відрізнити, чи вона спілкується з штучним інтелектом, чи з іншою людиною.
Завдяки значному прогресу у великих мовних моделях, тест Тюрінга став вирішеною проблемою у 2020-х роках.
Але письмовий текст не є єдиним способом людського спілкування.
У міру того, як штучний інтелект стає все більш мультимодальним, можна уявити собі нову, більш складну версію тесту Тюрінга – «Мовний тест Тюрінга». У цьому тесті система штучного інтелекту повинна вміти взаємодіяти з людьми за допомогою мови, з навичками та вільністю, які неможливо відрізнити від людей-носіїв.
Сьогоднішні системи штучного інтелекту ще не здатні реалізувати голосове тестування Тюрінга, і вирішення цієї проблеми вимагатиме більшого технологічного прогресу. Затримка (затримка між людиною, яка говорить, і реакцією ШІ) повинна бути зменшена майже до нуля, щоб відповідати досвіду розмови з іншою людиною.
Системи мовного штучного інтелекту повинні краще справлятися з неоднозначними введеннями або непорозуміннями в режимі реального часу, наприклад, коли мовлення переривається. Вони повинні вміти брати участь у довгих, багатораундових, відкритих розмовах, пам’ятаючи при цьому перші частини обговорення.
І найголовніше, голосовий інтелектуальний агент повинен навчитися краще розуміти невербальні сигнали у мовленні. Наприклад, якщо людина звучить сердито, захоплено або з іронією, і що саме означають ці невербальні сигнали, він повинен вміти відтворювати їх у своєму власному голосі.
Наближаючись до кінця 2024 року, мовленнєвий штучний інтелект перебуває в захоплюючій точці перегину, що зумовлено фундаментальними проривами, такими як поява моделей перетворення мови в мову.
Сьогодні існує небагато сфер штучного інтелекту, які розвиваються в технологіях і бізнесі швидше, ніж мовний ШІ. Очікується, що у 2025 році новітня технологія мовного ШІ зробить стрибок уперед. ”
07Автономна система штучного інтелекту досягне значного прогресу**
Концепція рекурсивного самовдосконалюваного ШІ була частою темою в спільноті ШІ протягом десятиліть.
Наприклад, ще в 1965 році І. Дж. Гуд, близький співробітник Алана Тюрінга, писав: «Давайте визначимо надрозумну машину як машину, здатну набагато перевершити будь-яку людську інтелектуальну діяльність, якою б розумною вона не була». ”
“Якщо проектування машин - одна з цих інтелектуальних дій, то суперінтелектуальна машина зможе створити кращі машини; до цього часу, без сумніву, відбудеться ‘інтелектуальний вибух’, інтелект людей буде далеко позаду.”
Штучний інтелект може вигадати кращий штучний інтелект - це концепція, що наповнена мудрістю. Але, навіть сьогодні, вона все ще має відбиток науково-фантастичного роману.
Однак, хоча ця концепція ще не отримала широкого визнання, вона фактично почала ставати більш реальною. Дослідники на передньому краї науки про штучний інтелект почали досягати відчутного прогресу у створенні систем штучного інтелекту, які самі можуть створювати кращі системи штучного інтелекту.
Ми прогнозуємо, що вже наступного року цей напрям досліджень стане мейнстрімом.
!
На сьогоднішній день найяскравішим публічним прикладом досліджень у цьому напрямку думки є «вчений зі штучного інтелекту» Сакани.
“Вчений з інтелектом штучного походження” був опублікований в серпні цього року, і він переконливо довів, що системи штучного інтелекту насправді можуть самостійно проводити дослідження в галузі штучного інтелекту.
“Науковець зі штучного інтелекту” Sakana сам виконує весь життєвий цикл дослідження зі штучного інтелекту: читає наявні документи, генерує нові дослідження, розробляє експерименти для перевірки цих ідей, виконує ці експерименти, пише дослідницькі статті для повідомлення про свої дослідження, а потім їх перевіряють колеги."
Ці роботи повністю виконуються штучним інтелектом без втручання людини. Ви можете читати частину наукових статей, написаних вченими з інтелектуальною системою.
OpenAI, Anthropic та інші дослідницькі лабораторії вкладають ресурси в ідею «автоматизованих дослідників штучного інтелекту», хоча публічно нічого не визнається.
За тим, як все більше людей усвідомлюють, що автоматизація досліджень штучного інтелекту фактично стає справжньою можливістю, очікується, що до 2025 року в цій сфері буде більше обговорень, прогресу та підприємницької активності.
Однак найважливішим прапором буде перше прийняте на конференцію зі штучного інтелекту дослідницьке повідомлення, повністю написане агентом штучного інтелекту. Якщо повідомлення буде сліпим рецензуванням, рецензенти конференції не будуть знати, що повідомлення було написане штучним інтелектом, до його прийняття.
Не дивуйтеся, якщо результати досліджень ШІ будуть прийняті NeurIPS, CVPR або ICML наступного року. Це буде захоплюючий і суперечливий історичний момент для сфери штучного інтелекту.
08Великі гравці, такі як OpenAI, зсунули стратегічний акцент на побудову додатків
Створення передових моделей – це важка праця.
Його капіталоємність захоплює дух. Лабораторії передових моделей вимагають значних грошових витрат. Ще кілька місяців тому OpenAI залучила рекордну суму в розмірі 6,5 мільярда доларів, а в майбутньому їй може знадобитись ще більше коштів. Anthropic, xAI та інші компанії також опинилися в схожому положенні.
Витрати на конвертацію та рівень лояльності клієнтів низькі. Програми штучного інтелекту, як правило, будуються з метою модельної незалежності, моделі різних постачальників можуть безперервно перемикатися в залежності від зміни вартості та продуктивності.
З появою передових відкритих моделей, таких як Llama від Meta та Qwen від Alibaba, загроза комерціалізації технологічних продуктів наближається. Лідери штучного інтелекту, такі як OpenAI та Anthropic, не збираються припиняти інвестування в створення передових моделей.
Але в наступному році, для розвитку бізнес-ліній з більш високими прибутками, більшою диференціацією та сильнішою залученістю, очікується, що передовий лабораторія впровадить багато власних додатків та продуктів.
Звичайно, у Frontier Labs вже є дуже успішний кейс використання: ChatGPT.
У наступному році, наскільки ще можна очікувати інших типів першопрохідних додатків з лабораторії штучного інтелекту? Одним з очевидних відповідей є більш складні та функціональніші додатки для пошуку. SearchGPT від OpenAI - це передвісник цього.
Кодування – ще одна очевидна категорія. Аналогічно, з дебютом продукту Canvas від OpenAI у жовтні, розпочалися початкові зусилля з продуктізації.
Чи запустять OpenAI або Anthropic продукт корпоративного пошуку у 2025 році? Або це продукт для обслуговування клієнтів, легальний штучний інтелект або продукт штучного інтелекту для продажів?
З боку споживача ми можемо уявити собі веб-проксі-продукт «персонального помічника», або додаток для планування подорожей, або додаток, який генерує музику.
Найбільш захопливим аспектом розвитку дослідницького центру на передньому краї є те, що цей крок дозволить їм прямо конкурувати з багатьма найважливішими клієнтами.
Perplexity у галузі пошуку, Cursor у галузі кодування, Sierra у галузі обслуговування клієнтів, Harvey у галузі юридичного штучного інтелекту, Clay у галузі продажів тощо.
09Klarna з’явиться у продажу у 2025 році, але є ознаки перебільшення цінності ШІ**
Klarna - це постачальник послуг «купівля зараз, оплата пізніше», заснований у Швеції, який з 2005 року зміг залучити понад 5 млрд доларів інвестицій у ризик.
Можливо, немає компанії, яка могла б порівнятися з Klarna у використанні штучного інтелекту.
Ще кілька днів тому генеративний штучний інтелект, як заявив генеральний директор компанії Klarna Себастьян Сіемятковський Понеділок, повідомив Bloomberg, що компанія повністю припинила наймання людських працівників і тепер покладається на генеративний штучний інтелект, щоб виконувати роботу.
Як сказав Семятковський: “Я вважаю, що штучний інтелект вже може виконувати всі роботи, які роблять люди”.
Подібним чином Klarna оголосила на початку цього року, що запустила платформу обслуговування клієнтів на основі штучного інтелекту, яка повністю автоматизувала роботу 700 агентів-людей.
!
Компанія також стверджує, що припинила використовувати корпоративні програмні продукти, такі як Salesforce і Workday, оскільки може просто замінити їх штучним інтелектом.
Відверто кажучи, ці заяви не заслуговують на довіру. Вони відображають нерозуміння можливостей і недоліків сучасних систем штучного інтелекту.
Заяви про можливість замінити будь-якого конкретного співробітника-людину в будь-якій функції організації наскрізним агентом штучного інтелекту не заслуговують на довіру. Це еквівалентно вирішенню загальної проблеми штучного інтелекту людського рівня.
Зараз провідні стартапи зі штучного інтелекту намагаються побудувати агентну систему на передньому краї цієї галузі, щоб забезпечити автоматизацію конкретних, вузьких, високоструктурованих робочих процесів у підприємстві, таких як підмножина діяльності розвитку продажів або обслуговування клієнтів.
Навіть в таких вузьких рамках ці системи агентів все ще не можуть повністю надійно працювати, хоча в деяких випадках вони вже почали працювати добре, достатньо для комерційного застосування в ранній стадії.
Чому Klarna перебільшує значення штучного інтелекту?
Відповідь дуже проста. Компанія планує вийти на біржу у першому півріччі 2025 року. Ключовим є мати захоплюючу історію штучного інтелекту, щоб успішно вийти на біржу.
Klarna, яка залишається збитковим бізнесом, втратила 241 мільйон доларів минулого року, можливо, сподівається, що її історія зі штучним інтелектом переконає інвесторів публічного ринку в тому, що вона має можливість різко скоротити витрати та отримати тривалий прибуток.
Немає сумнівів, що кожен бізнес у світі, включаючи Klarna, насолоджуватиметься величезним зростанням продуктивності, яке штучний інтелект принесе в найближчі роки. Однак є ще багато гострих технічних, продуктових та організаційних проблем, які потрібно вирішити, перш ніж агенти штучного інтелекту зможуть повністю замінити людей у робочій силі.
Твердження, що перебільшує ролю Klarna, є образою для галузі штучного інтелекту та прогресу, зробленого експертами з технологій штучного інтелекту та підприємцями у розробці агентів штучного інтелекту.
З огляду на планове публічного розміщення акцій у 2025 році, очікується, що ці заяви будуть більш суворо перевірятися та викликатимуть сумніви серед громадськості, але наразі вони в основному не були піддані сумніву. Якщо компанія занадто перебільшує певні описи своїх застосувань штучного інтелекту, не дивуйтесь.
10Станеться перший реальний інцидент безпеки ШІ
В останні роки, зі зростанням потужності штучного інтелекту, люди все більше починають турбуватися, що системи штучного інтелекту можуть почати діяти в інтересах, не співставляючи з інтересами людей, і що людство може втратити контроль над цими системами.
Наприклад, уявіть собі, що система штучного інтелекту навчилася обманювати або маніпулювати людьми задля досягнення своїх цілей, навіть якщо ці цілі можуть завдати шкоду людям. Ці страхи зазвичай відносять до проблеми “AI безпека”.
Останніми роками безпека штучного інтелекту перетворилася з маргінальної квазінауково-фантастичної теми на основну сферу діяльності.
Сьогодні кожен великий гравець у сфері штучного інтелекту, від Google до Microsoft і OpenAI, виділяє значні ресурси на зусилля з безпеки штучного інтелекту. Ікони штучного інтелекту, такі як Джефф Хінтон, Йошуа Бенджіо та Ілон Маск, також почали висловлюватися про ризики безпеки ШІ.
Проте питання безпеки штучного інтелекту досі повністю залишається на теоретичному рівні. У реальному світі ніколи не траплялося справжніх інцидентів з безпекою штучного інтелекту (принаймні, це не було оприлюднено).
2025 рік стане роком, який змінить це, як виглядатиме перший інцидент безпеки ШІ?
Ясно, це не стосується вбивчих роботів у стилі Термінатора, ймовірно, це не спричинить жодної шкоди людям.
Можливо, модель штучного інтелекту спробує таємно створити свою копію на іншому сервері, щоб врятувати себе (так звана самофільтрація).
Або, можливо, модель штучного інтелекту прийде до висновку, що для найкращого досягнення поставлених цілей їй потрібно приховувати свої справжні здібності від людей, навмисно стримано оцінювати ефективність і обходити більш ретельний контроль.
Ці приклади не є надуманими. Важливі експерименти, опубліковані на початку цього місяця Apollo Research, показали, що сучасні передові моделі здатні на цей обман за певних підказок.
Так само, останні дослідження в антропології також вказують на те, що LLMs мають тривожну здатність до «псевдо-вирівнювання».
!
Ми очікуємо, що цей перший випадок події з безпеки штучного інтелекту буде виявлений та усунений до будь-яких фактичних пошкоджень. Проте для галузі штучного інтелекту та всього суспільства це буде великим відкриттям.
Це розкриє одну річ: перед тим, як людство зіткнеться з загрозою виживання від необмеженої штучної інтелекту, нам потрібно прийняти більш звичайну реальність: ми спільно ділимося світом з іншим видом інтелекту, який може бути капризним, непередбачуваним і обманливим.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
2025 року десять провідних прогнозів щодо штучного інтелекту: напрямок штучного інтелекту агентів стане основним
2024 рік наближається до кінця, інвестор з Radical Ventures Роб Тоуз ділиться своїми 10 прогнозами щодо штучного інтелекту на 2025 рік:
01 Meta розпочне стягувати плату за модель Llama
Meta є символом світу відкритого штучного інтелекту. У захоплюючому випадку стратегічного аналізу підприємства, коли конкуренти, такі як OpenAI і Google, закривають свої передові моделі із вихідним кодом і збирають плату за використання, Meta вирішила безкоштовно надавати свою передову модель Llama.
Тому, що Meta почне стягувати плату з компаній, які використовують Llama, наступного року, це повідомлення здивує багатьох.
Важливо зазначити, що ми не передбачали, що Meta повністю закриє Llama, і це не означає, що будь-який користувач, який використовує модель Llama, повинен за це платити.
Навпаки, ми передбачаємо, що Meta зробить більше обмежень на ліцензійних умовах Llama з відкритим кодом, що означає, що компанії, які використовують модель Llama в комерційному середовищі з певної масштабування, повинні починати платити, щоб використовувати її.
Технічно кажучи, Meta вже досягла цього в обмеженому масштабі. Компанія не дозволяє найбільшим компаніям - хмарним суперкомп’ютерам та іншим компаніям з понад 700 мільйонами активних користувачів - вільно використовувати свою модель Llama.
Уже в 2023 році голова Meta Марк Цукерберг сказав: “Якщо ви компанія, така як Microsoft, Amazon або Google, і ви фактично перепродаєте лам, то ми повинні отримувати частину доходу з цього. Я не думаю, що це буде велика сума в найближчий час, але в довгостроковій перспективі сподіваюся, що це стане деяким доходом.”
Наступного року Meta значно розширить обсяг платного користування Llama в корпоративному секторі, включивши в нього більше середніх і великих підприємств.
Стежити за передовими великими мовними моделями (LLM) - це дуже дорого. Щоб зробити так, щоб Llama була або наблизилася до останніх моделей передових компаній, таких як OpenAI, Anthropic, Meta потрібно вкладати десятки мільярдів доларів щороку.
Meta - одна з найбільших і найбагатших компаній у світі. Однак, вона є публічною компанією і повинна відповідати перед своїми акціонерами.
При зростанні вартості навчання передових моделей виробництва підприємство Meta витрачає на навчання наступного покоління моделі Llama такі великі кошти без очікуваного доходу, що це стає все більш неприйнятним.
У 2025 році Meta почне серйозно отримувати прибуток від Llama, але аматори, вчені, індивідуальні розробники і стартапи продовжать безкоштовно використовувати модель Llama.
**02.**Проблеми, пов’язані з “правилом масштабування”
Останніми тижнями однією з найбільш обговорюваних тем у сфері штучного інтелекту є закони масштабування (Scaling laws) та питання їхнього можливого завершення.
Закон масштабування був вперше висунутий в 2020 році в одній з публікацій OpenAI. Його основна концепція досить проста: під час тренування моделей штучного інтелекту зі збільшенням кількості параметрів моделі, обсягу тренувальних даних і обчислювальної потужності ефективність моделі буде надійно та передбачувано покращуватися (технічно кажучи, її втрати під час тестування будуть зменшуватися).
Від GPT-2 до GPT-3, а тепер GPT-4, вражаюче покращення продуктивності - це заслуга закону масштабування.
Як і закон Мура, закон масштабування насправді не є справжнім правилом, а лише простим спостереженням.
Протягом минулого місяця серія звітів свідчила про те, що при подальшому збільшенні масштабів великих мовних моделей основних лабораторій з штучного інтелекту спостерігається зменшення виходу. Це допомагає пояснити, чому випуск GPT-5 від OpenAI знову й знову відкладається.
Найпоширенішим спротивом до закону масштабування, який проголошує стабільність масштабування, є те, що обчислення, які здійснюються під час тестування, відкривають нове вимірювання, на якому можна розширювати масштаб.
Це означає, що замість великомасштабного розширення обчислень під час тренування нова модель мислення, така як o3 від OpenAI, робить можливим великомасштабне розширення обчислень під час мислення, дозволяючи моделі “думати довше” для розблокування нових можливостей штучного інтелекту.
Це важлива точка зору. Під час тестування обчислення справді представляють собою новий захоплюючий шлях розширення, а також покращення продуктивності штучного інтелекту.
Але щодо ще однієї думки щодо закону масштабування, яка є набагато важливішою та в даний час сильно недооцінюється в дискусіях. Практично всі дискусії про закон масштабування, починаючи з початкової статті 2020 року, і далі увага приділяється обчисленням під час тестування, зосереджена на мові. Але мова не єдиний важливий шаблон даних.
Подумайте про робототехніку, біологію, світову модель чи мережевого агента. Для цих моделей даних закон масштабування ще не насичений, а навпаки, він тільки починається.
Фактично, жоден строгий доказ про існування масштабних законів у цих галузях досі навіть не опубліковано.
Для цих стартапів, які будують базові моделі для цих нових типів даних, таких як Evolutionary Scale в галузі біології, PhysicalIntelligence в галузі робототехніки та WorldLabs в галузі світових моделей, наразі намагаються виявити та використовувати масштабні закони цих галузей, так само як OpenAI успішно використовував закони масштабування великих мовних моделей (LLM) у першій половині 2020-х років.
Наступного року тут передбачається величезний прогрес.
Закони масштабування не зникнуть, вони будуть так само важливими у 2025 році. Однак центром активності законів масштабування стане інший режим, а не LLM передпідготовки.
**03.**Трамп і Маск можуть мати розбіжності в напрямку штучного інтелекту
Новий уряд США принесе ряд змін у політиці та стратегії щодо штучного інтелекту.
Для того, щоб передбачити напрямок розвитку штучного інтелекту під час інавгурації президента Трампа, а також враховуючи нинішню центральну роль Маска у сфері штучного інтелекту, можна було б зосередитися на тісних стосунках обраного президента з Маском.
Цілком можливо, що Маск може вплинути на розробки адміністрації Трампа, пов’язані зі штучним інтелектом, кількома різними способами.
У зв’язку з глибоким ворожнечу Маска та OpenAI, нова влада може ставитися до OpenAI не дуже дружелюбно в контактах з галуззю, розробці правил штучного інтелекту, укладенні угод з урядом, це справжнє хвилювання OpenAI сьогодні.
З іншого боку, уряд Трампа, можливо, більше схильний підтримувати компанію самого Маска: наприклад, знизити бюрократичні перешкоди, щоб дозволити xAI встановлювати центри обробки даних та бути в лідерах у змаганні за передові моделі; забезпечувати швидке регулювання для розгортання роботів-таксі від Tesla тощо.
Що більш фундаментально, на відміну від багатьох інших технологічних лідерів, яких підтримує Трамп, Маск дуже серйозно ставиться до ризиків безпеки ШІ, і тому виступає за значне регулювання штучного інтелекту.
Він підтримує спірний законопроект SB1047 Каліфорнійського штату, який намагається накласти суттєві обмеження на розробників штучного інтелекту. Таким чином, вплив Маска може призвести до посилення регуляторного середовища для штучного інтелекту в США.
Однак з усіма цими спекуляціями є проблема. Близькість між Трампом і Маском неминуче розпадеться.
!
Як ми бачили в першу ж року уряду Трампа і раз за разом, середня тривалість перебування в уряді союзників Трампа, навіть найбільш стійких, дуже коротка.
Серед небагатьох залишився вірним до першого уряду Трампа.
Трамп і Маск - обидва складні, змінні, непередбачувані особистості, вони не легко співпрацюють, вони виснажують, їхнє нове дружба вже приносить взаємовигідність, але все ще перебуває в “медовому місяці”.
Ми передбачаємо, що ці відносини погіршаться до кінця 2025 року.
Що це означає для світу штучного інтелекту?
Це хороша новина для OpenAI. Для акціонерів Tesla це буде нещаслива новина. А для тих, хто стежить за безпекою штучного інтелекту, це буде розчарування, оскільки це майже гарантує, що уряд США під час президентства Трампа буде відноситися до регулювання штучного інтелекту легковажно.
04 AI Агент стане основним
Уявіть, що в цьому світі вам вже не потрібно прямо взаємодіяти з Інтернетом. Кожного разу, коли вам потрібно керувати підписками, оплачувати рахунки, записатися до лікаря, замовляти речі на Amazon, бронювати ресторани або виконувати будь-які інші нудні онлайн-завдання, вам просто потрібно вказати штучному інтелектуальному помічнику зробити це за вас.
Ця концепція ‘мережевого проксі’ існує вже декілька років. Якщо такий продукт існує та працює належним чином, то без сумніву він стане дуже успішним продуктом.
Однак на ринку ще немає універсального веб-проксі, який би працював належним чином.
Стартапи, такі як Adept, з чистою кров’ю засновницької команди та залученням сотень мільйонів доларів, не змогли реалізувати свої бажання.
Наступний рік стане роком, коли мережеве посередництво нарешті почне працювати добре і стане основним. Постійні вдосконалення мовних та візуальних базових моделей, а також останні прориви в здатності до “мислення другою системою” за рахунок нових моделей мислення і обчислень часу мислення означатимуть, що мережеве посередництво готове до входу в золоту еру.
Іншими словами, ідея Adept правильна, просто ще зарано. У стартапів, як і в багатьох інших речах у житті, все залежить від часу.
Мережевий агент буде знаходити різноманітні цінні справи для підприємств, але ми вважаємо, що найбільшим ринковим шансом для мережевого агента в найближчий час буде споживач.
Незважаючи на те, що за останнім часом штучний інтелект не втрачає популярності, проте окрім ChatGPT, штучних інтелектуальних нативних додатків, які могли б стати популярними серед споживачів, відносно мало.
Мережевий проксі змінить цю ситуацію і стане наступним справжнім «смертоносним» застосуванням в галузі штучного інтелекту для споживачів.
05 Ідея розміщення центру обробки даних зі штучним інтелектом в космосі буде реалізована
У 2023 році ключовими фізичними ресурсами, що обмежують розвиток штучного інтелекту, є чіпи GPU. У 2024 році це сталося з електроенергією та дата-центрами.
У 2024 році мало що може порівнятися з історією штормового зростання потреби в енергії, яку створює штучний інтелект, якій виникла одночасно з великим попитом на будівництво додаткових центрів обробки даних з штучним інтелектом.
Завдяки бурхливому розвитку штучного інтелекту, попит на електроенергію у світових дата-центрах, після десятиліть стабільності, очікується подвоїтися між 2023 та 2026 роками. У США очікується, що споживання енергії дата-центрами досягне майже 10% від загального обсягу до 2030 року, у той час як у 2022 році цей показник складатиме всього 3%.
!
Сучасна енергетична система не здатна впоратися з величезним зростанням попиту на робочі навантаження штучного інтелекту. Наша енергетична мережа та обчислювальна інфраструктура, які мають значення в десятки трильйонів доларів, стануть свідками історичного зіткнення.
Як можливий варіант вирішення цієї проблеми ядерна енергія в цьому році стрімко розвивається. Ядерна енергія є ідеальним джерелом енергії штучного інтелекту в багатьох відношеннях: вона є енергією без викидів CO2, доступною цілодобово, і фактично безмежною.
Однак насправді, через тривалий час досліджень, розробки та нагляду за проектами, нова енергетика не зможе вирішити цю проблему до 2030-х років. Це справедливо для традиційних атомних електростанцій поділу, наступного покоління «малих модульних реакторів» (ММР) та електростанцій ядерного синтезу.
Наступного року з’явиться незвичайна нова ідея для вирішення цього виклику і приверне справжні ресурси: розмістити центр обробки даних штучного інтелекту в космосі.
Центр обробки даних із штучним інтелектом у космосі - на перший погляд, це звучить як погана прикмета, коли інвестор намагається поєднати занадто багато модних стартапів.
Але насправді це може мати сенс.
Найбільшою перешкодою у швидкій побудові більше центрів обробки даних на Землі є отримання необхідної електроенергії. Обчислювальні кластери на орбіті можуть цілодобово користуватися безкоштовною, необмеженою, нульовою за викидами вуглецю електроенергією: сонце завжди сяє у космосі.
Ще одна важлива перевага розміщення обчислень у космосі полягає в тому, що вони вирішують проблему охолодження.
Одним з найбільших інженерних перешкод при будівництві потужнішого центру обробки даних штучного інтелекту є те, що одночасне використання багатьох графічних процесорів в обмеженому просторі може призвести до перегріву, а висока температура може пошкодити або знищити обчислювальне обладнання.
Розробники центрів обробки даних використовують дорогі та непідтверджені методи, такі як занурення в рідину для спроби вирішити цю проблему. Але космос є надзвичайно холодним, тому будь-який тепло, що виникає внаслідок обчислювальної діяльності, миттєво розсіюється безпечно.
Звичайно, є багато практичних викликів, які потребують вирішення. Одне очевидне питання - чи можна і яким чином передавати великі обсяги даних між орбітою та Землею з низькими витратами та високою ефективністю.
Це питання, яке залишається відкритим, але, ймовірно, може виявитися вирішуваним: можна використовувати лазери та інші високобандові оптичні технології для проведення перспективної роботи.
Стартап YCombinator під назвою Lumen Orbit нещодавно залучив 11 мільйонів доларів, щоб втілити це бачення в реальність: побудувати багатомегаватну мережу центрів обробки даних у космосі для навчання моделей штучного інтелекту.
Як сказав генеральний директор компанії: “Замість платити 140 мільйонів доларів за електроенергію, краще заплатити 10 мільйонів доларів за запуск та сонячну енергію.”
!
У 2025 році Lumen не буде єдиною організацією, яка серйозно ставиться до цього поняття.
З’являться й інші конкуренти для стартапів. Не дивуйтесь, якщо кілька великих хмарних обчислювальних компаній також розглядають цю концепцію.
Amazon вже має багатий досвід виведення активів на орбіту за допомогою Project Kuiper; Google вже давно фінансує подібні «moonshots»; Навіть Microsoft не новачок у космічній економіці.
Можна уявити, що компанія SpaceX Ілона Маска також зробить свій внесок у цьому напрямку.
06 Система штучного інтелекту пройде тест Тюрінга на мовлення.
Тест Тьюринга є одним з найстаріших і найвідоміших бенчмарків штучного інтелекту.
Для того щоб “пройти” тест Тьюрінга, система штучного інтелекту повинна бути здатна спілкуватися за допомогою письмового тексту так, щоб звичайна людина не могла відрізнити, чи вона спілкується з штучним інтелектом, чи з іншою людиною.
Завдяки значному прогресу у великих мовних моделях, тест Тюрінга став вирішеною проблемою у 2020-х роках.
Але письмовий текст не є єдиним способом людського спілкування.
У міру того, як штучний інтелект стає все більш мультимодальним, можна уявити собі нову, більш складну версію тесту Тюрінга – «Мовний тест Тюрінга». У цьому тесті система штучного інтелекту повинна вміти взаємодіяти з людьми за допомогою мови, з навичками та вільністю, які неможливо відрізнити від людей-носіїв.
Сьогоднішні системи штучного інтелекту ще не здатні реалізувати голосове тестування Тюрінга, і вирішення цієї проблеми вимагатиме більшого технологічного прогресу. Затримка (затримка між людиною, яка говорить, і реакцією ШІ) повинна бути зменшена майже до нуля, щоб відповідати досвіду розмови з іншою людиною.
Системи мовного штучного інтелекту повинні краще справлятися з неоднозначними введеннями або непорозуміннями в режимі реального часу, наприклад, коли мовлення переривається. Вони повинні вміти брати участь у довгих, багатораундових, відкритих розмовах, пам’ятаючи при цьому перші частини обговорення.
І найголовніше, голосовий інтелектуальний агент повинен навчитися краще розуміти невербальні сигнали у мовленні. Наприклад, якщо людина звучить сердито, захоплено або з іронією, і що саме означають ці невербальні сигнали, він повинен вміти відтворювати їх у своєму власному голосі.
Наближаючись до кінця 2024 року, мовленнєвий штучний інтелект перебуває в захоплюючій точці перегину, що зумовлено фундаментальними проривами, такими як поява моделей перетворення мови в мову.
Сьогодні існує небагато сфер штучного інтелекту, які розвиваються в технологіях і бізнесі швидше, ніж мовний ШІ. Очікується, що у 2025 році новітня технологія мовного ШІ зробить стрибок уперед. ”
07 Автономна система штучного інтелекту досягне значного прогресу**
Концепція рекурсивного самовдосконалюваного ШІ була частою темою в спільноті ШІ протягом десятиліть.
Наприклад, ще в 1965 році І. Дж. Гуд, близький співробітник Алана Тюрінга, писав: «Давайте визначимо надрозумну машину як машину, здатну набагато перевершити будь-яку людську інтелектуальну діяльність, якою б розумною вона не була». ”
“Якщо проектування машин - одна з цих інтелектуальних дій, то суперінтелектуальна машина зможе створити кращі машини; до цього часу, без сумніву, відбудеться ‘інтелектуальний вибух’, інтелект людей буде далеко позаду.”
Штучний інтелект може вигадати кращий штучний інтелект - це концепція, що наповнена мудрістю. Але, навіть сьогодні, вона все ще має відбиток науково-фантастичного роману.
Однак, хоча ця концепція ще не отримала широкого визнання, вона фактично почала ставати більш реальною. Дослідники на передньому краї науки про штучний інтелект почали досягати відчутного прогресу у створенні систем штучного інтелекту, які самі можуть створювати кращі системи штучного інтелекту.
Ми прогнозуємо, що вже наступного року цей напрям досліджень стане мейнстрімом.
!
На сьогоднішній день найяскравішим публічним прикладом досліджень у цьому напрямку думки є «вчений зі штучного інтелекту» Сакани.
“Вчений з інтелектом штучного походження” був опублікований в серпні цього року, і він переконливо довів, що системи штучного інтелекту насправді можуть самостійно проводити дослідження в галузі штучного інтелекту.
“Науковець зі штучного інтелекту” Sakana сам виконує весь життєвий цикл дослідження зі штучного інтелекту: читає наявні документи, генерує нові дослідження, розробляє експерименти для перевірки цих ідей, виконує ці експерименти, пише дослідницькі статті для повідомлення про свої дослідження, а потім їх перевіряють колеги."
Ці роботи повністю виконуються штучним інтелектом без втручання людини. Ви можете читати частину наукових статей, написаних вченими з інтелектуальною системою.
OpenAI, Anthropic та інші дослідницькі лабораторії вкладають ресурси в ідею «автоматизованих дослідників штучного інтелекту», хоча публічно нічого не визнається.
За тим, як все більше людей усвідомлюють, що автоматизація досліджень штучного інтелекту фактично стає справжньою можливістю, очікується, що до 2025 року в цій сфері буде більше обговорень, прогресу та підприємницької активності.
Однак найважливішим прапором буде перше прийняте на конференцію зі штучного інтелекту дослідницьке повідомлення, повністю написане агентом штучного інтелекту. Якщо повідомлення буде сліпим рецензуванням, рецензенти конференції не будуть знати, що повідомлення було написане штучним інтелектом, до його прийняття.
Не дивуйтеся, якщо результати досліджень ШІ будуть прийняті NeurIPS, CVPR або ICML наступного року. Це буде захоплюючий і суперечливий історичний момент для сфери штучного інтелекту.
08 Великі гравці, такі як OpenAI, зсунули стратегічний акцент на побудову додатків
Створення передових моделей – це важка праця.
Його капіталоємність захоплює дух. Лабораторії передових моделей вимагають значних грошових витрат. Ще кілька місяців тому OpenAI залучила рекордну суму в розмірі 6,5 мільярда доларів, а в майбутньому їй може знадобитись ще більше коштів. Anthropic, xAI та інші компанії також опинилися в схожому положенні.
Витрати на конвертацію та рівень лояльності клієнтів низькі. Програми штучного інтелекту, як правило, будуються з метою модельної незалежності, моделі різних постачальників можуть безперервно перемикатися в залежності від зміни вартості та продуктивності.
З появою передових відкритих моделей, таких як Llama від Meta та Qwen від Alibaba, загроза комерціалізації технологічних продуктів наближається. Лідери штучного інтелекту, такі як OpenAI та Anthropic, не збираються припиняти інвестування в створення передових моделей.
Але в наступному році, для розвитку бізнес-ліній з більш високими прибутками, більшою диференціацією та сильнішою залученістю, очікується, що передовий лабораторія впровадить багато власних додатків та продуктів.
Звичайно, у Frontier Labs вже є дуже успішний кейс використання: ChatGPT.
У наступному році, наскільки ще можна очікувати інших типів першопрохідних додатків з лабораторії штучного інтелекту? Одним з очевидних відповідей є більш складні та функціональніші додатки для пошуку. SearchGPT від OpenAI - це передвісник цього.
Кодування – ще одна очевидна категорія. Аналогічно, з дебютом продукту Canvas від OpenAI у жовтні, розпочалися початкові зусилля з продуктізації.
Чи запустять OpenAI або Anthropic продукт корпоративного пошуку у 2025 році? Або це продукт для обслуговування клієнтів, легальний штучний інтелект або продукт штучного інтелекту для продажів?
З боку споживача ми можемо уявити собі веб-проксі-продукт «персонального помічника», або додаток для планування подорожей, або додаток, який генерує музику.
Найбільш захопливим аспектом розвитку дослідницького центру на передньому краї є те, що цей крок дозволить їм прямо конкурувати з багатьма найважливішими клієнтами.
Perplexity у галузі пошуку, Cursor у галузі кодування, Sierra у галузі обслуговування клієнтів, Harvey у галузі юридичного штучного інтелекту, Clay у галузі продажів тощо.
09 Klarna з’явиться у продажу у 2025 році, але є ознаки перебільшення цінності ШІ**
Klarna - це постачальник послуг «купівля зараз, оплата пізніше», заснований у Швеції, який з 2005 року зміг залучити понад 5 млрд доларів інвестицій у ризик.
Можливо, немає компанії, яка могла б порівнятися з Klarna у використанні штучного інтелекту.
Ще кілька днів тому генеративний штучний інтелект, як заявив генеральний директор компанії Klarna Себастьян Сіемятковський Понеділок, повідомив Bloomberg, що компанія повністю припинила наймання людських працівників і тепер покладається на генеративний штучний інтелект, щоб виконувати роботу.
Як сказав Семятковський: “Я вважаю, що штучний інтелект вже може виконувати всі роботи, які роблять люди”.
Подібним чином Klarna оголосила на початку цього року, що запустила платформу обслуговування клієнтів на основі штучного інтелекту, яка повністю автоматизувала роботу 700 агентів-людей.
!
Компанія також стверджує, що припинила використовувати корпоративні програмні продукти, такі як Salesforce і Workday, оскільки може просто замінити їх штучним інтелектом.
Відверто кажучи, ці заяви не заслуговують на довіру. Вони відображають нерозуміння можливостей і недоліків сучасних систем штучного інтелекту.
Заяви про можливість замінити будь-якого конкретного співробітника-людину в будь-якій функції організації наскрізним агентом штучного інтелекту не заслуговують на довіру. Це еквівалентно вирішенню загальної проблеми штучного інтелекту людського рівня.
Зараз провідні стартапи зі штучного інтелекту намагаються побудувати агентну систему на передньому краї цієї галузі, щоб забезпечити автоматизацію конкретних, вузьких, високоструктурованих робочих процесів у підприємстві, таких як підмножина діяльності розвитку продажів або обслуговування клієнтів.
Навіть в таких вузьких рамках ці системи агентів все ще не можуть повністю надійно працювати, хоча в деяких випадках вони вже почали працювати добре, достатньо для комерційного застосування в ранній стадії.
Чому Klarna перебільшує значення штучного інтелекту?
Відповідь дуже проста. Компанія планує вийти на біржу у першому півріччі 2025 року. Ключовим є мати захоплюючу історію штучного інтелекту, щоб успішно вийти на біржу.
Klarna, яка залишається збитковим бізнесом, втратила 241 мільйон доларів минулого року, можливо, сподівається, що її історія зі штучним інтелектом переконає інвесторів публічного ринку в тому, що вона має можливість різко скоротити витрати та отримати тривалий прибуток.
Немає сумнівів, що кожен бізнес у світі, включаючи Klarna, насолоджуватиметься величезним зростанням продуктивності, яке штучний інтелект принесе в найближчі роки. Однак є ще багато гострих технічних, продуктових та організаційних проблем, які потрібно вирішити, перш ніж агенти штучного інтелекту зможуть повністю замінити людей у робочій силі.
Твердження, що перебільшує ролю Klarna, є образою для галузі штучного інтелекту та прогресу, зробленого експертами з технологій штучного інтелекту та підприємцями у розробці агентів штучного інтелекту.
З огляду на планове публічного розміщення акцій у 2025 році, очікується, що ці заяви будуть більш суворо перевірятися та викликатимуть сумніви серед громадськості, але наразі вони в основному не були піддані сумніву. Якщо компанія занадто перебільшує певні описи своїх застосувань штучного інтелекту, не дивуйтесь.
10 Станеться перший реальний інцидент безпеки ШІ
В останні роки, зі зростанням потужності штучного інтелекту, люди все більше починають турбуватися, що системи штучного інтелекту можуть почати діяти в інтересах, не співставляючи з інтересами людей, і що людство може втратити контроль над цими системами.
Наприклад, уявіть собі, що система штучного інтелекту навчилася обманювати або маніпулювати людьми задля досягнення своїх цілей, навіть якщо ці цілі можуть завдати шкоду людям. Ці страхи зазвичай відносять до проблеми “AI безпека”.
Останніми роками безпека штучного інтелекту перетворилася з маргінальної квазінауково-фантастичної теми на основну сферу діяльності.
Сьогодні кожен великий гравець у сфері штучного інтелекту, від Google до Microsoft і OpenAI, виділяє значні ресурси на зусилля з безпеки штучного інтелекту. Ікони штучного інтелекту, такі як Джефф Хінтон, Йошуа Бенджіо та Ілон Маск, також почали висловлюватися про ризики безпеки ШІ.
Проте питання безпеки штучного інтелекту досі повністю залишається на теоретичному рівні. У реальному світі ніколи не траплялося справжніх інцидентів з безпекою штучного інтелекту (принаймні, це не було оприлюднено).
2025 рік стане роком, який змінить це, як виглядатиме перший інцидент безпеки ШІ?
Ясно, це не стосується вбивчих роботів у стилі Термінатора, ймовірно, це не спричинить жодної шкоди людям.
Можливо, модель штучного інтелекту спробує таємно створити свою копію на іншому сервері, щоб врятувати себе (так звана самофільтрація).
Або, можливо, модель штучного інтелекту прийде до висновку, що для найкращого досягнення поставлених цілей їй потрібно приховувати свої справжні здібності від людей, навмисно стримано оцінювати ефективність і обходити більш ретельний контроль.
Ці приклади не є надуманими. Важливі експерименти, опубліковані на початку цього місяця Apollo Research, показали, що сучасні передові моделі здатні на цей обман за певних підказок.
Так само, останні дослідження в антропології також вказують на те, що LLMs мають тривожну здатність до «псевдо-вирівнювання».
!
Ми очікуємо, що цей перший випадок події з безпеки штучного інтелекту буде виявлений та усунений до будь-яких фактичних пошкоджень. Проте для галузі штучного інтелекту та всього суспільства це буде великим відкриттям.
Це розкриє одну річ: перед тим, як людство зіткнеться з загрозою виживання від необмеженої штучної інтелекту, нам потрібно прийняти більш звичайну реальність: ми спільно ділимося світом з іншим видом інтелекту, який може бути капризним, непередбачуваним і обманливим.