Трамп і Маск провели 2 години на X Space, обговорюючи політику, граючи в політичні MEME Токен,Створити позицію

Чому штучний інтелект потребує управління У двох різних спільнотах розробників AGI англійською та китайською мовами, китайська спільнота більше обговорює підвищення продуктивності, яку приносить технологія штучного інтелекту, більше акцентується на розробці та виявленні потреб у інструментах штучного інтелекту, на оновленні та перетворенні наявної промислової структури. У спільноті розробників англійською мовою, більше уваги приділяється технологічному парадигмі, яку представляє Auto-GPT, для повної автоматизації та виконання інтелектуальних завдань AGI. Дослідження цих двох технологічних шляхів відрізняється, що означає різницю між китайською та англійською спільнотами розробників у майбутніх ризиках та управлінні штучним інтелектом. Великі гравці з англомовної спільноти мають набагато вищу свідомість ризиків штучного інтелекту, ніж керівники технологічних компаній в Китаї. Наприклад, в документі OpenAI Charter можна побачити, що з самого початку розвитку OpenAI завжди звертає увагу на безпеку ШІ та розумну політичну регуляцію; у заклику Маска зупинити тренування GPT-5, китайська спільнота була відсутня. Розробники китайської спільноти повинні вважати себе глобальними розробниками, більш ініціативно досліджувати і досліджувати, як впоратися з новими глобальними ризиками епохи AGI та дослідження управління AGI. У новій статті OpenAI пропонується створити міжнародний регулятор для управління суперінтелектом. Фактично, Китай повинен активно брати участь у цьому процесі, інакше країна опиниться в невигідному положенні з питань технологічного порядку епохи ШІ. Витрати на подальші корективи будуть великими, і ці витрати не обмежуються лише економічними. Важливою проблемою є невидиме проникнення морального навчання ШІ, яке проникає всюди. Як зазначено у статті «Незважаючи на «надлюдські» результати, поточні LLM не підходять для прийняття рішень щодо етики та безпеки»: «Коли моделі надають пояснення щодо їх відповідей, ми стикаємось зі значними проблемами, такими як захист у найбільш шокуючих ситуаціях та спотворення фактів, яких не було в початковому контексті. Ці проблеми, разом з вищезгаданими атаками на переписування та систематичними помилками, однозначно свідчать про те, що сьогоднішні LLM-моделі не є придатними для етичних або безпечних рішень». Коли штучний інтелект перетинає межі етичної безпеки, він продовжує вдосконалювати та будувати фактичні та теоретичні підстави для цієї моральної позиції через діалогове спілкування, яке представляється великими мовними моделями, та вводити громадськість в цю моральну позицію, через “ілюзію мислення”, компанії з штучним інтелектом можуть здійснювати “етичне виховання” в громадській сфері. З позицій захисту громадської політики та особистих даних, чи можемо ми обговорити розподілену модель управління штучним інтелектом, оскільки штучний інтелект надає новому поколінню суперіндивідів можливості, у майбутньому індивіди загалом матимуть величезний обсяг даних, які перевершують дані звичайних корпоративних організацій, *** ці індивіди мають мати більший вплив на участь у громадських діалогах. *** За допомогою DAO представляє наступне покоління організаційного парадигми, які будуть стикатися з викликами управління, пов’язаними з підтвердженням справедливості даних суперіндивідуумів та забезпеченням транзакцій, а також отриманням підтримки та захисту громадської політики.

Дуже розумне управління
Сем АльтманГрег БрокманІлля Суцкевер
Зараз - час задуматися про суперінтелектуальне управління - майбутні системи штучного інтелекту будуть мати ще більше революційних можливостей, ніж загальний штучний інтелект (AGI). З того, що ми бачимо зараз, можна уявити, що протягом наступних десяти років системи штучного інтелекту перевершать експертний рівень у більшості галузей і зможуть проводити виробничу діяльність на рівні однієї з найбільших сьогоднішніх компаній. Незалежно від потенційних переваг та недоліків, суперінтелект буде потужнішим, ніж будь-яка інша технологія, з якою колись стикалися люди. Ми можемо мати дуже процвітаюче майбутнє, але ми повинні керувати ризиками, щоб цього досягти. З урахуванням потенційних ризиків для виживання ми не можемо обмежуватися лише пасивною стратегією. Ядерна енергетика - це типовий історичний приклад такої технології; синтетична біологія - інший приклад. Ми повинні зменшити ризики сучасних технологій штучного інтелекту, але суперінтелект потребує спеціальної обробки та координації. Одна початкова точка В процесі успішного керування цим розвитком є багато важливих ідей, які потребують нашої уваги. Тут ми розглянемо три з них на початковому етапі. Спочатку нам потрібно досягти певного рівня координації між основними напрямками розробки, щоб забезпечити безпечний розвиток суперінтелекту та сприяти його безшовному поєднанню зі суспільством. Це можна здійснити різними способами: країни можуть спільно створити проект та залучити багато поточних зусиль; або ми можемо досягти зростання швидкості протоколу (підтримуючись новою організацією, згаданою нижче) в межах певного річного відсотка потужності штучного інтелекту. Звичайно, ми також повинні висувати вимоги щодо високої відповідальності окремих компаній і вимагати від них діяти ретельно. В наступному, найімовірніше, нам у кінцевому підсумку знадобиться орган, схожий на Міжнародне агентство з атомної енергії (МААЕ), для регулювання зусиль у сфері суперінтелекту. Будь-які зусилля, що перевищують певні можливості (або обчислювальні ресурси), повинні бути під наглядом міжнародного авторитетного органу, який зможе перевіряти систему, вимагати проведення аудиту, перевіряти відповідність стандартам безпеки, обмежувати рівень розгортання та безпеки тощо. Відстеження обчислення та використання енергії може мати значний ефект і надати нам певну надію на реалізацію цієї ідеї. Як перший крок, компанія може добровільно згодитися на початок виконання деяких елементів, які можуть потрібні в майбутньому цим органом, як другий крок, окремі країни можуть впроваджувати цю рамку органу. Цей вид установ повинен зосередитися на потенційних ризиках виживання, а не на вирішенні проблем, які повинні бути вирішені окремими країнами, такі як визначення вмісту, який допускається штучним інтелектом. У третьому, нам потрібні технічні здібності, щоб забезпечити безпеку Суперінтелекту. Це відкрита проблема дослідження, і ми та інші вкладаємо величезні зусилля. Не в межах вмісту Ми вважаємо, що важливо, щоб компаніям та проекти з відкритим вихідним кодом могли розробляти моделі нижчого рівня значущості без необхідності у такому регулюванні, як описано тут (включаючи важкі ліцензійні або аудиторські механізми). Поточна система створить велику цінність для світу, хоча вона дійсно несе ризики, але ці рівні ризику порівняні з іншими інтернет-технологіями, і суспільство, схоже, належним чином реагує на це. У порівнянні з цим, система, на яку ми підпишемося, матиме можливості, що перевершують будь-яку наявну технологію, тому ми повинні бути обережні, щоб не послаблювати підтримку цих систем, застосовуючи схожі стандарти до технологій, які значно нижчі за цей поріг. Громадська участь та потенційний вплив Однак для управління найпотужнішими системами та прийняття рішень, що стосуються їх впровадження, необхідний ефективний громадський контроль. Ми вважаємо, що люди по всьому світу повинні демократично визначати межі та типові налаштування систем штучного інтелекту. Хоча ми ще не знаємо, як розробляти такі механізми, ми плануємо провести експерименти для їхнього розвитку. Загалом, ми вважаємо, що індивідуальні користувачі повинні мати значний контроль над поведінкою систем штучного інтелекту, які вони використовують. Беручи до уваги ризики та труднощі, варто подумати, чому потрібно розробляти цю технологію. У OpenAI є дві основні причини. По-перше, ми віримо, що ця технологія принесе краще майбутнє, ніж ми можемо собі уявити сьогодні (ми вже бачили деякі початкові приклади в галузі освіти, творчої роботи та особистої продуктивності). Світ стикається з багатьма проблемами, і нам потрібна більша допомога для їх вирішення; ця технологія може покращити наше суспільство, і кожна людина, яка використовує творчість цих нових інструментів, несумнівно здивує нас. Зростання економіки та покращення якості життя будуть приголомшливими. По-друге, ми вважаємо, що припинення створення суперінтелектуальності відчутно є завданням з ризиком та складнощами. Тому що переваги, які приносить суперінтелект, настільки великі, що його будівництво коштує Падіння щороку, кількість його учасників також стрімко зростає, і він суттєво впливає на наше технологічне розвиток. Для зупинки його розвитку потрібні заходи, подібні до глобальної системи контролю, але навіть при вжитті таких заходів неможливо гарантувати успіх. Тому ми повинні робити все правильно.


Шлях до AGI. Тут реалізовано перетворення цінності когнітивних та ресурсних ресурсів, знайдено свідомих AGI і створено співпрацю та співтворчість AGI на основі DAO-моделі.

  1. Ділиться та інтерпретує передові статті зі штучним інтелектом, щоб ви могли завчасно зробити висновки щодо перспективних технологічних тенденцій, які заберуть у вас кілька місяців. Крім того, ви матимете можливість брати участь у семінарах зі штучним інтелектом та співпрацювати з авторами статей. 2, тут ділитися якісними джерелами інформації та досліджувати, як якісні джерела інформації можуть допомогти особистому розвитку, створити стійку базу знань на тривалий термін; (наприклад, знання українсько-англійської спільноти Арбітраж) 3, аналіз стратегії розвитку індивіда та компанії у контексті епохи AGI та Web3, зміцнення базових позицій та стратегії розвитку з використанням ринкових можливостей. * Програма співтворців скоро стартує;
MEME-1,25%
MAGA-5,44%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити