Губернатор Меріленду приймає Microsoft та лідерів у сфері ШІ, щоб обговорити ризики кібербезпеки від передового ШІ

Повідомлення Gate News, 20 квітня — Губернатор Меріленду Вес Мур проводить зустріч із Microsoft та іншими керівниками в галузі ШІ, щоб обговорити ризики кібербезпеки, пов’язані з передовими системами ШІ. Також Мур вів приватні розмови з генеральним директором OpenAI Семом Альтманом та генеральним директором Anthropic Даріо Амодеї.

Зустріч відбулася після того, як цього місяця Anthropic повідомила, що її модель Claude Mythos Preview у межах обмеженого тестування продемонструвала серйозні ризики кібербезпеки. Модель здатна автономно знаходити й експлуатувати раніше невідомі програмні вразливості — можливість, яка може створити напруження для процесів безпеки, побудованих для роботи з людськими дослідниками, які зазвичай виявляють вразливості поодинці, тоді як команди розробників виправляють їх протягом тижнів або місяців.

Меріленд розбудовує свою стратегію безпеки для ШІ з січня 2024 року, коли губернатор Мур підписав розпорядження про етичне використання ШІ в уряді штату та запустив Цільову групу з кібербезпеки Меріленду за участі фахівців із кількох державних агенцій. У 2025 році штат опублікував 17-сторінковий «Maryland AI Enablement Strategy & AI Study Roadmap», який охоплює впровадження ШІ в 12 сферах, зокрема в публічній безпеці та критичній інфраструктурі. Дорожня карта закликає переглянути кіберризики, пов’язані з ШІ, розробити рамкову модель ризиків і реалізувати пілотні проєкти до грудня 2025 року.

Нерівновага між виявленням уразливостей, зумовленим ШІ, та обороною, що здійснюється людьми, створює труднощі для команд безпеки. Зловмиснику достатньо однієї експлуатованої вразливості в цільовій системі, тоді як захисникам потрібно виявити й усунути слабкі місця в багатьох системах та організаціях. Цей тиск може спонукати команди безпеки бізнесу та державні агенції рухатися в бік експлуатаційного менеджменту ризиків, керованого ШІ, мета якого — виявляти та ранжувати ризики швидше, ніж традиційні моделі реагування на загрози.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

DeepSeek 30 квітня представив метод Visual Primitives для покращення мультимодальних міркувань

Згідно з технічним звітом DeepSeek, 30 квітня компанія представила Visual Primitives — метод, який вбудовує базові візуальні одиниці, зокрема точки та рамки, у ланцюжки міркувань, щоб вирішити проблему Reference Gap у мультимодальних завданнях. Метод зменшує споживання токенів зображень

GateNews10хв. тому

NVIDIA випустила ваги флагманської моделі Cosmos-Reason2-32B і розширила контекстне вікно до 256K токенів

За даними Beating, NVIDIA випустила ваги для Cosmos-Reason2-32B — флагманської версії її фізичного AI-міркувального vision-language-моделю (VLM), створеної для того, щоб роботи та системи автономного керування могли розуміти просторові, часові й фізичні принципи. Модель із 32 мільярдами параметрів,

GateNews13хв. тому

OpenAI пояснює, чому Codex забороняє згадувати «ґоблінів»: винагорода за «ботанський» характер вийшла з-під контролю

OpenAI у своєму офіційному блозі пояснила, що Codex забороняє “говоріння” про гоблінів та інших істот, і що причиною стали заохочувальні сигнали, які віддають перевагу біологічним метафорам під час тренування “ботанічного” характеру, що призвело до кросперсонального забруднення та помилкового спрямування RLHF. Подія спалахнула після того, як Barron Roth викрив системні інструкції; OpenAI застосувала дві стратегії — короткострокове жорстке хардкодування та довгострокове очищення заохочувальних сигналів — попереджаючи про вразливість дизайну нагород, а для посттренувальних аудитів потрібна точніша деталізація.

ChainNewsAbmedia56хв. тому

Alibaba відкриває у відкритому доступі модуль інтерпретованості Qwen-Scope для Qwen, який охоплює 7 моделей, станом на 30 квітня

За даними PANews, 30 квітня Qwen від Alibaba оголосив про відкритий код Qwen-Scope — модулю інтерпретованості, натренованого на моделях серій Qwen3 і Qwen3.5. Реліз охоплює 7 великих мовних моделей у варіантах для щільних і mixture-of-experts, із 14 наборами sparse autoencoder

GateNews1год тому

AI-сервери Nvidia B300 досягли 1 мільйона доларів у Китаї на тлі дефіциту поставок

За даними Reuters, сервери для AI Nvidia B300 тепер продаються в Китаї приблизно за 7 мільйонів юанів (1 мільйон доларів США), що зумовлено посиленням боротьби зі схемами контрабанди та збереженням попиту з боку місцевих технічних компаній. Ціна зросла з приблизно 4 мільйонів юанів (585 тисяч доларів США) наприкінці 2025 року, значно

GateNews1год тому

Операційний прибуток LG CNS зріс на 19% у 1 кварталі завдяки зростанню в сегментах AI та хмарних сервісів

Згідно з Chosun Daily, LG CNS повідомила 30 квітня, що операційний прибуток у першому кварталі зріс на 19,4% у річному вимірі до 94,2 мільярда вон (64,1 млн доларів США) завдяки попиту на AI та хмарні сервіси. Виручка зросла на 8,6% до 1,3 трильйона вон (894 млн доларів США). Підрозділ компанії з AI та хмарних сервісів згенерував 765,4 біллі

GateNews2год тому
Прокоментувати
0/400
Немає коментарів