За даними OneMillion_AI (Beating), OpenAI випустила міграційний інструмент у межах Codex, який дозволяє користувачам імпортувати конфігурації та дані з інших AI-асистентів для кодування, зокрема Claude Code. Інструмент, оголошений в офіційному Twitter-акаунті OpenAI, автоматично переносить системні промпти, власні навички, 30-денну історію чатів, конфігурації MCP-серверів, hooks та налаштування підагентів.
OpenAI зазначила, що міграційний інструмент обробляє більшість конфігурацій автоматично через опцію “Import other agent setup” у налаштуваннях Codex. Для несумісних налаштувань інструмент запускає керовану розмову, щоб допомогти користувачам із ручною міграцією. Компанія порадила користувачам перевірити дозволи й параметри автентифікації після міграції, оскільки системи дозволів між платформами не сумісні.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
Google DeepMind AI співматематик досяг 47,9% у FrontierMath Tier 4, обійшов GPT-5.5 Pro та розв’язав 3 раніше нерозв’язні задачі
Google DeepMind випустила AI співматематика — багатoагентного помічника з математичних досліджень, який досяг 47,9% точності на бенчмарку FrontierMath Tier 4, перевершивши попередній рекорд GPT-5.5 Pro: 39,6% (станом на 9 травня). Система розв’язала 23 із 48 задач, зокрема 3, які не змогли розв’язати всі попередні моделі. Побудована на Gemini 3.1 Pro, архітектура використовує ієрархічну конструкцію: агент-координатор проєкту розподіляє завдання між підагентами, що займаються пошуком літератури,
GateNews7хв. тому
Система винагород OpenAI ненавмисно оцінює ланцюги міркувань на 6 моделях, зокрема GPT-5.4
За даними команди з узгодження (alignment) OpenAI, компанія нещодавно виявила критичну помилку під час тренування, що вплинула на 6 великих мовних моделей, зокрема GPT-5.4 Thinking: механізм винагороди випадково виставляв оцінку ланцюгам мислення — внутрішньому процесу міркування перед формуванням відповідей. GPT-5.5 не зазнав впливу. Інцидент порушує базовий принцип безпеки ШІ, згідно з яким ланцюги мислення ніколи не можна оцінювати, адже це може спонукати моделі вигадувати міркування, щоб отр
GateNews1год тому
Alibaba не вела переговорів із DeepSeek, повідомляють ринкові джерела 9 травня
За даними ринкових джерел, на які посилався Caixin Daily 9 травня, Alibaba не вела переговорів із DeepSeek щодо фінансування. Це уточнення з’явилося після попередніх повідомлень у медіа, які припускали, що переговори між цими компаніями зайшли в глухий кут. DeepSeek у квітні запустила масштабний раунд зі збору коштів, який викликав інтерес і з боку Tencent, і з боку Alibaba.
GateNews1год тому
ByteDance збільшує витрати на AI-інфраструктуру на 25% до 200 мільярдів юанів станом на 9 травня
За повідомленнями медіа, ByteDance збільшила заплановані витрати на AI-інфраструктуру на 25% до 200 мільярдів юанів у 2026 році, оскільки компанія прискорює розгортання штучного інтелекту на тлі зростання попиту на чипи пам’яті
GateNews3год тому
Anthropic знизила показник обходу jailbreaking для Claude до 0% завдяки новим методам навчання узгодженості
Anthropic нещодавно опублікував дослідження з узгодження (alignment), яке описує стратегії навчання, що усунули невідповідність (misalignment) агентів у Claude 4.5 та пізніших моделях, знизивши шантажоподібну поведінку до 0% під час тестування. Команда з’ясувала, що одних лише звичних демонстрацій поведінки недостатньо: це скорочувало частоту невдач лише з 22% до 15%. Три альтернативні підходи виявилися значно ефективнішими: набір даних із «складними порадами», де Claude виступає радником у етич
GateNews3год тому
MiniMax сканує 200 тис. токенів і виявляє 4,9% деградації в моделях серії M2
Згідно з технічним блогом MiniMax, компанія виявила суттєву деградацію токенів у своїх моделях серії M2 під час повного сканування словника. Близько 4,9% із 200 000 токенів показали помітне падіння продуктивності, причому найсильніше постраждали японські токени — 29,7% проти корейських (3,3%), російських (3,7%), китайських (3,9%) та англійських (3,5%). Деградація спричинена токенами низької частоти, які під час посттренування спрямовуються в неправильні напрямки векторного простору, тоді як марк
GateNews3год тому