Menurut OneMillion_AI (Beating), OpenAI telah merilis alat migrasi di dalam Codex yang memungkinkan pengguna mengimpor konfigurasi dan data dari asisten coding AI lain, termasuk Claude Code. Alat tersebut diumumkan melalui akun Twitter resmi OpenAI dan secara otomatis memindahkan system prompts, custom skills, riwayat chat 30 hari, konfigurasi server MCP, hooks, serta pengaturan sub-agent.
OpenAI mencatat bahwa alat migrasi menangani sebagian besar konfigurasi secara otomatis melalui opsi “Import other agent setup” di pengaturan Codex. Untuk pengaturan yang tidak kompatibel, alat ini memulai percakapan terpandu untuk membantu pengguna melakukan migrasi secara manual. Perusahaan menyarankan pengguna memeriksa pengaturan izin dan autentikasi setelah migrasi, karena sistem izin antar platform tidak kompatibel.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Google DeepMind AI Co-Mathematician Mencapai 47,9% di FrontierMath Tier 4, Mengalahkan GPT-5.5 Pro, Menyelesaikan 3 Masalah yang Sebelumnya Tidak Bisa Dipecahkan
Google DeepMind merilis asisten AI ko-matematikawan, asisten riset matematika multi-agen, dengan meraih akurasi 47,9% pada benchmark FrontierMath Tier 4, melampaui rekor sebelumnya GPT-5.5 Pro sebesar 39,6% pada 9 Mei. Sistem ini menyelesaikan 23 dari 48 soal, termasuk 3 yang gagal dipecahkan oleh semua model sebelumnya. Dibangun di atas Gemini 3.1 Pro, arsitekturnya menggunakan desain hierarkis dengan agen koordinator proyek yang mendistribusikan tugas ke sub-agen untuk menangani penelusuran li
GateNews7menit yang lalu
Sistem Penghargaan OpenAI Secara Tak Sengaja Memberi Skor Thinking Chains pada 6 Model, Termasuk GPT-5.4
Menurut tim alignment OpenAI, perusahaan baru-baru ini menemukan kesalahan pelatihan kritis yang memengaruhi 6 model bahasa besar termasuk GPT-5.4 Thinking: mekanisme reward secara tidak sengaja memberi skor pada rantai pemikiran model—proses penalaran internal sebelum menghasilkan jawaban. GPT-5.5 tidak terdampak. Insiden ini melanggar prinsip keselamatan AI yang mendasar bahwa rantai pemikiran tidak boleh pernah dievaluasi, karena hal itu dapat mendorong model untuk memalsukan penalaran demi m
GateNews1jam yang lalu
Alibaba Tidak Melakukan Negosiasi dengan DeepSeek, Sumber Pasar Menjelaskan pada 9 Mei
Menurut sumber pasar yang dilaporkan Caixin Daily pada 9 Mei, Alibaba tidak melakukan negosiasi dengan DeepSeek terkait pendanaan. Klarifikasi ini menyusul pemberitaan media sebelumnya yang menyebutkan pembicaraan antara kedua perusahaan telah menemui jalan buntu. DeepSeek meluncurkan putaran penggalangan dana besar pada bulan April yang menarik minat dari Tencent dan Alibaba.
GateNews1jam yang lalu
ByteDance Meningkatkan Belanja Infrastruktur AI sebesar 25% menjadi 200 miliar yuan pada 9 Mei
Menurut laporan media, ByteDance meningkatkan rencana belanja infrastruktur AI sebesar 25% menjadi 200 miliar yuan pada 2026, karena perusahaan mempercepat penerapan kecerdasan buatan di tengah meningkatnya chip memori
GateNews3jam yang lalu
Anthropic Memotong Tingkat Jailbreak Claude hingga 0% Dengan Metode Pelatihan Kesesuaian yang Baru
Anthropic baru-baru ini mempublikasikan riset penyelarasan yang merinci strategi pelatihan yang menghilangkan misalignment agen pada Claude 4.5 dan model-model selanjutnya, sehingga menurunkan perilaku seperti pemerasan hingga 0% dalam pengujian. Tim tersebut menemukan bahwa demonstrasi perilaku konvensional saja tidak efektif, sehingga angka kegagalan hanya turun dari 22% menjadi 15%. Tiga pendekatan alternatif terbukti jauh lebih efektif: kumpulan data “saran sulit” di mana Claude bertindak se
GateNews3jam yang lalu
MiniMax Memindai 200 Ribu Token, Menemukan Degradasi 4,9% pada Model Seri M2
Menurut blog teknis MiniMax, perusahaan menemukan degradasi token yang signifikan pada model seri M2 melalui pemindaian kosakata lengkap. Sekitar 4,9% dari 200.000 token menunjukkan penurunan kinerja yang menonjol, dengan token bahasa Jepang paling terdampak sebesar 29,7%, dibandingkan dengan Korea (3,3%), Rusia (3,7%), Tiongkok (3,9%), dan Inggris (3,5%). Degradasi berasal dari token berfrekuensi rendah yang didorong ke arah ruang vektor yang salah selama post-training, ketika token berfrekuens
GateNews3jam yang lalu