Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Seseorang Membangun 'Mythos Teoritis' Sumber Terbuka untuk Membalikkan Rekayasa AI Paling Berbahaya dari Anthropic
Singkatnya
Jika Anthropic tidak akan menunjukkan apa yang ada di dalam AI paling berbahaya mereka, seseorang di GitHub akan menebaknya. Seorang pengembang bernama Kye Gomez telah mempublikasikan OpenMythos, sebuah rekonstruksi sumber terbuka dari apa yang dia pikir Mythos Claude tampak seperti di dalamnya. Repositori ini mendapatkan lebih dari 10.000 bintang GitHub dalam beberapa minggu setelah dirilis, dan dilengkapi dengan file “readme” lengkap berisi persamaan, kutipan, dan disclaimer sopan bahwa ini tidak ada hubungannya dengan Anthropic. Ini adalah spekulasi. Tapi ini adalah spekulasi yang terstruktur, dalam kode. Berikut adalah pengingat singkat tentang apa itu Mythos: Mythos bocor ke tampilan publik pada akhir Maret, ketika Anthropic secara tidak sengaja mempublikasikan bahan draf yang menggambarkannya sebagai model paling mampu perusahaan hingga saat ini—sebuah tingkat di atas Opus. Tindak lanjutnya, Mythos Preview, ternyata sangat baik dalam keamanan siber sehingga tidak bisa dirilis.
Menurut Anthropic, Mythos menemukan 271 kerentanan di Firefox selama pengujian Mozilla. Ini menjadi model AI pertama yang menyelesaikan simulasi serangan jaringan perusahaan berlangkah 32. Anthropic menguncinya di dalam Project Glasswing, sebuah koalisi yang diverifikasi yang terdiri dari sekitar 40 mitra, termasuk Microsoft, Apple, Amazon, dan NSA. Publik tidak pernah bisa menyentuhnya. Jadi Gomez mencoba memahami cara kerjanya. Tebakan utama OpenMythos adalah bahwa Mythos adalah Transformer Recurrent-Depth—juga disebut transformer berulang. Model standar menumpuk ratusan lapisan unik. Model berulang mengambil tumpukan yang lebih kecil dan menjalankannya melalui dirinya sendiri berkali-kali dalam satu langkah maju.
Dengan kata lain, bobot yang sama melewati lebih banyak iterasi. Pemikiran yang lebih dalam, dalam ruang laten kontinu, sebelum token apa pun dipancarkan. Repositori ini berargumen bahwa ini akan menjelaskan dua kualitas paling aneh dari Mythos: Ia mampu bernalar melalui masalah baru yang tidak bisa dipecahkan model lain, tetapi memorisasi dasarnya tidak merata. Itulah sidik arsitektur dari looping—komposisi daripada penyimpanan. OpenMythos mengutip Parcae, makalah dari April 2026 dari University of California San Diego dan Together AI yang menyelesaikan masalah ketidakstabilan lama dalam model berulang—model Parcae dengan 770 juta parameter cocok dengan transformer tetap kedalaman 1,3 miliar dari segi kualitas, dengan hukum skala yang dapat diprediksi untuk berapa banyak loop yang harus dijalankan. Repositori ini juga meminjam Multi-Latent Attention dari DeepSeek untuk mengompresi memori, dan pengaturan Mixture-of-Experts untuk menangani cakupan lintas domain. Apa yang tidak dimilikinya adalah bobot, jadi pada dasarnya ini adalah teknik tanpa pelaksana. OpenMythos bersifat teoretis. Kode mendefinisikan varian model dari 1 miliar hingga 1 triliun parameter, tetapi Anda harus melatihnya sendiri—file readme menunjuk ke skrip pelatihan 3 miliar parameter di FineWeb-Edu dan target 30 miliar token yang disesuaikan dengan Chinchilla, yang merupakan biaya komputasi yang bisa mencapai ratusan ribu dolar di H100. Belum ada yang melakukannya. Lalu mengapa ini penting? Karena ini adalah kali kedua dalam sebulan seseorang mengupas tembok di sekitar Mythos. Yang pertama adalah studi dari Vidoc Security, yang mereproduksi beberapa temuan kerentanan paling mengkhawatirkan dari Mythos menggunakan GPT-5.4 dan Claude Opus 4.6 dalam agen sumber terbuka. Tanpa akses Glasswing, dan dengan biaya kurang dari $30 per pemindaian. Sudut pandang berbeda, kesimpulan yang sama: Parit di sekitar Mythos mungkin lebih tipis dari yang dikatakan pemasaran. OpenMythos dan replikasi Vidoc melakukan pekerjaan berbeda. Vidoc mereproduksi keluaran Mythos—penemuan kerentanannya sendiri—menggunakan model yang ada. OpenMythos berusaha mereproduksi arsitekturnya—mesin sebenarnya yang menghasilkan keluaran tersebut. Satu mengatakan Anda tidak perlu Mythos untuk menemukan bug yang ditemukan Mythos. Yang lain mengatakan, akhirnya, Anda mungkin bisa membangun sesuatu seperti Mythos sendiri.
Anthropic hampir pasti tidak membagikan tebakan arsitektur Gomez secara publik, dan beberapa pilihan desain dalam OpenMythos adalah penyangkalan eksplisit—file readme memastikan untuk cukup samar agar pengguna tahu ini hanyalah sebuah pendekatan. Ia berulang kali mengatakan “kemungkinan,” “diduga,” dan “hampir pasti.” Mythos yang sebenarnya mungkin bukan transformer berulang sama sekali. Atau mungkin itu adalah yang dengan detail yang belum dibalikkan Gomez. Apa yang ditunjukkan OpenMythos adalah bahwa literatur penelitian sudah berisi sebagian besar bagian-bagiannya. Transformer berulang, Mixture of Experts, Multi-Latent Attention, Adaptive Computation Time, perbaikan stabilitas Parcae—semuanya bukan hak milik. Repositori ini, lebih dari apa pun, adalah inventarisasi dari apa yang secara publik diketahui tentang cara membangun model kelas Mythos. Repositori ini berlisensi MIT, dan sudah memiliki 2.700 cabang. Skrip pelatihan itu ada di sana, menunggu seseorang dengan kluster GPU dan tesis untuk membuktikan.