Google DeepMind pada 6 April secara resmi merilis Gemma 4, yang merupakan generasi keempat dari model berbobot terbuka seri Gemma. Rilis ini menghadirkan empat versi, lisensinya kini beralih ke Apache 2.0, serta menambahkan dukungan bawaan untuk input multimodal dan alur kerja agent.
Empat spesifikasi: mencakup semua perangkat, dari perangkat seluler hingga server
Model 31B padat menempati peringkat ketiga di daftar peringkat model open source di Arena AI untuk kategori teks; model campuran pakar 26B menempati peringkat keenam. Google menyatakan bahwa, dalam pengujian benchmark Arena AI, dua model besar tersebut masih unggul dibanding model lain yang memiliki jumlah parameter hingga 20 kali lebih banyak.
Kapabilitas inti: multimodal, audio, 140 jenis bahasa
Keempat versi semuanya mendukung input multimodal video dan gambar secara native, mencakup OCR dan pemahaman grafik. Versi edge (E2B, E4B) juga mendukung input audio tambahan, yang dapat digunakan untuk skenario pengenalan suara.
Semua model mendukung function calling, output JSON terstruktur, serta instruksi sistem native yang digunakan untuk membangun alur kerja agent. Data pelatihan mencakup lebih dari 140 jenis bahasa.
Lisensi beralih dari yang khusus menjadi Apache 2.0, lebih ramah untuk penggunaan komersial
Lisensi khusus yang digunakan sebelumnya pada seri Gemma membatasi modifikasi dan penerbitan ulang; Gemma 4 kini memakai lisensi Apache 2.0 standar industri, yang mengizinkan penggunaan komersial, modifikasi, dan penerbitan ulang tanpa perlu menandatangani perjanjian terpisah dengan Google. Google menyatakan bahwa langkah ini membuat Gemma 4 lebih cocok untuk aplikasi perusahaan dan pengembang.
Empat model kini sudah tersedia sepenuhnya untuk digunakan. Google saat ini belum mengumumkan jadwal integrasi model edge ke Android atau produk perangkat keras konsumen.
Artikel ini tentang peluncuran Gemma 4 oleh Google: empat spesifikasi, lisensi Apache 2.0, mencakup semuanya dari ponsel hingga server, pertama kali muncul di Liputan Berantai ABMedia.