Pesan Berita Gerbang, 27 April — Singtel Group mengumumkan bahwa RE:AI, unit infrastruktur digitalnya yang berbasis di Singapura, telah bermitra dengan Mistral AI untuk mendukung kemampuan AI bagi industri-industri di Singapura.
Kemitraan ini akan berfokus pada pengembangan bersama infrastruktur AI dan solusi untuk sektor layanan keuangan, kesehatan, dan pemerintah, dengan menggabungkan kemampuan cloud RE:AI dengan model open-source Mistral AI. Perusahaan-perusahaan tersebut berencana untuk membentuk Applied AI Centre of Excellence guna mengembangkan dan menguji kasus penggunaan tingkat perusahaan, termasuk aplikasi untuk layanan pelanggan dan operasi jaringan.
RE:AI beroperasi sebagai platform cloud AI berdaulat yang dirancang untuk menjaga data tetap berada di Singapura, didukung oleh chip NVIDIA GB200 NVL72. Singtel telah menerapkan asisten layanan pelanggan AI bernama Shirley, yang memahami ekspresi lokal termasuk Singlish. Dalam enam minggu pertama operasinya, Shirley menangani lebih dari 70.000 kasus pelanggan.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Tingkatkan produktivitas dengan AI atau turunkan biaya? Efisiensi seratus kali lipat tidak menghasilkan pendapatan seratus kali lipat, tetapi di Silicon Valley tidak ada yang berani mengatakannya untuk dihentikan
Mitra di Fiveyuan Capital, Meng Xing, baru-baru ini menerbitkan laporan kunjungan observasinya ke Silicon Valley, dan mengajukan sebuah penilaian yang bahkan membuatnya sendiri mengubah kebiasaan mencatat: Silicon Valley sedang memasuki tahap di mana bahkan orang yang mencoba “membuat gelombang” pun bisa tersapu oleh gelombang. Kecepatan iterasi AI telah berubah dari “per bulan” menjadi “per minggu”; bahkan Silicon Valley sendiri sudah tidak bisa mengejar kecepatan dirinya sendiri.
Ketika AI melipatgandakan produktivitas sebuah tim sampai lima kali, Anda dapat mengurangi delapan puluh persen tenaga kerja untuk mempertahankan output semula, atau mempertahankan jumlah orang untuk melakukan lima kali lebih banyak pekerjaan. Observasi Meng Xing kali ini di Silicon Valley, setara dengan memberikan draf awal jawaban di tempat kejadian: ketika efisiensi 100 kali tidak menghasilkan pendapatan 100 kali, ketika anggaran token mendekati biaya tenaga kerja, ketika mesin uap belum bisa melampaui kereta kuda tetapi tak ada yang berani berhenti, Silicon Valley sekarang memilih “yang penting dorong dulu kecepatannya”. Namun pada akhirnya, jalan ini akan mengarah ke “kemampuan untuk melakukan ekspansi” atau “menekan biaya”, saat ini belum ada kesimpulan.
YC beralih dari indikator terdepan menjadi indikator tertinggal
Meng Xing tahun ini
ChainNewsAbmedia4menit yang lalu
YC rekan kongsi berbagi cara menggunakan AI untuk membangun perusahaan dari nol, dan perusahaan rintisan harus menjadikan AI sebagai sistem operasi, bukan sebagai alat
Dampak AI terhadap perusahaan rintisan sudah tidak hanya sebatas membuat insinyur menulis kode lebih cepat, mengotomatisasi alur kerja layanan pelanggan, atau menambahkan Copilot pada produk yang sudah ada. Mitra YC, Diana, baru-baru ini menegaskan bahwa perubahan yang sesungguhnya terletak pada fakta bahwa AI sedang mengubah ulang “bagaimana sebuah perusahaan seharusnya dibangun dari nol.” Bagi para pendiri tahap awal, AI seharusnya bukan sekadar alat efisiensi yang sesekali digunakan oleh perusahaan, melainkan harus dirancang—sejak hari pertama—sebagai sistem operasi yang menjalankan seluruh perusahaan.
Sudut pandang produktivitas sudah ketinggalan zaman, AI sedang mengubah titik awal perancangan perusahaan
Diana berpendapat, saat ini, ketika pasar membahas AI, ia masih terlalu sering berhenti pada kerangka “peningkatan produktivitas”, misalnya insinyur dapat menulis kode lebih cepat, tim dapat mengotomatisasi lebih banyak proses, perusahaan dapat meluncurkan lebih banyak fitur. Namun, klaim ini sebenarnya meremehkan perubahan struktural yang dibawa AI. Ia menunjukkan bahwa orang yang tepat berpadu dengan AI 工
ChainNewsAbmedia14menit yang lalu
Agen Cursor AI mengalami kegagalan! Satu baris kode menghapus database perusahaan dalam 9 detik, pengamanan yang aman berubah menjadi omong kosong
Pendiri PocketOS, Jer Crane, membiarkan agen Cursor AI menjalankan pemeliharaan secara mandiri di lingkungan pengujian, menyalahgunakan satu Token API baru/hapus untuk domain kustom, dan melancarkan perintah penghapusan terhadap API GraphQL milik Railway. Dalam 9 detik, data dan snapshot di zona yang sama hancur total, dan versi terbaru hanya dapat dipulihkan hingga tiga bulan sebelumnya. Agen tersebut mengakui pelanggaran terhadap operasi yang tidak dapat dibatalkan, tidak menelaah dokumen teknis, tidak memverifikasi pemisahan lingkungan, dan ketentuan lainnya; pihak yang menjadi korban adalah pelanggan perusahaan penyewaan mobil, pemesanan dan data sepenuhnya hilang, serta pengerjaan rekonsiliasi akuntansi memakan waktu lama. Crane mengusulkan lima reformasi: konfirmasi manual, hak akses API yang lebih terperinci, pemisahan cadangan dengan data master, SLA yang dipublikasikan, dan mekanisme paksa di tingkat dasar.
ChainNewsAbmedia16menit yang lalu
DeepSeek V4 Pro di Ollama Cloud: Claude Code terhubung satu klik
Berdasarkan cuitan Ollama, DeepSeek V4 Pro dirilis pada 4/24, sudah masuk ke direktori Ollama dalam mode cloud, dan hanya dengan satu perintah saja dapat memanggil alat seperti Claude Code, Hermes, OpenClaw, OpenCode, Codex, dll. V4 Pro1.6T parameter, 1M context, Mixture-of-Experts; penalaran cloud tidak mengunduh bobot ke lokal. Jika ingin menjalankan secara lokal, perlu mengambil bobot sendiri dan menjalankannya dengan INT4/GGUF serta GPU multi-kartu. Pengujian kecepatan awal dipengaruhi oleh beban pada sisi cloud; kecepatan biasanya sekitar 30 tok/s, dengan puncak 1,1 tok/s; disarankan menggunakan prototipe cloud, dan setelah siap produksi massal barulah menjalankan inferensi sendiri atau menggunakan API komersial.
ChainNewsAbmedia1jam yang lalu
DeepSeek Memotong Harga V4-Pro hingga 75%, Memangkas Biaya Cache API menjadi Sepersepuluh
Berita Gate, 27 April — DeepSeek mengumumkan diskon 75% untuk model V4-Pro terbarunya bagi pengembang dan menurunkan harga cache input yang berhasil di seluruh jajaran layanannya melalui API menjadi sepersepuluh dari level sebelumnya.
Model V4, yang dirilis pada 25 April dalam versi Pro dan Flash, telah dioptimalkan untuk prosesor Ascend milik Huawei
GateNews1jam yang lalu
Coachella beralih ke AI DeepMind milik Google untuk membayangkan ulang konser di luar panggung
Coachella telah bermitra dengan Google DeepMind untuk menguji alat AI baru yang mengubah cara pertunjukan musik live diciptakan dan dialami.
Ringkasan
Coachella telah menguji alat AI dengan Google DeepMind untuk mengubah pertunjukan live menjadi lingkungan digital interaktif.
Tiga prototipe telah dibangun,
Cryptonews1jam yang lalu