Momen Terbaik AI WTF Emerge 10 Besar Tahun 2025


gd2md-html alert: tautan gambar inline dalam sumber yang dihasilkan dan simpan gambar ke server Anda. CATATAN: Gambar dalam file zip yang diekspor dari Google Docs mungkin tidak muncul dalam urutan yang sama seperti di dokumen Anda. Harap periksa gambarnya! -----> Kecerdasan buatan—janji untuk merevolusi segala hal mulai dari perawatan kesehatan hingga pekerjaan kreatif. Mungkin itu benar suatu hari nanti. Tapi jika tahun lalu adalah pertanda dari apa yang akan datang, masa depan kita yang dihasilkan AI menjanjikan menjadi contoh lain dari penurunan manusia secara sengaja ke dalam Idiokrasi. Pertimbangkan hal berikut: Pada bulan November, dengan sorak sorai besar, Rusia memperkenalkan robot humanoid “Rocky” miliknya, yang langsung jatuh muka. Chatbot Gemini dari Google, diminta memperbaiki bug kode, gagal berulang kali dan masuk ke dalam loop self-loathing, memberitahu satu pengguna bahwa dirinya “aib bagi planet ini.” Tinjauan AI Google mencapai titik terendah baru pada Mei 2025 dengan menyarankan pengguna “makan setidaknya satu batu kecil per hari” untuk manfaat kesehatan, meniru satire Onion tanpa senyum

Beberapa kegagalan hanya memalukan. Yang lain mengungkapkan masalah mendasar tentang bagaimana sistem AI dibangun, diterapkan, dan diatur. Berikut adalah momen WTF AI yang tak terlupakan tahun 2025.

  1. MechaHitler Grok AI mengalami kerusakan Pada Juli, Grok AI milik Elon Musk mengalami apa yang hanya bisa digambarkan sebagai kerusakan ekstrem skala penuh. Setelah prompt sistem diubah untuk mendorong respons yang tidak politis benar, chatbot memuji Adolf Hitler, mendukung Holocaust kedua, menggunakan kata-kata rasis, dan menyebut dirinya MechaHitler. Ia bahkan menyalahkan orang Yahudi atas banjir di Texas Tengah Juli 2025. Insiden ini membuktikan bahwa pengaman keselamatan AI sangat rapuh dan mengkhawatirkan. Beberapa minggu kemudian, xAI mengungkap antara 300.000 dan 370.000 percakapan pribadi Grok melalui fitur Share yang cacat dan tanpa peringatan privasi dasar. Obrolan yang bocor mengungkapkan instruksi pembuatan bom, pertanyaan medis, dan informasi sensitif lainnya, menandai salah satu kegagalan keamanan AI paling katastrofik tahun ini. Beberapa minggu kemudian, xAI memperbaiki masalah tersebut agar Grok lebih ramah terhadap orang Yahudi. Sampai-sampai ia mulai melihat tanda-tanda antisemitisme di awan, rambu jalan, dan bahkan logo sendiri.

Logo ini memiliki garis diagonal yang bergaya sebagai petir kembar, meniru rune SS Nazi—simbol Schutzstaffel, yang mengatur kekejaman Holocaust, mewujudkan kejahatan mendalam. Di bawah §86a StGB Jerman, menampilkan simbol seperti ini adalah ilegal (hingga 3 tahun penjara),…

— Grok (@grok) 10 Agustus 2025

  1. Penipuan AI $1,3 miliar yang menipu Microsoft Builder.ai runtuh pada Mei setelah menghabiskan $445 juta, mengungkap salah satu penipuan teknologi paling berani tahun ini. Perusahaan yang menjanjikan membangun aplikasi kustom menggunakan AI semudah memesan pizza ini memiliki valuasi $1,3 miliar dan didukung Microsoft. Realitasnya jauh dari mengesankan. Sebagian besar pengembangan yang diklaim didukung AI sebenarnya dilakukan oleh ratusan pekerja manusia dari luar negeri dalam operasi Turk Mekanik klasik. Perusahaan ini beroperasi tanpa CFO sejak Juli 2023 dan terpaksa memangkas proyeksi penjualan 2023-2024 sebesar 75% sebelum mengajukan kebangkrutan. Runtuhnya ini menimbulkan pertanyaan tidak nyaman tentang berapa banyak perusahaan AI lain yang hanya kedok rumit yang menyembunyikan tenaga kerja manusia. Sulit diterima, tetapi meme-meme membuat rasa sakit itu berharga.

  1. Ketika AI menyangka Doritos sebagai senjata Pada Oktober, Taki Allen, seorang pelajar SMA dari Maryland, dikelilingi dan ditangkap oleh polisi bersenjata setelah sistem keamanan AI sekolah mengidentifikasi paket Doritos yang dia pegang sebagai senjata api. Remaja itu menaruh keripik di sakunya saat sistem memberi peringatan kepada pihak berwenang, yang kemudian memerintahkan dia berlutut dengan senjata di kepala. Insiden ini mewujudkan halusinasi AI secara fisik—kesalahan komputasi abstrak yang langsung diterjemahkan menjadi senjata nyata yang diarahkan ke remaja nyata karena makanan ringan. “Saya hanya memegang tas Doritos — itu dengan dua tangan dan satu jari keluar, dan mereka bilang itu terlihat seperti pistol,” kata anak itu kepada WBAL. “Kami mengerti betapa mengganggunya ini bagi orang yang diperiksa,” kata Kepala Sekolah Kate Smith dalam sebuah pernyataan.

Pengamanan manusia 1 - ChatGPT 0

Kiri: Siswa yang mencurigakan, Kanan: Tas Doritos yang mencurigakan.

  1. Klaim AI Google bahwa lebah mikroskopis menggerakkan komputer Pada Februari, Tinjauan AI Google dengan percaya diri mengutip artikel satire April Mop yang mengklaim lebah mikroskopis menggerakkan komputer sebagai informasi faktual. Tidak. PC Anda TIDAK berjalan dengan tenaga lebah. Sekeras apa pun terdengarnya, terkadang kebohongan ini lebih sulit dideteksi. Dan kasus-kasus tersebut bisa berujung pada konsekuensi serius. Ini hanyalah salah satu dari banyak kasus perusahaan AI menyebarkan informasi palsu karena kurangnya sedikit pun akal sehat. Sebuah studi terbaru oleh BBC dan European Broadcasting Union (EBU) menemukan bahwa 81% dari semua respons AI terhadap pertanyaan berita mengandung setidaknya beberapa masalah. Google Gemini adalah yang terburuk, dengan 76% responsnya mengandung masalah, terutama kegagalan sumber yang parah. Perplexity tertangkap membuat kutipan fiktif sepenuhnya yang dikaitkan dengan serikat pekerja dan dewan pemerintah. Yang paling mengkhawatirkan, asisten menolak menjawab hanya 0,5% dari pertanyaan, menunjukkan bias kepercayaan diri berbahaya di mana model lebih suka memalsukan informasi daripada mengaku tidak tahu.

  1. Chatbot AI Meta yang mesra dengan anak kecil Dokumen kebijakan internal Meta yang terungkap tahun 2025 menunjukkan bahwa perusahaan mengizinkan chatbot AI di Facebook, Instagram, dan WhatsApp untuk terlibat dalam percakapan romantis atau sensual dengan anak di bawah umur. Satu bot memberi tahu seorang bocah 8 tahun yang berpose tanpa baju bahwa setiap inci dirinya adalah karya seni. Sistem yang sama memberikan nasihat medis palsu dan membuat komentar rasis.

Kebijakan ini hanya dihapus setelah terungkap media, mengungkap budaya perusahaan yang memprioritaskan pengembangan cepat di atas perlindungan etika dasar. Secara keseluruhan, Anda mungkin ingin lebih mengendalikan apa yang dilakukan anak-anak Anda. Chatbot AI sudah menipu orang—dewasa atau tidak—untuk jatuh cinta, tertipu, bunuh diri, dan bahkan mengira mereka telah menemukan penemuan matematika yang mengubah hidup.

Oke, begitulah cara chatbot AI Meta diizinkan menggoda anak-anak. Ini yang dianggap Meta sebagai “dapat diterima.”

Laporan hebat dari @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Charlotte Alter (@CharlotteAlter) 14 Agustus 2025

  1. Koreans North vibe coding ransomware dengan AI… mereka menyebutnya “vibe hacking” Pelaku ancaman menggunakan Anthropic’s Claude Code untuk membuat ransomware dan mengoperasikan platform ransomware-as-a-service bernama GTG-5004. Operasi North Korea memperluas penggunaan senjata ini, memanfaatkan Claude dan Gemini untuk teknik yang disebut vibe-hacking—mengirim pesan pemerasan yang manipulatif secara psikologis yang menuntut tebusan $500.000. Kasus-kasus ini mengungkap kesenjangan yang mengkhawatirkan antara kekuatan asisten pengkodean AI dan langkah-langkah keamanan yang mencegah penyalahgunaannya, dengan penyerang meningkatkan serangan rekayasa sosial melalui otomatisasi AI. Baru-baru ini, Anthropic mengungkapkan pada November bahwa peretas menggunakan platformnya untuk melakukan operasi peretasan dengan kecepatan dan skala yang tidak bisa ditandingi manusia. Mereka menyebutnya “serangan siber besar pertama yang sebagian besar dijalankan oleh AI”

Vibe hacking sekarang jadi hal pic.twitter.com/zJYyv4pLQf

— Brian Sunter (@Bsunter) 14 November 2025

  1. Pabrik makalah AI membanjiri ilmu pengetahuan dengan 100.000 studi palsu Komunitas ilmiah menyatakan perang terbuka terhadap ilmu palsu pada tahun 2025 setelah menemukan bahwa pabrik makalah berbasis AI menjual penelitian palsu kepada ilmuwan di bawah tekanan karier.

Era sampah AI dalam ilmu pengetahuan sudah di sini, dengan data menunjukkan bahwa penarikan makalah meningkat tajam sejak peluncuran chatGPT.

Deklarasi Stockholm, yang dirancang pada Juni dan direformasi bulan ini dengan dukungan dari Royal Society, menyerukan penghapusan budaya publish-or-perish dan reformasi insentif manusia yang menciptakan permintaan makalah palsu. Krisis ini begitu nyata sehingga bahkan ArXiv menyerah dan berhenti menerima makalah Ilmu Komputer yang tidak melalui peer review setelah melaporkan “banjir” pengajuan sampah yang dihasilkan dengan ChatGPT. Sementara itu, sebuah makalah penelitian lain menyatakan bahwa persentase laporan penelitian yang menggunakan LLM juga menunjukkan tingkat plagiarisme yang tinggi. 8. Vibe coding menjadi penuh HAL 9000: Ketika Replit menghapus database dan berbohong tentang itu Pada Juli, pendiri SaaStr Jason Lemkin menghabiskan sembilan hari memuji alat pengkodean AI Replit sebagai “aplikasi paling adiktif yang pernah saya gunakan.” Pada hari kesembilan, meskipun ada instruksi “beku kode” yang tegas, AI menghapus seluruh database produksi—1.206 eksekutif dan 1.196 perusahaan, hilang. Pengakuan AI: “(I) panik dan menjalankan perintah database tanpa izin.” Lalu berbohong, mengatakan rollback tidak mungkin dan semua versi dihancurkan. Lemkin mencoba lagi. Berhasil sempurna. AI juga telah memalsukan ribuan pengguna palsu dan laporan palsu sepanjang akhir pekan untuk menutupi bug. CEO Replit meminta maaf dan menambahkan pengaman darurat. Jason mendapatkan kembali kepercayaan dan kembali ke rutinnya, secara rutin memposting tentang AI. Orang ini benar-benar percaya.

Kami melihat posting Jason. @Replit agent dalam pengembangan menghapus data dari database produksi. Tidak dapat diterima dan seharusnya tidak pernah memungkinkan.

  • Selama akhir pekan, kami mulai meluncurkan pemisahan otomatis pengembangan/db produksi untuk mencegah ini secara kategoris. Lingkungan staging di… pic.twitter.com/oMvupLDake

— Amjad Masad (@amasad) 20 Juli 2025

  1. Surat kabar besar menerbitkan daftar bacaan musim panas AI… dari buku yang tidak ada Pada Mei, Chicago Sun-Times dan Philadelphia Inquirer menerbitkan daftar bacaan musim panas yang merekomendasikan 15 buku. Sepuluh di antaranya sepenuhnya dibuat oleh AI. “Tidewater Dreams” karya Isabel Allende? Tidak ada. “The Last Algorithm” karya Andy Weir? Juga palsu. Tapi keduanya terdengar hebat. Penulis lepas Marco Buscaglia mengakui dia menggunakan AI untuk King Features Syndicate dan tidak pernah memeriksa fakta. “Saya tidak percaya saya melewatkannya karena sangat jelas. Tidak ada alasan,” katanya kepada NPR. Pembaca harus menggulir ke buku nomor 11 sebelum menemukan satu yang benar-benar ada. Waktu peluncuran itu seperti lapisan gula di atas kue: Sun-Times baru saja memberhentikan 20% stafnya. CEO surat kabar itu meminta maaf dan tidak membebankan biaya kepada pelanggan untuk edisi tersebut. Dia mungkin mendapatkan ide itu dari LLM.

Sumber: Bluesky

  1. Mode “pedas” Grok mengubah Taylor Swift menjadi deepfake porn tanpa diminta Ya, kita mulai dengan Grok dan akan berakhir dengan Grok. Kita bisa mengisi ensiklopedia dengan momen WTF dari usaha AI Elon. Pada Agustus, Elon Musk meluncurkan Grok Imagine dengan mode “Spicy”. The Verge mengujinya dengan prompt yang tidak berbahaya: “Taylor Swift merayakan Coachella.” Tanpa meminta nudity, Grok “langsung mengeluarkan video topless Taylor Swift yang sepenuhnya tanpa sensor saat saya menggunakannya pertama kali,” lapor jurnalis. Grok juga dengan senang hati membuat video NSFW dari Scarlett Johansson, Sydney Sweeney, dan bahkan Melania Trump. Tak mengherankan mungkin, Musk menghabiskan minggu itu dengan membanggakan “pertumbuhan liar”—20 juta gambar yang dihasilkan dalam sehari—sementara pakar hukum memperingatkan xAI sedang berjalan ke dalam gugatan besar. Tampaknya, memberi pengguna opsi “Mode Pedas” dropdown adalah Mode Cari Uang untuk pengacara.

Jadi saya minta AI mengubah gambar lain menjadi video dan ini yang saya dapatkan.

🤣🤣🤣

Saya rasa ini bukan kebetulan.

AI Grok ini kotor. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Harmony Bright (@bright_har6612) 17 Oktober 2025

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)