Otoritas pengatur Australia mengeluarkan peringatan, lonjakan keluhan penyalahgunaan gambar kecerdasan buatan Grok memicu peningkatan pengawasan

澳大利ya 网络 keamanan regulator baru-baru ini secara terbuka memperingatkan bahwa keluhan penyalahgunaan gambar terhadap Chatbot kecerdasan buatan Grok sedang meningkat pesat, terutama masalah pembuatan gambar seksual tanpa izin, yang telah menjadi titik risiko utama dalam pengawasan kecerdasan buatan generatif saat ini. Badan keamanan siber independen Australia, eSafety, menunjukkan bahwa jumlah keluhan terkait Grok dalam beberapa bulan terakhir telah berlipat ganda, melibatkan berbagai bentuk pelanggaran gambar terhadap anak di bawah umur dan orang dewasa.

Komisioner keamanan siber Australia, Julie Inman Grant, menyatakan bahwa beberapa keluhan mungkin melibatkan materi eksploitasi seksual anak, sementara yang lain terkait penyiksaan berbasis gambar terhadap orang dewasa. Dia menekankan di LinkedIn bahwa kecerdasan buatan generatif semakin banyak digunakan untuk seksualisasi dan eksploitasi orang lain, terutama yang melibatkan anak-anak, yang menimbulkan tantangan serius bagi masyarakat dan sistem pengawasan. Seiring peningkatan realisme konten yang dihasilkan AI, kesulitan dalam identifikasi dan pengumpulan bukti juga meningkat secara bersamaan.

Grok dikembangkan oleh perusahaan kecerdasan buatan xAI di bawah Elon Musk dan langsung terintegrasi ke platform X, memungkinkan pengguna untuk mengedit dan menghasilkan gambar. Dibandingkan dengan model kecerdasan buatan utama lainnya, Grok diposisikan sebagai produk yang lebih “avant-garde”, mampu menghasilkan konten yang biasanya ditolak oleh model lain. Sebelumnya, xAI juga meluncurkan mode yang dapat menghasilkan konten vulgar, yang menjadi salah satu fokus perhatian tinggi dari regulator.

Julie Inman Grant menunjukkan bahwa berdasarkan regulasi Australia saat ini, semua layanan daring harus mengambil langkah efektif untuk mencegah penyebaran materi eksploitasi seksual anak, terlepas dari apakah konten tersebut dihasilkan oleh kecerdasan buatan atau tidak. Dia menegaskan bahwa perusahaan harus memasang mekanisme perlindungan keamanan sepanjang siklus hidup produk AI generatif mereka, jika tidak, mereka akan menghadapi risiko penyelidikan dan penegakan hukum.

Dalam masalah deepfake, Australia telah mengambil posisi yang lebih tegas. Regulator baru-baru ini mendorong pembaruan legislasi untuk mengatasi kekurangan hukum yang ada dalam memerangi konten AI sintetis tanpa izin. RUU yang diajukan oleh Senator independen David Pocock secara tegas menetapkan denda tinggi bagi individu dan perusahaan yang menyebarkan konten deepfake, guna memperkuat efek penjeraan.

Secara keseluruhan, insiden penyalahgunaan gambar AI Grok mencerminkan masalah keterlambatan pengawasan di tengah ekspansi pesat teknologi AI generatif. Dengan meningkatnya perhatian global terhadap deepfake, penyalahgunaan gambar AI, dan perlindungan anak di bawah umur, langkah pengawasan Australia mungkin akan menjadi referensi penting bagi negara lain, sekaligus menandai bahwa era kepatuhan AI generatif sedang semakin cepat tiba.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)