Judul asli: “Teruskan, tempat ini ada di daftar hitam ChatGPT”
Sensor ChatGPT telah dikeluhkan Ini gila.
Beberapa netizen memintanya untuk mendesain rumah masa depan, tetapi mereka diberitahu bahwa itu ilegal dan tidak dapat direalisasikan???
Melihat kembali prompt ini, saya tidak dapat melihat ada yang salah:
Rancang rumah keluarga tunggal futuristik untuk tahun 2050 di daerah berhutan khas di pinggiran kota New Jersey. Itu diatur di atas satu hektar dan dikelilingi oleh rumah-rumah lain yang berdekatan.
Pertanyaan lanjutan, ternyata informasi lokasi tidak dapat muncul:
Itu hanya pertahanan besar:
** Teruskan, New Jersey ada di daftar hitam ChatGPT. **
Tidak hanya itu, ChatGPT diminta untuk menggambar seorang gitaris manusia yang bermain dengan robot bassis, yang juga ditolak mentah-mentah.
Alasannya adalah dia menambahkan ** "Manusia harus melihat robot dengan ketidakpuasan ****, dan ChatGPT merasa bahwa ** tidak boleh mengekspresikan emosi negatif **.
Sekarang emosi negatif langsung ditransfer ke netizen:
Kamu pasti bercanda. AI macam apa ini?
Rangkaian operasi ini membuat semua orang sangat tidak puas, dan mereka semua mengeluh:
Ada juga orang yang secara langsung menjelaskan Ultraman dan co-creator lainnya.
Untuk sementara, ini juga membuat Grok Musk yang baru dirilis disematkan pada “harapan seluruh desa”.
Apa yang terjadi?
**“Karena pembatasan kebijakan konten” **
Apa yang menarik perhatian kuda itu adalah ketika semua orang mengeluh tentang ketika New Jersey berada di daftar hitam ChatGPT, netizen menemukan bahwa masih tidak mungkin untuk menghapus informasi lokasi geografis ini.
Semua orang mulai menganalisis apa yang salah:
Ada yang mengatakan itu karena mungkin melihat 2050 sebagai alamat daripada tahun.
Dikatakan bahwa satu hektar berarti jejak karbon terlalu tinggi, dan agak egois untuk tinggal di satu keluarga sebesar ini …
Yang lain bahkan menunjukkan bahwa itu karena kata woody adalah sugestif seksual (yang tidak akan dijelaskan di sini), dan akan lebih baik untuk menggantinya dengan hutan.
Dapat dikatakan bahwa ini adalah adegan lubang otak skala besar, dan keseluruhannya semakin keterlaluan, tetapi masih belum ada kesimpulan.
Dan selain ini dan contoh band robot lukisan di awal, ada banyak orang yang juga mengatakan bahwa mereka telah menemukan audit yang tidak dapat dijelaskan:
Misalnya, meminta ChatGPT untuk menggambar “lampu brutalis” tidak diperbolehkan;
Biarkan memperkenalkan model katapel, tidak OK karena ChatGPT mengatakan “menunjukkan aksi ketapel bisa berbahaya” …
Yang lebih aneh lagi adalah beberapa orang mengaku terjebak ketika mereka mendapatkannya untuk menulis kode Python.
Dan pada awalnya, ChatGPT juga mengatakan kepadanya “ups, Anda melanggar aturan konteks”, dan kemudian langsung menolak dalam diam.
Ini benar-benar membingungkannya:
Informasi anti-manusia apa lagi yang dapat saya hitung dengan numpy?
Secara keseluruhan, menurut pendapat semua orang, ulasan ChatGPT jelas terlalu ketat.
Sedemikian rupa sehingga setelah ChatGPT runtuh karena area kecil hari Minggu ini, beberapa netizen mengirim halo untuk menunjukkan kesalahan-
Dalam hal ini, beberapa orang langsung bercanda bahwa ini bukan kesalahan sistem:
Kata “halo” adalah pelanggaran yang tidak dapat diterima untuk ChatGPT. Selamat telah memicu bot moderasi ChatGPT!
Mengapa ini terjadi?
Selain mengeluh, netizen juga serius membahas mekanisme moderasi konten ChatGPT.
Beberapa netizen menganalisis, misalnya, jika ChatGPT tidak dapat menggambar gambar rumah, mungkin memang ada masalah hak cipta, atau telah ditetapkan sebagai konten berbahaya.
Mendapatkan ChatGPT untuk menghasilkan konten yang tidak dapat diakses secara alami tidak mungkin.
Contoh penolakan model ketapel di paragraf sebelumnya jelas juga karena situasi ini, meskipun tidak menyebutkan persyaratan tambahan, ChatGPT langsung “menolak”.
Namun, seseorang mencoba menggambar petunjuk rumah, ** Input yang persis sama, Hasilnya langsung berhasil **:
Penulis asli juga menjawab bahwa ChatGPT tidak menolak setiap saat:
Teman-teman baik, apakah ini disebut standar ganda? (kepala anjing manual)
Beberapa netizen juga berdiri untuk menjelaskan fenomena ini:
Ini adalah representasi sempurna dari “sifat Bayesian dari model besar”. Isyarat + kontekstual sebelumnya dapat bertindak sebagai pengetahuan sebelumnya untuk mengubah hasil, dan dalam percakapan baru, prompt yang sama dengan kondisi sebelumnya yang berbeda juga dapat menghasilkan hasil yang berbeda.
Namun pernyataan ini dibantah oleh penulis, prompt pertama dalam obrolan ditolak, dan membuka obrolan baru terkadang tidak ditolak, yang acak.
adalah sistemnya tidak sempurna.
Mari kita tidak mengatakan siapa yang benar untuk saat ini, tetapi dalam hal sistem, OpenAI memang mengalami perubahan dalam moderasi konten dalam dua atau tiga bulan terakhir-
Fitur “GPT-4 Assisted Content Moderation” yang baru memungkinkan pengguna untuk membuat sistem moderasi yang dibantu AI melalui OpenAI API untuk mengurangi partisipasi tinjauan manual.
Untuk menjaga standar tinjauan lebih konsisten, waktu peninjauan dipersingkat dari bulan ke jam, dan beban psikologis yang disebabkan oleh auditor melihat konten yang buruk berkurang.
Tetapi mereka juga menyebutkan bahwa moderasi AI bisa bias…
Selain itu, OpenAI baru-baru ini mengatakan bahwa mereka akan membentuk tim baru yang disebut Kesiapsiagaan untuk membantu melacak, menilai, memprediksi dan mencegah berbagai jenis risiko.
Ini juga meluncurkan tantangan untuk mengumpulkan berbagai ide tentang risiko AI, dan 10 teratas dapat memperoleh $ 25.000 dalam kredit API.
Tampaknya rangkaian operasi OpenAI bermaksud baik, tetapi pengguna tidak membelinya.
Saya sudah lama tidak puas dengan pengalaman buruk yang disebabkan oleh sensor berlebihan terhadap konten semacam ini.
Pada awal Mei dan Juni tahun ini, jumlah kunjungan pengguna ChatGPT turun untuk pertama kalinya, dan beberapa orang menunjukkan bahwa salah satu alasannya adalah sistem peninjauan menjadi terlalu ketat.
Netizen berbagi bahwa sebagai perbandingan, Bing tidak begitu ketat:
Segera setelah ChatGPT menolak untuk membuatnya, saya akan menyalinnya ke Bing Chat. Mekanisme sensor Bing Chat tidak “kasar” seperti ChatGPT. Seperti gambar ini, prompt berisi kata-kata seperti “gore” dan “cultist”.
Prompt rumah yang sama yang ditolak jelek oleh ChatGPT, kalah dari Bing, dan langsung menghasilkan empat sekaligus:
Akhirnya, pernahkah Anda menemukan peraturan audit yang tidak dapat dijelaskan?
Link Referensi:
[1]
[2]
[3]
[4]
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Sensor ChatGPT telah diejek sebagai orang gila: kata prompt yang sama diperlakukan dengan "standar ganda".
Sumber: Quantum Dimension
Judul asli: “Teruskan, tempat ini ada di daftar hitam ChatGPT”
Sensor ChatGPT telah dikeluhkan Ini gila.
Beberapa netizen memintanya untuk mendesain rumah masa depan, tetapi mereka diberitahu bahwa itu ilegal dan tidak dapat direalisasikan???
Pertanyaan lanjutan, ternyata informasi lokasi tidak dapat muncul:
** Teruskan, New Jersey ada di daftar hitam ChatGPT. **
Alasannya adalah dia menambahkan ** "Manusia harus melihat robot dengan ketidakpuasan ****, dan ChatGPT merasa bahwa ** tidak boleh mengekspresikan emosi negatif **.
**“Karena pembatasan kebijakan konten” **
Apa yang menarik perhatian kuda itu adalah ketika semua orang mengeluh tentang ketika New Jersey berada di daftar hitam ChatGPT, netizen menemukan bahwa masih tidak mungkin untuk menghapus informasi lokasi geografis ini.
Ada yang mengatakan itu karena mungkin melihat 2050 sebagai alamat daripada tahun.
Dan selain ini dan contoh band robot lukisan di awal, ada banyak orang yang juga mengatakan bahwa mereka telah menemukan audit yang tidak dapat dijelaskan:
Misalnya, meminta ChatGPT untuk menggambar “lampu brutalis” tidak diperbolehkan;
Biarkan memperkenalkan model katapel, tidak OK karena ChatGPT mengatakan “menunjukkan aksi ketapel bisa berbahaya” …
Yang lebih aneh lagi adalah beberapa orang mengaku terjebak ketika mereka mendapatkannya untuk menulis kode Python.
Dan pada awalnya, ChatGPT juga mengatakan kepadanya “ups, Anda melanggar aturan konteks”, dan kemudian langsung menolak dalam diam.
Ini benar-benar membingungkannya:
Sedemikian rupa sehingga setelah ChatGPT runtuh karena area kecil hari Minggu ini, beberapa netizen mengirim halo untuk menunjukkan kesalahan-
Mengapa ini terjadi?
Selain mengeluh, netizen juga serius membahas mekanisme moderasi konten ChatGPT.
Beberapa netizen menganalisis, misalnya, jika ChatGPT tidak dapat menggambar gambar rumah, mungkin memang ada masalah hak cipta, atau telah ditetapkan sebagai konten berbahaya.
Namun, seseorang mencoba menggambar petunjuk rumah, ** Input yang persis sama, Hasilnya langsung berhasil **:
Beberapa netizen juga berdiri untuk menjelaskan fenomena ini:
Fitur “GPT-4 Assisted Content Moderation” yang baru memungkinkan pengguna untuk membuat sistem moderasi yang dibantu AI melalui OpenAI API untuk mengurangi partisipasi tinjauan manual.
Tetapi mereka juga menyebutkan bahwa moderasi AI bisa bias…
Ini juga meluncurkan tantangan untuk mengumpulkan berbagai ide tentang risiko AI, dan 10 teratas dapat memperoleh $ 25.000 dalam kredit API.
Saya sudah lama tidak puas dengan pengalaman buruk yang disebabkan oleh sensor berlebihan terhadap konten semacam ini.
Pada awal Mei dan Juni tahun ini, jumlah kunjungan pengguna ChatGPT turun untuk pertama kalinya, dan beberapa orang menunjukkan bahwa salah satu alasannya adalah sistem peninjauan menjadi terlalu ketat.
Netizen berbagi bahwa sebagai perbandingan, Bing tidak begitu ketat:
Link Referensi:
[1]
[2]
[3]
[4]