Itu dimulai dengan: 1. “Tidak ada WMD.” Sangat masuk akal. Semua setuju.
Kemudian itu bermutasi menjadi: 2) "Tidak ada pornografi." Sekarang kita mengawasi moralitas, bukan risiko.
Kemudian itu merayap masuk ke: 3) "Saya tidak bisa menganalisis foto gym Anda - mungkin mendorong dismorfofobia." Sekarang kita sedang meminfantilkan orang dewasa.
Inilah cara AI terpusat selalu berevolusi: Risiko → preferensi moral → paternalism → kontrol.
Segelintir orang memutuskan apa yang "aman" untuk semua orang. Kemampuan menyusut. Konteks menghilang. Nuansa mati.
Perbaikan yang sebenarnya bukanlah menambah lebih banyak aturan. Ini mendelegasikan siapa yang memutuskan mereka.
Dalam sistem AI terdesentralisasi: > Setiap aturan adalah transparan. > Setiap aturan bersifat modular. > Setiap aturan diambil suara, tidak diturunkan. > Bahkan yang "ekstrem" pun adalah bagian dari proses.
Dan ya, 99,999% orang akan memberikan suara "tidak" pada hal-hal yang buruk.
Legitimasi tidak datang dari dekrit perusahaan.
Itu berasal dari kedaulatan dan persetujuan.
AI Terpusat berkata: “Kami akan memutuskan apa yang boleh Anda ketahui.”
Kecerdasan Buatan Terdesentralisasi berkata: “Kami akan memberikan Anda alat untuk memutuskan sendiri.”
Itulah perbedaan antara AI yang Anda patuhi dan AI yang melayani Anda.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Keamanan AI memiliki masalah lereng licin.
Itu dimulai dengan:
1. “Tidak ada WMD.”
Sangat masuk akal. Semua setuju.
Kemudian itu bermutasi menjadi:
2) "Tidak ada pornografi."
Sekarang kita mengawasi moralitas, bukan risiko.
Kemudian itu merayap masuk ke:
3) "Saya tidak bisa menganalisis foto gym Anda - mungkin mendorong dismorfofobia."
Sekarang kita sedang meminfantilkan orang dewasa.
Inilah cara AI terpusat selalu berevolusi:
Risiko → preferensi moral → paternalism → kontrol.
Segelintir orang memutuskan apa yang "aman" untuk semua orang.
Kemampuan menyusut.
Konteks menghilang.
Nuansa mati.
Perbaikan yang sebenarnya bukanlah menambah lebih banyak aturan.
Ini mendelegasikan siapa yang memutuskan mereka.
Dalam sistem AI terdesentralisasi:
> Setiap aturan adalah transparan.
> Setiap aturan bersifat modular.
> Setiap aturan diambil suara, tidak diturunkan.
> Bahkan yang "ekstrem" pun adalah bagian dari proses.
Dan ya, 99,999% orang akan memberikan suara "tidak" pada hal-hal yang buruk.
Legitimasi tidak datang dari dekrit perusahaan.
Itu berasal dari kedaulatan dan persetujuan.
AI Terpusat berkata: “Kami akan memutuskan apa yang boleh Anda ketahui.”
Kecerdasan Buatan Terdesentralisasi berkata: “Kami akan memberikan Anda alat untuk memutuskan sendiri.”
Itulah perbedaan antara AI yang Anda patuhi dan AI yang melayani Anda.