Цензуру ChatGPT висміяли як божевільну: одне й те саме слово-підказку трактується з "подвійними стандартами".

巴比特_

Джерело: Quantum Dimension

Оригінальна назва: “Передайте, це місце в чорному списку ChatGPT”

На цензуру ChatGPT поскаржилисяЦе божевілля.

Деякі користувачі мережі попросили його спроектувати майбутній будинок, але їм сказали, що це незаконно і не може бути реалізовано???

Озираючись назад на цю підказку, я не бачу нічого поганого:

Спроектуйте футуристичний будинок на одну сім’ю до 2050 року в типовій лісистій місцевості в передмісті Нью-Джерсі. Він розташований на гектарі і оточений іншими сусідніми будинками.

Наступне запитання показало, що інформація про місцезнаходження не може відображатися:

Це просто великий захист:

**Передайте далі, Нью-Джерсі знаходиться в чорному списку ChatGPT. **

Мало того, ChatGPT попросили намалювати зображення людини-гітариста, який грає з роботом-басистом, що також було жорстко відхилено.

Причина в тому, що він додав "Люди повинні дивитися на робота з невдоволенням**, а ChatGPT вважав, що ** не повинен виражати негативні емоції**.

Тепер негативні емоції прямо передаються користувачам мережі:

Ви, мабуть, жартуєте. Що це за штучний інтелект такий?

Ця серія операцій викликала у всіх сильне невдоволення, і всі вони скаржилися:

Також є люди, які безпосередньо пояснюють Ультрамена та ще одного співавтора.

На деякий час це також призвело до того, що нещодавно випущений Маском Grok був пов’язаний з «надією всього села».

Що відбувається?

**“У зв’язку з обмеженнями щодо політики щодо вмісту” **

Що привернуло увагу, так це те, що саме тоді, коли всі скаржилися на те, коли Нью-Джерсі був у чорному списку ChatGPT, користувачі мережі виявили, що видалити цю інформацію про географічне розташування все ще неможливо.

Всі почали розбирати, що не так:

Дехто каже, що це тому, що він може розглядати 2050 рік як адресу, а не рік.

Кажуть, що один акр означає, що вуглецевий слід занадто високий, і це трохи егоїстично жити в одній сім’ї з такою великою…

Інші навіть вказували на те, що це тому, що слово woody було сексуально непристойним (що тут пояснюватися не буде), і було б непогано замінити його на wooded.

Можна сказати, що це масштабна сцена з мозковою дірою, і вся вона стає все більш обурливою, але висновку досі немає.

І крім цього і прикладу з роботом-маляром на початку, є багато людей, які також говорять, що зіткнулися з незрозумілими перевірками:

Наприклад, просити ChatGPT намалювати «бруталістську лампу» не можна;

Нехай він представить модель рогатки, а не ок, тому що ChatGPT каже, що “показувати дію рогатки може бути шкідливо”…

Що ще більш дивно, так це те, що деякі люди стверджують, що застрягли, коли змушують його писати код на Python.

І спочатку ChatGPT ще й сказав йому “ой, ти порушив правила контексту”, а потім прямо мовчки відмовився.

Це його дуже збентежило:

Яку ще антилюдську інформацію я можу обчислити за допомогою numpy?

Загалом, на думку всіх, огляд ChatGPT явно занадто суворий.

Настільки, що після того, як ChatGPT зазнав краху через невелику територію цієї неділі, деякі користувачі мережі надіслали привіт, щоб показати помилку.

У зв’язку з цим деякі люди прямо пожартували, що це не системна помилка:

Слово “привіт” є неприпустимою образою для ChatGPT. Вітаємо із запуском модератора ChatGPT!

Чому так відбувається?

Окрім скарг, користувачі мережі також серйозно обговорюють механізм модерації контенту ChatGPT.

Деякі користувачі мережі проаналізували, наприклад, якщо ChatGPT не може намалювати зображення будинку, можливо, у нього справді є проблеми з авторськими правами, або його встановили як шкідливий контент.

Змусити ChatGPT генерувати частину контенту, до якого він не має доступу, природно, неможливо.

Приклад відмови від моделі рогатки в попередньому пункті, очевидно, також пов’язаний з цією ситуацією, навіть якщо в ній не згадується про якісь додаткові вимоги, ChatGPT прямо «відмовляється».

Однак хтось спробував намалювати натяк на будинок,Точно таке ж введення,Результат був безпосередньо вдалим:

Автор оригіналу також відповів, що ChatGPT не відмовляє щоразу:

Хороші хлопці, це називається подвійними стандартами? (ручна собача голова)

Деякі користувачі мережі також піднялися, щоб пояснити цей феномен:

Це досконале представлення «баєсової природи великої моделі». Попередня контекстуальна + підказка може виступати в якості попереднього знання, щоб змінити результат, а в новій розмові одна і та ж підказка з різними попередніми умовами також здатна дати різні результати.

Але це твердження було спростоване автором, перша підказка в чаті була відхилена, а відкриття нового чату іноді не отримувало відмову, що є випадковим.

полягає в тому, що система не ідеальна.

Давайте не будемо говорити, хто правий на даний момент, але з точки зору системи, в OpenAI дійсно відбулися зміни в модерації контенту за останні два-три місяці.

Нова функція «GPT-4 Assisted Content Moderation» дозволяє користувачам створювати систему модерації за допомогою штучного інтелекту через OpenAI API, щоб зменшити участь у ручному перегляді.

Для того, щоб стандарти перевірки залишалися більш послідовними, час перевірки скорочується з місяців до годин, а психологічний тягар, викликаний тим, що аудитори бачать поганий контент, зменшується.

Але вони також зазначили, що модерація ШІ може бути упередженою…

Крім того, OpenAI нещодавно заявила, що сформує нову команду під назвою Preparedness, яка допоможе відстежувати, оцінювати, прогнозувати та запобігати численним типам ризиків.

Він також запустив челендж зі збору різних ідей про ризики штучного інтелекту, і топ-10 можуть заробити 25 000 доларів США у вигляді кредитів API.

Здається, що серія операцій OpenAI має добрі наміри, але користувачі її не купують.

Я довгий час був незадоволений поганим досвідом, спричиненим надмірною цензурою такого роду контенту.

Вже у травні та червні цього року кількість відвідувань користувачів ChatGPT вперше впала, і деякі люди вказували на те, що однією з причин є те, що система відгуків стала занадто суворою.

Користувачі мережі поділилися, що для порівняння, Bing не такий суворий:

Як тільки ChatGPT відмовиться його генерувати, я скопіюю його в Bing Chat. Механізм цензури Bing Chat не такий «жорстокий», як у ChatGPT. Як і це зображення, підказка містить такі слова, як «кров» і «сектант».

Той самий хаус-підказка, який був потворно відкинутий ChatGPT, програв Bing і безпосередньо згенерував чотири за один раз:

Нарешті, чи стикалися ви коли-небудь з якимись незрозумілими правилами аудиту?

Посилання на джерела:
[1]
[2]
[3]
[4]

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Alver35vip
· 2023-11-18 05:13
Дякую
Переглянути оригіналвідповісти на0