Цензуру ChatGPT высмеяли как сумасшествие: к одному и тому же слову-подсказке относятся с «двойными стандартами».

巴比特_

Источник: Quantum Dimension

Оригинальное название: «Передайте дальше, это место в черном списке ChatGPT»

На цензуру ChatGPT жаловалисьЭто безумие.

Некоторые пользователи сети попросили его спроектировать будущий дом, но им сказали, что это незаконно и не может быть реализовано???

Оглядываясь назад на эту подсказку, я не вижу ничего плохого:

Спроектировать футуристический дом на одну семью к 2050 году в типичной лесистой местности в пригороде Нью-Джерси. Он расположен на акре и окружен другими соседними домами.

На уточняющий вопрос оказалось, что информация о местонахождении не может появиться:

Это просто большая защита:

**Передайте, Нью-Джерси находится в черном списке ChatGPT. **

Мало того, ChatGPT попросили нарисовать изображение гитариста-человека, играющего с роботом-басистом, что также было жестко отвергнуто.

Причина в том, что он добавил «Люди должны смотреть на робота с недовольством**, а ChatGPT посчитал, что не должен выражать негативные эмоции.

Теперь негативные эмоции напрямую передаются пользователям сети:

Вы, должно быть, шутите. Что это за ИИ такой?

Эта серия операций вызвала у всех большое недовольство, и все они жаловались:

Есть также люди, которые напрямую объясняют Ультрамена и еще одного соавтора.

На какое-то время это также привело к тому, что недавно выпущенный Grok Маска был привязан к «надежде всей деревни».

Что происходит?

**“Из-за ограничений контентной политики” **

Что зацепило, так это то, что как раз в тот момент, когда все жаловались на то, что Нью-Джерси был в черном списке ChatGPT, пользователи сети обнаружили, что удалить эту информацию о географическом местоположении все еще невозможно.

Все начали анализировать, что не так:

Некоторые говорят, что это связано с тем, что 2050 год может рассматриваться как адрес, а не год.

Говорят, что один акр означает, что углеродный след слишком высок, и немного эгоистично жить в одной семье такой большой…

Другие даже указывали, что это было связано с тем, что слово «древесный» было сексуально непристойным (что не будет объяснено здесь), и было бы неплохо заменить его на «лесной».

Можно сказать, что это масштабная сцена с дырой в мозгу, и вся она становится все более и более возмутительной, но развязки до сих пор нет.

И помимо этого и примера с группой роботов-художников в начале, есть много людей, которые также говорят, что сталкивались с необъяснимыми проверками:

Например, просить ChatGPT нарисовать «бруталистскую лампу» — это ненормально;

Пусть он представит модель рогатки, а не ОК, потому что ChatGPT говорит, что «демонстрация действия рогатки может быть вредной»…

Что еще более странно, так это то, что некоторые люди утверждают, что застряли, когда им приходится писать код на Python.

И сначала ChatGPT тоже сказал ему «ой, ты нарушил правила контекста», а потом прямо молча отказался.

Это действительно сбило его с толку:

Какую еще античеловеческую информацию можно вычислить с помощью numpy?

В целом, по общему мнению, обзор ChatGPT явно слишком строгий.

Настолько, что после того, как ChatGPT рухнул из-за небольшой площади в это воскресенье, некоторые пользователи сети отправили привет, чтобы показать ошибку:

В связи с этим некоторые люди прямо шутили, что это не системная ошибка:

Слово «привет» является недопустимым оскорблением для ChatGPT. Поздравляем с запуском бота модерации ChatGPT!

Почему так происходит?

Помимо жалоб, пользователи сети также серьезно обсуждают механизм модерации контента ChatGPT.

Некоторые пользователи сети проанализировали, например, если ChatGPT не может нарисовать изображение дома, возможно, у него действительно есть проблемы с авторскими правами или он был установлен как вредоносный контент.

Заставить ChatGPT генерировать часть контента, к которому он не может получить доступ, естественно, невозможно.

Пример отказа от модели рогатки в предыдущем пункте, очевидно, тоже из-за этой ситуации, даже если в нем не упоминаются какие-либо дополнительные требования, ChatGPT прямо «отказывается».

Тем не менее, кто-то попытался нарисовать намек на дом,Точно такой же ввод,Результат был сразу удачным:

Автор оригинала также ответил, что ChatGPT не отказывается каждый раз:

Хорошие ребята, это называется двойными стандартами? (ручная собачья голова)

Некоторые пользователи сети также встали, чтобы объяснить этот феномен:

Это прекрасное представление “байесовской природы большой модели”. Предыдущая контекстная подсказка + может действовать как априорное знание для изменения результата, а в новом разговоре одна и та же подсказка с другими предварительными условиями также может привести к другим результатам.

Но это утверждение было опровергнуто автором, первая подсказка в чате отклонялась, а открытие нового чата иногда не отклонялось, что случайно.

в том, что система не идеальна.

Давайте пока не будем говорить, кто прав, но с точки зрения системы, OpenAI действительно изменил модерацию контента за последние два-три месяца.

Новая функция «GPT-4 Assisted Content Moderation» позволяет пользователям создавать систему модерации с помощью искусственного интеллекта через OpenAI API, чтобы сократить участие в ручной проверке.

Для того, чтобы стандарты проверки были более последовательными, время проверки сокращается с месяцев до нескольких часов, а психологическая нагрузка, вызванная обнаружением аудиторами плохого контента, уменьшается.

Но они также упомянули, что модерация ИИ может быть предвзятой…

Кроме того, OpenAI недавно заявила, что сформирует новую команду под названием Preparedness, которая поможет отслеживать, оценивать, прогнозировать и предотвращать различные типы рисков.

Он также запустил челлендж по сбору различных идей о рисках ИИ, и топ-10 могут заработать 25 000 долларов США в виде кредитов API.

Кажется, что серия операций OpenAI продиктована благими намерениями, но пользователи на это не покупаются.

Я был недоволен плохим опытом, вызванным чрезмерной цензурой такого рода контента в течение долгого времени.

Уже в мае и июне этого года количество посещений пользователей ChatGPT впервые сократилось, и некоторые люди указывали, что одна из причин заключается в том, что система отзывов стала слишком строгой.

Пользователи сети поделились, что по сравнению с ними Bing не такой строгий:

Как только ChatGPT откажется его генерировать, я скопирую его в Bing Chat. Механизм цензуры Bing Chat не такой «оскорбительный», как у ChatGPT. Как и на этом изображении, подсказка содержит такие слова, как «кровь» и «культист».

Та же самая подсказка, которая была безобразно отвергнута ChatGPT, проиграла Bing и напрямую сгенерировала четыре за один раз:

Наконец, сталкивались ли вы когда-нибудь с какими-либо необъяснимыми правилами аудита?

Ссылки:
[1]
[2]
[3]
[4]

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Alver35vip
· 2023-11-18 05:13
спасибо
Посмотреть ОригиналОтветить0