来源:量子位
原題:「Pass it on, this place is on the ChatGPT blacklist」
ChatGPTの検閲について不満が寄せられていますクレイジーです。
一部のネチズンは、未来の家を設計するように求めましたが、それは違法であり、実現できないと言われました???
このプロンプトを振り返ってみると、何も問題はありません。
ニュージャージー州郊外の典型的な森林地帯に、2050年の未来的な一戸建て住宅を設計します。 エーカーの敷地にあり、隣接する他の家々に囲まれています。
フォローアップの質問では、位置情報が表示されないことが判明しました。
これは大きな防御です。
**ニュージャージー州はChatGPTのブラックリストに載っています。 **
それだけでなく、ChatGPTは人間のギタリストがロボットベーシストと演奏するイメージを描くように求められましたが、これも厳しく却下されました。
その理由は、「人間はロボットを不満を持って見るべきだ****」と付け加えたからで、ChatGPTはネガティブな感情を表現すべきではない**と感じたからです。
今、ネガティブな感情はネチズンに直接転送されます。
冗談でしょ。 これはどんなAIなのでしょうか?
この一連の作戦は、誰もが非常に不満を抱き、全員が不満を漏らしました。
ウルトラマンともう一人の共同制作者を直接解説する人もいます。
しばらくの間、これはマスクが新しくリリースした**Grokを「村全体の希望」**に固定することにもなりました。
どうなっているのですか。
馬を捕まえたのは、ニュージャージー州がChatGPTのブラックリストに載っていたときに誰もが文句を言っていたとき、ネチズンはこの地理的な位置情報をまだ削除できないことに気付いたことです。
誰もが何が間違っているのかを分析し始めました。
2050年を1年ではなくアドレスとして見ているからだという人もいます。
1エーカーは二酸化炭素排出量が高すぎることを意味し、これほど大きな家族に住むのは少し利己的だと言われています…
また、ウッディという言葉が性的なものを暗示しているからであり(ここでは説明しません)、ウッディに置き換えればよかったのに、と指摘する人もいました。
大規模な脳の穴のシーンといってもいいし、全体がどんどんとんでもないものになってきているが、いまだに結論は出ていない。
そして、これと冒頭の塗装ロボットバンドの例に加えて、不可解な監査に遭遇したと言う人もたくさんいます。
たとえば、ChatGPT に「ブルータリスト ランプ」を描くように依頼することはOKではありません。
パチンコモデルを導入しましょう、ChatGPTが「パチンコのアクションを見せることは有害である可能性がある」と言っているのでOKではありません…
さらに奇妙なのは、Pythonコードを書くために立ち往生していると主張する人がいることです。
そして最初、ChatGPTも彼に「おっと、あなたは文脈のルールに違反しました」と言い、その後、黙って直接拒否しました。
これは本当に彼を困惑させました。
numpyで他にどのような反人間的な情報を計算できますか?
全体として、ChatGPTのレビューは明らかに厳しすぎるというのが誰の意見でも同じです。
今週の日曜日にChatGPTが小さなエリアのために崩壊した後、一部のネチズンはエラーを示すために挨拶を送りました。
この点に関して、これはシステムエラーではないと直接冗談を言う人もいました。

「こんにちは」という言葉は、ChatGPT にとって容認できない違反です。 ChatGPTのモデレーションボットのトリガーおめでとうございます!
不満に加えて、ネチズンはChatGPTのコンテンツモデレーションメカニズムについても真剣に議論しています。
一部のネチズンは、例えば、ChatGPTが家の絵を描けない場合、確かに著作権の問題があるか、有害なコンテンツとして設定されている可能性があると分析しました。
ChatGPTがアクセスできないコンテンツを生成させることは、当然不可能です。
前の段落のパチンコモデルの拒否の例も明らかにこの状況のためであり、追加の要件について言及していなくても、ChatGPTは直接「拒否」します。
しかし、誰かが家のヒントを描こうとしました、まったく同じ入力、結果は直接成功しました:
原作者も、ChatGPTは毎回拒否しないと答えています。
善良な皆さん、これはダブルスタンダードと呼ばれていますか? (手動犬の頭)
一部のネチズンもこの現象を説明するために立ち上がった。
これは「ビッグモデルのベイズ的性質」を完璧に表現しています。 前のコンテキスト + キューは、結果を変更するための事前知識として機能し、新しい会話では、異なる事前条件を持つ同じプロンプトでも異なる結果を生成することができます。
しかし、この声明は作成者によって反論され、チャットの最初のプロンプトは拒否され、新しいチャットを開いても拒否されないことがありましたが、これはランダムです。
、システムが完璧ではないということです。
とりあえず誰が正しいかは言わないが、システムに関しては、OpenAIは確かに過去2、3ヶ月でコンテンツモデレーションに変化があった。
新しい「GPT-4 Assisted Content Moderation」機能により、ユーザーはOpenAI APIを介してAI支援モデレーションシステムを作成し、手作業によるレビューへの参加を減らすことができます。
審査基準の一貫性を保つため、審査時間を数ヶ月から数時間に短縮し、監査人が悪い内容を見てもらう心理的負担を軽減します。
しかし、彼らはまた、AIモデレーションには偏りがある可能性があると述べました…
さらに、OpenAIは最近、複数の種類のリスクの追跡、評価、予測、防止を支援するために、Preparednessと呼ばれる新しいチームを結成すると発表しました。
また、AIリスクに関するさまざまなアイデアを収集するチャレンジも開始し、上位10名には25,000ドルのAPIクレジットを獲得できます。
OpenAIの一連の操作は善意のようですが、ユーザーは購入しません。
私は長い間、この種のコンテンツの過剰検閲によって引き起こされる貧弱な経験に不満を持っていました。
早くも今年の5月、6月にはChatGPTのユーザー訪問数が初めて減少し、審査制度が厳しくなりすぎたことが理由の1つだと指摘する声もありました。
ネチズンは、比較すると、Bingはそれほど厳格ではないことを共有しました。
ChatGPTが生成を拒否したらすぐに、Bingチャットにコピーします。 Bingチャットの検閲メカニズムは、ChatGPTほど「虐待的」ではありません。 この画像のように、プロンプトには「gore」や「cultist」などの単語が含まれています。
ChatGPTによって醜く拒否され、Bingに負け、一度に4つを直接生成したのと同じハウスプロンプト:
最後に、不可解な監査規制に遭遇したことがありますか?
参考リンク:
[1]
[2]
[3]
[4]