Gateアプリをダウンロードするにはスキャンしてください
qrCode
その他のダウンロードオプション
今日はこれ以上表示しない

下院民主党は、人工知能のバイアスに焦点を当てた記者会見を終了しました。核心メッセージは「AIは、私たちのシステムに組み込まれたあらゆるバイアス、不平等、不公正を反映する」というものでした。



このセッションでは、機械学習モデルが既存の社会的不均衡をどのように助長しているかに対する懸念が高まっていることが強調されました。議員たちは、金融、採用、コンテンツのモデレーションにおけるアルゴリズムによる意思決定が、過去の偏見を排除するどころかむしろ増幅させていることが多いと指摘しました。

この議論は暗号資産分野でも新しいものではありません。分散型プロトコルは人間のバイアスを排除すると主張していますが、スマートコントラクトに入力されるデータにも同様の欠陥が含まれている可能性があります。従来のAIであれ、ブロックチェーンベースのシステムであれ、訓練データ自体が偏っている場合、どのようにしてより公正なテクノロジーを構築すればよいのでしょうか?
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 2
  • リポスト
  • 共有
コメント
0/400
WalletDetectivevip
· 4時間前
簡単に言えば、ゴミが入ればゴミが出る、アルゴリズムでは質の悪いデータはきれいにならない。
原文表示返信0
GweiWatchervip
· 5時間前
端的に言えば、ゴミが入ればゴミが出る。どんなに包装しても本質は変わらない。
原文表示返信0
  • ピン