GoogleのAI検索レコメンデーションの正確性と信頼性は、依然として致命的な課題です

Googleは、AI検索結果から誤った潜在的に危険な回答を排除するために懸命に取り組んでいます。 しかし、新しい「AI概要」機能は、ソーシャルメディアや風刺サイト上のジョークや皮肉を事実と誤認することがあります。

Googleが最近発表したAI検索結果は多くの注目を集めていますが、その理由は期待されたほど肯定的ではありません。 新たに立ち上げた「Twin Times」戦略の一環として、テクノロジーの巨人は先週、多数の新しいAIツールを発表しました。 これに続いて、同社の特徴的なウェブ検索サービスが大幅に変更され、検索結果の質問に対する回答がウェブサイトのリンクの上に自然言語で直接表示されるようになりました。

Googleのアップデートにより、検索技術がより高度になり、より複雑なユーザーの質問に回答できるようになりますが、いくつかの懸念も生じます。 たとえば、AIは検索結果を処理する際に、誤った情報や誤解を招く情報をユーザーに提示することがあり、優生学などのデリケートなトピックに関しては特に問題になります。

優生学は、歴史上の非人道的な政策のいくつかに誤って使用されてきたため、その情報の正確性と感度は特に重要です。 また、AIは、有毒なキノコと無毒なキノコを区別するなど、特定のものを識別する際の精度が不十分であるという問題も抱えています。

これは、健康と安全に関連するクエリにAI検索ツールを使用する際には特に注意し、可能な限り専門家の確認を求める必要があることを思い出させてくれます。

Google AIは、「AIの概要」の回答を提供する際に、Redditなどのソーシャルメディアのコンテンツを引用することがありますが、これはもともとユーモラスまたは皮肉な目的を意図していた可能性があります。 これにより、明らかに誤った、またはばかげた回答がユーザーに提供されるようになりました。

たとえば、あるユーザーは、うつ病に対処する方法を尋ねられたとき、Google AIが実際に「ゴールデンゲートブリッジから飛び降りる」ことを提案したと報告しました。 他の答えは、人々が見下ろさないのと同じくらいロングのショートパンツにとどまることができるという反重力能力をばかげて確認しています。

これらの例は、AIが検索結果の提供において進歩を遂げた一方で、精度と信頼性にはまださらなる改善が必要な欠点があることを示しています。

Google と Reddit のパートナーシップは、ユーザーが興味のあるコミュニティやディスカッションを簡単に見つけて参加できるようにすることを目的としています。 ただし、このコラボレーションは、特にAIがRedditのコンテンツを処理する場合、いくつかのリスクも露呈します。 AIは情報の信憑性や文脈を識別する能力を持っていない可能性があるため、Reddit上の情報を差別なく採用して引用する可能性があります。

このような無差別な情報の採用は、検索結果に誤解を招くような、あるいはばかげた提案が表示されることにつながる可能性があります。 たとえば、AIは、子供たちが1日に少なくとも1つの小さな石を食べるべきだという不適切な提案をし、その提案をカリフォルニア大学バークレー校の地質学者からのものであると誤ってラベル付けしたことがあります。 この例は、ウェブ上で情報を処理する際に、AIが情報の信頼性と適合性を無視して誤解を招く可能性があることを示しています。

Googleは明らかにばかげた回答を削除または修正しましたが、AIが生成したモデルは、「幻覚」として知られる現象である不正確または架空の回答を生成することがあります。 これらの「幻覚」は、AIが事実ではないものを作り出しているため、虚偽の陳述と見なすことができます。

このことは、情報の信憑性と文脈の区別においてAIを改善する必要があり、提供される情報が正確で信頼できるものであることを保証するために、さらに最適化する必要があることを示唆しています。

同時に、Google AIは、チーズがピザから滑り落ちるのを防ぐために接着剤の使用を誤って推奨しましたが、これはRedditの10年前のコメントから来ています。

OpenAIのChatGPTモデルは、法学教授のジョナサン・ターリー(Jonathan Turley)氏が関与していない旅行を理由に性的暴行を受けたと虚偽の告発をするなど、捏造の事例となっている。 このインシデントは、AIが情報処理を過信し、インターネット上のコンテンツの真偽を正確に区別できない可能性があるという事実を反映しています。

また、AIの過信は、インターネット上のあらゆる情報を無差別に真実として受け入れてしまうことになりかねず、この信頼が、Googleの元幹部に誤った責任を負わせたり、独占禁止法の文脈で企業に対して誤って有罪判決を下したりするなど、誤った判断につながる可能性があります。

ユーザーがGoogleでポップカルチャー関連の質問を検索すると、AI検索の候補機能によって、ユーモラスな結果や紛らわしい結果が表示されることがあります。 これは、特にユーモア、風刺、または特定の社会的文脈が含まれている場合、AIがポップカルチャーのコンテンツを理解する上で課題に直面する可能性があるという事実が原因である可能性があります。 AIがコンテンツの真意を正確に把握することは難しく、ユーザーの期待に沿わない提案や回答をしてしまい、思わぬ反応を引き起こすことがあります。

さらに、AIは、好奇心、感覚処理の問題、摂食障害などの原因が考えられることを指摘し、子供の岩石摂取に関する推奨事項を更新しましたが、これらの反応は依然として専門家による評価が必要であり、最終的なガイダンスとして使用すべきではありません。 これは、特に健康と安全に関して、AIが提供する情報を使用する際には、特に注意を払い、専門家のアドバイスを求める必要があることを強調しています。

結論:

Google AIの検索候補機能は大きな技術的進歩を遂げていますが、その精度と信頼性の欠如は依然として深刻な結果につながる可能性があります。 Redditなどのソーシャルメディアプラットフォームでの無差別な情報の採用から、優生学などのデリケートなトピックに関する誤解を招く情報、法曹界での不適切な自己犯罪化まで、これらの事件はAIの情報スクリーニングと判断の重大な欠点を浮き彫りにしました。

さらに、AIモデルが事実を捏造したり、「幻覚」を作り出したりする問題も、複雑な問題を扱う際の限界を示しています。 したがって、私たちはAIが提供する情報に注意を払い、専門家のアドバイスを求め、開発者や研究者にAIテクノロジーを継続的に改善して、リスクではなく人類により多くのロングの利益をもたらすように呼びかける必要があります。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン