Metaは最近、新メキシコ州とロサンゼルスの2件の訴訟で連続して敗訴し、陪審団はMetaが製品の潜在的な危害を知りながら適切に監督しなかったと判断しました。この2つの判決は、専門家の間で、テクノロジー業界が法的責任を回避するために、社会研究者をさらに削減し、人工知能モデルの研究や心理的安全評価を抑制する恐れがあるとの懸念を引き起こしています。これにより、消費者が使用する際のリスクがさらに高まることになります。
Facebookの元高管がFacebook企業内部研究を暴露し、強力な証拠となる
Metaの前身であるFacebookは、過去10年以上にわたり、多くの社会科学の専門家を雇用し、ソーシャルネットワークがユーザーに及ぼす影響を分析してきました。これにより、企業は革新リスクを引き受ける姿勢を示していました。しかし、最近の判決は、これらの本来は製品改善や広報のために使用される研究結果が、法廷で「明知故犯」の証拠として引用されることを示しています。前Metaの高級幹部であるブライアン・ボランド(Brian Boland)は、内部研究の結果がしばしば会社が外部に形作るイメージと矛盾していることを指摘しました。内部調査は、Instagramのティーンエイジャーのユーザーが性暴力に遭遇しやすいことを示し、原告弁護士が過失を指摘するための有力な根拠となっています。これらは以前は企業の社会的責任として見なされていた研究であり、今では企業が法的攻防において重い負担となっています。
専門家は企業が研究者を排除することが評価を弱体化させることを懸念
2021年に前製品マネージャーのフランシス・ハウゲン(Frances Haugen)が大量の内部文書を暴露して以来、Metaは内部研究の管理を著しく厳格化しました。その時に流出した文書は、Metaが製品が引き起こす可能性のある悪影響を早くから認識していたことを証明しています。この出来事は、世界的な規制の転換点と見なされています。非営利団体Children and Screens(子どもとスクリーン、デジタルメディアと子どもの発展研究所)は、法的リスクに対処するために、多くのテクノロジー企業が戦略を調整し、企業に不利な研究を排除し始めたと指摘しています。関連報道によると、Metaや他のテクノロジー大手は徐々に研究チームの規模を縮小し、さらには第三者研究者が使用するためのデータツールを削除しています。専門家は、企業が安全研究を負担と見なす限り、公正な評価能力が弱まることを懸念しています。
AI安全研究の不足がメンタルヘルスに脅威をもたらす
OpenAI、Google、Metaなどの企業は、大量のリソースをモデル研究に投入していますが、消費者心理への影響に関する研究は空白のままです。ケイト・ブロッカー(Kate Blocker)は、現在のAI開発が主に技術に焦点を当てており、チャットボットやデジタルアシスタントなどがティーンエイジャーや子供の心理的発達に与える長期的な影響には関心が向けられていないと分析しています。専門家は、AIがソーシャルメディアの過去の過ちを繰り返す危険があると懸念しています。研究結果が将来法廷で不利な証拠となる可能性を恐れ、研究者を排除することが、大衆がAI製品の背後にある潜在的な危険を理解することを妨げ、心身に傷害をもたらすおそれがあります。
この文章は、Metaが敗訴することでテクノロジー業界が社会心理研究を縮小し、消費者リスクを高める可能性があるという内容です。最初に登場したのは、リンクニュースABMediaです。