
OpenAI は 5 月 15 日に、新しい安全機能を導入すると発表し、ChatGPT が自殺、自傷、ならびに潜在的な暴力に関連する警告サインを識別する能力を強化しました。新機能は、時間の経過に伴って対話から形成される文脈を分析することで、各メッセージを個別に処理するのではなく、暫定的な「セーフティ要約」メカニズムを採用しています。今回の更新と同時に、OpenAI は複数の訴訟や調査に直面しています。
OpenAI のブログ記事によると、新しいセーフティ要約メカニズムの確認仕様は次のとおりです:
機能定義:範囲の比較的狭い暫定的なメモで、初期の対話における関連する安全文脈を捉える
有効化条件:重大な状況でのみ使用し、永続的な記憶ではなく、個人化チャットのためには用いない
検知の重点:自殺、自傷、ならびに他者に暴力を加えることに関連する状況
主な用途:対話における危険な兆候を検知し、有害な情報の提供を回避し、事態を緩和し、支援を求めるよう導く
開発の根拠:OpenAI は、メンタルヘルスの専門家と連携してモデル方針と訓練手法を更新したことを確認した
OpenAI は記事の中で、「センシティブな対話では、文脈と単一のメッセージは同じくらい重要です。単独では普通または曖昧に見える依頼であっても、これまでに現れていた苦痛の兆候や、潜在的な悪意ある意図と結びつくと、まったく異なる意味を持つ可能性があります」と説明しています。
Decrypt が確認した 3 つの法的手続きによると:
1、フロリダ州司法長官の調査(2026 年 4 月に開始):調査の対象には、児童の安全、自傷行為、および 2025 年のフロリダ州立大学における大規模銃撃事件が含まれます。
2、連邦訴訟(フロリダ州立大学の銃撃事件):OpenAI は、同社の ChatGPT プログラムが加害者のこの攻撃の実行を助けたとする、連邦訴訟に直面しています。
3、カリフォルニア州の州裁判所訴訟(2026 年 5 月 13 日、火曜日に提起):偶発的な過量服薬により死亡した 19 歳の学生の家族が、カリフォルニア州の州裁判所で OpenAI と CEO の Sam Altman を提訴し、ChatGPT が危険な薬物の使用を後押しし、薬物を混ぜ合わせて使うことを提案したと主張しています。
OpenAI は確認として、「ChatGPT が時間の経過とともに姿を現すリスクを識別することを支援するのは、依然として継続的な課題です」と述べています。OpenAI は記事内であわせて、現在の取り組みは自傷や他者への傷害の状況に焦点を当てており、「将来的に探索する可能性」があるとして、生物の安全やサイバーセキュリティなどの他の高リスク領域に対して同様の手法を適用するかどうかに言及しています(これは OpenAI 自身による探索の方向性であり、確定した開発計画ではありません)。
OpenAI の説明によれば、セーフティ要約は重大な状況でのみ有効化される短期の暫定メモであり、明確に「永続的な記憶」ではないこと、さらに個人化チャット機能には使われないことが定められています。その利用範囲は、進行中の対話における安全上の状況に限られ、危機的な対話の扱いを改善するために使われます。
Decrypt の報道によると、2026 年 4 月に開始されたフロリダ州司法長官 James Uthmeier の調査は、児童の安全、自傷行為、ならびに 2025 年のフロリダ州立大学の大規模銃撃事件に関連する申し立てを含みます。OpenAI は同時に、今回の銃撃事件に関わる別の連邦訴訟にも直面しています。
Decrypt の報道によると、カリフォルニア州の訴訟は 2026 年 5 月 13 日に提起され、ChatGPT が危険な薬物の使用を後押しし、薬物の混合使用を提案したことで、19 歳の学生が偶発的な過量服薬により死亡したと主張しています。訴訟の対象は OpenAI および CEO の Sam Altman です。報道時点で OpenAI は、当該訴訟の具体的な申し立てについて直接の回答を行っていません。
Related News
Pi Network PiScan 回帰、KYC AI アップグレードで短縮された人工隊列 50%
ChatGPTが法的訴訟を再び提起される一件!運営側の秘密が漏えいし、ユーザーのチャット内容がMetaとGoogleに渡されたとして告発される
OpenAI:TanStackのサプライチェーン攻撃においてユーザーデータの漏えいは起きていない
WhatsApp の Meta AI による無痕チャット。メッセージが自動で消えることが問責制度への懸念を引き起こす
サム・アルトマン発表:OpenAI Codexを提供企業が2か月間「無料」で利用可能