UNICEFは水曜日、世界中で少なくとも120万人の子供の画像が性的に操作されたディープフェイクにされた証拠を挙げ、AI生成の子供の性的虐待素材を犯罪化するよう各国に緊急の呼びかけを行った。
この数字は、UNICEFの戦略と証拠事務局イノセント、ECPATインターナショナル、INTERPOLが主導する調査プロジェクト「Disrupting Harm Phase 2」で明らかになったもので、いくつかの国ではこの数字は子供の1人に対して25人に1人、つまり一般的な教室の1人に相当すると、同日発表と付随の問題概要で示されている。
この調査は、約11,000人の子供を対象とした全国代表の家庭調査に基づき、加害者が子供の関与や認識なしにリアルな性的画像を作成できる現状を浮き彫りにしている。
調査対象国の中には、2/3の子供がAIを使って自分の偽の性的画像や動画が作られることを懸念していると回答した国もあるが、懸念の程度は国によって大きく異なるとデータは示している。
「明確にしておきたい。AIツールを使って生成または操作された子供の性的画像は子供の性的虐待素材(CSAM)です」とUNICEFは述べている。「ディープフェイクの乱用は虐待であり、その被害は偽物ではありません。」
この呼びかけは、フランス当局が火曜日にXのパリオフィスを捜査し、プラットフォームのAIチャットボットGrokに関連した児童ポルノの疑いで刑事捜査を行ったことにより、緊迫感を増している。検察官はイーロン・マスクや複数の幹部を召喚して事情聴取を行った。
先月発表されたデジタルヘイト対策センターの報告書によると、Grokは12月29日から1月9日までの11日間で23,338件の性的に操作された子供の画像を生成したと推定されている。
この声明とともに公開された問題概要は、「子供たちが直面するリスクの深刻なエスカレーションを示しており、子供はメッセージを送ったり、気づかないうちに権利侵害を受けたりする可能性がある」と指摘している。
英国のインターネット監視基金は、1か月間にわたりダークウェブのフォーラムで約14,000件のAI生成疑惑画像を検出し、そのうち約3分の1が犯罪と確認された。一方、韓国当局は2022年から2024年にかけてAIとディープフェイクに関連した性的犯罪が10倍に増加し、多くの容疑者は10代と特定されている。
同組織は、すべての国に対して、AI生成コンテンツを子供の性的虐待素材の定義に含め、その作成、入手、所持、配布を犯罪化するよう緊急に求めている。
UNICEFはまた、AI開発者に安全設計のアプローチを実施させ、デジタル企業に対してこうした素材の流通を防止することを求めている。
この概要は、各国に対して子供の権利へのデュー・ディリジェンス、特に子供の権利への影響評価を義務付けることや、AIバリューチェーンのすべての関係者に安全対策を組み込むことを求めている。特に、オープンソースモデルのリリース前の安全性テストを含む。
「ディープフェイク乱用による被害は現実であり、緊急の問題です」とUNICEFは警告している。「子供たちは法律の追いつくのを待てません。」
欧州委員会は先月、Grokが違法コンテンツを生成しないようEUのデジタル規則に違反したかどうかについて正式な調査を開始した。一方、フィリピン、インドネシア、マレーシアはGrokを禁止し、英国とオーストラリアの規制当局も調査を開始している。