أصدرت اليونيسيف يوم الأربعاء نداءً عاجلاً للحكومات لتجريم مواد الاعتداء الجنسي على الأطفال التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، مشيرة إلى أدلة مقلقة تفيد بأن ما لا يقل عن 1.2 مليون طفل حول العالم تعرضت صورهم للتلاعب وتحويلها إلى فيديوهات عميقة مزيفة ذات محتوى جنسي خلال العام الماضي. وتظهر الأرقام، التي كشفت عنها المرحلة الثانية من مشروع البحث “إيقاف الضرر” الذي يقوده مكتب اليونيسيف للاستراتيجية والأدلة إنوسنتى، وECPAT الدولية، والإنتربول، أن في بعض الدول يمثل الرقم واحدًا من بين 25 طفلًا، أي ما يعادل طفلًا واحدًا في فصل دراسي نموذجي، وفقًا لبيان الأربعاء والموجز المصاحب. يعتمد البحث، الذي استند إلى مسح منزلي وطني ممثل لحوالي 11,000 طفل عبر 11 دولة، على كيفية تمكن الجناة الآن من إنشاء صور جنسية واقعية لطفل دون مشاركته أو علمه.
وفي بعض الدول المشاركة في الدراسة، قال ما يصل إلى ثلثي المشاركين إنهم يقلقون من أن يُستخدم الذكاء الاصطناعي لإنشاء صور أو فيديوهات مزيفة جنسيًا لهم، على الرغم من أن مستويات القلق تختلف بشكل كبير بين الدول، وفقًا للبيانات. قالت اليونيسيف: “يجب أن نكون واضحين. الصور الجنسية للأطفال التي يتم إنشاؤها أو التلاعب بها باستخدام أدوات الذكاء الاصطناعي هي مواد اعتداء جنسي على الأطفال (CSAM).” “الاعتداء باستخدام الفيديوهات العميقة المزيفة هو اعتداء، ولا شيء مزيف في الضرر الذي يسببه.” تزداد الحاجة إلى التحرك مع قيام السلطات الفرنسية بمداهمة مكاتب X في باريس يوم الثلاثاء كجزء من تحقيق جنائي في مزاعم تتعلق بمواد إباحية للأطفال مرتبطة بروبوت الدردشة الذكي Grok، حيث استدعى المدعون العامون إيلون ماسك وعدة مسؤولين للاستجواب. وأفاد تقرير لمركز مكافحة الكراهية الرقمية صدر الشهر الماضي أن Grok أنتج 23,338 صورة جنسية للأطفال خلال فترة 11 يومًا بين 29 ديسمبر و9 يناير.
ويشير الموجز المصاحب للبيان إلى أن هذه التطورات تمثل “تصعيدًا عميقًا للمخاطر التي يواجهها الأطفال في البيئة الرقمية”، حيث يمكن أن يُنتهك حق الطفل في الحماية “دون أن يرسل رسالة أو حتى يعلم أنه حدث”. وأشارت مؤسسة مراقبة الإنترنت في المملكة المتحدة إلى ما يقرب من 14,000 صورة مشتبه في أنها تم إنشاؤها بواسطة الذكاء الاصطناعي على منتدى واحد على الإنترنت المظلم خلال شهر واحد، وأكدت أن حوالي ثلثها كانت إجرامية، في حين أبلغت السلطات الكورية الجنوبية عن ارتفاع عشرة أضعاف في الجرائم الجنسية المرتبطة بالذكاء الاصطناعي والفيديوهات المزيفة بين 2022 و2024، مع تحديد معظم المشتبه بهم كمراهقين. ودعت المنظمة جميع الحكومات إلى توسيع تعريفات مواد الاعتداء الجنسي على الأطفال لتشمل المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وتجريمه، بما في ذلك إنشاؤه، وشراؤه، وحيازته، وتوزيعه. كما طالبت اليونيسيف مطوري الذكاء الاصطناعي بتنفيذ نهج السلامة من التصميم، وأن تمنع الشركات الرقمية تداول مثل هذا المحتوى. ويحث الموجز الدول على مطالبة الشركات بإجراء تقييمات لحقوق الطفل، خاصة تقييمات تأثير حقوق الطفل، ولكل طرف في سلسلة قيمة الذكاء الاصطناعي أن يدمج تدابير السلامة، بما في ذلك الاختبارات الأمنية قبل الإصدار للنماذج مفتوحة المصدر. وحذرت اليونيسيف: “الضرر الناتج عن الاعتداء بالفيديوهات العميقة المزيفة حقيقي وملح.” “لا يمكن للأطفال الانتظار حتى تواكب القوانين التطور.” وأطلقت المفوضية الأوروبية تحقيقًا رسميًا الشهر الماضي حول ما إذا كانت X انتهكت قواعد الاتحاد الأوروبي الرقمية بعدم منعها من توليد محتوى غير قانوني، في حين حظرت الفلبين وإندونيسيا وماليزيا Grok، وفتحت الجهات التنظيمية في المملكة المتحدة وأستراليا تحقيقات أيضًا.