الذكاء الاصطناعي في الصناعات الإبداعية: سوء الاستخدام، الجدل، والدفع نحو تنظيم يركز على الاستخدام

ملخص سريع

يؤدي سوء استخدام الذكاء الاصطناعي إلى إثارة جدل عالي المستوى، مما يدفع الجهات التنظيمية في جميع أنحاء العالم إلى السعي لتحقيق الشفافية والتراضي والمسؤولية مع استمرار النقاش حول ما إذا كانت الأطر الحالية قادرة على مواكبة التكنولوجيا التي تتطور بسرعة.

AI is quickly reshaping creative practice

يعيد الذكاء الاصطناعي تشكيل الممارسة الإبداعية بسرعة، لكن سوء استخدامه يتكاثر بنفس السرعة. تظهر بشكل متكرر أعمال مكتوبة بمساعدة الذكاء الاصطناعي غير معلن عنها، واستنساخ الصوت والصورة، والصور التي يولدها الذكاء الاصطناعي بعد نشرها أو حتى فوزها، مما يثير جدلاً عالي المستوى ويقوض الثقة في المؤسسات الثقافية.

تسارع الجهات التنظيمية والمنصات للرد من خلال مزيج من متطلبات الكشف، واقتراحات تصنيف المحتوى، ومعايير الأصل والعلامات المائية، والتطبيق المستهدف للقوانين. ومع ذلك، لا تزال الإطارات الحالية غير مكتملة، بطيئة، وغالبًا غير واضحة. كيف يمكن لصانعي القوانين حماية المبدعين والمستهلكين دون كبح الابتكار؟ هل القواعد الحالية قادرة على مواكبة المشهد السريع لتطور الذكاء الاصطناعي؟ تتركز هذه الأسئلة في قلب أحد أكثر النقاشات إلحاحًا في مجال التكنولوجيا والإبداع اليوم.

من بين أبرز الجدل حول الذكاء الاصطناعي في السنوات القليلة الماضية هو عمل ريه قودان “برج التعاطف طوكيو”، الفائز بجائزة أكوتاگاوا 2024. كشفت الكاتبة أن حوالي 5% من الرواية — بشكل رئيسي ردود روبوت الدردشة داخل القصة — تم توليدها باستخدام ChatGPT. أشعل الكشف النقاش حول حقوق التأليف والشفافية في الأدب. انقسم النقاد: بعضهم مدح العمل كاستخدام مبتكر للذكاء الاصطناعي لاستكشاف اللغة والتكنولوجيا، بينما رأى آخرون أنه تحدٍ للأعراف التقليدية للأصالة الأدبية والنزاهة الأدبية. ركزت التغطية في وسائل الإعلام الكبرى على موضوعات الكتاب — العدالة، والتعاطف، والتأثيرات الاجتماعية للذكاء الاصطناعي — والأسئلة الإجرائية التي يثيرها دمج النماذج التوليدية في الأعمال الفائزة بجوائز، مما أدى إلى دعوات لوضع معايير كشف أوضح وإعادة النظر في معايير الجوائز. أصبح هذا الحالة مرجعًا في نقاشات أوسع حول الوكالة الإبداعية، حقوق النشر، والحدود الأخلاقية للمساعدة بالذكاء الاصطناعي في الفنون، مع آثار دائمة على الناشرين، ولجان الجوائز، ومعايير التأليف.

حادثة بارزة أخرى كانت تتعلق بـ “أكاديمية داركهولو: السنة الثانية” لينا مكدونالد، حيث اكتشف القراء ملاحظة تحفيزية وتحريرية مدمجة في الفصل الثالث. كشف هذا الكشف غير المقصود أن المؤلف استخدم أداة ذكاء اصطناعي لمحاكاة أسلوب كاتب آخر، مما أثار رد فعل فوري وتغطية واسعة. أظهرت الحادثة حدود سير العمل الحالي في النشر والحاجة إلى معايير واضحة حول الكتابة بمساعدة الذكاء الاصطناعي. زادت من الدعوات للشفافية، وأثارت مناقشات حول الرقابة التحريرية والجودة، وأشعلت نقاشات أوسع حول النسب، وتقليد الأسلوب، والمخاطر المتعلقة بحقوق الملكية الفكرية في الأدب التجاري.

في الفنون البصرية، أثار المصور الألماني بوريس إلداغسن جدلاً مؤخرًا عندما تبين أن صورة قدمها لجائزة سوني العالمية للتصوير كانت بالكامل من توليد الذكاء الاصطناعي. فاز العمل في البداية بفئة الإبداع المفتوح، مما أثار نقاشات حول الحدود بين المحتوى المولد بالذكاء الاصطناعي والتصوير الفوتوغرافي التقليدي. في النهاية، رفض المصور الجائزة، بينما تساءل النقاد وأفراد الصناعة عن كيفية تعامل المسابقات مع الإدخالات المساعدة أو المولدة بالذكاء الاصطناعي.

واجهت صناعة الموسيقى تحديات مماثلة. أصبح مسار EDM البريطاني “I Run” من Haven قضية جدل عالية المستوى في 2025 بعد أن تبين أن vocals الرئيسية في الأغنية تم توليدها باستخدام تقنية صوت اصطناعي تشبه فنانًا حقيقيًا. أزالت المنصات الكبرى للبث المسار لانتهاكه قواعد التمويه وحقوق النشر، مما أثار إدانة واسعة، ودعوات متجددة للموافقة الصريحة والنسب عند تقليد الذكاء الاصطناعي للمؤدين الأحياء، وسرعة النقاشات السياسية والقانونية حول كيفية إدارة خدمات البث، ومالكي الحقوق، والمنظمين للموسيقى المساعدة بالذكاء الاصطناعي لحماية الفنانين، وتطبيق حقوق النشر، والحفاظ على الثقة في النسب الإبداعي.

الجهات التنظيمية تتصارع مع أضرار الذكاء الاصطناعي: الاتحاد الأوروبي، الولايات المتحدة، المملكة المتحدة، وإيطاليا تطلق أطرًا قائمة على المخاطر

أصبح مشكلة الأضرار الناتجة عن استخدام الذكاء الاصطناعي — بما في ذلك الحالات التي ينسب فيها المبدعون الأعمال المولدة بالذكاء الاصطناعي إلى الإنسان — قضية ملحة، وبدأت الأطر التنظيمية الناشئة في معالجتها.

يؤسس قانون الذكاء الاصطناعي في الاتحاد الأوروبي إطارًا قانونيًا قائمًا على المخاطر دخل حيز التنفيذ في 2024، مع التزامات مرحلية تمتد حتى 2026–2027. يتطلب القانون الشفافية للأنظمة التوليدية، بما في ذلك تصنيف المحتوى المولد بالذكاء الاصطناعي في سياقات معينة، وتقييمات المخاطر والحكم على التطبيقات عالية المخاطر، ويمكّن مكتب الذكاء الاصطناعي الأوروبي والمنظمين الوطنيين من فرض الامتثال. تستهدف هذه الأحكام مباشرة تحديات مثل الوسائط غير المعلنة المولدة بالذكاء الاصطناعي والتدريب غير الشفاف للنماذج.

كما يتحرك المشرعون الوطنيون بسرعة في بعض المناطق. على سبيل المثال، طورت إيطاليا قانون ذكاء اصطناعي شامل في 2025، يفرض عقوبات أشد على الاستخدامات الضارة مثل جرائم التزييف العميق، ويشدد على الشفافية ومتطلبات الرقابة البشرية — مما يوضح كيف يمكن للتشريعات المحلية أن تكمل قواعد الاتحاد الأوروبي. تعمل المفوضية الأوروبية أيضًا على تطوير أدوات غير ملزمة، وقواعد ممارسات صناعية، خاصة للذكاء الاصطناعي العام، رغم أن التنفيذ واجه تأخيرات ومقاومة من الصناعة، مما يعكس صعوبة إصدار قواعد عملية وفي الوقت المناسب للتقنيات التي تتطور بسرعة.

اعتمدت المملكة المتحدة نهج تنظيم “مشجع للابتكار”، يجمع بين أوراق بيضاء حكومية، وتوجيهات قطاعية من منظمين مثل أوفكوم و ICO، ومبادئ إشرافية تركز على السلامة، والشفافية، والعدالة، والمسؤولية. بدلاً من فرض رمز واحد على نمط الاتحاد الأوروبي، تركز السلطات البريطانية على التوجيه وبناء قدرات الرقابة تدريجيًا.

في الولايات المتحدة، اتبع صانعو السياسات استراتيجية قطاعية يقودها الوكالة، مستندة إلى الأمر التنفيذي 14110 من أكتوبر 2023، الذي ينسق الإجراءات الفيدرالية بشأن الذكاء الاصطناعي الآمن، والموثوق، والآمن. يركز هذا النهج على إدارة المخاطر، والاختبارات الأمنية، ووضع القواعد المستهدفة، مع وثائق بين الوكالات مثل خطة عمل الذكاء الاصطناعي الأمريكية التي تقدم إرشادات، وتطوير المعايير، وقواعد الشراء بدلاً من قانون شامل واحد.

مارتن كاسادو يدعو إلى تنظيم الذكاء الاصطناعي الموجه للاستخدام لحماية المبدعين دون كبح الابتكار

بالنسبة للمبدعين والمنصات، فإن التداعيات العملية واضحة. تدفع الجهات التنظيمية نحو متطلبات كشف أقوى، بما في ذلك تصنيف واضح للمحتوى المولد بالذكاء الاصطناعي، وقواعد تراضي لاستنساخ الصوت والصورة، ومعايير الأصل والعلامات المائية للمحتوى المولد، وتنظيم حقوق النشر والاستخدامات المشتقة بشكل أكثر صرامة. تهدف هذه التدابير إلى منع التمويه، وحماية المؤدين والمؤلفين، وتحسين المساءلة للمنصات التي تستضيف محتوى قد يكون مضللًا — وهو النهج التنظيمي “الموجه للاستخدام” الذي أوصت به مارتي كاسادو، الشريك العام في أندريسين هورويتز، في حلقة بودكاست a16z.

يجادل بأن السياسات يجب أن تركز على كيفية نشر الذكاء الاصطناعي والأضرار الملموسة التي يمكن أن يسببها، بدلاً من محاولة مراقبة تطوير نماذج الذكاء الاصطناعي نفسه، الذي يتطور بسرعة، ويصعب تحديده، وسهل التهرب منه. يحذر المستثمر من أن القواعد العامة والمركزة على التطوير قد تبطئ البحث المفتوح وتضعف الابتكار.

يؤكد كاسادو أن الأنشطة غير القانونية أو الضارة التي تتم باستخدام الذكاء الاصطناعي يجب أن تظل قابلة للملاحقة بموجب القوانين الحالية، ويجب أن تضمن التنظيمات أولاً تطبيق قوانين الجرائم، وحماية المستهلك، وحقوق الإنسان، ومكافحة الاحتكار بشكل فعال. حيث توجد ثغرات، يدعو إلى تشريعات جديدة تستند إلى أدلة تجريبية وموجهة خصيصًا لمخاطر معينة، بدلاً من أوامر عامة ومضاربة قد تعيق التقدم التكنولوجي.

وفقًا للخبير، من المهم الحفاظ على الشفافية في تطوير الذكاء الاصطناعي، مثل دعم النماذج مفتوحة المصدر، للحفاظ على الابتكار والتنافسية على المدى الطويل، مع ضمان أن تظل التدابير التنظيمية دقيقة، عملية، ومركزة على الأضرار الواقعية.

IN2.46%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • القيمة السوقية:$3.25Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.25Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.23Kعدد الحائزين:2
    0.00%
  • تثبيت