لدى ChatGPT وغيرها من الذكاء الاصطناعي الدردشة القائمة على تقنية معالجة اللغة الطبيعية ثلاث مشكلات امتثال قانونية رئيسية تحتاج إلى حل عاجل على المدى القصير:
أولا ، عندما يتعلق الأمر بحقوق الملكية الفكرية للإجابات المقدمة من الذكاء الاصطناعي الدردشة ، فإن مشكلة الامتثال الرئيسية هي ما إذا كانت الإجابات التي تنتجها الدردشة الذكاء الاصطناعي تولد حقوق الملكية الفكرية المقابلة ، وما إذا كان ترخيص حقوق الملكية الفكرية مطلوبا.
ثانيا ، هل تحتاج عملية استخراج البيانات والتدريب على الدردشة الذكاء الاصطناعي على كمية هائلة من نص معالجة اللغة الطبيعية (المعروف باسم المجموعة) إلى الحصول على حقوق الملكية الفكرية المقابلة؟
ثالثا ، تتمثل إحدى آليات ChatGPT وغيرها من الذكاء الاصطناعي الدردشة للإجابة في الحصول على نموذج لغة قائم على الإحصاء من خلال حساب عدد كبير من نصوص اللغة الطبيعية الموجودة إحصائيا رياضيا ، مما يؤدي إلى حقيقة أن الذكاء الاصطناعي الدردشة من المرجح أن “تتحدث عن هراء خطير” ، مما يؤدي بدوره إلى الخطر القانوني لانتشار المعلومات الخاطئة.
بشكل عام ، في الوقت الحاضر ، لا يزال تشريع الذكاء الاصطناعي في الصين في مرحلة ما قبل البحث ، ولا توجد خطة تشريعية رسمية أو مشروع اقتراح ذي صلة ، والإدارات ذات الصلة حذرة بشكل خاص بشأن الإشراف على مجال الذكاء الاصطناعي.
1. ChatGPT ليست “تقنية ذكاء اصطناعي عبر العصور”
ChatGPT هو في الأساس نتاج تطوير تكنولوجيا معالجة اللغة الطبيعية ، ولا يزال في الأساس مجرد نموذج لغوي.
في بداية عام 2023 ، جعل الاستثمار الضخم لشركة التكنولوجيا العالمية العملاقة Microsoft ChatGPT “التيار الأعلى” في مجال التكنولوجيا وخرج بنجاح من الدائرة. مع الارتفاع الحاد لمفهوم ChatGPT في سوق رأس المال ، بدأت العديد من شركات التكنولوجيا المحلية أيضا في وضع هذا المجال ، في حين أن سوق رأس المال متحمس لمفهوم ChatGPT ، كعمال قانونيين ، لا يسعنا إلا تقييم المخاطر الأمنية القانونية التي قد تجلبها ChatGPT نفسها ، وما هو مسار الامتثال القانوني؟
قبل مناقشة المخاطر القانونية ومسارات الامتثال ل ChatGPT ، يجب علينا أولا فحص الأساس المنطقي الفني ل ChatGPT - هل يعطي ChatGPT السائل أي أسئلة يريدها ، كما تشير الأخبار؟
في نظر فريق Sister Sa ، يبدو أن ChatGPT بعيد كل البعد عن كونه “إلها” كما أعلنت بعض الأخبار - باختصار ، إنه مجرد تكامل لتقنيات معالجة اللغة الطبيعية مثل Transformer و GPT ، ولا يزال في الأساس نموذجا لغويا يعتمد على الشبكات العصبية ، بدلا من “تقدم الذكاء الاصطناعي عبر العصر”.
كما ذكرنا سابقا ، فإن ChatGPT هو نتاج تطوير تقنية معالجة اللغة الطبيعية ، ومن حيث تاريخ تطور التكنولوجيا ، فقد مر تقريبا بثلاث مراحل: نموذج اللغة القائم على القواعد ، ونموذج اللغة القائم على الإحصاء ، ونموذج اللغة القائم على الشبكة العصبية يجب أولا توضيح مبدأ العمل والمخاطر القانونية التي قد تنشأ عن هذا المبدأ كمبدأ عمل لنموذج اللغة القائم على الإحصاء ، وهو سلف نموذج اللغة القائم على الشبكة العصبية.
في مرحلة نموذج اللغة القائم على الإحصاء ، يحدد مهندسو الذكاء الاصطناعي احتمال وجود روابط متتالية بين الكلمات عن طريق حساب كمية هائلة من نص اللغة الطبيعية ، وعندما يطرح الناس سؤالا ، يبدأ الذكاء الاصطناعي في تحليل الكلمات المحتملة للغاية في بيئة اللغة حيث تتكون الكلمات المكونة للمشكلة ، ثم يربط هذه الكلمات ذات الاحتمالية العالية معا لإرجاع إجابة إحصائية. يمكن القول أن هذا المبدأ قد مر من خلال تطوير تكنولوجيا معالجة اللغة الطبيعية منذ ظهورها ، وحتى بمعنى ما ، فإن الظهور اللاحق لنماذج اللغة القائمة على الشبكة العصبية هو أيضا تعديل لنماذج اللغة القائمة على الإحصاءات.
لإعطاء مثال سهل الفهم ، كتب فريق الأخت سا السؤال “ما هي مناطق الجذب السياحي في داليان؟” في مربع دردشة ChatGPT ، كما هو موضح في الشكل أدناه:
في الخطوة الأولى ، سيقوم الذكاء الاصطناعي بتحليل الأشكال الأساسية في السؤال ، “داليان ، أي ، السياحة ، والمواقع ذات المناظر الخلابة” ، ثم العثور على مجموعة نص اللغة الطبيعية حيث توجد هذه الأشكال في المجموعة الموجودة ، وإيجاد التجميعات ذات أعلى احتمال للحدوث في هذه المجموعة ، ثم دمج هذه التجميعات لتشكيل الإجابة النهائية. على سبيل المثال ، سيجد الذكاء الاصطناعي أن هناك كلمة “Zhongshan Park” في الجسم مع احتمال كبير لحدوث الكلمات الثلاث “داليان والسياحة والمنتجع” ، لذلك ستعود إلى “حديقة تشونغشان” ، وكلمة “حديقة” لديها أعلى احتمال للتجميع بكلمات مثل حديقة ، بحيرة ، نافورة ، تمثال ، إلخ ، لذلك ستعود أيضا "هذه حديقة تاريخية بها حدائق جميلة وبحيرات ونوافير وتماثيل. 」
بمعنى آخر ، تعتمد العملية برمتها على إحصائيات الاحتمالات لمعلومات نص اللغة الطبيعية (corpus) الموجودة بالفعل وراء الذكاء الاصطناعي ، وبالتالي فإن الإجابات التي يتم إرجاعها هي أيضا “نتائج إحصائية” ، مما يؤدي إلى “هراء خطير” ل ChatGPT في العديد من الأسئلة. كإجابة على السؤال “ما هي مناطق الجذب السياحي في داليان” ، على الرغم من أن داليان لديها حديقة تشونغشان ، لا توجد بحيرات ونوافير وتماثيل في حديقة تشونغشان. كان لدى داليان “ميدان ستالين” في التاريخ ، لكن ميدان ستالين لم يكن أبدا ساحة تجارية ، ولم يكن به أي مراكز تسوق أو مطاعم أو أماكن ترفيهية. على ما يبدو ، المعلومات التي تم إرجاعها بواسطة ChatGPT خاطئة.
ثانيا ، يعد ChatGPT حاليا سيناريو التطبيق الأنسب كنموذج لغوي
على الرغم من أننا أوضحنا بصراحة عيوب نماذج اللغة القائمة على الإحصاء في الجزء السابق ، إلا أن ChatGPT هو بالفعل نموذج لغة قائم على الشبكة العصبية يحسن بشكل كبير نموذج اللغة القائم على الإحصاء ، وأساسه التقني Transformer و GPT هما أحدث جيل من نماذج اللغة يتم الجمع بين النموذج لنمذجة اللغة الطبيعية بطريقة عميقة للغاية ، وتكون الجمل المرتجعة في بعض الأحيان “هراء” ، ولكن للوهلة الأولى لا تزال تبدو وكأنها “استجابات بشرية” ، لذلك تحتوي هذه التقنية على مجموعة واسعة من سيناريوهات التطبيق في السيناريوهات التي تتطلب تفاعلا هائلا بين الإنسان والحاسوب.
في الوقت الحالي ، هناك ثلاثة سيناريوهات من هذا القبيل:
أولا ، محركات البحث.
ثانيا، آلية التفاعل بين الإنسان والحاسوب في البنوك ومكاتب المحاماة والوسطاء المختلفة ومراكز التسوق والمستشفيات ومنصات الخدمات الحكومية الحكومية، مثل نظام شكاوى العملاء، والملاحة الإرشادية، ونظام استشارات الشؤون الحكومية في الأماكن المذكورة أعلاه.
ثالثا، آلية التفاعل بين السيارات الذكية والمنازل الذكية (مثل السماعات الذكية والأضواء الذكية).
من المرجح أن تقدم محركات البحث التي تجمع بين تقنيات الدردشة الذكاء الاصطناعي مثل ChatGPT نهجا تقليديا قائما على محرك البحث + نماذج لغة قائمة على الشبكة العصبية. في الوقت الحاضر ، لدى عمالقة البحث التقليديين مثل Google و Baidu تراكم عميق لتقنية نموذج اللغة القائمة على الشبكة العصبية ، على سبيل المثال ، تمتلك Google Sparrow و Lamda ، والتي يمكن مقارنتها ب ChatGPT.
إن تطبيق تقنية الدردشة الذكاء الاصطناعي مثل ChatGPT في نظام شكاوى العملاء ، والتوجيه والتنقل في المستشفيات ومراكز التسوق ، ونظام استشارات الشؤون الحكومية للجهات الحكومية سيقلل بشكل كبير من تكلفة الموارد البشرية للوحدات ذات الصلة ويوفر وقت الاتصال ، ولكن المشكلة هي أن الإجابات المستندة إلى الإحصائيات قد تنتج استجابات محتوى خاطئة تماما ، وقد تحتاج مخاطر التحكم في المخاطر الناجمة عن ذلك إلى مزيد من التقييم.
بالمقارنة مع سيناريوهين تطبيقيين أعلاه، فإن الخطر القانوني المتمثل في أن يصبح تطبيق ChatGPT آلية التفاعل بين الإنسان والحاسوب للأجهزة المذكورة أعلاه في مجالات السيارات الذكية والمنازل الذكية أصغر بكثير، لأن بيئة التطبيق في هذا المجال خاصة نسبيا، والمحتوى الخاطئ الذي تغذيه الذكاء الاصطناعي لن يسبب مخاطر قانونية كبيرة، وفي الوقت نفسه، لا تحتوي مثل هذه السيناريوهات على متطلبات عالية لدقة المحتوى، ونموذج العمل أكثر نضجا.
III. دراسة أولية حول المخاطر القانونية ل ChatGPT ومسار الامتثال
أولا ، المشهد التنظيمي العام للذكاء الاصطناعي في الصين
مثل العديد من التقنيات الناشئة ، تواجه تقنية معالجة اللغة الطبيعية التي تمثلها ChatGPT “معضلة كولينجريدج” تتضمن هذه المعضلة معضلة المعلومات ، أي أنه لا يمكن التنبؤ بالعواقب الاجتماعية لتكنولوجيا ناشئة في المرحلة المبكرة من التكنولوجيا ، وما يسمى بمعضلة التحكم ، أي عندما يتم اكتشاف العواقب الاجتماعية السلبية لتكنولوجيا ناشئة ، أصبحت التكنولوجيا في كثير من الأحيان جزءا من الهيكل الاجتماعي والاقتصادي بأكمله ، بحيث لا يمكن السيطرة على العواقب الاجتماعية السلبية بشكل فعال.
في الوقت الذي يمر فيه مجال الذكاء الاصطناعي ، وخاصة تكنولوجيا معالجة اللغة الطبيعية ، بمرحلة من التطور السريع ، من المرجح أن تقع التكنولوجيا في ما يسمى ب “معضلة كولينجريدج” ، ولا يبدو أن التنظيم القانوني المقابل قد “واكب”. في الوقت الحاضر ، لا يوجد تشريع وطني بشأن صناعة الذكاء الاصطناعي في الصين ، ولكن كانت هناك محاولات تشريعية ذات صلة على المستوى المحلي. في سبتمبر من العام الماضي ، أعلنت شنتشن عن “اللوائح الخاصة بتعزيز صناعة الذكاء الاصطناعي في منطقة شنتشن الاقتصادية الخاصة” ، وهو تشريع خاص لصناعة الذكاء الاصطناعي الوطنية غير الاصطناعية ، ثم أصدرت شنغهاي أيضا “لوائح تعزيز تطوير صناعة الذكاء الاصطناعي في شنغهاي”.
فيما يتعلق بالتنظيم الأخلاقي للذكاء الاصطناعي ، أصدرت اللجنة المهنية الوطنية لحوكمة الجيل الجديد من الذكاء الاصطناعي أيضا “مدونة أخلاقيات الجيل الجديد من الذكاء الاصطناعي” في عام 2021 ، مقترحة دمج الأخلاقيات في دورة الحياة الكاملة للبحث والتطوير والتطبيق في مجال الذكاء الاصطناعي.
ثانيا ، الخطر القانوني للمعلومات المضللة الناجمة عن ChatGPT
تحويل التركيز من الكلي إلى الجزئي ، بصرف النظر عن المشهد التنظيمي العام لصناعة الذكاء الاصطناعي والتنظيم الأخلاقي الذكاء الاصطناعي ، فإن قضايا الامتثال العملية الموجودة في أساس الدردشات الذكاء الاصطناعي مثل ChatGPT تحتاج أيضا إلى اهتمام عاجل.
كما هو مذكور في الجزء 2 من هذه المقالة ، فإن آلية عمل ChatGPT تجعل من الممكن أن تكون ردودها “هراء خطير” تماما ، وهو أمر مضلل للغاية. بالطبع ، قد لا يكون للردود الخاطئة على أسئلة مثل “ما هي مناطق الجذب السياحي في داليان” عواقب وخيمة ، ولكن إذا تم تطبيق ChatGPT على محركات البحث وأنظمة شكاوى العملاء وغيرها من المجالات ، فإن المعلومات الخاطئة التي ترد عليها قد تشكل مخاطر قانونية خطيرة للغاية.
في الواقع ، ظهر مثل هذا الخطر القانوني بالفعل ، وتم إيقاف Galactica ، وهو نموذج لغوي في مجال البحث العلمي لخدمة Meta تم إطلاقه تقريبا في نفس الوقت مع ChatGPT في نوفمبر 2022 ، بعد 3 أيام فقط من الاختبار بسبب الأسئلة المختلطة للإجابات الصحيحة والخاطئة. تحت فرضية أنه لا يمكن اختراق المبادئ التقنية في فترة زمنية قصيرة ، إذا تم تطبيق ChatGPT ونماذج اللغة المماثلة على محركات البحث وأنظمة شكاوى العملاء وغيرها من المجالات ، فيجب تحويلها للامتثال. عندما يتم الكشف عن أن المستخدم قد يطرح سؤالا مهنيا ، يجب توجيه المستخدم لاستشارة المحترف المناسب بدلا من البحث عن إجابة من الذكاء الاصطناعي ، ويجب تذكير المستخدم بشكل كبير بأن صحة الأسئلة التي يتم إرجاعها بواسطة الذكاء الاصطناعي الدردشة قد تحتاج إلى مزيد من التحقق لتقليل مخاطر الامتثال المقابلة.
ثالثا ، قضايا الامتثال للملكية الفكرية التي أحدثتها ChatGPT
عند تحويل التركيز من الماكرو إلى الجزئي ، بالإضافة إلى صحة رسائل رد الذكاء الاصطناعي ، يجب أن تجذب قضايا الملكية الفكرية الذكاء الاصطناعي الدردشة ، وخاصة نماذج اللغات الكبيرة مثل ChatGPT ، انتباه مسؤولي الامتثال.
مشكلة الامتثال الأولى هي ما إذا كان “استخراج البيانات النصية” يتطلب ترخيص الملكية الفكرية المقابل. كما هو موضح أعلاه ، يعتمد ChatGPT على كمية هائلة من نصوص اللغة الطبيعية (أو قواعد بيانات الكلام) ، ويحتاج ChatGPT إلى استخراج البيانات وتدريبها في المجموعة ، ويحتاج ChatGPT إلى نسخ المحتوى الموجود في المجموعة إلى قاعدة البيانات الخاصة به ، وغالبا ما يطلق على السلوك المقابل “استخراج البيانات النصية” في مجال معالجة اللغة الطبيعية. على أساس أن البيانات النصية المقابلة قد تشكل عملا ، لا يزال هناك جدل حول ما إذا كان استخراج البيانات النصية ينتهك حق الاستنساخ.
وفي مجال القانون المقارن، وسعت كل من اليابان والاتحاد الأوروبي نطاق الاستخدام العادل في تشريعاتها المتعلقة بحق المؤلف، مضيفة “التنقيب عن البيانات النصية” في الذكاء الاصطناعي كحالة جديدة للاستخدام العادل. على الرغم من أن بعض العلماء دعوا إلى تغيير نظام الاستخدام العادل في الصين من “مغلق” إلى “مفتوح” في عملية مراجعة قانون حقوق النشر في الصين في عام 2020 ، إلا أن هذا الاقتراح لم يتم اعتماده نهائيا ، وفي الوقت الحالي ، لا يزال قانون حقوق الطبع والنشر في الصين يحافظ على الأحكام المغلقة لنظام الاستخدام العادل ، ويمكن الاعتراف فقط بالظروف الثلاثة عشر المنصوص عليها في المادة 24 من قانون حقوق الطبع والنشر على أنها استخدام عادل ، وبعبارة أخرى ، في الوقت الحالي ، لا يتضمن قانون حقوق النشر الصيني “استخراج البيانات النصية” في الذكاء الاصطناعي لا يزال استخراج البيانات النصية ، المدرج في نطاق التطبيق المعقول ، يتطلب إذنا مطابقا للملكية الفكرية في الصين.
أما بالنسبة لمسألة ما إذا كانت الأعمال التي تم إنشاؤها الذكاء الاصطناعي أصلية ، يعتقد فريق الأخت سا أن معايير الحكم يجب ألا تختلف عن معايير الحكم الحالية ، وبعبارة أخرى ، سواء تم إكمال الاستجابة من قبل الذكاء الاصطناعي أو إنسان ، يجب الحكم عليها وفقا لمعايير الأصالة الحالية. من الواضح أنه بموجب قوانين الملكية الفكرية لمعظم البلدان ، بما في ذلك الصين ، لا يمكن لمؤلف المصنف إلا أن يكون شخصا طبيعيا ، ولا يمكن الذكاء الاصطناعي أن يصبح مؤلفا للعمل.
أخيرا ، إذا قام ChatGPT بربط عمل طرف ثالث في رده ، فكيف ينبغي التعامل مع حقوق الملكية الفكرية الخاصة به؟ يعتقد فريق Sister Sa أنه إذا كان رد ChatGPT يربط عملا محميا بحقوق الطبع والنشر في المجموعة (على الرغم من أنه من غير المرجح أن يحدث هذا وفقا لمبدأ عمل ChatGPT) ، فوفقا لقانون حقوق النشر الحالي في الصين ، ما لم يشكل استخداما عادلا ، يجب نسخه دون إذن من مالك حقوق الطبع والنشر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
ChatGPT ، التي "ترتفع" ، تحتاج بشكل عاجل إلى "فرامل الامتثال"
نصائح أساسية:
لدى ChatGPT وغيرها من الذكاء الاصطناعي الدردشة القائمة على تقنية معالجة اللغة الطبيعية ثلاث مشكلات امتثال قانونية رئيسية تحتاج إلى حل عاجل على المدى القصير:
أولا ، عندما يتعلق الأمر بحقوق الملكية الفكرية للإجابات المقدمة من الذكاء الاصطناعي الدردشة ، فإن مشكلة الامتثال الرئيسية هي ما إذا كانت الإجابات التي تنتجها الدردشة الذكاء الاصطناعي تولد حقوق الملكية الفكرية المقابلة ، وما إذا كان ترخيص حقوق الملكية الفكرية مطلوبا.
ثانيا ، هل تحتاج عملية استخراج البيانات والتدريب على الدردشة الذكاء الاصطناعي على كمية هائلة من نص معالجة اللغة الطبيعية (المعروف باسم المجموعة) إلى الحصول على حقوق الملكية الفكرية المقابلة؟
ثالثا ، تتمثل إحدى آليات ChatGPT وغيرها من الذكاء الاصطناعي الدردشة للإجابة في الحصول على نموذج لغة قائم على الإحصاء من خلال حساب عدد كبير من نصوص اللغة الطبيعية الموجودة إحصائيا رياضيا ، مما يؤدي إلى حقيقة أن الذكاء الاصطناعي الدردشة من المرجح أن “تتحدث عن هراء خطير” ، مما يؤدي بدوره إلى الخطر القانوني لانتشار المعلومات الخاطئة.
بشكل عام ، في الوقت الحاضر ، لا يزال تشريع الذكاء الاصطناعي في الصين في مرحلة ما قبل البحث ، ولا توجد خطة تشريعية رسمية أو مشروع اقتراح ذي صلة ، والإدارات ذات الصلة حذرة بشكل خاص بشأن الإشراف على مجال الذكاء الاصطناعي.
1. ChatGPT ليست “تقنية ذكاء اصطناعي عبر العصور”
ChatGPT هو في الأساس نتاج تطوير تكنولوجيا معالجة اللغة الطبيعية ، ولا يزال في الأساس مجرد نموذج لغوي.
في بداية عام 2023 ، جعل الاستثمار الضخم لشركة التكنولوجيا العالمية العملاقة Microsoft ChatGPT “التيار الأعلى” في مجال التكنولوجيا وخرج بنجاح من الدائرة. مع الارتفاع الحاد لمفهوم ChatGPT في سوق رأس المال ، بدأت العديد من شركات التكنولوجيا المحلية أيضا في وضع هذا المجال ، في حين أن سوق رأس المال متحمس لمفهوم ChatGPT ، كعمال قانونيين ، لا يسعنا إلا تقييم المخاطر الأمنية القانونية التي قد تجلبها ChatGPT نفسها ، وما هو مسار الامتثال القانوني؟
قبل مناقشة المخاطر القانونية ومسارات الامتثال ل ChatGPT ، يجب علينا أولا فحص الأساس المنطقي الفني ل ChatGPT - هل يعطي ChatGPT السائل أي أسئلة يريدها ، كما تشير الأخبار؟
في نظر فريق Sister Sa ، يبدو أن ChatGPT بعيد كل البعد عن كونه “إلها” كما أعلنت بعض الأخبار - باختصار ، إنه مجرد تكامل لتقنيات معالجة اللغة الطبيعية مثل Transformer و GPT ، ولا يزال في الأساس نموذجا لغويا يعتمد على الشبكات العصبية ، بدلا من “تقدم الذكاء الاصطناعي عبر العصر”.
كما ذكرنا سابقا ، فإن ChatGPT هو نتاج تطوير تقنية معالجة اللغة الطبيعية ، ومن حيث تاريخ تطور التكنولوجيا ، فقد مر تقريبا بثلاث مراحل: نموذج اللغة القائم على القواعد ، ونموذج اللغة القائم على الإحصاء ، ونموذج اللغة القائم على الشبكة العصبية يجب أولا توضيح مبدأ العمل والمخاطر القانونية التي قد تنشأ عن هذا المبدأ كمبدأ عمل لنموذج اللغة القائم على الإحصاء ، وهو سلف نموذج اللغة القائم على الشبكة العصبية.
في مرحلة نموذج اللغة القائم على الإحصاء ، يحدد مهندسو الذكاء الاصطناعي احتمال وجود روابط متتالية بين الكلمات عن طريق حساب كمية هائلة من نص اللغة الطبيعية ، وعندما يطرح الناس سؤالا ، يبدأ الذكاء الاصطناعي في تحليل الكلمات المحتملة للغاية في بيئة اللغة حيث تتكون الكلمات المكونة للمشكلة ، ثم يربط هذه الكلمات ذات الاحتمالية العالية معا لإرجاع إجابة إحصائية. يمكن القول أن هذا المبدأ قد مر من خلال تطوير تكنولوجيا معالجة اللغة الطبيعية منذ ظهورها ، وحتى بمعنى ما ، فإن الظهور اللاحق لنماذج اللغة القائمة على الشبكة العصبية هو أيضا تعديل لنماذج اللغة القائمة على الإحصاءات.
لإعطاء مثال سهل الفهم ، كتب فريق الأخت سا السؤال “ما هي مناطق الجذب السياحي في داليان؟” في مربع دردشة ChatGPT ، كما هو موضح في الشكل أدناه:
في الخطوة الأولى ، سيقوم الذكاء الاصطناعي بتحليل الأشكال الأساسية في السؤال ، “داليان ، أي ، السياحة ، والمواقع ذات المناظر الخلابة” ، ثم العثور على مجموعة نص اللغة الطبيعية حيث توجد هذه الأشكال في المجموعة الموجودة ، وإيجاد التجميعات ذات أعلى احتمال للحدوث في هذه المجموعة ، ثم دمج هذه التجميعات لتشكيل الإجابة النهائية. على سبيل المثال ، سيجد الذكاء الاصطناعي أن هناك كلمة “Zhongshan Park” في الجسم مع احتمال كبير لحدوث الكلمات الثلاث “داليان والسياحة والمنتجع” ، لذلك ستعود إلى “حديقة تشونغشان” ، وكلمة “حديقة” لديها أعلى احتمال للتجميع بكلمات مثل حديقة ، بحيرة ، نافورة ، تمثال ، إلخ ، لذلك ستعود أيضا "هذه حديقة تاريخية بها حدائق جميلة وبحيرات ونوافير وتماثيل. 」
بمعنى آخر ، تعتمد العملية برمتها على إحصائيات الاحتمالات لمعلومات نص اللغة الطبيعية (corpus) الموجودة بالفعل وراء الذكاء الاصطناعي ، وبالتالي فإن الإجابات التي يتم إرجاعها هي أيضا “نتائج إحصائية” ، مما يؤدي إلى “هراء خطير” ل ChatGPT في العديد من الأسئلة. كإجابة على السؤال “ما هي مناطق الجذب السياحي في داليان” ، على الرغم من أن داليان لديها حديقة تشونغشان ، لا توجد بحيرات ونوافير وتماثيل في حديقة تشونغشان. كان لدى داليان “ميدان ستالين” في التاريخ ، لكن ميدان ستالين لم يكن أبدا ساحة تجارية ، ولم يكن به أي مراكز تسوق أو مطاعم أو أماكن ترفيهية. على ما يبدو ، المعلومات التي تم إرجاعها بواسطة ChatGPT خاطئة.
ثانيا ، يعد ChatGPT حاليا سيناريو التطبيق الأنسب كنموذج لغوي
على الرغم من أننا أوضحنا بصراحة عيوب نماذج اللغة القائمة على الإحصاء في الجزء السابق ، إلا أن ChatGPT هو بالفعل نموذج لغة قائم على الشبكة العصبية يحسن بشكل كبير نموذج اللغة القائم على الإحصاء ، وأساسه التقني Transformer و GPT هما أحدث جيل من نماذج اللغة يتم الجمع بين النموذج لنمذجة اللغة الطبيعية بطريقة عميقة للغاية ، وتكون الجمل المرتجعة في بعض الأحيان “هراء” ، ولكن للوهلة الأولى لا تزال تبدو وكأنها “استجابات بشرية” ، لذلك تحتوي هذه التقنية على مجموعة واسعة من سيناريوهات التطبيق في السيناريوهات التي تتطلب تفاعلا هائلا بين الإنسان والحاسوب.
في الوقت الحالي ، هناك ثلاثة سيناريوهات من هذا القبيل:
أولا ، محركات البحث.
ثانيا، آلية التفاعل بين الإنسان والحاسوب في البنوك ومكاتب المحاماة والوسطاء المختلفة ومراكز التسوق والمستشفيات ومنصات الخدمات الحكومية الحكومية، مثل نظام شكاوى العملاء، والملاحة الإرشادية، ونظام استشارات الشؤون الحكومية في الأماكن المذكورة أعلاه.
ثالثا، آلية التفاعل بين السيارات الذكية والمنازل الذكية (مثل السماعات الذكية والأضواء الذكية).
من المرجح أن تقدم محركات البحث التي تجمع بين تقنيات الدردشة الذكاء الاصطناعي مثل ChatGPT نهجا تقليديا قائما على محرك البحث + نماذج لغة قائمة على الشبكة العصبية. في الوقت الحاضر ، لدى عمالقة البحث التقليديين مثل Google و Baidu تراكم عميق لتقنية نموذج اللغة القائمة على الشبكة العصبية ، على سبيل المثال ، تمتلك Google Sparrow و Lamda ، والتي يمكن مقارنتها ب ChatGPT.
إن تطبيق تقنية الدردشة الذكاء الاصطناعي مثل ChatGPT في نظام شكاوى العملاء ، والتوجيه والتنقل في المستشفيات ومراكز التسوق ، ونظام استشارات الشؤون الحكومية للجهات الحكومية سيقلل بشكل كبير من تكلفة الموارد البشرية للوحدات ذات الصلة ويوفر وقت الاتصال ، ولكن المشكلة هي أن الإجابات المستندة إلى الإحصائيات قد تنتج استجابات محتوى خاطئة تماما ، وقد تحتاج مخاطر التحكم في المخاطر الناجمة عن ذلك إلى مزيد من التقييم.
بالمقارنة مع سيناريوهين تطبيقيين أعلاه، فإن الخطر القانوني المتمثل في أن يصبح تطبيق ChatGPT آلية التفاعل بين الإنسان والحاسوب للأجهزة المذكورة أعلاه في مجالات السيارات الذكية والمنازل الذكية أصغر بكثير، لأن بيئة التطبيق في هذا المجال خاصة نسبيا، والمحتوى الخاطئ الذي تغذيه الذكاء الاصطناعي لن يسبب مخاطر قانونية كبيرة، وفي الوقت نفسه، لا تحتوي مثل هذه السيناريوهات على متطلبات عالية لدقة المحتوى، ونموذج العمل أكثر نضجا.
III. دراسة أولية حول المخاطر القانونية ل ChatGPT ومسار الامتثال
أولا ، المشهد التنظيمي العام للذكاء الاصطناعي في الصين
مثل العديد من التقنيات الناشئة ، تواجه تقنية معالجة اللغة الطبيعية التي تمثلها ChatGPT “معضلة كولينجريدج” تتضمن هذه المعضلة معضلة المعلومات ، أي أنه لا يمكن التنبؤ بالعواقب الاجتماعية لتكنولوجيا ناشئة في المرحلة المبكرة من التكنولوجيا ، وما يسمى بمعضلة التحكم ، أي عندما يتم اكتشاف العواقب الاجتماعية السلبية لتكنولوجيا ناشئة ، أصبحت التكنولوجيا في كثير من الأحيان جزءا من الهيكل الاجتماعي والاقتصادي بأكمله ، بحيث لا يمكن السيطرة على العواقب الاجتماعية السلبية بشكل فعال.
في الوقت الذي يمر فيه مجال الذكاء الاصطناعي ، وخاصة تكنولوجيا معالجة اللغة الطبيعية ، بمرحلة من التطور السريع ، من المرجح أن تقع التكنولوجيا في ما يسمى ب “معضلة كولينجريدج” ، ولا يبدو أن التنظيم القانوني المقابل قد “واكب”. في الوقت الحاضر ، لا يوجد تشريع وطني بشأن صناعة الذكاء الاصطناعي في الصين ، ولكن كانت هناك محاولات تشريعية ذات صلة على المستوى المحلي. في سبتمبر من العام الماضي ، أعلنت شنتشن عن “اللوائح الخاصة بتعزيز صناعة الذكاء الاصطناعي في منطقة شنتشن الاقتصادية الخاصة” ، وهو تشريع خاص لصناعة الذكاء الاصطناعي الوطنية غير الاصطناعية ، ثم أصدرت شنغهاي أيضا “لوائح تعزيز تطوير صناعة الذكاء الاصطناعي في شنغهاي”.
فيما يتعلق بالتنظيم الأخلاقي للذكاء الاصطناعي ، أصدرت اللجنة المهنية الوطنية لحوكمة الجيل الجديد من الذكاء الاصطناعي أيضا “مدونة أخلاقيات الجيل الجديد من الذكاء الاصطناعي” في عام 2021 ، مقترحة دمج الأخلاقيات في دورة الحياة الكاملة للبحث والتطوير والتطبيق في مجال الذكاء الاصطناعي.
ثانيا ، الخطر القانوني للمعلومات المضللة الناجمة عن ChatGPT
تحويل التركيز من الكلي إلى الجزئي ، بصرف النظر عن المشهد التنظيمي العام لصناعة الذكاء الاصطناعي والتنظيم الأخلاقي الذكاء الاصطناعي ، فإن قضايا الامتثال العملية الموجودة في أساس الدردشات الذكاء الاصطناعي مثل ChatGPT تحتاج أيضا إلى اهتمام عاجل.
كما هو مذكور في الجزء 2 من هذه المقالة ، فإن آلية عمل ChatGPT تجعل من الممكن أن تكون ردودها “هراء خطير” تماما ، وهو أمر مضلل للغاية. بالطبع ، قد لا يكون للردود الخاطئة على أسئلة مثل “ما هي مناطق الجذب السياحي في داليان” عواقب وخيمة ، ولكن إذا تم تطبيق ChatGPT على محركات البحث وأنظمة شكاوى العملاء وغيرها من المجالات ، فإن المعلومات الخاطئة التي ترد عليها قد تشكل مخاطر قانونية خطيرة للغاية.
في الواقع ، ظهر مثل هذا الخطر القانوني بالفعل ، وتم إيقاف Galactica ، وهو نموذج لغوي في مجال البحث العلمي لخدمة Meta تم إطلاقه تقريبا في نفس الوقت مع ChatGPT في نوفمبر 2022 ، بعد 3 أيام فقط من الاختبار بسبب الأسئلة المختلطة للإجابات الصحيحة والخاطئة. تحت فرضية أنه لا يمكن اختراق المبادئ التقنية في فترة زمنية قصيرة ، إذا تم تطبيق ChatGPT ونماذج اللغة المماثلة على محركات البحث وأنظمة شكاوى العملاء وغيرها من المجالات ، فيجب تحويلها للامتثال. عندما يتم الكشف عن أن المستخدم قد يطرح سؤالا مهنيا ، يجب توجيه المستخدم لاستشارة المحترف المناسب بدلا من البحث عن إجابة من الذكاء الاصطناعي ، ويجب تذكير المستخدم بشكل كبير بأن صحة الأسئلة التي يتم إرجاعها بواسطة الذكاء الاصطناعي الدردشة قد تحتاج إلى مزيد من التحقق لتقليل مخاطر الامتثال المقابلة.
ثالثا ، قضايا الامتثال للملكية الفكرية التي أحدثتها ChatGPT
عند تحويل التركيز من الماكرو إلى الجزئي ، بالإضافة إلى صحة رسائل رد الذكاء الاصطناعي ، يجب أن تجذب قضايا الملكية الفكرية الذكاء الاصطناعي الدردشة ، وخاصة نماذج اللغات الكبيرة مثل ChatGPT ، انتباه مسؤولي الامتثال.
مشكلة الامتثال الأولى هي ما إذا كان “استخراج البيانات النصية” يتطلب ترخيص الملكية الفكرية المقابل. كما هو موضح أعلاه ، يعتمد ChatGPT على كمية هائلة من نصوص اللغة الطبيعية (أو قواعد بيانات الكلام) ، ويحتاج ChatGPT إلى استخراج البيانات وتدريبها في المجموعة ، ويحتاج ChatGPT إلى نسخ المحتوى الموجود في المجموعة إلى قاعدة البيانات الخاصة به ، وغالبا ما يطلق على السلوك المقابل “استخراج البيانات النصية” في مجال معالجة اللغة الطبيعية. على أساس أن البيانات النصية المقابلة قد تشكل عملا ، لا يزال هناك جدل حول ما إذا كان استخراج البيانات النصية ينتهك حق الاستنساخ.
وفي مجال القانون المقارن، وسعت كل من اليابان والاتحاد الأوروبي نطاق الاستخدام العادل في تشريعاتها المتعلقة بحق المؤلف، مضيفة “التنقيب عن البيانات النصية” في الذكاء الاصطناعي كحالة جديدة للاستخدام العادل. على الرغم من أن بعض العلماء دعوا إلى تغيير نظام الاستخدام العادل في الصين من “مغلق” إلى “مفتوح” في عملية مراجعة قانون حقوق النشر في الصين في عام 2020 ، إلا أن هذا الاقتراح لم يتم اعتماده نهائيا ، وفي الوقت الحالي ، لا يزال قانون حقوق الطبع والنشر في الصين يحافظ على الأحكام المغلقة لنظام الاستخدام العادل ، ويمكن الاعتراف فقط بالظروف الثلاثة عشر المنصوص عليها في المادة 24 من قانون حقوق الطبع والنشر على أنها استخدام عادل ، وبعبارة أخرى ، في الوقت الحالي ، لا يتضمن قانون حقوق النشر الصيني “استخراج البيانات النصية” في الذكاء الاصطناعي لا يزال استخراج البيانات النصية ، المدرج في نطاق التطبيق المعقول ، يتطلب إذنا مطابقا للملكية الفكرية في الصين.
أما بالنسبة لمسألة ما إذا كانت الأعمال التي تم إنشاؤها الذكاء الاصطناعي أصلية ، يعتقد فريق الأخت سا أن معايير الحكم يجب ألا تختلف عن معايير الحكم الحالية ، وبعبارة أخرى ، سواء تم إكمال الاستجابة من قبل الذكاء الاصطناعي أو إنسان ، يجب الحكم عليها وفقا لمعايير الأصالة الحالية. من الواضح أنه بموجب قوانين الملكية الفكرية لمعظم البلدان ، بما في ذلك الصين ، لا يمكن لمؤلف المصنف إلا أن يكون شخصا طبيعيا ، ولا يمكن الذكاء الاصطناعي أن يصبح مؤلفا للعمل.
أخيرا ، إذا قام ChatGPT بربط عمل طرف ثالث في رده ، فكيف ينبغي التعامل مع حقوق الملكية الفكرية الخاصة به؟ يعتقد فريق Sister Sa أنه إذا كان رد ChatGPT يربط عملا محميا بحقوق الطبع والنشر في المجموعة (على الرغم من أنه من غير المرجح أن يحدث هذا وفقا لمبدأ عمل ChatGPT) ، فوفقا لقانون حقوق النشر الحالي في الصين ، ما لم يشكل استخداما عادلا ، يجب نسخه دون إذن من مالك حقوق الطبع والنشر.