تعمل Google جاهدة لإزالة الإجابات الخاطئة والتي يحتمل أن تكون خطرة من نتائج البحث الذكاء الاصطناعي. ومع ذلك ، فإن ميزة “نظرة عامة الذكاء الاصطناعي” الجديدة تسيء أحيانا تقديم النكات والسخرية على وسائل التواصل الاجتماعي والمواقع الساخرة على أنها حقائق.
جذبت نتائج البحث الذكاء الاصطناعي التي تم إصدارها مؤخرا من Google الكثير من الاهتمام ، لكن الأسباب ليست إيجابية كما هو متوقع. كجزء من استراتيجية “Twin Times” التي تم إطلاقها حديثا ، أعلنت شركة التكنولوجيا العملاقة عن عدد كبير من أدوات الذكاء الاصطناعي الجديدة الأسبوع الماضي. وأعقب ذلك تغيير كبير في خدمة البحث على الويب الخاصة بها ، حيث يتم الآن عرض الإجابات على الأسئلة في نتائج البحث باللغة الطبيعية مباشرة أعلى روابط مواقع الويب.
في حين أن تحديث Google يجعل تقنية البحث أكثر تقدما وقدرة على الرد على أسئلة المستخدم الأكثر تعقيدا ، إلا أنه يثير أيضا بعض المخاوف. على سبيل المثال ، يمكن الذكاء الاصطناعي أحيانا تقديم معلومات غير صحيحة أو مضللة للمستخدمين عند معالجة نتائج البحث ، وهو ما يمثل مشكلة خاصة عندما يتعلق الأمر بمواضيع حساسة مثل تحسين النسل.
تم استخدام علم تحسين النسل بشكل خاطئ لبعض السياسات اللاإنسانية للتاريخ ، لذا فإن دقة وحساسية معلوماته مهمة بشكل خاص. بالإضافة إلى ذلك ، يعاني الذكاء الاصطناعي أيضا من مشكلة عدم كفاية الدقة عند تحديد بعض الأشياء المحددة ، مثل التمييز بين الفطر السام وغير السام.
يذكرنا هذا بالحاجة إلى توخي مزيد من الحذر عند استخدام أدوات البحث الذكاء الاصطناعي للاستفسارات المتعلقة بالصحة والسلامة والبحث عن تأكيد احترافي كلما أمكن ذلك.
الذكاء الاصطناعي Google ، عند تقديم إجابات “نظرة عامة الذكاء الاصطناعي” ، تستشهد أحيانا بمحتوى من وسائل التواصل الاجتماعي مثل Reddit ، والذي ربما كان مخصصا في الأصل لأغراض فكاهية أو ساخرة. وقد أدى ذلك إلى تقديم بعض الإجابات الخاطئة أو السخيفة بشكل واضح للمستخدمين.
على سبيل المثال ، أفاد أحد المستخدمين أنه عندما سئل عن كيفية التعامل مع الاكتئاب ، اقترح الذكاء الاصطناعي Google في الواقع “القفز من جسر البوابة الذهبية”. تؤكد الإجابات الأخرى بشكل سخيف قدرة مضادة للجاذبية بحيث يمكن للناس البقاء في السراويل القصيرة طويل لأنهم لا ينظرون إلى الأسفل.
توضح هذه الأمثلة أنه على الرغم من إحراز الذكاء الاصطناعي تقدما في تقديم نتائج البحث ، لا تزال هناك أوجه قصور في الدقة والموثوقية تحتاج إلى مزيد من التحسين.
تم تصميم شراكة Google مع Reddit لتسهيل عثور المستخدمين على المنتديات والمناقشات التي تهمهم والمشاركة فيها. ومع ذلك ، يكشف التعاون أيضا عن بعض المخاطر ، خاصة عندما الذكاء الاصطناعي يعالج المحتوى من Reddit. نظرا لأن الذكاء الاصطناعي قد لا يكون لديه القدرة على تمييز صحة المعلومات أو سياقها ، فقد يتبنى ويقتبس المعلومات على Reddit دون تمييز.
يمكن أن يؤدي هذا التبني العشوائي للمعلومات إلى ظهور بعض الاقتراحات المضللة أو حتى السخيفة في نتائج البحث. على سبيل المثال ، قدم الذكاء الاصطناعي ذات مرة اقتراحا غير مناسب بأن الأطفال يجب أن يأكلوا صخرة صغيرة واحدة على الأقل يوميا ، كما وصفوا الاقتراح بشكل غير صحيح بأنه قادم من عالم جيولوجي في جامعة كاليفورنيا ، بيركلي. يوضح هذا المثال كيف يمكن الذكاء الاصطناعي التضليل من خلال تجاهل مصداقية المعلومات وملاءمتها عند معالجة المعلومات على الويب.
في حين أن Google قد أزالت أو صححت بعض الإجابات السخيفة بشكل واضح ، فإن النماذج التي تم إنشاؤها الذكاء الاصطناعي تنتج أحيانا إجابات غير دقيقة أو وهمية ، وهي ظاهرة تعرف باسم “الهلوسة”. يمكن اعتبار هذه “الهلوسة” عبارات غير صحيحة لأن الذكاء الاصطناعي يخلق شيئا غير واقعي.
وهذا يشير إلى أن الذكاء الاصطناعي بحاجة إلى تحسين في التمييز بين صحة المعلومات وسياقها، ويحتاج إلى مزيد من التحسين لضمان أن تكون المعلومات المقدمة دقيقة وموثوقة.
في الوقت نفسه ، أوصت Google الذكاء الاصطناعي عن طريق الخطأ باستخدام الغراء لمنع الجبن من الانزلاق من البيتزا ، وهو اقتراح يأتي من تعليق عمره عقد من الزمان على Reddit.
كان نموذج ChatGPT الخاص ب OpenAI حالة تلفيق ، بما في ذلك اتهام أستاذ القانون جوناثان تورلي زورا بالاعتداء الجنسي بناء على رحلة لم يشارك فيها. يعكس هذا الحادث حقيقة أن الذكاء الاصطناعي قد تكون مفرطة الثقة في معالجة المعلومات وتفشل في التمييز بدقة بين صحة وزيف المحتوى على الإنترنت.
بالإضافة إلى ذلك ، يمكن أن تؤدي الثقة المفرطة في الذكاء الاصطناعي إلى قبول جميع المعلومات على الإنترنت بشكل عشوائي على أنها صحيحة ، ويمكن أن تؤدي هذه الثقة إلى أحكام خاطئة ، مثل إلقاء اللوم بشكل خاطئ على المديرين التنفيذيين السابقين لشركة Google وإصدار أحكام إدانة خاطئة ضد الشركات في سياق قوانين مكافحة الاحتكار.
عندما يبحث المستخدمون عن أسئلة متعلقة بالثقافة الشعبية على Google ، يمكن أن تؤدي ميزة البحث الذكاء الاصطناعي المقترحة في بعض الأحيان إلى بعض النتائج الفكاهية أو المربكة. قد يكون هذا بسبب حقيقة أن الذكاء الاصطناعي قد يواجه تحديات في فهم محتوى الثقافة الشعبية ، خاصة إذا كان يحتوي على الفكاهة أو الهجاء أو سياق اجتماعي معين. قد يكون من الصعب على الذكاء الاصطناعي فهم القصد الحقيقي من هذا المحتوى بدقة ، مما يؤدي إلى اقتراحات أو إجابات قد لا تتطابق مع توقعات المستخدم ، مما يؤدي إلى بعض ردود الفعل غير المتوقعة.
、
بالإضافة إلى ذلك ، على الرغم من أن الذكاء الاصطناعي قد حدثت توصياتها بشأن ابتلاع الأطفال للصخور ، مشيرة إلى أن الأسباب المحتملة تشمل الفضول أو مشاكل المعالجة الحسية أو اضطرابات الأكل ، إلا أن هذه الاستجابات لا تزال تتطلب تقييما مهنيا ولا ينبغي استخدامها كإرشادات نهائية. وهذا يؤكد الحاجة إلى توخي مزيد من الحذر وطلب المشورة المهنية عند استخدام المعلومات المقدمة من الذكاء الاصطناعي ، خاصة عندما يتعلق الأمر بالصحة والسلامة.
الختام:
على الرغم من أن ميزة اقتراحات البحث في Google الذكاء الاصطناعي قد حققت تقدما تقنيا كبيرا ، إلا أن افتقارها إلى الدقة والموثوقية يمكن أن يؤدي إلى عواقب وخيمة. من التبني العشوائي للمعلومات على منصات التواصل الاجتماعي مثل Reddit ، إلى المعلومات المضللة حول مواضيع حساسة مثل تحسين النسل ، إلى التجريم الذاتي غير السليم في المجال القانوني ، سلطت هذه الحوادث الضوء على أوجه قصور كبيرة في فحص معلومات الذكاء الاصطناعي والحكم عليها.
بالإضافة إلى ذلك ، فإن مشكلة النماذج الذكاء الاصطناعي تلفيق الحقائق أو خلق “الهلوسة” تظهر أيضا حدودها عند التعامل مع المشكلات المعقدة. لذلك ، يجب أن نكون يقظين بشأن المعلومات التي تقدمها الذكاء الاصطناعي ، وطلب المشورة المهنية ، ودعوة المطورين والباحثين إلى التحسين المستمر لتكنولوجيا الذكاء الاصطناعي لضمان أنها تجلب المزيد من الفوائد طويل للبشرية بدلا من المخاطر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
لا تزال دقة وموثوقية توصيات البحث الذكاء الاصطناعي من Google تمثل تحديا قاتلا
تعمل Google جاهدة لإزالة الإجابات الخاطئة والتي يحتمل أن تكون خطرة من نتائج البحث الذكاء الاصطناعي. ومع ذلك ، فإن ميزة “نظرة عامة الذكاء الاصطناعي” الجديدة تسيء أحيانا تقديم النكات والسخرية على وسائل التواصل الاجتماعي والمواقع الساخرة على أنها حقائق.
جذبت نتائج البحث الذكاء الاصطناعي التي تم إصدارها مؤخرا من Google الكثير من الاهتمام ، لكن الأسباب ليست إيجابية كما هو متوقع. كجزء من استراتيجية “Twin Times” التي تم إطلاقها حديثا ، أعلنت شركة التكنولوجيا العملاقة عن عدد كبير من أدوات الذكاء الاصطناعي الجديدة الأسبوع الماضي. وأعقب ذلك تغيير كبير في خدمة البحث على الويب الخاصة بها ، حيث يتم الآن عرض الإجابات على الأسئلة في نتائج البحث باللغة الطبيعية مباشرة أعلى روابط مواقع الويب.
في حين أن تحديث Google يجعل تقنية البحث أكثر تقدما وقدرة على الرد على أسئلة المستخدم الأكثر تعقيدا ، إلا أنه يثير أيضا بعض المخاوف. على سبيل المثال ، يمكن الذكاء الاصطناعي أحيانا تقديم معلومات غير صحيحة أو مضللة للمستخدمين عند معالجة نتائج البحث ، وهو ما يمثل مشكلة خاصة عندما يتعلق الأمر بمواضيع حساسة مثل تحسين النسل.
تم استخدام علم تحسين النسل بشكل خاطئ لبعض السياسات اللاإنسانية للتاريخ ، لذا فإن دقة وحساسية معلوماته مهمة بشكل خاص. بالإضافة إلى ذلك ، يعاني الذكاء الاصطناعي أيضا من مشكلة عدم كفاية الدقة عند تحديد بعض الأشياء المحددة ، مثل التمييز بين الفطر السام وغير السام.
يذكرنا هذا بالحاجة إلى توخي مزيد من الحذر عند استخدام أدوات البحث الذكاء الاصطناعي للاستفسارات المتعلقة بالصحة والسلامة والبحث عن تأكيد احترافي كلما أمكن ذلك.
الذكاء الاصطناعي Google ، عند تقديم إجابات “نظرة عامة الذكاء الاصطناعي” ، تستشهد أحيانا بمحتوى من وسائل التواصل الاجتماعي مثل Reddit ، والذي ربما كان مخصصا في الأصل لأغراض فكاهية أو ساخرة. وقد أدى ذلك إلى تقديم بعض الإجابات الخاطئة أو السخيفة بشكل واضح للمستخدمين.
على سبيل المثال ، أفاد أحد المستخدمين أنه عندما سئل عن كيفية التعامل مع الاكتئاب ، اقترح الذكاء الاصطناعي Google في الواقع “القفز من جسر البوابة الذهبية”. تؤكد الإجابات الأخرى بشكل سخيف قدرة مضادة للجاذبية بحيث يمكن للناس البقاء في السراويل القصيرة طويل لأنهم لا ينظرون إلى الأسفل.
توضح هذه الأمثلة أنه على الرغم من إحراز الذكاء الاصطناعي تقدما في تقديم نتائج البحث ، لا تزال هناك أوجه قصور في الدقة والموثوقية تحتاج إلى مزيد من التحسين.
تم تصميم شراكة Google مع Reddit لتسهيل عثور المستخدمين على المنتديات والمناقشات التي تهمهم والمشاركة فيها. ومع ذلك ، يكشف التعاون أيضا عن بعض المخاطر ، خاصة عندما الذكاء الاصطناعي يعالج المحتوى من Reddit. نظرا لأن الذكاء الاصطناعي قد لا يكون لديه القدرة على تمييز صحة المعلومات أو سياقها ، فقد يتبنى ويقتبس المعلومات على Reddit دون تمييز.
يمكن أن يؤدي هذا التبني العشوائي للمعلومات إلى ظهور بعض الاقتراحات المضللة أو حتى السخيفة في نتائج البحث. على سبيل المثال ، قدم الذكاء الاصطناعي ذات مرة اقتراحا غير مناسب بأن الأطفال يجب أن يأكلوا صخرة صغيرة واحدة على الأقل يوميا ، كما وصفوا الاقتراح بشكل غير صحيح بأنه قادم من عالم جيولوجي في جامعة كاليفورنيا ، بيركلي. يوضح هذا المثال كيف يمكن الذكاء الاصطناعي التضليل من خلال تجاهل مصداقية المعلومات وملاءمتها عند معالجة المعلومات على الويب.
في حين أن Google قد أزالت أو صححت بعض الإجابات السخيفة بشكل واضح ، فإن النماذج التي تم إنشاؤها الذكاء الاصطناعي تنتج أحيانا إجابات غير دقيقة أو وهمية ، وهي ظاهرة تعرف باسم “الهلوسة”. يمكن اعتبار هذه “الهلوسة” عبارات غير صحيحة لأن الذكاء الاصطناعي يخلق شيئا غير واقعي.
وهذا يشير إلى أن الذكاء الاصطناعي بحاجة إلى تحسين في التمييز بين صحة المعلومات وسياقها، ويحتاج إلى مزيد من التحسين لضمان أن تكون المعلومات المقدمة دقيقة وموثوقة.
في الوقت نفسه ، أوصت Google الذكاء الاصطناعي عن طريق الخطأ باستخدام الغراء لمنع الجبن من الانزلاق من البيتزا ، وهو اقتراح يأتي من تعليق عمره عقد من الزمان على Reddit.
كان نموذج ChatGPT الخاص ب OpenAI حالة تلفيق ، بما في ذلك اتهام أستاذ القانون جوناثان تورلي زورا بالاعتداء الجنسي بناء على رحلة لم يشارك فيها. يعكس هذا الحادث حقيقة أن الذكاء الاصطناعي قد تكون مفرطة الثقة في معالجة المعلومات وتفشل في التمييز بدقة بين صحة وزيف المحتوى على الإنترنت.
بالإضافة إلى ذلك ، يمكن أن تؤدي الثقة المفرطة في الذكاء الاصطناعي إلى قبول جميع المعلومات على الإنترنت بشكل عشوائي على أنها صحيحة ، ويمكن أن تؤدي هذه الثقة إلى أحكام خاطئة ، مثل إلقاء اللوم بشكل خاطئ على المديرين التنفيذيين السابقين لشركة Google وإصدار أحكام إدانة خاطئة ضد الشركات في سياق قوانين مكافحة الاحتكار.
عندما يبحث المستخدمون عن أسئلة متعلقة بالثقافة الشعبية على Google ، يمكن أن تؤدي ميزة البحث الذكاء الاصطناعي المقترحة في بعض الأحيان إلى بعض النتائج الفكاهية أو المربكة. قد يكون هذا بسبب حقيقة أن الذكاء الاصطناعي قد يواجه تحديات في فهم محتوى الثقافة الشعبية ، خاصة إذا كان يحتوي على الفكاهة أو الهجاء أو سياق اجتماعي معين. قد يكون من الصعب على الذكاء الاصطناعي فهم القصد الحقيقي من هذا المحتوى بدقة ، مما يؤدي إلى اقتراحات أو إجابات قد لا تتطابق مع توقعات المستخدم ، مما يؤدي إلى بعض ردود الفعل غير المتوقعة.
、![]()
بالإضافة إلى ذلك ، على الرغم من أن الذكاء الاصطناعي قد حدثت توصياتها بشأن ابتلاع الأطفال للصخور ، مشيرة إلى أن الأسباب المحتملة تشمل الفضول أو مشاكل المعالجة الحسية أو اضطرابات الأكل ، إلا أن هذه الاستجابات لا تزال تتطلب تقييما مهنيا ولا ينبغي استخدامها كإرشادات نهائية. وهذا يؤكد الحاجة إلى توخي مزيد من الحذر وطلب المشورة المهنية عند استخدام المعلومات المقدمة من الذكاء الاصطناعي ، خاصة عندما يتعلق الأمر بالصحة والسلامة.
الختام:
على الرغم من أن ميزة اقتراحات البحث في Google الذكاء الاصطناعي قد حققت تقدما تقنيا كبيرا ، إلا أن افتقارها إلى الدقة والموثوقية يمكن أن يؤدي إلى عواقب وخيمة. من التبني العشوائي للمعلومات على منصات التواصل الاجتماعي مثل Reddit ، إلى المعلومات المضللة حول مواضيع حساسة مثل تحسين النسل ، إلى التجريم الذاتي غير السليم في المجال القانوني ، سلطت هذه الحوادث الضوء على أوجه قصور كبيرة في فحص معلومات الذكاء الاصطناعي والحكم عليها.
بالإضافة إلى ذلك ، فإن مشكلة النماذج الذكاء الاصطناعي تلفيق الحقائق أو خلق “الهلوسة” تظهر أيضا حدودها عند التعامل مع المشكلات المعقدة. لذلك ، يجب أن نكون يقظين بشأن المعلومات التي تقدمها الذكاء الاصطناعي ، وطلب المشورة المهنية ، ودعوة المطورين والباحثين إلى التحسين المستمر لتكنولوجيا الذكاء الاصطناعي لضمان أنها تجلب المزيد من الفوائد طويل للبشرية بدلا من المخاطر.