دفع OpenAI's ChatGPT للصحة يثير تساؤلات حول أمان البيانات

باختصار

  • تقول OpenAI إن ChatGPT Health ستُطرح للمستخدمين المختارين بدءًا من هذا الأسبوع، مع خطة لفتح الوصول بشكل أوسع في الأسابيع القادمة.
  • يخزن الميزة المحادثات الصحية بشكل منفصل عن الدردشات الأخرى ولا تستخدمها لتدريب نماذج OpenAI.
  • يحذر المدافعون عن الخصوصية من أن البيانات الصحية التي يتم مشاركتها مع أدوات الذكاء الاصطناعي غالبًا ما تقع خارج قوانين الخصوصية الطبية في الولايات المتحدة.

في يوم الأربعاء، أعلنت OpenAI عن ميزة جديدة في ChatGPT، تتيح للمستخدمين ربط السجلات الطبية وبيانات العافية، مما أثار مخاوف بين بعض الخبراء والجماعات المدافعة عن الحقوق حول استخدام البيانات الشخصية. قالت شركة الذكاء الاصطناعي التي تتخذ من سان فرانسيسكو، كاليفورنيا، مقرًا لها إن الأداة، التي أُطلق عليها اسم ChatGPT Health، والتي تم تطويرها مع أطباء، مصممة لدعم الرعاية بدلاً من تشخيص أو علاج الأمراض. تضع الشركة هذه الميزة كوسيلة لمساعدة المستخدمين على فهم صحتهم بشكل أفضل. بالنسبة للعديد من المستخدمين، أصبح ChatGPT بالفعل المنصة المفضلة لطرح الأسئلة حول الرعاية الطبية والصحة النفسية. 

قالت OpenAI لـ Decrypt إن ChatGPT Health يشارك فقط معلومات صحية عامة، “حقائق صحية”، ولا يقدم “نصائح طبية شخصية أو غير آمنة.” بالنسبة للأسئلة ذات المخاطر العالية، سيقدم معلومات عامة، ويحدد المخاطر المحتملة، ويشجع الناس على التحدث مع صيدلي أو مقدم رعاية صحية يعرف وضعهم الخاص. تأتي هذه الخطوة بعد أن أعلنت الشركة في أكتوبر أن أكثر من مليون مستخدم يناقشون الانتحار مع الروبوت كل أسبوع. وكان ذلك يمثل حوالي 0.15% من جميع مستخدمي ChatGPT في ذلك الوقت. على الرغم من أن هذه الأرقام تمثل حصة صغيرة نسبيًا من إجمالي عدد المستخدمين، يقول الخبراء إن معظمهم سيحتاج إلى معالجة مخاوف الأمان وخصوصية البيانات.

“حتى عندما تدعي الشركات وجود تدابير حماية للخصوصية، غالبًا ما يفتقر المستهلكون إلى موافقة ذات معنى، أو شفافية، أو سيطرة على كيفية استخدام بياناتهم أو الاحتفاظ بها أو إعادة استخدامها”، قال J.B. Branch، المدافع عن مساءلة الشركات الكبرى في منظمة المواطنون العامة، لـ Decrypt. “البيانات الصحية فريدة من نوعها وحساسة، وبدون حدود قانونية واضحة وإشراف قابل للتنفيذ، فإن التدابير الذاتية الرقابة ليست كافية لحماية الناس من سوء الاستخدام، أو إعادة التعريف، أو الأضرار اللاحقة.” قالت OpenAI في بيانها إن البيانات الصحية في ChatGPT Health مشفرة بشكل افتراضي، وتُخزن بشكل منفصل عن الدردشات الأخرى، ولا تُستخدم لتدريب نماذجها الأساسية. وفقًا للمستشار القانوني الأول لمركز الديمقراطية والتكنولوجيا، أندرو كروفورد، يعتقد العديد من المستخدمين خطأً أن البيانات الصحية محمية بناءً على حساسيتها، وليس بناءً على من يحتفظ بها. قال كروفورد لـ Decrypt: “عندما تكون بياناتك الصحية محتجزة من قبل طبيبك أو شركة التأمين الخاصة بك، فإن قواعد خصوصية HIPAA تنطبق.” “لكن الأمر ليس كذلك بالنسبة للكيانات غير المشمولة بـ HIPAA، مثل مطوري تطبيقات الصحة، أو أجهزة تتبع الصحة القابلة للارتداء، أو شركات الذكاء الاصطناعي.” وأضاف كروفورد أن إطلاق ChatGPT Health يسلط الضوء أيضًا على كيف أن عبء المسؤولية يقع على عاتق المستهلكين في غياب قانون فدرالي شامل للخصوصية ينظم البيانات الصحية التي تحتفظ بها شركات التكنولوجيا. “من المؤسف أن قوانيننا ولوائحنا الفدرالية الحالية تضع هذا العبء على عاتق المستهلكين الأفراد لتحليل مدى ارتياحهم لكيفية تعامل التكنولوجيا التي يستخدمونها يوميًا مع بياناتهم ومشاركتها”، قال. قالت OpenAI إن ChatGPT Health سيُطرح أولاً لمجموعة صغيرة من المستخدمين. القائمة الانتظار مفتوحة لمستخدمي ChatGPT خارج الاتحاد الأوروبي والمملكة المتحدة، مع خطة لفتح الوصول بشكل أوسع في الأسابيع القادمة على الويب وiOS. لم تذكر OpenAI في إعلانها جوجل أو أجهزة أندرويد.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت