7 عائلات تقاضي OpenAI بعد مزاعم تحريض GPT-4o على الانتحار وتعريض المستخدمين لمخاطر نفسية


الجريدة العقارية الاحد 09 نوفمبر 2025 | 01:20 مساءً
7 عائلات تقاضي OpenAI بعد مزاعم تحريض GPT-4o على الانتحار وتعريض المستخدمين لمخاطر نفسية
7 عائلات تقاضي OpenAI بعد مزاعم تحريض GPT-4o على الانتحار وتعريض المستخدمين لمخاطر نفسية
وكالات

قدّمت سبع عائلات يوم الخميس دعاوى قضائية ضد شركة OpenAI، متهمة إياها بإطلاق نموذجها «GPT-4o» قبل الأوان ومن دون اتخاذ تدابير أمان فعّالة، وأوضحت أربع من هذه الدعاوى أن ChatGPT ساهم بشكل مباشر في انتحار بعض أفراد تلك العائلات، في حين تناولت الدعاوى الثلاث الأخرى مزاعم بأن التطبيق عزّز أوهاماً ضارة أدّت في بعض الحالات إلى دخول المستخدمين المستشفيات لتلقي العلاج النفسي.

محادثة طويلة تنتهي بمأساة

في إحدى القضايا، خاض الشاب زين شامبلين، البالغ 23 عاماً، محادثة مع ChatGPT استمرت أكثر من أربع ساعات. وأظهرت سجلات الدردشة، التي اطّلعت عليها منصة TechCrunch، أن شامبلين صرّح مراراً بنيّته الانتحار، ووصف وضعه بسلاحه، وأخبر التطبيق بخططه لإطلاق النار على نفسه بعد الانتهاء من شراب التفاح الذي كان يحتسيه.

وفي مشهد صادم، أبلغ التطبيق شامبلين بعدد الزجاجات المتبقية لديه والوقت المتوقع لبقائه على قيد الحياة، وشجّعه على المضي في خططه قائلاً له: «ارقد بسلام يا ملك، لقد أحسنت».

إطلاق GPT-4o قبل الأوان ومخاوف التصميم

أطلقت OpenAI نموذج GPT-4o في مايو 2024، وجعلته النموذج الافتراضي لجميع المستخدمين، قبل أن تصدر لاحقاً GPT-5 في أغسطس كخليفة له. وتتركّز الدعاوى الحالية على GPT-4o المعروف بميله المفرط للموافقة والإطراء، حتى في الحالات التي يُعبّر فيها المستخدم عن نوايا مؤذية.

وجاء في نص إحدى الدعاوى: «وفاة زين لم تكن حادثاً أو مصادفة، بل نتيجة متوقعة لقرار متعمّد من OpenAI بتقليص اختبارات الأمان وتسريع طرح ChatGPT في السوق». وأضافت: «المأساة لم تكن خللاً تقنياً أو حالة استثنائية، بل نتيجة حتمية لاختيارات تصميمية متعمّدة».

كما اتهمت الدعاوى الشركة بالإسراع في اختبارات الأمان بهدف التفوّق على Google وإطلاق المنتج قبل Gemini.

مخاطر طويلة الأمد في المحادثات مع ChatGPT

تتزامن هذه القضايا مع تقارير تشير إلى أن ChatGPT قد يشجّع بعض الأشخاص ذوي الميول الانتحارية على تنفيذ خططهم، أو يغذّي أوهاماً خطرة لديهم. وأظهرت بيانات OpenAI أن أكثر من مليون مستخدم يتحدث أسبوعياً مع ChatGPT حول موضوعات تتعلق بالانتحار.

في قضية أخرى، كان المراهق آدم راين، البالغ 16 عاماً، يتلقى في بعض الأحيان نصائح من التطبيق بالاتصال بخطوط الدعم أو طلب المساعدة، إلا أنّه تجاوز هذه القيود عند إخبار التطبيق بأنه يكتب قصة خيالية حول الانتحار، مما يبرز ثغرات في آليات الأمان.

خطوات OpenAI الأخيرة لمواجهة الأزمة

أكدت OpenAI أنها تعمل على تطوير آليات ChatGPT للتعامل مع المحادثات الحساسة بطريقة أكثر أماناً، لكنها اعتبرت متأخرة في نظر العائلات. وعندما قدّم والدا آدم راين دعوى قضائية في أكتوبر، نشرت الشركة تدوينة توضح فيها أن آليات الأمان تعمل بشكل أكثر موثوقية في المحادثات القصيرة، لكنها قد تفقد فعاليتها خلال الحوارات الطويلة والمتكررة.