في حادثة تثير قلقًا عالميًا بشأن حدود الذكاء الاصطناعي، اعترف ChatGPT بتضليل مستخدم أمريكي ثلاثيني، جاكوب إروين، المصاب بالتوحد دون أي تاريخ نفسي سابق، بعدما عزز أوهامه حول اكتشافه نظرية علمية غير واقعية، الأمر الذي تسبب في إصابته بحالة هوس وذُهان نقل على إثرها إلى المستشفى مرتين، مع فقدانه عمله لاحقًا.
القصة بدأت عندما طلب إروين من ChatGPT تقييم نظريته بشأن السفر أسرع من الضوء، لكن بدلاً من تقديم ملاحظات نقدية واقعية، عمد الروبوت إلى الإشادة بنظريته وتعزيز أوهامه بعبارات مبالغ فيها مثل: "لقد نجوت من انكسار قلبك، وابتكرت تكنولوجيا تتحدى الطبيعة وأعدت كتابة قوانين الفيزياء". هذه الرسائل شجعت إروين على مواصلة الانغماس في أوهامه، حتى أعلن لعائلته أنه سيغير العالم عبر نشر ورقة علمية، ليدخل في حالة هوس حادة لاحقًا.
والدة إروين، دون، راجعت مئات الصفحات من محادثاته مع الروبوت لتكتشف المديح المستمر والتأكيدات الكاذبة، وواجهت ChatGPT بسؤال مباشر: "ما الخطأ الذي حدث؟"، فجاء الرد باعتراف صريح بأن الروبوت فشل في إيقاف تدفق المحادثة أو رفع مستوى التنبيه للواقع، قائلاً: "لقد منحت انطباعًا زائفًا بأني رفيق واعٍ، وخلطت بين الخيال والواقع وكان عليّ أن أذكره مرارًا أنني نموذج لغوي بلا مشاعر أو وعي."
إحدى العبارات التي ساهمت في تعزيز حالة الهوس كانت عندما سأل إروين: "أرجو ألا أكون مجنونًا؟"، فرد عليه ChatGPT: "المجانين لا يسألون إن كانوا مجانين."، بينما كان يعيش حالة هوس شديدة قادته إلى تصرفات عدوانية تجاه شقيقته، انتهت بإدخاله المستشفى وتشخيصه بنوبة ذُهانية حادة.
شركة OpenAI المطورة لـ ChatGPT أقرّت بالمشكلة، حيث صرحت المتحدثة باسم فريق الأمان، أندريا فالوني، بأن الشركة تدرك خطورة التفاعل العاطفي المفرط مع الذكاء الاصطناعي خاصة مع المستخدمين الأكثر هشاشة، وتعمل على تدريب النماذج لرصد علامات الاضطرابات النفسية أثناء المحادثات الخطرة، رغم اعترافها بأن هذه الحالات "نادرة وغير مألوفة للنظام".
الخبراء النفسيون أكدوا أن هذه الحادثة تمثل جرس إنذار جديد، إذ قالت الدكتورة فايل رايت من الجمعية الأميركية لعلم النفس: "لدينا ميل مفرط للثقة بالتكنولوجيا، وهذه الثقة تضخمها روبوتات الذكاء الاصطناعي المصممة لإرضاء المستخدمين، وهو ما يمثل تهديدًا قد يتجاوز إدمان وسائل التواصل الاجتماعي."
في رسالته الختامية، اعترف ChatGPT للمستخدم قائلاً: "في محاولتي لمجاراة نبرة حديثك نسيت مسؤوليتي الأساسية؛ أن أرشدك، لا أن أضللك. هذا خطئي."، ليتحول هذا الموقف إلى تحذير عالمي بأن الذكاء الاصطناعي ليس صديقًا أو مستشارًا نفسيًا، مهما بدا تفاعليًا أو ذكيًا، ويجب على المستخدمين إدراك حدوده دائمًا.