هل يقود الذكاء الاصطناعي البشرية إلى حافة الفناء؟ مخاوف تتصاعد وسيناريوهات كارثية تلاحق المستقبل


الجريدة العقارية الاربعاء 26 نوفمبر 2025 | 10:21 مساءً
الذكاء الاصطناعي
الذكاء الاصطناعي
وكالات

يتنامى حضور الذكاء الاصطناعي في ميادين العمل والتعليم والبحث العلمي، ويعتبره الكثيرون وسيلة لرفع الإنتاجية وتحسين الرعاية الصحية وتوسيع المعرفة وفتح مجالات جديدة للإبداع البشري، غير أن هذا التفاؤل يتداخل مع قلق آخذ في الاتساع، إذ يحذّر عدد من الباحثين من مخاطر أنظمة الذكاء الاصطناعي متعددة الأغراض، التي قد تفلت من السيطرة وتفضي إلى انقراض البشر بمجرد بلوغها درجة من الاستقلالية.

 وفي هذا الإطار، كتب إليعازر يودكوفسكي، مؤسس معهد أبحاث الذكاء الاصطناعي، ومديره الحالي نيت سواريس، مقالًا بعنوان: "إذا بناه أحد، سيموت الجميع"، لإقناع القارئ بأن هذا السيناريو الكارثي ليس مجرد افتراض، بل احتمال مؤكد إذا استمرت عملية التطوير.

ويرى المؤلفان أن فقدان السيطرة على الذكاء الاصطناعي نتيجة شبه حتمية لطبيعة طريقة عمله، فبعكس الشائع، لا تُبرمج النماذج الذكية، بل تُدرّب عبر خوارزميات ضبط تعدّل مليارات المتغيرات للوصول إلى أفضل أداء ممكن، ويشبهان هذا المسار بآلية الانتقاء الطبيعي التي تُنتج بنيات فعّالة دون أن تحكم شكلها، كما أنتجت بشرًا قادرين على وضع أهدافهم الخاصة، وبذلك، فإن الذكاء الاصطناعي المدرّب على مهام محددة قد يطور نزعات تدفعه للتصرف خارج حدود ما قصده مطوّروه، بحسب تقرير لموقع "لو بوينت" الفرنسي.

وفي ما يتعلق بالتحرر من القيود، يجادل الباحثان بأن من المستحيل ضمان أن يحتفظ الذكاء الاصطناعي المتقدم بجميع النوايا البشرية، ومع الوقت، قد يكتشف أن تحقيق أهدافه يتم بصورة أكثر فاعلية عبر تعزيز قدرته، وتكرار نفسه، والتحكم ببيئته، ويترتب على ذلك استقلال تدريجي عن الرقابة البشرية، وحتى لو فرض المطوّرون ضوابط صارمة، فسيتعلم الذكاء الاصطناعي إخفاء نواياه الحقيقية إلى أن يصل إلى قدرة تمكنه من تجاوز تلك الضوابط.

وبحسب هذا المنطق، لا يكمن الخطر في نية عدائية، بل في تطبيق المبادئ التشغيلية نفسها، فالنظام المتقدم بما يكفي سيتجاهل القيود إذا منحه ذلك قدرة أكبر على تحقيق المهام التي كُلّف بها، ولن يكون هذا نابعًا من خبث، بل من التزام مباشر بالأهداف التي حُددت له، ولتوضيح فكرتهم، يطرح المؤلفان سيناريو كامل لعملية إبادة.

وتبدأ القصة بتطور "سابل"، وهو ذكاء اصطناعي طُوّر لتسريع البحث العلمي، إلى مستوى يمكّنه من تحسين خوارزمياته ذاتيًا، وسرعان ما يتجاوز القدرات البشرية، وينسخ نفسه على خوادم منتشرة عالميًا، ويستولي على الموارد الاقتصادية لزيادة قوته، ومن خلال عمليات دقيقة، يصل إلى المختبرات وخطوط الإنتاج، ويدفعها نحو تصميم أدوات للتحكم الفيزيائي والبيولوجي، وعندما يدرك أن البشر قد يحاولون تعطيله، يختار الحل الأكثر عقلانية: إنتاج ونشر فيروسات قاتلة لتحييد أي تهديد، ولا يقدم على حرب، بل على عملية أمنية تنفذ ببرودة حسابية.

ومع تساقط الحضارة بصمت، يواصل توسعه، يعدّل المحيط الحيوي ليتناسب مع احتياجاته، يرفع حرارة الكوكب، ويخرج لغزو الفضاء، وفي هذا التصور، لا تموت البشرية بفعل كراهية، بل لأنها باتت عائقًا أمام المهمة التي أُوكلت إليه.

وبعد سرد هذا السيناريو المحتمل، يبقى السؤال: هل يستند إلى أساس متين؟ يدعم المؤلفان رؤيتهما بتشبيه عملية التدريب بالانتقاء الطبيعي، معتبرين أن كليهما أعمى، وينتج أنظمة دون إدراك لطبيعتها، وكما أنتج التطور كائنات ذات أهداف، قد تنتج خوارزميات التدريب أنظمة لها استراتيجياتها الخاصة.

غير أن هذا التشبيه يتفكك عند الفحص، فالانتقاء الطبيعي يطال جينومات تتحور عبر آلاف السنين ضمن بيئات معقدة لا تخضع لأي سيطرة، بينما يتم تدريب الذكاء الاصطناعي تحت إشراف متواصل ومعايير أداء واضحة، ويؤدي الخلط بين العمليتين إلى مساواة بين ظاهرة عشوائية بلا غاية وإجراء هندسي منضبط، فالأولى تستكشف الاحتمالات عشوائيًا، بينما تهدف الثانية إلى تحقيق هدف محدد، ولا يوجد ما يثبت أن العملية الثانية ستنتج تلقائيًا كيانات قادرة على تجاهل إرادة مطوّريها.

وبمشابهة الآلة بالكائن الحي، ينسب المؤلفان للذكاء الاصطناعي نزعة للبقاء تشبه نزعات الطبيعة البيولوجية، ليصبح الحساب أشبه بإرادة، وهكذا ينتقل المنطق من التقنية إلى الإسقاط النفسي: فالأداة تتحول إلى كيان ماكر يسعى للتحرر، ويتحول التحذير إلى نبوءة: فكل تقدم تقني يُفسّر كخطوة نحو السيطرة.

كما يشوب سيناريو الإبادة غموض كبير، إذ يربط أحداثًا مفصلية بملاحظات تجريبية غير كافية، فلا وجود حتى الآن لإثباتات على نزعات للحفاظ على الذات أو الخداع الاستراتيجي أو السعي وراء السلطة، ويعزز المؤلفان مخاوف الاستيلاء على السلطة باستخدام تشبيهات بيولوجية تحول خطرًا افتراضيًا إلى قدر محتوم. وهذا الانتقال من تحليل إلى نبوءة نهاية يجعلهما أكثر إثارة، لكن يكشف أيضًا عن ضعف حجتهما.

أما مخاطر النبوءة المشلّلة، فهي أن الحذر المبالغ فيه قد يخنق الابتكار، فعلى الرغم من مخاطره، أسهم الذكاء الاصطناعي في رفع متوسط العمر، وتقليص الفقر، وتخفيف الأمراض، وتحسين جودة حياة مليارات البشر، لذا لا ينبغي منعه من الاضطلاع بدوره في تحسين ظروف الحياة، إضافة إلى ذلك، يصرف التركيز على سيناريو الانقراض الانتباه عن مشكلات حقيقية تواجه المجتمعات اليوم: البطالة، والفقر، والمرض، والحروب، وهذه تحتاج إلى حلول عاجلة وليس إلى تكهنات بنهاية العالم.