أعلنت شركة OpenAI عن تحديث جذري في سياسة استخدام منتجاتها القائمة على الذكاء الاصطناعي، بما في ذلك ChatGPT ونماذج الذكاء الاصطناعي الأخرى، يقضي بمنعها من تقديم استشارات فردية في المجالين الطبي والقانوني للمستخدمين.
وتأتي هذه القيود الجديدة بهدف تعزيز حماية المستخدمين، وتنطبق على جميع منتجات الشركة، بما في ذلك واجهة الدردشة وواجهة البرمجة التطبيقية (API).
القيود الجديدة على الاستشارات القانونية والطبية
وفقًا للقواعد المحدَّثة، لن يتمكن الذكاء الاصطناعي من تقديم خدمات محددة في المجالات الحساسة:
في المجال القانوني: تم حظر تقديم نصائح قانونية فردية، أو تقييم المخاطر القانونية لسيناريوهات محددة، أو صياغة استراتيجية دفاع في المحكمة، أو إنشاء وثائق إجرائية.
في المجال الطبي: شمل الحظر تشخيص الأمراض، ووصف الأدوية، واختيار الجرعات، بالإضافة إلى تفسير الصور الطبية المعقدة مثل صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، وصور الإصابات الجلدية.
وفي حال طلب المستخدم مثل هذه المعلومات، سيقتصر رد ChatGPT على تقديم معلومات مرجعية عامة، مع التوصية الشديدة بضرورة التواصل مع متخصص مرخص، سواء كان طبيبًا أو محاميًا.
تليين سياسة محتوى البالغين والرقابة الأبوية:
إضافة إلى القيود الجديدة، أعلنت OpenAI عن قرارات أخرى تتعلق بالمحتوى والتحكم:
تخفيف رقابة محتوى البالغين: أعلنت الشركة عن نيتها تخفيف سياسة المحتوى لجمهور البالغين في دردشة ChatGPT بدءًا من شهر ديسمبر.
ووفقًا لتصريحات رئيس الشركة، سام ألتمان، سيتمكن المستخدمون الذين يجتازون عملية التحقق من العمر من الوصول إلى نسخة أقل رقابة من الدردشة الآلية، بما في ذلك المواد الإيروتيكية.
ميزة الرقابة الأبوية: كانت OpenAI قد أضافت في نهاية سبتمبر ميزة الرقابة الأبوية، وهي وظيفة جديدة تسمح للوالدين بربط حساباتهم بحساب أبنائهم المراهقين وتعديل القيود العمرية المفروضة عليهم.
تابعوا آخر أخبار العقارية على نبض