مايكروسوفت تحذر موظفيها من مشاركة «معلومات حساسة» مع «ChatGPT»


الاربعاء 01 فبراير 2023 | 04:37 صباحاً
مايكروسوفت
مايكروسوفت
وكالات

سأل أحد موظفي مايكروسوفت، في وقت سابق من يناير 2023، في منتدى داخلي عما إذا كان ChatGPT مسموحًا باستخدامه في العمل، لترد الشركة بأنه مسموح لهم، طالما أن الموظفين لا يشاركون المعلومات السرية مع أداة الذكاء الاصطناعي.

وقالت مايكروسوفت: «من فضلكم لا ترسلوا بيانات حساسة إلى أي من برامج OpenAI، لأنها قد تستخدمها لتدريب النماذج المستقبلية»، وتسبب هوس العالم المفاجئ بـ ChatGPT في جعل بعض شركات التكنولوجيا تتدافع لتحذير الموظفين من التفاعل بحرية مع التكنولوجيا.

اللافت هذه المرة هو أن Microsoft داعم وشريك رئيسي لـ OpenAI، حيث أعلنت الأسبوع الماضي Microsoft عن جولة جديدة من التمويل للشركة الناشئة، وتخطط شركة البرمجيات العملاقة أيضًا لدمج تقنية OpenAI في بعض منتجاتها الأخرى، مثل محرك بحث Bing وتطبيقات Office، حسبما ذكرت The Information سابقًا.

قد تؤدي العلاقة الوثيقة بين الشركتين إلى تضارب محتمل في المصالح لشركة Microsoft، حيث يمكنها الاستفادة من حصول OpenAI على المزيد من بيانات التدريب، وفقًا لفنسنت كونيتسر أستاذ علوم الكمبيوتر ومدير مختبر الذكاء الاصطناعي في جامعة كارنيجي ميلون.

يكمن مصدر الخوف في أنه يمكن للعاملين مشاركة معلومات الشركة السرية عن غير قصد - مثل رمز البرنامج الداخلي - مع روبوت المحادثة لطلب النصائح حول كيفية تحسين عملهم.

يمكن لـ ChatGPT بدوره معالجة البيانات لتدريب نفسه، وربما مشاركة نسخ من المعلومات السرية التي يتلقاها في عمليات التبادل المستقبلية مع مستخدمين آخرين.

ChatGPT
مايكروسوفت