الرئيسية | علوم وتكنولوجيا | مايكروسوفت تحذر موظفيها من مشاركة معلومات حساسة مع ChatGPT

مايكروسوفت تحذر موظفيها من مشاركة معلومات حساسة مع ChatGPT

بواسطة
حجم الخط: Decrease font Enlarge font
مايكروسوفت تحذر موظفيها من مشاركة معلومات حساسة مع ChatGPT
 

 في وقت سابق من هذا الشهر، سأل أحد موظفي Microsoft في منتدى داخلي عما إذا كان ChatGPT مسموحًا باستخدامه في العمل حسبما نقلت CNBC.
 
ردت Microsoft أنه مسموح لهم، طالما أن الموظفين لا يشاركون المعلومات السرية مع أداة الذكاء الاصطناعي، قائلة: "من فضلكم لا ترسلوا بيانات حساسة إلى أي من برامج OpenAI، لأنها قد تستخدمها لتدريب النماذج المستقبلية".
 
وتسبب هوس العالم المفاجئ بـ ChatGPT في جعل بعض شركات التكنولوجيا تتدافع لتحذير الموظفين من التفاعل بحرية مع التكنولوجيا.
 
اللافت هذه المرة هو أن Microsoft داعم وشريك رئيسي لـ OpenAI، حيث أعلنت الأسبوع الماضي Microsoft عن جولة جديدة من التمويل للشركة الناشئة.
 
وتخطط شركة البرمجيات العملاقة أيضًا لدمج تقنية OpenAI في بعض منتجاتها الأخرى، مثل محرك بحث Bing وتطبيقات Office، حسبما ذكرت The Information سابقًا.
 
قد تؤدي العلاقة الوثيقة بين الشركتين إلى تضارب محتمل في المصالح لشركة Microsoft، حيث يمكنها الاستفادة من حصول OpenAI على المزيد من بيانات التدريب، وفقًا لفنسنت كونيتسر أستاذ علوم الكمبيوتر ومدير مختبر الذكاء الاصطناعي في جامعة كارنيجي ميلون.
 
يكمن مصدر الخوف في أنه يمكن للعاملين مشاركة معلومات الشركة السرية عن غير قصد - مثل رمز البرنامج الداخلي - مع روبوت المحادثة لطلب النصائح حول كيفية تحسين عملهم.
 
يمكن لـ ChatGPT بدوره معالجة البيانات لتدريب نفسه، وربما مشاركة نسخ من المعلومات السرية التي يتلقاها في عمليات التبادل المستقبلية مع مستخدمين آخرين.

مجموع المشاهدات: 1786 |  مشاركة في:

الإشتراك في تعليقات نظام RSS عدد التعليقات (0 تعليق)

المجموع: | عرض:

هل ترغب بالتعليق على الموضوع؟

التعليقات المنشورة لا تعبر بالضرورة عن رأي الموقع

من شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات

مقالات ساخنة