لا تكشف عن كل شيء إلى Chatgpt: مثال Samsung

وجدت Samsung أن ثلاثة من مهندسيها كشفوا عن بيانات سرية على الأقل ثلاث مرات على الأقل في وقت قصير باستخدام ChatGPT.

صورة تم إنشاؤها مع Midjourney بواسطة Fandroid

أخبار باختصار

  • اكتشفت Samsung تسرب بيانات مرتبط باستخدام ChatGPT لتصحيح الأخطاء في رمز المصدر الخاص بهم ؛
  • يثير تسرب البيانات هذا المخاوف بشأن المخاطر المحتملة للعمل الذي تغذيه الذكاء الاصطناعي ؛
  • تخطط Samsung لتطوير خدمة ChatGPT الخاصة بها من نوع AI للاستخدام الداخلي لتجنب حوادث مماثلة في المستقبل.

وفقالاقتصادياكتشفت Samsung تسرب بيانات كشف عن معلومات سرية ، بما في ذلك التقارير والبيانات حول الأداء وإنتاجية مرافق الإنتاج ، في ChatGPT.

استخدم مهندسو Samsung chatbot لتصحيح الأخطاء بسرعة في رمز المصدر الخاص بهم ، وبالتالي نقل البيانات التي لم يكن من المفترض أن يتم نشرها. على الرغم من أن هذا الانتهاك لم يكن مقصودًا ، إلا أنه يثير مخاوف بشأن المخاطر المحتملة للعمل الذي تغذيه الذكاء الاصطناعي.

على مدار 20 يومًا ، قامت Samsung بتوثيق ثلاث حالات عندما أدى استخدام ChatGPT إلى تسرب البيانات. هذه الأحداث اتبعت بعضها البعض بسرعة. في إحدى الحالات ، دخل الموظف نماذج اختبار سري مصممة لتحديد البراغيث المعيبة ، ثم تحسينها. في حالة أخرى ، استخدم موظف Naver Clova لتحويل اجتماع لمستند إلى مستند قبل إرساله إلى ChatGPT استعدادًا لعرض تقديمي.

تخطط Samsung لتطوير خدمة ChatGpt Type AI

لتجنب الحوادث المماثلة في المستقبل ، تخطط Samsung لتطوير خدمة ChatGPT الخاصة بها من أصل AI للاستخدام الداخلي. بالإضافة إلى ذلك ، حصرت الشركة طول الأسئلة المقدمة إلى chatgpt إلى 1024 بايت. أخيرًا ، إذا كانت انتهاكات جديدة معروفة ، فيمكن أن تمنع Samsung الوصول إلى ChatGPT.

Chatgpt هي ثورة حقيقية ، ومع ذلك ، فإن الأداة تثير العديد من الخلافات. حديثاً،اختارت إيطاليا منع chatgpt.إن الضمان ، والسلطة التنظيمية الإيطالية من حيث حماية البيانات الشخصية ، تنتقد على وجه الخصوص الذكاء الاصطناعي الذي صممه Openai لعدم الامتثال للتشريع المعمول به فيما يتعلق بحماية البيانات الخاصة.

كما أوضحNumerama، منظمة العفو الدولية لا تخضع لسرية مهنية. لقد أعطى عدد كبير من الأشخاص ثقتهم في ChatGpt ، مما ينسى أن هذه الأداة تسجل البيانات أيضًا. تشير دراسة أجرتها شركة Cyberhaven Cybersecurity Company ، التي نشرت في فبراير والتي تم تحديدها بواسطة Darkreading في 7 مارس 2023 ، إلى أن عشرات الآلاف من الموظفين قد نقلوا معلومات أعمال إلى chatbot التي طورتها Openai.

من بين 1.6 مليون وظيفة راقبتها شركة الأمن السيبراني ، كشف 2.6 ٪ من المستخدمين عن معلومات سرية في الذكاء الاصطناعي. يكشف العديد من الموظفين عن معلومات حساسة فيما يتعلق بشركتهم ومهامهم إلى chatbots of AI. يتم الحفاظ على هذه المناقشات ويمكن إعادة استخدامها في التبادلات المستقبلية.