بعد شهر واحد من حظر Chatgpt ، تسمح إيطاليا بعودتها. وفي الوقت نفسه ، قام Openai بتحسين خيارات خصوصية البيانات.
تحديث 1 مايو 2023:
أعلنت ChatGPT ، التي طورتها Openai ، عن ميزات جديدة توفر للمستخدمين التحكم بشكل أفضل في بياناتهم. تتيح طريقة السرية الآن اختيار ما إذا كان يجب أن يظهر البحث في تاريخ ChatGPT وإذا كان بإمكان Openai استخدام هذه البيانات لتدريب نماذجه. هذا له أهمية خاصة للمدافعين عن الخصوصية ، ولكن أيضًا للشركات.
الوظيفة الجديدة متوفرة على الفور ويمكن العثور عليها في الإعدادات. من خلال إلغاء تنشيط التاريخ ، لن تظهر المناقشات المقابلة في الشريط الجانبي ولن تستخدم Openai هذه البيانات لتحسين نماذجها اللغوية. من المفترض أن يكون هذا النهج أبسط من عملية إلغاء الاشتراك الحالية لإدارة البيانات الشخصية.
في مقال مدونة ، أعلن Openai أيضًا عن نسخة مهنية من ChatGPT. سيستفيد العملاء المحترفين من اشتراك يوفر لهم المزيد من التحكم ، استنادًا إلى قواعد API. كما أنه ينص صراحة على أن مدخلات المستخدم لن يتم استخدامها للتسبب في نماذج ، والتي ستتجنب المشاكلمثل Samsung.
من الواضح أن إعلانات Openai تستجيب لمخاوف المنظمين المسؤولة عن حماية البيانات. يبدو أن الإجراءات قيد التقدم في العديد من البلدان ، مع حظرها في إيطاليا كأعلى نقطة ، هي سبب هذه التغييرات. كان أحد المظالم الرئيسية أن المستخدمين لم يعرفوا بوضوح البيانات الشخصية التي تمت معالجتها بواسطة ChatGPT.
متوفر مرة أخرى في إيطاليا
بعد هذه التعديلات ،Chatgpt متاح مرة أخرى في إيطاليا، كما أكدت هيئة حماية البيانات الضمان.
ناقش Openai أيضًا حماية القاصرين ، وهي مشكلة أثارها الضامن. يجب على المستخدمين الإيطاليين الآن تأكيد أنهم أكثر من 18 عامًا أو أكثر من 13 عامًا وترخيص والديهم قبل استخدام الخدمة.
المقال الأصلي من 31 مارس 2023:
اليضمن، المنظم الإيطالي من حيث حماية البيانات الشخصية ، قرر حظرchatgpt، تم تطوير chatbot بواسطة Openai ، بسبب المخاوف بشأن جمع واستخدام بيانات المستخدم الشخصي.
توقف فوري
في البيان الصحفي الرسمي ، يتم صدور التوقف الفوري لـ ChatGpt "حتى يتوافق مع قواعد السرية»:
توقف عن الدردشة حتى يحترم اللوائح المتعلقة بالسرية. أمر الضامن ، بتأثير فوري ، القيد المؤقت لمعالجة البيانات من المستخدمين الإيطاليين (...) في نفس الوقت ، فتحت السلطة التحقيق.
لا يرتبط الحظر بحدث معين. ومع ذلك ، تجدر الإشارة إلى أنه يحدث بعد عيب أمني تسبب في العديد من الاختلافات في مارس 2023. في 22 مارس ، أعلن Openai ، صاحب ChatGPT ، أنه قام بتصحيح خطأ مسؤول عن ""مشكلة كبيرة»السماح للمستخدمين بعرض عناوين محادثات المستخدمين الآخرين. أدت هذه الثغرة الأمنية أيضًا إلى عرض إرادي لمعلومات الدفع مقابل 1.2 ٪ من مستخدمي ChatGPT Plus ، وهي خدمة اشتراك تبلغ تكلفتها 20 دولارًا شهريًا تقدم ميزات إضافية وسرعة أفضل للعلاج.
اليضمنأثارت حماية البيانات الإيطالية مخاوف بشأن Openai و ChatGPT ، لا سيما عدم وجود المعلومات المقدمة للمستخدمين على جمع بياناتهم ، وغياب الأساس القانوني لجمع وتخزين البيانات الشخصية ، والاستجابات غير دقيقة من chatgpt وعدم الكفاءة الشيكات العمرية (يحظر chatbot لأقل من 13). أمام Openai 20 يومًا للاستجابة واتخاذ تدابير تصحيحية ، بموجب عقوبة من غرامة تصل إلى 20 مليون يورو أو 4 ٪ من دورانها العالمي السنوي.
هل يمكن أيضًا حظر ChatGPT في فرنسا؟
يمكن أن يفتح حظر ChatGPT في إيطاليا الطريق إلى الدراسات الاستقصائية المماثلة في العديد من البلدان الأوروبية ، لأن لوائح حماية البيانات العامة (GDPR) هي التشريعات الأوروبية. وبالتالي ، يمكن للسلطات الفرنسية الاعتماد على الإيطالية السابقة لفحص امتثال ChatGPT في متطلبات RGPD. نظرًا لأن التشريع يتم تنسيقه على نطاق أوروبي ، فإن المشكلات التي يثيرها الضامن الإيطالي قد تهتم أيضًا فرنسا.
يمكن أن يشجع هذا الموقف CNIL ، السلطة الفرنسية المسؤولة عن حماية البيانات ، على إجراء دراسة استقصائية مماثلة لضمان معالجة البيانات الشخصية للمستخدمين الفرنسيين وفقًا لقواعد RGPD. إذا قررت السلطات الفرنسية فرض انسداد ، فقد تتطلب من Openai الامتثال لمتطلبات معينة قبل السماح بالوصول إلى الخدمة في فرنسا مرة أخرى.
سياق أوسع من المخاوف والمناقشات
يأتي هذا القرار بحظر Chatgpt في إيطاليا بعد أيام قليلة من نشررسالة مفتوحة حيث مئات الخبراء في الذكاء الاصطناعي والأخلاقطالب باستراحة في تطوير أنظمة الذكاء الاصطناعي. تبرز الرسالة المخاوف المتزايدة بشأن تأثير IA المحتمل على الخصوصية والأمن والمجتمع بشكل عام. تعتقد الموقعون في هذه الرسالة المفتوحة أنه من الأهمية بمكان قضاء الوقت لتقييم المخاطر والآثار الأخلاقية المرتبطة بهذه التقنيات قبل نشرها على نطاق واسع.
لذلك يبدو أن حظر ChatGPT في إيطاليا جزء من سياق أوسع من المخاوف والمناقشات حول الطريقة التي ينبغي تنظيم أنظمة الذكاء الاصطناعى والتحكم فيها لضمان حماية البيانات والامتثال للحقوق الأساسية للمستخدمين.