العديد من وظائف الذكاء الاصطناعي، والتي تكون في بعض الأحيان أكثر تجريبية، لا يتم نشرها في فرنسا وبشكل عام في الاتحاد الأوروبي. موضوع النقاش: التشريع الذي لا يشجع الشركات الكبيرة على إطلاق أدوات الذكاء الاصطناعي الخاصة بها في القارة القديمة. نظرة عامة على ما يتم حظره وكيف يمكنهم حل هذه المشكلة.
في كثير من الأحيان علىفراندرويد، نورد التطورات فيChatGPT,مساعد الطيار,تَوأَم، منتصف الرحلة، الخ. في بعض الأحيان تكون هذه ميزات تجريبية لعدد قليل من المستخدمين، وفي أحيان أخرى يتم إطلاقها عالميًا تقريبًا. وفي كثير من الأحيان، نتخلف عن الركب منطقة جغرافية: الاتحاد الأوروبي الذي يضم 27 دولة، بما في ذلك فرنسا، ولكن أيضًا أصدقاؤنا الناطقون بالفرنسية في بلجيكا. ويحدث أيضًا أن المنتجات الجديدة لا تصل إلا بعد عدة أشهر من البلدان الأخرى.
ما الذي يفسر كل هذا؟ الجواب الرئيسي في الحقيقة: التشريع الأوروبي. إليكم السبب "أوروبا متأخرة في مجال الذكاء الاصطناعي التوليدي».
اللائحة العامة لحماية البيانات، وقانون الأسواق الرقمية، وقانون الذكاء الاصطناعي: التشريعات الأوروبية مزعجةجاما
تتطلب العديد من القوانين الأوروبية من الشركات الكبيرة التكيف إذا كانت ترغب في نشر أنظمة الذكاء الاصطناعي الخاصة بها في القارة القديمة.
اللائحة العامة لحماية البيانات
وسنحتفل قريبا بمرور خمس سنوات على ذلكاللائحة العامة لحماية البيانات، دخلت اللائحة العامة لحماية البيانات حيز التنفيذ في 24 مايو 2016 ودخلت حيز التنفيذ في 25 مايو 2018. وهو قانون أصبح الآن أساسيًا لمستخدمي الإنترنت الأوروبيين وقد أحدث العديد من التغييرات، سواء من حيث الشفافية أو من حيث القيود المفروضة على تتبع مستخدمي الإنترنت . يُتهم هذا القانون اليوم بمنع الابتكار، وهو ما تنفيه CNIL: بالنسبة للمفوضية، فهي فكرة مقبولة.
ما هو الإشكال في التدريب والتحسين أماجستير(نموذج لغة كبير، أي محرك chatbot)، هذه هي مجموعات البيانات المستخدمة. وقد تحتوي على بيانات شخصية، إما تم جمعها على الإنترنت بواسطة الروبوتات أو تم جمعها من مستخدمي برنامج الدردشة الآلية. وهذا الاستخدام للبيانات هو الذي "يشكل مخاطر على الإنسان، والتي يجب أخذها بعين الاعتبار من أجل تطوير أنظمة الذكاء الاصطناعي» وفقا ل CNIL.
للذهاب أبعد من ذلك
ما هو ماجستير في القانون؟ كيف تعمل محركات ChatGPT وGoogle Bard وغيرها؟
على سبيل المثال،أجبر القانون العام لحماية البيانات Google على تأخير إطلاق سراح بارد، الإصدار الأول من برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي، والذي أفسحت المجال لـ Gemini في ديسمبر الماضي. لذلك، لم تقدم جوجل ضمانات رسمية كافية بشأن حماية البيانات إلى لجنة حماية البيانات الأيرلندية، أي ما يعادل CNIL في فرنسا. علاوة على ذلك، لا يزال من غير الممكن استخدام Gemini بدلاً من Google Assistant على هاتفك الذكي في فرنسا. وفي الوقت نفسه، الشكاوى ضدOpenAIتم تقديمها إلى CNIL.
قانون الأسواق الرقمية
القانون الأسواق الرقميةوهذا يضيف أيضًا تعقيدًا لنشر أدوات الذكاء الاصطناعي التوليدية في أوروبا. فهو أولاً وقبل كل شيء يمثل نهاية التفضيل الذاتي على المنصات: فلم يعد بإمكان جوجل تفضيل خدماتها الخاصة، على سبيل المثال. ما الذي يمكنه فعله باستخدام برنامج الدردشة الآلي الخاص به Gemini، من خلال الترويج لخدماته الأخرى.
من المخاوف الأخرى التي قد تشكلها التشريعات على أدوات الذكاء الاصطناعي التوليدية: إمكانية نقل البيانات. منذ صدور اللائحة العامة لحماية البيانات، يمكننا أن نطلب من أي خدمة نسخة من البيانات الموجودة لدينا. يعمل DMA على توسيع هذا الحق، مما يسمح لمستخدمي الإنترنت بالحصول على إمكانية نقل أفضل للبيانات. لذلك، قد يلزم دمج سجل محادثاتنا مع أحد برامج الدردشة الآلية في برنامج دردشة آخر. أخيرًا، يمكننا أن نذكر نهاية ملفات تعريف الإعلانات المجمعة من العديد من الخدمات. Copilot لـ Microsoft، أو Meta AI لـ Meta، أو حتى Gemini لـ Google: تهدف روبوتات الدردشة هذه إلى تحقيق الربح. ولهذا السبب، فإن الوصفة هي نفسها المستخدمة في الشبكات الاجتماعية أو محركات البحث: بيع بياناتنا الشخصية. ومع ذلك، مع DMA، فإنجامالم يعد بإمكاننا دمج البيانات من العديد من الخدمات لأغراض إعلانية دون موافقة المستخدم. وبالتالي هناك عقبة أخرى.
قانون الخدمات الرقمية
قانون أوروبي آخر دخل حيز التنفيذ مؤخرًا:قانون الخدمات الرقميةأو DSA. يطلب من المنصات تعديل المحتوى بشكل أكثر تفاعلية: يجب ألا يكون أي محتوى غير قانوني على المنصات. أنظمة الإشراف مطلوبة لمعالجة "تقديم الشكاوى في الوقت المناسب وبطريقة غير تمييزية ومجتهدة وغير تعسفية.»
إذا كان DSA يستهدف الشبكات الاجتماعية بشكل أساسي، فيمكننا أن نتخيل امتداده إلى برامج الدردشة الآلية ومولدات الصور، والتي لا ينبغي لها بعد ذلك إنشاء محتوى مضلل. كل ذلك معرض لخطر التعرض لعقوبات مالية باهظة.
قانون الذكاء الاصطناعي
قانون الذكاء الاصطناعي لم يتم التصديق عليه بعدولكن تم اعتماده بشكل نهائي من قبل البرلمان الأوروبي في مارس الماضي. وهو أول نص واسع النطاق حول هذا الموضوع في العالم. ما يثير القلق في المقام الأول هو حقيقة أن الذكاء الاصطناعي التوليدي يجب أن يعهد به إلى الاتحاد الأوروبي قبل طرحه في السوق، مع احترام قواعد الشفافية. إذا أنتجت هذه الأدوات محتوى غير قانوني، فقد تكون العقوبات شديدة.
وينبغي نشر قانون الذكاء الاصطناعي في الجريدة الرسمية قبل نهاية الفصل التشريعي الحالي، أي في يوليو المقبل كحد أقصى. ثم سيدخل حيز التنفيذ بعد 12 شهرا من تاريخ نشره للأنظمة “للاستخدام العام».
إن إطلاق الذكاء الاصطناعي بسرعة كبيرة في أوروبا أمر محفوف بالمخاطر للغاية
والقلق الآخر هو أن برامج الدردشة الآلية ومولدات الصور الأخرى تظل تجريبية تمامًا في الوقت الحالي. وكما ذكرنا سابقًا، يمكن أن تؤدي إلى نتائج غير مشروعة أو حتى خطيرة، لا سيما فيما يتعلق بحماية البيانات الشخصية (لقد كشفت روبوتات الدردشة بالفعل عن بيانات مستخدمين آخرين للمستخدمين). لا يزال الذكاء الاصطناعي التوليدي مليئًا بالأخطاء، كما أن إطلاقه في أوروبا أمر محفوف بالمخاطر.
مع هذه التشريعات الثلاثة، فإن المفوضية الأوروبية والاتحاد الأوروبي بشكل عام وكذلك جمعيات حماية مستخدمي الإنترنت لديها الأسباب لمهاجمة جمام في حالة حدوث انتهاكات. لعدة سنوات حتى الآن (خاصة مع اللائحة العامة لحماية البيانات)، تزايدت الغرامات المفروضة على الخدمات التي نستخدمها كل يوم. لكن ما يتزايد قبل كل شيء هو حجم هذه الغرامات. يصل بعضها إلى مئات الملايين من اليورو، أو حتى أكثر من مليار يورو. ومع قانون الأسواق الرقمية على سبيل المثال، يمكن أن يذهب هذا إلى أبعد من ذلك: ما يصل إلى 10% من حجم مبيعات الشركة العالمية. لم نعد نتحدث بمئات الملايين من اليورو، بل بمليارات الدولارات. ومع ذلك، يرجى ملاحظة أن هذه مبالغ نظرية: في الوقت الحالي لم يتم إصدار أي عقوبة لانتهاك DMA.
كيفية الالتزام بالقوانين الأوروبية لنشر الذكاء الاصطناعي
ما يمنع أكثر هو اللائحة العامة لحماية البيانات. ومع ذلك، لم نفقد كل شيء بالنسبة للشركات ومستخدمي خدماتها. نشرت CNIL مؤخرابعض التوصيات لتطوير الذكاء الاصطناعي التوليدياحترامًا لهذا القانون الأوروبي الذي يحتفل بالذكرى الخامسة لتأسيسه، وكذلك قانون الذكاء الاصطناعي الذي تم اعتماده مؤخرًا، والذي لا يزال يتعين التحقق من صحته قبل دخوله حيز التنفيذ.
ويحدد عدة خطوات في بناء أداة الذكاء الاصطناعي:
- تحديد هدف النظام؛
- تحديد المسؤوليات المختلفة؛
- تحديد الأساس القانوني للتصريح بمعالجة البيانات الشخصية؛
- التحقق مما إذا كان بإمكان الجهة المعنية إعادة استخدام بعض البيانات الشخصية؛
- تقليل البيانات الشخصية المستخدمة؛
- تحديد فترة الاحتفاظ؛
- إجراء تحليل تأثير حماية البيانات.
ومع ذلك، يبدو أن وضع Gamam يتحسن: Gemini 1.5 Pro، أحدث إصدار من Google LLM، متوفر في فرنسا.أحدث الإعلانات من OpenAIلا تستبعد السوق الأوروبية أيضًا:GPT-4o متاح هنا وعبر المحيط الأطلسي.
عرضنا على Twitch SURVOLTÉS، كل يوم أربعاء من الساعة 5 مساءً حتى 7 مساءً: قابلنا للحديث عن السيارات الكهربائية أو الدراجات الكهربائية، حول المناقشات والمقابلات والتحليلات والألعاب!
فهم كل شيءقانون الأسواق الرقمية
- 10 روابط زرقاء وهذا كل شيء: يعود Google إلى الأساسيات لبعض عمليات البحث التي يجريها
- وتواجه شركة أبل غرامة قدرها 35 مليار يورو في أوروبا
- هل سيتم إدانة شركة Apple لعدم امتثالها للوائح الأوروبية بسبب جهاز iPad؟
- Waze، Google Maps، Citymapper... أبل تعلن عن أخبار سارة جدًا لمستخدمي iPhone
- تتوفر Fortnite وFall Guys وRocket League على iPad: إليك كيفية تثبيتها