وقد تعهدت العديد من الشركات الكبرى التي تعمل في مجال الذكاء الاصطناعي التوليدي بالتزامات للبيت الأبيض. إنهم يريدون تطوير التكنولوجيا لتحديد المحتوى الناتج عن أدواتهم. في الوقت الحالي، تظل كيفية عمل ذلك غير واضحة تمامًا.
من أعظم الأخطارآياتوليدي هو أنه يمكن أن يضلل المواطنين: هذه هي ملاحظة جميع الإدارات العامة في العالم. علاوة على ذلك، فإنهم يدرسون تحديد التزامات للشركات التي تقوم بتسويق أدوات الذكاء الاصطناعي. واستجابة لذلك، بدأت الأخيرة في الالتزام بمزيد من الشفافية في المحتوى الذي يتم إنشاؤه. هذا هو الحالOpenAI,مايكروسوفت,جوجل,ميتا,أمازون,أنثروبيوالانعطاف. ووقعت هذه الشركات السبع التزامًا طوعيًا مع إدارة بايدن هاريس من أجل “تطوير الذكاء الاصطناعي المسؤول».
تلتزم الشركات الكبرى بمزيد من الشفافية في المحتوى الناتج عن الذكاء الاصطناعي الخاص بها
فيبيان صحفيوأشار البيت الأبيض إلى أن هذه الشركات السبع وكذلك إدارة بايدن هاريس وقعت اتفاقا يلتزم بها طوعا أولا".للمساهمة في التطوير الآمن والمأمون والشفاف لتكنولوجيا الذكاء الاصطناعي.» بالنسبة للحكومة الأمريكيةتتحمل الشركات التي تعمل على تطوير هذه التقنيات الناشئة مسؤولية ضمان سلامة منتجاتها.» إذن هناك ثلاث كلمات رئيسية: السلامة والأمن والثقة.
فكرة هذه الاتفاقية هي التحكم في مشاركة النصوص والصور ومقاطع الفيديو والأصوات الناتجة عن الذكاء الاصطناعي. كما يكتب OpenAIمدونته, «تدرك الشركات التي تلتزم بهذا الالتزام أن أنظمة الذكاء الاصطناعي قد تظل تعاني من نقاط ضعف ونقاط ضعف، حتى بعد التحليل المتعمق» وبشكل أعم بعد طرحها في الأسواق. ويجب التحقق من صحة هذا المحتوى على أنه تم إنشاؤه بواسطة أداة وليس بواسطة إنسان، مع عدم تضليل المواطنين. في عدسة الكاميرا للبيت الأبيض، "التزييف العميق» مقاطع فيديو، تسمح على سبيل المثال بجعل الرئيس جو بايدن يقول ما تريد.
وسيجتمع الأخير مع هذه الشركات مع الكونغرس لاستجوابها. الهدف هو وضع مرسوم بالإضافة إلى قانون للتحكم بشكل أفضل في الذكاء الاصطناعي. وقد وقع جو بايدن بالفعل على مرسوم يأمر "للوكالات الفيدرالية للقضاء على التحيز في تصميم واستخدام التقنيات الجديدة، بما في ذلك الذكاء الاصطناعي، ولحماية الجمهور من التمييز الخوارزمي.»
كيف "العلامة المائية» السيطرة ستعمل: ليس واضحا بعد
تعتزم الشركات المعنية اختيار "العلامة المائية»، علامة توضع على جميع المحتويات بحيث يشار إليها على هذا النحو. ويجب أن يشير إلى أداة الذكاء الاصطناعي التي تم استخدامها أثناء عملية الإنشاء. وترحب الحكومة الأميركية بهذه المبادرة، مؤكدة على أن “يسمح هذا الإجراء بازدهار إبداع الذكاء الاصطناعي مع تقليل مخاطر الاحتيال والخداع.»
ومع ذلك، لم يتم ذكر أي حلول تقنية ملموسة. وقد تم بالفعل اتخاذ الإجراءات الأولية من قبل بعض الشركات، ولكن على أساس كل حالة على حدة.آرس تكنيكايحكي قصة اعتقال مزيف لدونالد ترامب عبر لقطات مزيفة تم إنشاؤها بواسطة Midjourney والتي انتشرت بسرعة. قام المختبر الذي يحمل نفس الاسم بحظر مؤسس منظمة Bellingcat Eliot Higgins غير الحكومية،الذي خلقهم.
ما يذكره OpenAI، على سبيل المثال، هو تنفيذ الأدوات أو واجهات برمجة التطبيقات “لتحديد ما إذا كان قد تم إنشاء جزء معين من المحتوى» مع نظام الذكاء الاصطناعي. بين السطور، نفهم أنه على سبيل المثال، إذا قرأنا مقالًا على الإنترنت، فيمكننا أن نسأل OpenAI عما إذا كان مكتوبًا بواسطةChatGPT. نفس الشيء بالنسبة لـ Midjourney: سيكون نظام البحث العكسي متاحًا لمعرفة ما إذا كانت الصورة المعنية قد تم إنشاؤها بواسطة هذا الذكاء الاصطناعي. لن تتضمن هذه الأنظمة معلومات حول المستخدم الذي أنشأ المحتوى.
على الجانب جوجل، علىمدونتهتشير الشركة إلى أنها تريد دمج العلامة المائية والبيانات الوصفية قريبًا في أدواتها التوليدية. زر "حول هذه الصورة» ستتم إضافتها إلى محرك البحث لمعرفة سياق الصورة وكذلك أول مرة تم نشرها على الإنترنت.
تدابير أخرى خطط لها مبدعو الذكاء الاصطناعي التوليدي
بالإضافة إلى التنفيذ المستقبلي للعلامات المائية المذكورة، وافقت OpenAI وMicrosoft وGoogle وMeta وAmazon وAnthropic وInflection على تنفيذ اختبارات داخلية وخارجية بشكل منهجي قبل إتاحتها للجمهور. وسيتم تنفيذها من قبل خبراء مستقلين. وقال الجميع أيضًا إنهم يستثمرون المزيد في الأمن السيبراني وأنه سيتم تعزيز الإبلاغ عن نقاط الضعف. وفيما يتعلق بهذه النقطة الأخيرة، فإن الشركات المعنية ستضع "برامج المكافآت أو المسابقات أو الجوائز لتحفيز الكشف المسؤول عن نقاط الضعف، مثل السلوك غير الآمن».
كما أن هذه الشركات "الالتزام بمشاركة المعلومات حول إدارة مخاطر الذكاء الاصطناعي عبر الصناعة والحكومات والمجتمع المدني والأوساط الأكاديمية»، يحدد البيت الأبيض. يتضمن ذلك الإبلاغ عن القدرات والقيود ومجالات الاستخدام المناسبة وغير المناسبة والمخاطر المجتمعية (التأثيرات على العدالة والتحيز) لأنظمة الذكاء الاصطناعي.
عواقب الذكاء الاصطناعي في جميع أنحاء العالم
وفوق كل هذا أعلنت إدارة بايدن هاريس العمل مع الحكومات الشريكة “إنشاء إطار دولي قوي يحكم تطوير واستخدام الذكاء الاصطناعي.» ومن بين الدول التي تحدثت معها أستراليا، البرازيل، كندا، تشيلي، ألمانيا، كوريا الجنوبية، الإمارات العربية المتحدة، فرنسا، الهند، إسرائيل، إيطاليا، اليابان، كينيا، المكسيك، نيوزيلندا، نيجيريا، هولندا، الفلبين، سنغافورة. والمملكة المتحدة. كما أوضحت الحكومة الأمريكية أنها تجري محادثات مع الأمم المتحدة والدول الأعضاء فيها.
وجرت هذه المناقشات بالتوازي مع تطويرقانون الذكاء الاصطناعي، النص التشريعي للاتحاد الأوروبي. كما أنه يوفر اللوائح المتعلقة بالذكاء الاصطناعي التوليدي. ويرغب البرلمان ومجلس الاتحاد الأوروبي في اعتماد النص النهائي قبل عام 2024.