مع القوة العظمى تأتي مسؤولية كبيرة: تضع Google 7 قوانين للذكاء الاصطناعي الخاص بها

حددت جوجل قائمة المبادئ التي تتعهد باحترامها في تطوير حلول الذكاء الاصطناعي الخاصة بها. وتحرص الشركة على إظهار صورة إيجابية بعد أن تعرضت لانتقادات خاصة بسبب مشاركتها في مشروع عسكري مثير للجدل.

بينما ينزف ويستعد للانتقال من الحياة إلى الموت، يرفع بنيامين باركر - المعروف أيضًا باسم "العم بن" - عينيه المتوسلتين إلى ابن أخيه بيتر. وهو مؤلم، وهو يهمس بهذه العبارة الشهيرة التي ستظل علامة مميزة للبطل الخارق سبايدر مان إلى الأبد:«مع القوة العظمى تأتي مسؤولية كبيرة».

وبشكل عرضي، يمكن أن ينطبق هذا المرجع الشهير للثقافة الشعبية على العديد من المجالات. في قطاع التكنولوجيا، على سبيل المثال، تركز الشركات الكبيرة قدرًا كبيرًا من القوة. ومن الواضح أن أفضل مثال يتبادر إلى ذهني هو الغول ذو الألوان الأربعة: Google.

تدرك شركة Mountain View ذلك جيدًا. وبينما تقوم بتطوير حلول الذكاء الاصطناعي لهواتفنا الذكية أو الطب أو الفوز بلعبة Go، تسعى الشركة إلى طمأنة نفسها بحسن نواياها. ولهذا السبب نشرت Google قائمة بالمبادئ التي يجب على مطوريها احترامها وأخذها في الاعتبار دائمًا عند تصميم الذكاء الاصطناعي.

من خلال الادعاء برغبته في إنشاء تقنيات تهدف إلى تحسين الحياة اليومية للأجيال الحالية والمستقبلية، يعترف عملاق الويب أيضًا بأن هذه "تسليط الضوء على التحديات الهامة التي يجب علينا معالجتها بطريقة واضحة ومدروسة وإيجابية". ومن ثم، تضع Google قواعد يجب احترامها من أجل التصرف دائمًا "بمسؤولية» ومن المهم أيضًا التأكيد على مجالات التطبيقات التي تتعهد الشركة بعدم متابعتها أبدًا - من أجل ذلكلا تصبح شريرة بالمعنى التقريبي.

المبادئ السبعة الحاسمة

ولذلك تحدد جوجل 7 مبادئ يجب احترامهامهما كانت التكلفة. تعتقد Google أن الذكاء الاصطناعي يجب أن:

1. كن مفيدًا اجتماعيًا

"عند النظر في التطوير والاستخدامات المحتملة لتقنيات الذكاء الاصطناعي [...]، سنمضي قدمًا حيث نعتقد أن الفوائد الإجمالية المحتملة تفوق بكثير المخاطر والأضرار المتوقعة"، كتبت جوجل قبل أن تتعهد باحترام المعايير الثقافية والاجتماعية والقانونية دائمًا الدول التي تعمل فيها الشركة. وتقول الشركة إنها ستواصل التقييم المدروس لأفضل وقت لإتاحة تقنياتها.دون أخذ الجانب التجاري بعين الاعتبار". صدق أو لا تصدق.

2. تجنب خلق أو تعزيز الأحكام المسبقة غير العادلة

في هذا الجزء يمكننا قراءة ما يلي: “سنسعى إلى تجنب الأحكام المسبقة غير العادلة ضد الأشخاص، ولا سيما تلك المرتبطة بخصائص حساسة مثل لون البشرة أو العرق أو الجنس أو الجنسية أو الدخل أو التوجه الجنسي أو الإعاقة والمعتقدات السياسية أو الدينية”. المعتقدات”.

3. يتم بناؤها واختبارها من أجل السلامة

تلتزم Google ببذل كل ما في وسعها للحفاظ على أنظمة الذكاء الاصطناعي الخاصة بها آمنة قدر الإمكان للحد من أي خطر حدوث ضرر. شركة ماونتن فيو تعد بتطوير تقنياتها "بما يتماشى مع أفضل الممارسات في أبحاث أمان الذكاء الاصطناعي». «حيثما كان ذلك مناسبًا، سنختبر تقنيات الذكاء الاصطناعي في بيئات محظورة ونراقب تشغيلها بعد نشرها"، تضيف.

4. كن مسؤولاً أمام الناس

يمكن دائمًا تحسين الذكاء الاصطناعي من Google بفضل تعليقات المستخدمين التي يعد العملاق بتقديم التفسيرات ذات الصلة بها دائمًا. ستخضع جميع التقنيات لضوابط يقودها الإنسان.

5. دمج مبادئ الخصوصية

«سنقوم بدمج مبادئ الخصوصية الخاصة بنا في تطوير واستخدام تقنيات الذكاء الاصطناعي لدينا"، يؤكد جوجل. من الجيد أن نعرففي سياق اللائحة العامة لحماية البيانات، تم تحديد أنه سيتم دائمًا طلب موافقة المستخدم. "سوف نضمن الشفافية والتحكم المناسبين في استخدام البيانات».

6. الحفاظ على مستويات عالية من التميز العلمي

يعمل هذا الجزء بشكل أساسي على تسليط الضوء على الدقة الفكرية والنزاهة التي يتمتع بها باحثو Google. وتؤكد الشركة أيضًا على روح التعاون من خلال التذكير بأن الذكاء الاصطناعي لديه القدرة على تطوير جميع مجالات البحث العلمي. ولذلك فهو يدعو إلى تبادل المعرفة.

7. أن تكون متاحة للاستخدامات المتوافقة مع المبادئ المبينة أعلاه

يمكن استخدام الذكاء الاصطناعي لشركة جوجل في مجموعة متنوعة من الأغراض، لكن الشركة العملاقة تضمن أنها ستعمل على حظر أي تطبيقات قد تكون ضارة أو مسيئة. ويتم ذلك من خلال تحليل الهدف الرئيسي للمنتج أو الخدمة، والنظر في النطاق الذي سيتم تنفيذه به وتقييم درجة مشاركة Google.

4 ممنوع

وقد تم اختيار جوجل من قبل 3000 من موظفيهالمشاركته في مشروع Maven بالتعاون مع الجيش الأمريكي. يتألف ذلك من تقديم صور تم التقاطها بطائرات عسكرية بدون طيار حتى يمكن تحليلها وتصنيفها بواسطة الذكاء الاصطناعي الذي طورته الشركة المتعددة الجنسيات.حتى أن بعض الموظفين المحتجين استقالوا.

ضربة قاسية لصورة جوجل. ولاستعادة صورتها، تدعم شركة Mountain View أربعة مجالات من التطبيقات التي لا تنوي أو لم تعد تنوي المغامرة فيها فيما يتعلق بالذكاء الاصطناعي. وها هي كما وصفتها الشركة:

  • التقنيات التي تسبب أو من المحتمل أن تسبب ضررًا عالميًا. عندما يكون هناك خطر كبير بحدوث ضرر، فلن نتحرك إلا إذا كنا نعتقد أن الفوائد تفوق المخاطر بكثير، وسنضع قيود السلامة المناسبة؛
  • الأسلحة أو التقنيات الأخرى التي يكون غرضها الأساسي أو تنفيذها هو التسبب بشكل مباشر في إصابة الأشخاص أو تسهيلها؛
  • التقنيات التي تجمع المعلومات أو تستخدمها للمراقبة بشكل ينتهك المعايير المقبولة دوليًا؛
  • التقنيات التي يتعارض غرضها مع مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع.

تقول جوجل إن هذه القائمة القصيرة عرضة للتغيير. لاحظ أيضًا أن الأخير لا يحظر صراحةً التعاون مع الجيش.