"تتحمل OpenAI مسؤولية كبيرة بالنيابة عن البشرية جمعاء"

هل تتعامل شركات التكنولوجيا الكبرى مع الذكاء الاصطناعي باستخفاف شديد؟ وهذا ما يشير إليه على ما يبدو أحد المسؤولين التنفيذيين السابقين في شركة OpenAI، والذي استقال للتو.

ما اسبوع لOpenAI! تم يوم الاثنين الكشف عن الشركة الناشئة المتخصصة في الذكاء الاصطناعينموذجها الجديد متعدد الوسائط، GPT-4o. وفي اليوم التالي، جوجل، المنافس الرئيسي لها،كشف النقاب عن تكنولوجيا مماثلة. علمنا يوم الأربعاء برحيل إيليا سوتسكيفر، أحد مؤسسي الشركة، وجان لايكي، وهو مسؤول تنفيذي رفيع المستوى. وهذا الأخير هو الذي أثار العديد من الأسئلة يوم الجمعة على منصة X.com.

رحيل مدفوع بالقيم

في OpenAI، كان الرجلان على رأسالمحاذاة الفائقة، وهو فريق متخصص في دراسة مخاطر الذكاء الاصطناعي تم تشكيله في يوليو 2023. ثم ضمنت OpenAI تخصيص 20% من موارد تكنولوجيا المعلومات الخاصة بها لهذا الفريق على مدى السنوات الأربع المقبلة.

إذا ظل إيليا سوتسكيفر دافئًا إلى حد ما في رسالة رحيله، فإن جان ليكه يعبر عن المزيد من المرارة في ذلكموضوع الابن العامعلى شبكة التواصل الاجتماعي الخاصة بإيلون ماسك. إذا بدأ بالتعبير عن حبه لفرق OpenAI المختلفة، فإنه يحدد بسرعة أنه "على خلاف مع إدارة OpenAI حول أولويات الشركة الأساسية". السبب: قلة اهتمام الشركة بالأمن والسرية والتأثير الاجتماعي للذكاء الاصطناعي. وهو يأسف لعدم تمكنه من الوصول إلى ما يكفي من القوة الحاسوبية في الأشهر الأخيرة لإجراء بحثه حول هذا الموضوع.

نحو الذكاء الفائق

في الوقت الحاضر، يمكننا أن نتساءل عن المخاطر الحقيقية للذكاء الاصطناعي. في الوقت الحالي، تميل روبوتات الدردشة التي تتصدر العناوين الرئيسية إلى اجترار المعلومات التي تم تعلمها في مجموعة معينة دون الكثير من التفكير، وأحيانًا مع وجود أخطاء جسيمة نطلق عليها "الهلوسة". ولكن بالسرعة التي يتقدم بها هذا الأمر، يمكننا أن نتوقع في السنوات المقبلة (في غضون عقد من الزمان وفقًا لـ OpenAI) وصول ما يسميه الباحثون ""الذكاء الفائق"، أكثر ذكاء من البشر وقادرة على حل المشاكل التي نواجهها اليوم. ووفقا لإيليا وجان، "كما يمكن أن يكون الذكاء الخارق خطيرًا جدًا ويؤدي إلى تحييد البشرية أو حتى انقراضها».

حتى دون الذهاب إلى نهاية رفع الآلات فيالمنهيومن المهم أن نزن جميع العواقب المحتملة لمثل هذا التطور. ونحن نرى هذا بالفعل اليوم مع الأسئلة حول المعلومات المضللة عبر الإنترنت، على سبيل المثال.

وباعتبارهما شخصية رائدة في هذه التطورات، تتحمل كل من OpenAI وGoogle مسؤولية ثقيلة على عاتقهما.باسم الإنسانية جمعاء"، يعبر جان ليك. ومع ذلك، فإنه يأسف لذلك "لقد اتخذت ثقافة وعمليات السلامة مقعدًا خلفيًا أمام المنتجات البراقة».

في الواقع، تبين أن المشكلة اقتصادية وتجارية. في عالم رأسمالي معولم، يعد الذكاء الاصطناعي أكثر من مجرد أداة، بل هو منتج تسويقي. وفي مثل هذا السوق، غالبًا ما تكون مكافأة المتحرك الأول حاسمة. لذلك، من الصعب على شركة ناشئة مثل OpenAI تخصيص الوقت والموارد لتوقع وتأمين المخاطر العامة المعرضة لخطر السرقة من قبل Google (كان أقل من واحد هذا الأسبوع)، Anthropic (الشركة التي تمولها أمازون).خلف منظمة العفو الدولية كلود) أو وافد جديد، من الصين على سبيل المثال.

بالنسبة لجان ليك، "يجب أن تصبح OpenAI شركة تركز على الأمن". في أوروبا، يجب أن ينظم قانون الذكاء الاصطناعي بعض الانتهاكات، لكن لا شك أن الشركة التي تركز على المنتج دون القلق بشأن هذه الاعتبارات ستتاح لها الفرصة للحصول على السبق على جميع منافسيها.