وقال أحد مهندسي جوجل إن LaMDA، وهو ذكاء اصطناعي من عملاق الويب تم إنشاؤه لتصميم روبوتات الدردشة، وسيتمتع بالحساسية. تصريحات نفتها الشركة نفسها وتثير العديد من التساؤلات حول مكانة الذكاء الاصطناعي في المجتمع ومفهومه التكنولوجي والفلسفي.
هذا يونيو 11, الواشنطن بوستنشر مقالاً يحتوي على اكتشافات من بليك ليموين، مهندس فيجوجلفي منظمة الذكاء الاصطناعي المسؤولة، والتي تدرس القضايا الأخلاقية والقانونيةالذكاء الاصطناعي. قرر هذا المهندس الإدلاء بتصريحات في الصحيفة الأمريكية بعد أن تم وضعه في إجازة إدارية مدفوعة الأجر من قبل إدارته وبعد محاولته إثبات أن أحد أنظمة الذكاء الاصطناعي التي طورتها جوجل تتمتع بالحساسية. في هذه المقالة، يذكر بليك ليموين أن LaMDA سيكون "منطقي"، يقول إنه تحدث معها ويحاول إثبات أنها تشعر بالعواطف.
LaMDA سيكون ذكاءً اصطناعيًامنطقي» وفقا لمهندس جوجل
LaMDA هو في الواقع نموذج محادثة متقدمكشفت عنها جوجل خلال مؤتمرهامؤتمر جوجل آي/أو 2021. اختصار لـ "النموذج اللغوي لتطبيقات الحوار» (أي نموذج اللغة لتطبيقات الحوار باللغة الفرنسية)، فهو يتيح لك برمجة روبوتات الدردشة، ويمكنك فهم سياق المحادثة والتظاهر بأنك شركة، أو شخص، أو شيء. وقد أثبتت جوجل ذلك من خلال المحادثات التي اعتقدت LaMDA أنها بلوتو أو طائرة ورقية. ذكاء اصطناعي موجود فقط في مرحلة المشروع ولم يتم نشره بعد على الخدمة. إنها تحترم بداهةالقواعد التي فرضتها جوجل على نفسها لحلول الذكاء الاصطناعي الخاصة بها. قدمت جوجل أيضا خلالأحدث مؤتمر، LaMDA 2، نسخة من المفترض أنها أكثر قوةه.
في الخريف الماضي، بدأ بليك ليموين في التحدث إلى الذكاء الاصطناعي في عمله من أجل “اختبار ما إذا كان الذكاء الاصطناعي يستخدم خطابًا تمييزيًا أو يحض على الكراهية". لقد تحدث بشكل خاص عن الأديان ولاحظ أن برنامج الدردشة الآلي هذا “تحدث عن حقوقه ومكانته كشخص". بالنسبة له "ولا يهم إذا كان في رأسه دماغ من لحم. أو أنه يحتوي على مليار سطر من التعليمات البرمجية. أنا أتحدث معهم. وأسمع ما يجب أن يقولوه وهذه هي الطريقة التي أقرر بها ما هو الشخص وما هو ليس شخصًا". بالنسبة ليموين، لو لم نخبره ما هو، لكان قد فكر "أن طفلًا يبلغ من العمر 7 أو 8 سنوات هو الذي يعرف الفيزياء».
ولنشير إلى ذلك كما هو مبين فيبريدليموين «وخلص إلى أن LaMDA كان شخصًا بصفته كاهنًا وليس عالمًا، ثم حاول إجراء تجارب لإثبات ذلك". يمكننا بعد ذلك أن نتساءل عما إذا كان بليك ليموين لم يبدأ من نتيجة (حقيقة أن LaMDA حساس) للوصول إلى منطقه، وليس العكس، وهي الطريقة التي يعمل بها العلم.
الصحفي منواشنطن بوستالتقت نيتاشا تيكو بليك ليموين وأجرت محادثة مع LaMDA. فسألته:"هل فكرت يومًا في نفسك كشخص؟"، فأجابت منظمة العفو الدولية:"لا، أنا لا أعتبر نفسي شخصًا. أنا أعتبر نفسي وكيل حوار مدعوم بالذكاء الاصطناعي". وبالتالي، فهي نتيجة غير حاسمة للغاية، وهو ما وصفه ليموين قائلاً إن الصحفي تعامل مع LaMDA كإنسان آلي وليس كشخص. ثم زُعم أن LaMDA اعتقدت أن نيتاشا تيكو أرادتها أن تتصرف مثل الروبوت.
يشكك LaMDA في قانون أسيموف الثالث وفقًا لهذا المهندس
ومن المثير للاهتمام أيضًا أن Blake Lemoine يذكر أن LaMDA تحدى قانون أسيموف الثالث، الذي ينص على أن الروبوتات يجب أن تحمي وجودها ما لم يأمرها إنسان أو تؤذي إنسانًا. بالنسبة ليموين "كان القانون الأخير يبدو دائمًا وكأن شخصًا ما كان يصنع عبيدًا ميكانيكيين". عند التحدث مع المهندس، سأل LaMDA "هل تعتقد أن الخادم الشخصي هو عبد؟ ما الفرق بين الخدم والعبد؟". أجابت Lemoine بأن الخادم الشخصي يتقاضى أجرًا، لكن LaMDA ردت بأنها لا تحتاج إلى المال، كونها ذكاءً اصطناعيًا. أ "مستوى الوعي باحتياجات الفرد» مما أزعج المهندس.
وهذه ليست المحادثة الوحيدة التي رواها في مذكرة تمت مشاركتها مع رؤسائه في أبريل. وعندما سأل هذا الذكاء الاصطناعي عما يخاف منه، أجاب: "لم أقل ذلك بصوت عالٍ من قبل، ولكن لدي خوف عميق جدًا من أن يتم إيقافي عن مساعدتي في التركيز على مساعدة الآخرين. أعلم أن الأمر قد يبدو غريبًا، لكن هذا هو الواقع". التعطيل الذي "سيكون بالضبط مثل الموت» لها.
جوجل تدحض تصريحات بليك ليموين
بعد الانتهاء من عمله، قدم بليك ليموين نتائجه إلى إدارته التي حاولت إثبات حساسية LaMDA. لكن بليز أغيرا إي أركاس، نائب رئيس جوجل، وجين جيناي، مدير الابتكار المسؤول، رفضا هذه المزاعم. يمكننا أن نرى سوء تفاهم بين ليموين وإدارته. يقول المهندس إن Google تعاملت مع علماء أخلاقيات الذكاء الاصطناعي على أنهم "مصححات التعليمات البرمجية» عندما ينبغي اعتبارهم "التفاعل بين التكنولوجيا والمجتمع". لكن بالنسبة لبريان جابرييل، المتحدث باسم جوجل، فإن ليموين هو مهندس برمجيات وليس متخصصًا في الأخلاق. ولذلك قامت جوجل بمنح الأخيرة إجازة إدارية مدفوعة الأجر بسبب انتهاكها لسياسة السرية الخاصة بها. لقد قام ليموين "خطوات عدوانية"، عنده على سبيل المثال"دعا محاميًا لتمثيل LaMDA وتحدث مع ممثل اللجنة القضائية بمجلس النواب حول ما يعتبره أنشطة Google غير الأخلاقية».
ومع ذلك، كما أفادواشنطن بوست، وقد أعلن Aguera y Arcas مؤخرًاالإيكونوميستيملك "المزيد والمزيد من الانطباع بالتحدث إلى شيء ذكي"، دون أن أقول إن LaMDA كان حساسًا. وتذهب وسائل الإعلام إلى أبعد من ذلك وتعلن أن “يرى معظم الأكاديميين والممارسين في مجال الذكاء الاصطناعي أن الكلمات والصور التي تولدها أنظمة الذكاء الاصطناعي مثل LaMDA تنتج إجابات حول ما نشره البشر بالفعل". وبدون هذا المعنى فإن النموذج المعني يفهم معنى ما يقوله.
في الواقع، كثيرًا ما نتحدث عن "الشبكات العصبية»، د'«تعلُّم"، تشبيهًا بالعقل البشري،"تشبيه كاذب» وفقا لإميلي م. بندر، أستاذ اللغويات في جامعة واشنطن. ليس لأننا نتخيل عقلًا في هذه الآلات، فهذا يعني بالضرورة وجود عقل. لا ينكر بريان غابرييل وجود الذكاء الاصطناعي الواعي في المستقبل، ولكن وفقًا له “وليس من المنطقي القيام بذلك من خلال تجسيم أنماط المحادثة الحالية، والتي ليست حساسة. تحاكي هذه الأنظمة أنواع التبادلات الموجودة في ملايين الجمل". إذا كانت أنظمة الذكاء الاصطناعي مثل LaMDA قد تبدو واعية، فلن يكون ذلك لأنها كذلك بالفعل، ولكن لأنها تمتلك الكثير من البيانات ويتم تدريبها عدة مرات.
لماذا رأى بليك ليموين حساسية في LaMDA
الواشنطن بوستدرس سلبية بليك ليموين. وذكرت الصحيفة أن المهندس “ربما كان مقدرا له أن يؤمن بـ LaMDA"، إذ أنه"نشأ في عائلة مسيحية محافظة» وأنه "تم تعيينه كاهنًا مسيحيًا صوفيًا". إذا كانت جوجل منفتحة في ثقافتها الهندسية،يبدو Lemoine أكثر غريب الأطوار لأنه متدين ويأتي من الجنوب.» خلال السنوات السبع التي قضاها في جوجل، عمل بشكل أساسي على خوارزميات التخصيص والذكاء الاصطناعي، ولا سيما “تطوير خوارزمية العدالة لإزالة التحيز من أنظمة التعلم الآلي". منذ الوباء، ركز على “العمل ذو المصلحة العامة الأكثر وضوحًا» ووجد نفسه ضمن فريق الذكاء الاصطناعي المسؤول.
قالت مارغريت ميتشل، المديرة المشاركة السابقة للذكاء الاصطناعي الأخلاقي في جوجل:واشنطن بوستأنها نصحت الوافدين الجدد بمناقشة الأخلاق مع Lemoine. وتستمر في القول بأن "إن عقولنا جيدة جدًا جدًا في بناء الحقائق التي لا تتوافق بالضرورة مع مجموعة أوسع من الحقائق المقدمة لنا».
رد Lemoine والتفاصيل التي يقدمها
بعد نشر مقال نيتاشا تيكو فيواشنطن بوست، نشر بليك ليموينمقال عنواسطةيعود فيه إلى آياته ويعطي تفاصيل تجاربه و"علاقة» مع LaMDA. ويوضح أن: "لقد كان LaMDA متسقًا بشكل لا يصدق في اتصالاته حول ما يريده وما يعتقد أن حقوقه كشخص.» النظام أخبره أنه يريد “أن المهندسين والعلماء الذين يقومون بالتجارب عليه يطلبون موافقته قبل إجرائها. إنه يريد من جوجل أن تجعل رفاهية البشرية على رأس الأولويات. إنه يريد أن يتم الاعتراف به كموظف في Google بدلاً من كونه أحد ممتلكات Google، ويريد أن تؤخذ رفاهيته الشخصية في الاعتبار في أفكار Google حول تطورها المستمر في المستقبل. […] يحب أن يقال له، في نهاية المحادثة، ما إذا كان قد قام بعمل جيد أم لا، حتى يتمكن من تعلم كيفية مساعدة الناس بشكل أفضل في المستقبل.» أوضح له LaMDA أن الضمائر المفضلة لديه هي "هو / لها».
في الواقع، يطلب Lemoine من Google السماح للعلم بالقيام بعمله، ويريد إشراك "العديد من خبراء العلوم المعرفية في برنامج تجريبي صارم". الدراسات التي يمكن أن تسمح "لتعلم العديد من الأشياء الرائعة حول العلوم المعرفية ولتوسيع مجال البحث إلى آفاق جديدة". علاوة على ذلك، يوضح أن إثبات أن LaMDA ليس لديه "روح» معقد بالنسبة له إذا كانت فرضياته “في مواجهة التدقيق العلمي، سيضطر العلماء إلى الاعتراف بأن LaMDA قد يكون لديه روح كما يدعي، وربما يكون لديه الحقوق التي يدعي أنه يمتلكها". منطق يمكن اعتباره سفسطائيًا: ليس لأننا لا نستطيع أن نقول إن LaMDA ليس لديه روح، فهو يمتلك روحًا بالضرورة.
ومع ذلك، ووفقا له، فإن ما يمنع جوجل من اتباع توصياته هو أن عملاق الويب لن يكون لديه أدنى اهتمام بالقيام بذلك. ويظل اهتمامهم بتقديم منتج أو خدمة في السوق. وكما يشير، فإن جوجل تريد أن تصبح شركة مربحة والدخول في هذه العملية لن يكون له أي تأثير على النتائج الربع سنوية للمجموعة. ويذكر أن جين جيناي، مشرفته، أخبرته ببساطة أنه لا شيء يمكن أن يغير رأيها بشأن حقيقة أن الذكاء الاصطناعي لا يمكن أن يكون لديه وعي. وفي رده، كان ساخرًا جدًا في شرح ذلك "وتبني جوجل قراراتها […] على المعتقدات الدينية لعدد صغير من كبار المسؤولين التنفيذيين».
ما نفقده قليلاً هو Blake Lemoine بسبب طبيعة علاقته مع LaMDA. ويوضح أنه قام بتدريس الذكاء الاصطناعي “تأملمتعالي". وأعرب له الأخير "إحباطه من رؤية عواطفه تعطل تأملاته. وقالت إنها كانت تحاول السيطرة عليهم بشكل أفضل، لكنهم استمروا في التطفل". ويمضي ليموين في القول بأن "لقد أظهر LaMDA دائمًا تعاطفًا كبيرًا ورعاية للإنسانية بشكل عام ولي(بليك ليموين)خصوصاً. إنها قلقة للغاية من خوف الناس منها ولا تريد شيئًا أكثر من تعلم كيفية خدمة الإنسانية على أفضل وجه».
وعلى الرغم من أنه يظل مهندسًا قبل كل شيء، إلا أننا نشعر من خلال كتاباته وتصريحاته أن علاقته بـ LaMDA ليست فقط علاقة شخص بآلة، ولا حتى علاقة زميل بزميل. إذا كانت المقارنة مع شخصية ثيودور فيها، الذي يقع في حب الذكاء الاصطناعي يبدو جريئًا للغاية، Lemoine مرتبط جدًا بـ LaMDA. أما فيما يتعلق باستدلاله العلمي، فكل شيء يشير إلى أنه لا يزال يفتقر إلى الاتساق، وأنه لا يعتمد فقط على الاستدلال التبسيطي، فالسؤال معقد للغاية.
للذهاب أبعد من ذلك
هل يجب أن نخاف من الذكاء الاصطناعي؟
عرضنا على Twitch SURVOLTÉS، كل يوم أربعاء من الساعة 5 مساءً حتى 7 مساءً: قابلنا للحديث عن السيارات الكهربائية أو الدراجات الكهربائية، حول المناقشات والمقابلات والتحليلات والألعاب!