وراء سحر ChatGPT، يتم استغلال العمال الكينيين

التحقيق فيوقتيكشف أنه لجعل ChatGPT أقل سمية، استخدم منشئه OpenAI مقاولًا من الباطن يستغل العمال الكينيين الذين يتقاضون أقل من دولارين في الساعة.

المجلةوقتنشرتالتحقيقحيث يكشف أن OpenAI هي الشركة التي تقف وراءهاChatGPT، استخدم التعاقد من الباطن الكيني لتحسينهالذكاء الاصطناعيلجعلها أقل سمية. يتم استغلال العمال المشاركين ويتقاضون أقل من دولارين في الساعة. فضيحة جديدة في عالم التكنولوجيا تظهر مرة أخرى أن الذكاء الاصطناعي يحتاج إلى تحسين البشر، لكن الشركات الكبيرة ليست مستعدة بعد لتخصيص الموارد.

تم تعلم GPT-3 من البشر ويمكن أن يكون عنيفًا

الملاحظة الأولى لوقتهو النموذج الذي صنعته OpenAI: GPT-3، نموذج اللغة الذي يعتمد عليه ChatGPT، تم تغذيته بمئات المليارات من الكلمات والتعبيرات المنشورة على الإنترنت. تتمثل أعظم قدراته في قدرته على التنبؤ بالكلمة التي تأتي بعد الأخرى، مما يسمح له بربط الجمل المنطقية معًا (على الرغم من بقاء التقديرات التقريبية أو الأخطاء). ومع ذلك، كما هوانها تلهمالبشر، يمكن أيضًا أن تكون عنيفة، ومتحيزة جنسيًا، وعنصرية: قوتها هي أيضًا نقطة ضعفها.

مشكلة كبيرة مثلت عائقًا أمام OpenAIفي رغبتها في بيع حلها للشركات الرقمية الكبيرة. ويواصل الصحفي بيلي بيريجو بالتذكير بأن "لم تكن هناك طريقة سهلة لمسح هذه الأقسام من بيانات التدريب. حتى أن فريقًا مكونًا من مئات البشر قد يستغرق عقودًا من الزمن للتدقيق يدويًا في مجموعة البيانات الهائلة هذه».

أنشأت OpenAI ذكاءً اصطناعيًا قادرًا على اكتشاف التعليقات السامة

ومع ذلك، تمكنت OpenAI من وضع آلية أمنية مدعومة بالذكاء الاصطناعي لجعل برنامج الدردشة الآلي الخاص بها متاحًا لجميع مستخدمي الإنترنت. وهذا ليس الأول من نوعه: فقد عملت الشبكات الاجتماعية منذ عدة سنوات على "الذكاء الاصطناعي قادر على اكتشاف التعليقات السامة، مثل خطاب الكراهية، من أجل إزالتها من منصاتهم».

وللقيام بذلك، تزود OpenAI نموذجها بأمثلة للنصوص العنيفة والعنصرية والجنسية، وما إلى ذلك. نموذج مدمج في ChatGPT لتصفية البيانات التي يستخدمها والتي يمكن استخدامها في أدوات أخرى أو الذكاء الاصطناعي، مثل GPT-4.

استغلال العمال الكينيين لتدريب الذكاء الاصطناعي

المعلومات الرئيسية من التحقيقوقتيكمن في حقيقة أن "أرسلت OpenAI عشرات الآلاف من المقتطفات النصية إلى شركة الاستعانة بمصادر خارجية في كينيا، بدءًا من نوفمبر 2021". وقد تكون هذه النصوص مأخوذة من "أحلك زوايا الإنترنت. وصف البعض المواقف بقدر كبير من التفصيل مثل الاعتداء الجنسي على الأطفال، والبهيمية، والقتل، والانتحار، والتعذيب، وإيذاء النفس، وسفاح القربى"، يكتب بيلي بيريجو.

الشركة التي كلفتها شركة OpenAI هي شركة Sama، ومقرها في سان فرانسيسكو، والتي وظفت موظفين في كينيا وأوغندا والهند. هي "ملصق» البيانات التي تم تحديدها على أنها عنيفة لـ "GAMAM":جوجل,ميتا,مايكروسوفتمن بين أمور أخرى. وفي الحجج التجارية التي قدمتها سما عبر موقعها، علمنا أنها “أخلاق مهنية» وتقول إنها تقوم بتجنيد وتدريب عملائها،مما له تأثير مباشر على آفاقهم المهنية". وتدعي الشركة أيضًا أنها انتشلت أكثر من 50 ألف شخص من الفقر.

الحقيقة التي روتها المجلةوقتمختلف تماما. ال "واضعي البيانات» من سما لـ OpenAI «حصل على راتب صافي يتراوح بين 1.32 دولارًا و2 دولارًا في الساعة، اعتمادًا على الأقدمية والأداء» بعد الضرائب، يمكننا أن نقرأ في مقالته. وتمكنت المجلة من الاطلاع على ثلاثة عقود موقعة بين OpenAI وSama، بمبلغ إجمالي يقارب 200 ألف دولار.لتسمية الأوصاف النصية للاعتداء الجنسي وخطاب الكراهية والعنف.» غير أن العقود «اشترطت شركة OpenAI أن تدفع لمؤسسة سما أجرًا قدره 12.50 دولارًا بالساعة مقابل العمل". وهذا أعلى بكثير من الأجر الفعلي للموظفين الكينيين، والذي كان حوالي 170 دولارًا شهريًا، مع مكافأة شهرية تبلغ حوالي 70 دولارًا.نظرًا لطبيعة عملهم الصريحة، وكانوا يحصلون على العمولة مقابل تحقيق مؤشرات الأداء الرئيسية مثل الدقة والسرعة».

ومن المفارقات أن تحالف المنظمات حول شراكة الذكاء الاصطناعي في مجال الذكاء الاصطناعي، التي تنتمي إليها OpenAI، قد أشار بالفعل إلى ما يلي: "على الرغم من الدور الأساسي الذي يلعبه هؤلاء المتخصصون في إثراء البيانات، فإن مجموعة متزايدة من الأبحاث تكشف عن ظروف العمل المحفوفة بالمخاطر التي يواجهها هؤلاء العمال». الوقتوقال إنه لا يعرف ما إذا كانت شركة OpenAI قد عملت مع شركات أخرى متخصصة في وضع العلامات. ومع ذلك، أقر متحدث باسم OpenAI بأن الشركة استخدمت Sama للعمل على أداة الكشف عن المحتوى السام المدمجة مع ChatGPT.

يعترف ChatGPT بفتور باستخدام التعاقد من الباطن لوضع العلامات على بياناته // المصدر: Frandroid

لقد سألنا ChatGPT نفسه عما إذا كان يستخدم العاملين لتسمية البيانات المستخدمة للإجابة على استفساراتنا. أخبرنا برنامج الدردشة الآلي أنه من الممكن أن تكون البيانات المستخدمة لتدريبه قد تم تصنيفها بواسطة عاملين بشريين، وهو "ضروري بشكل عام". وأضاف أنه لسوء الحظ لم يكن لديه “الوصول إلى معلومات مفصلة عن عمليات تصنيف البيانات المستخدمة[…]،ولا عن العمال الذين شاركوا في هذه العملية».

ظروف العمل الصعبة نفسياً

وبالإضافة إلى الدخل المنخفض للغاية لهؤلاء المقاولين من الباطن، أصيب بعضهم باضطرابات نفسية بسبب هذا العمل. هكذا قال عامل من سما لـوقت«أنه يعاني من الرؤى المتكررة بعد قراءة وصف تفصيلي لرجل يمارس الجنس مع كلب بحضور طفل صغير". بالنسبة له "لقد كان تعذيباً».

قامت ثلاثة فرق مكونة من اثني عشر شخصًا بتقسيم هذه الأنواع من المحتوى: كان عليهم قراءة وتسمية ما بين 150 إلى 250 مقطعًا نصيًا يوميًا (تسع ساعات). مقاطع تتراوح من مائة كلمة إلى أكثر من ألف. أربعة موظفين تمت مقابلتهم بواسطةوقتأعلن "أن يكون قد تأثر ذهنياً بهذا العمل". لو تمكنوا من استشارة المستشارين في "الرفاه"، وأكد الجميع أن"لم تكن هذه الجلسات مفيدة وأنها كانت نادرة بسبب المتطلبات العالية لتكون أكثر إنتاجية في العمل". كما تم رفض بعض طلبات الاستشارة من قبل إدارة مؤسسة النقد العربي السعودي. وهو الموقف الذي نفىه المتحدث باسم الشركة. "كان من الممكن الوصول إلى هؤلاء المعالجين في أي وقت.»، فهو يتناقض.

موقع سما // المصدر : Frandroid

الوقتوتشير إلى أنه اعتباراً من فبراير 2022، بدأت سما في “جمع الصور الجنسية والعنيفة، وبعضها غير قانوني بموجب قانون الولايات المتحدة، لتقديمها إلى OpenAI» كجزء من مشروع GPT-3/ChatGPT منفصل. يعمل OpenAI على أدوات أخرى غير النصوص، مثلواحد يسمح لك بإنشاء نماذج ثلاثية الأبعاد من النص. يُزعم أن سما سلمت 1400 صورة إلى OpenAI، أظهر بعضها الاعتداء الجنسي على الأطفال، وممارسة البهيمية، والاغتصاب، والاستعباد الجنسي، وحتى إصابات جسدية خطيرة. خدمة طلبتها سما بمبلغ 787.50 دولارًا.

ينفي OpenAI والمقاول من الباطن ذلك

وأوضح مراسل مؤسسة ساما أنه يتعين على العمال وضع علامة على 70 معبرًا يوميًا (وليس 250) وأنهم يمكنهم كسب ما يصل إلى 3.74 دولارًا في الساعة بعد خصم الضرائب.

وعلى جانب OpenAI، أعلن متحدث باسم OpenAI أنه لم يكن لديه "تحديد أهداف الإنتاجية وأن سما كانت مسؤولة عن إدارة المدفوعات وترتيبات الصحة العقلية للموظفين". وأضاف أنه يفهم أن "يمكن للعاملين الانسحاب من جميع الأعمال دون التعرض للعقوبات، وأن التعرض للمحتوى الصريح كان محدودًا، وأن المعلومات الحساسة يتم التعامل معها من قبل عمال مدربين خصيصًا لهذا الغرض". ومع ذلك، فإن OpenAI نفسها هي التي جمعت البيانات المراد تصنيفها، ويمكننا أن نشك في أنها تعرف محتواها، وهذا أيضًا ما هو مشار إليه في العقود التي تم الكشف عنها.

رسم تخطيطي توضيحي حول Dall-E // المصدر: OpenAI

وتزعم مؤسسة سما في بيان لها أنه لم يتم نقل OpenAI إلا بعد بدء جمع الصور.تعليمات إضافية» التي تشير إلى فئات معينة من المحتوى غير القانوني. وهذا ما غير العلاقات بشكل كبير بين الشركتين، إذ قالت مؤسسة النقد العربي السعودي إنها أنهت المشروع على الفور وألغت مشاريع أخرى مع OpenAI. ومن جانب الأخيرة، يُذكر أنها لم تطلب أبدًا جمع صور الاعتداء الجنسي على الأطفال، لأنه، حسب رأيها، لم تكن هذه المجموعة ضرورية. بالنسبة لـ OpenAI، يعد هذا قبل كل شيء خطأ في الاتصال وتقول المجموعة إنها لم تفتح أو تعرض المحتوى المعني.

طرد العمال لتجنب الفضائح

وكانت العواقب هي إلغاء العقد المرتبط بتحسين ChatGPT قبل ثمانية أشهر من التسليم المخطط له، مما كان له آثار مالية على الموظفين: حيث تم نقلهم إلى فرق أخرى للقيام بمهام أقل أجراً أو تم ترخيصهم ببساطة. وأضافت OpenAI أنها دفعت "ما يقرب من 150،000 دولار على مدى الشراكةإلى سما.

نتيجة "رائد فضاء يركب حصانًا بأسلوب واقعي" // المصدر: OpenAI

السبب الآخر الذي أدى إلى تسريح العمال في مؤسسة النقد العربي السعودي هو فضيحة أخرى تم الكشف عنها من قبل مؤسسة النقد العربي السعوديوقتأيضًا. وكشفت المجلة في شهر فبراير الماضي عن قيام مؤسسة سما بتعيين مشرفين على المحتوىفيسبوك, «وكانت وظيفته عرض الصور ومقاطع الفيديو لعمليات الإعدام والاغتصاب وإساءة معاملة الأطفال مقابل 1.50 دولار فقط في الساعة". ووفقًا لأربعة موظفين في الشركة، فإن هذا التحقيق كان سيدفعها إلى إنهاء تعاونها مع OpenAI.

تخسر شركة OpenAI الأموال، لكنها ستجني الكثير

يمكن الآن استخدام ChatGPT مجانًا، تمامًا مثل العديد من أدوات الشركة الأخرى، مثلدال-E 2. وتستخدم على نطاق واسع في جميع أنحاء العالم، وتتطلب قوة حاسوبية هائلة، وهي مكلفة للغاية. إذا خسرت OpenAI الأموال، فيمكنها تحقيق المزيد. كما هو مبين فيوقتأوبن آي «وبحسب ما ورد تجري الآن محادثات مع المستثمرين لجمع الأموال بقيمة 29 مليار دولار". علاوة على ذلك،ترغب Microsoft في استثمار 10 مليارات دولار في OpenAI. ونحن نعلم ذلك أيضاجوجل تخشى ChatGPTويعمل بجد على أدوات إنشاء النص تلقائيًا.

تمثيل LaMDA // المصدر: Google

هذا على الرغم من قيام هذه الشركات الكبرى بتسريح العمال بكل قوتها:أعلنت شركة ريدموند قبل بضعة أيام أنها ستسرح 5٪ من رواتبها. قبل شهرين، تعلمناطرد عدة آلاف من موظفي ميتا. آخر حدث:جوجل تخطط لتسريح 12 ألف موظف. وعلى الرغم من هذا السياق، فإن كل هؤلاء العمالقة ينظرون إلى الذكاء الاصطناعي باعتباره الآفاق المستقبلية الواعدة.

ممارسة شائعة

إن OpenAI ليست شركة التكنولوجيا الوحيدة التي تستخدم العمال في المناطق الفقيرة من العالم لتدريب نماذجها. ومع ذلك، فإن تصنيف البيانات هذا ضروري لجعل الذكاء الاصطناعي آمنًا لعامة الناس. وبدون هذا العملمساعدين صوتيين، لوحات المفاتيح الموجودة لديناالهواتف الذكيةأو قد يكون ChatGPT أكثر عنفًا. يعد الحصول على الذكاء الاصطناعي الآمن أمرًا ضروريًا للشركات لجذب الاستثمارات.

هذا هو الجانب المنسي أحيانًا لما نسميهالعمل الرقمي، أو العمل الرقمي باللغة الفرنسية. وتشير هذه الفكرة جزئياً إلى استخدام العمال الأفارقة أو الآسيويين، وهي قوة عاملة أرخص. في عام 2019، سبق لعالم الاجتماع أنطونيو كاسيلي أن أبلغ عن هذه المشكلة في استطلاعه “في انتظار الروبوتات: التحقيق في عمل النقر».بالنسبة له، القضية المتعلقة بـ Open AI "يركز على اضطراب ما بعد الصدمة[متلازمة الإجهاد ما بعد الصدمة]العمال. ومع ذلك، فهو يسلط الضوء أيضًا على الاستغلال الهائل الناجم عن تفتيت العمل إلى مهام صغيرة».

للذهاب أبعد من ذلك
لقد طرحنا 8 أسئلة تقنية على ChatGPT: ذكاء اصطناعي مذهل، ولكن ليس بلا حدود