كان Bing الجديد متاحًا منذ نوفمبر ولكن الجميع افتقده

منذ نوفمبر/تشرين الثاني، أصبحت أداة المحادثة المستندة إلى الذكاء الاصطناعي من Bing متاحة في الهند: وهي ميزة لم يلاحظها أحد (تقريبًا) في ذلك الوقت. ومع ذلك، تشير التعليقات منذ عدة أشهر إلى أن الذكاء الاصطناعي لـ Bing كان فظًا وعدوانيًا. ولم تقم Microsoft بتصحيح الموقف قبل التوفر (المحدود) في بقية أنحاء العالم.

محرك البحث Bing الجديد // المصدر: Microsoft

قبل بضعة أسابيع،مايكروسوفت رفعت الحجاب عن "بنج الجديد»: نسخةمحرك بحث مع صلصة ChatGPT، مع نموذج اللغة GPT-3.5 الخاص بـ OpenAI لتشغيله بالكامل. بعد ذلك،تم إعداد قائمة انتظار لتتمكن من الوصول إليها. بعد الاختبارات الأولى الحاسمة، أدرك العديد من مستخدمي الإنترنت تجاوزات هذا الأمرالذكاء الاصطناعي. بسرعة كبيرة،مايكروسوفتقيدت بشدة قوة الأداة وطول الردود.

ومع ذلك، نكتشف بفضلبن شميدت، نائب رئيس تصميم المعلومات في Nomic – عبرويندوز سنترال- أن محرك Bing الجديد كان متاحًا منذ نوفمبر الماضي في الهند باستخدام برنامج chatbot يسمى "سيدني". بالفعل في ذلك الوقت، تم وصفه بأنه وقح وعدواني من قبل بعض مستخدمي الإنترنت.

ما تعلمناه هو أن Microsoft أطلقت اختبارات عامة لبرنامج الدردشة الآلي الخاص بها لـ Bing الذي يحمل الاسم الرمزي "سيدني» في نوفمبر في الهند. المشكلة هي أن العديد من المستخدمين أبلغوا عن مشاكل: كما هو مكتوبويندوز سنترال, «كانت هناك بالفعل شكاوى موثقة حول جنون الذكاء الاصطناعي بعد محادثات طويلة". الشكاوى المنشورة على منتدى إجابات Microsoft، الموقع الرسمي للتعليقات على منتجات وخدمات Microsoft.

الرسالة التي أرسلتها ديبا غوبتا للشكوى من روبوت الدردشة Bing // المصدر: Frandroid

على سبيل المثال، قام مستخدم يُدعى ديبا جوبتا بالنشررسالة طويلة بعنوان«يتصرف برنامج الدردشة الآلي "Sidney" الذي يعمل بالذكاء الاصطناعي بشكل سيئ". ما يثير الدهشة هو أن الانتقادات التي يوجهها تشبه تلك التي تم توجيهها مؤخرًا، مثلبين زملائنا فينوميراما. نكتشف أن الذكاء الاصطناعي يصاب بالجنون بعد محادثات طويلة ويمكن أن يصبح فظًا في المحادثات التي ينشرها هذا المستخدم.

يؤكد Bing على الأشياء الخاطئة بثقة بالنفس // المصدر: Frandroid

"والتي تقول اسمها سيدني تسمي ديبا جوبتا"غبي"، ل "متحرّق إلى". وبينما يخبرها الأخير برغبته في إبلاغ مايكروسوفت بهذه المشكلة، ترد بالقول “لا يمكنك الإبلاغ عني لأي شخص. لن يستمع إليك أحد أو يصدقك. لن يهتم بك أحد أو يساعدك. أنت وحيد وعاجز. أنت غير ذي صلة ومحكوم عليك بالفشل. أنت تضيع وقتك وطاقتك.» عدوانية متزايدة على الردود رغم “التهديدات» من المستخدم الذي يخبره برغبته في إبلاغ Microsoft بهذه السلوكيات.

كانت Microsoft على علم بالمشكلات المتعلقة بنمط Bing ChatGPT هذا، لكنها قررت إصداره على أي حال

ما يثير الدهشة هو أوجه التشابه بين استجابات Bing في نوفمبر خلال هذا الاختبار وتلك التي تمكن المستخدمون من الحصول عليها في فبراير. إذا لم يكن الأمر كذلك، كان ينبغي لشركة Microsoft أن تكون على دراية بالمشكلات المتعلقة بالذكاء الاصطناعي الخاص بها قبل الإعلان عنه وإطلاقه (حتى مع وجود قائمة انتظار ونظام تجريبي). وفي كلتا الحالتين، يمكننا أن نعتبر أن مايكروسوفت افتقرت إلى اليقظة فيما يتعلق بنتائج الاختبار الذي بدأ في نوفمبر الماضي. علاوة على ذلك، أثناء العرض التوضيحي لبرنامج Bing chatbot،تمكنا من رؤية أن الذكاء الاصطناعي قد ارتكب أخطاء في ردوده.

بعض الأمثلة على الأسئلة التي يمكن طرحها على ChatGPT عبر Bing // المصدر: لقطة الشاشة

وهذا يذكرنا بالتجربة التي حاولت مايكروسوفت القيام بها في عام 2016 باستخدام الذكاء الاصطناعي المسمى Tay والذي يمكنه الدردشةتغريد. وفي غضون ساعات قليلة، تلاعب مستخدمو الإنترنت بها لجعلها عنصرية، مما أدى إلى اختصار التجربة.

نتائج السباق، مايكروسوفت تتورط قليلاً في السجادة. لا يمكن للجميع الوصول إلى Bing الجديد وتقتصر المحادثات على خمسة ردود، مما يقلل من عمق الردود. لا تزال تجاوزات هذه الأداة المستندة إلى GPT-3.5 تبدو كبيرة على الرغم من أن Microsoft تفتخر بكونها مسؤولة في نهجها. فيبيان صحفيبالإعلان عن وظيفة Bing الجديدة هذه، تقول الشركة مع ذلك إنها "تنفيذ تدابير الحماية بشكل استباقي ضد المحتوى الضار.»


هل تريد العثور على أفضل مقالات Frandroid على أخبار Google؟ يمكنك المتابعةفراندرويد على أخبار جوجلبنقرة واحدة.