جوجل في نهاية الأسبوع سيئة للغاية

كان اقتراح إضافة الغراء إلى البيتزا مجرد البداية. أمضت شركة جوجل عطلة نهاية الأسبوع وهي تتعرض للسخرية على شبكة الإنترنت بسبب نتائج البحث الرديئة للغاية، في حين لم تكن الشركة توصي بشكل صريح بأشياء خطيرة للغاية.

المصدر : جوجل

أضف الغراء إلى البيتزالجعلها أكثر لزوجة، اقترحلارتكاب جريمة قتل,القفز من الجسرأضف البنزين إلى الصلصة الخاصة بك أو حتى لا تنظر تحت قدميك لتنجح في الطفو في الفراغ (كما في الرسوم المتحركة).

وتابع: كل هذه نتائج من جوجل لبضعة أيام في الولايات المتحدةلنشر نظرة عامة على الذكاء الاصطناعي. للتذكير، يتضمن ذلك إضافة الاستجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي من Google، مثل ChatGPT، قبل الإعلانات والنتائج الكلاسيكية. أقل ما يمكننا قوله هو أن العملاق أخطأ هدفه بهذا النشر. لم يتعرض جوجل للسخرية على جانبي الإنترنت فحسب، بل إن محرك البحث يفقد مصداقيته بسرعة V.

سباق جوجل الجديد

منذ نهاية هذا الأسبوع، أعادت شركة جوجل موظفيها إلى العمل لجعلهم يلاحقون السخرية على الإنترنت. تم إلغاء تنشيط معظم الاستعلامات، مثل تلك التي تقود Google لتقديم الغراء على البيتزا، يدويًا بواسطة العملاق.

لأكثر من عام، أرادت شركة جوجل اللحاق بنجاح برنامج ChatGPT التابع لشركة OpenAI واستخدامه من قبل محرك البحث Bing التابع لشركة Microsoft، خوفًا من موقعها المهيمن في مجال البحث على الويب. وأدى ذلك إلى العديد من الأخطاء المتعلقة بهطول الأمطار لجوجل، كما حدث أثناء عرض جوجل بارد في عام 2023الذي خسر الملياراتدولار من رأس المال للعلامة التجارية.

من أين تأتي هذه الإجابات؟

وهنا، يبدو أن جزءًا من مشكلة Google هو صفقة الشركة مع Reddit. تشتهر منصة المنتدى عبر الإنترنت بتقديم إجابات بشرية حول العديد من المواضيع، ولكن أيضًا النكات وcom.shitpost. يضيف المزيد والمزيد من المستخدمين Reddit إلى استعلامات Google الخاصة بهم للحصول على المزيد من النتائج البشرية. ولهذا السبب أبرمت Google هذه الاتفاقية ورأت أنه من المناسب تشغيل الذكاء الاصطناعي الخاص بها باستخدام قاعدة بيانات Reddit.

المشكلة هي أن الذكاء الاصطناعي المعني يصدق الإجابات الصادقة بقدر ما يصدق النكات، ويكرر الأخيرة بثقة ومصداقية نتيجة بحث جوجل.

نعود إلى المشكلة الأساسية لوكلاء المحادثة المعتمدين على الذكاء الاصطناعي التوليدي مثل Bing أو ChatGPT أو Google: موثوقية النتائج. بالنسبة للاستعلامات البسيطة، حيث يمكن للبشر التحقق بسهولة من صحة الإجابة، يمكن أن يكون هؤلاء المساعدون مفيدًا، ولكن يحدث بانتظام أنهم ينتجون أخطاء أو يهلوسون بإجابات في استفسارات أكثر تعقيدًا.

في الوقت الذي تعدنا فيه مؤتمرات OpenAI وGoogle وMicrosoft بمساعدين يشبهون تقريبًا ما نراه في أفلام الخيال العلمي، فإن العودة إلى الواقع يمكن أن تكون قاسية.