لماذا قد تواجه Google مشكلة كبيرة مع الجوزاء؟

في حين أن وظيفة AI Overview من Google قد تعرضت للسخرية على نطاق واسع في الأيام الأخيرة بسبب ردودها، التي كانت كل منها أكثر انحرافًا عن سابقتها، يشير الخبراء إلى مشكلة أساسية سيكافح حتى عملاق الويب للتغلب عليها.

يعد AI Overview أحد أكبر الإعلانات في Google I/O 2024. هذه ميزة جديدة مدعومة من جيميني،نموذج اللغة الكبير (LLM)من جوجل. لذلك، فوق النتائج التي سيعرضها محرك البحث لاستعلامك، سترى أيضًا ملخصًا غنيًا مكتوبًا بواسطة الذكاء الاصطناعي استنادًا إلى مصادر مختلفة. الهدف المعلن هو تبسيط التنقل الخاص بك.

ردود منظمة العفو الدولية السخيفة

نعم، ولكن هناك تذهب. وقد برزت "المراجعات العامة"، التي تم نشرها بالفعل في الولايات المتحدة، قبل كل شيء بسبب غباء النصائح المقدمة. وهكذا أوصى الذكاء الاصطناعيضع الغراء على البيتزا للمساعدة في تثبيت الجبن عليها. وهذا أبعد ما يكون عن كونه المثال الشاذ الوحيد. خلال عطلة نهاية الأسبوع، شارك العديد من مستخدمي الإنترنتالإجابات القمرية المقدمة من جوجل. وقد نصح الذكاء الاصطناعي الناس بالقفز من فوق الجسر أو ارتكاب جريمة قتل، وادعى أنه يمكنك التحليق في الهواء إذا لم تنظر إلى قدميك، أو اقترح إضافة البنزين إلى الصلصة لجعلها أفضل.

الكثير من الأخطاء التي تجعل جوجل تضحك في البداية. ومع ذلك، كما أجرى الخبراء مقابلات معواشنطن بوست، فإن هذه الأخطاء تسلط الضوء قبل كل شيء على مشكلة أساسية في الذكاء الاصطناعي لا تستطيع حتى شركة ماونتن فيو العملاقة مواجهتها بالضرورة.

تقديم إجابات متسقة، وليس إجابات حقيقية

ويوضح أحد الخبراء، جرادي بوش، عالم الكمبيوتر المعروف في الولايات المتحدة، أن “جميع النماذج الرئيسية للغة، بحكم طبيعة بنيتها، هي رواة غير موثوقين بطبيعتهم وبشكل لا يمكن إصلاحه. وهي في جوهرها مصممة لتوليد إجابات تبدو متماسكة، وليس إجابات صحيحة". وبالتالي، لا يمكن أن يكونوا ببساطة "تصحيح» مثل خطأ في البرامج الكلاسيكية. اختراع الأشياء هو "خاصية لا مفر منها لطريقة عملها».

وفقًا لجرادي بوتش، يمكن للشركات التي تستخدم نموذجًا لغويًا كبيرًا أن تحاول دائمًا استخدام "كميات هائلة من العمالة البشرية الرخيصة لإخفاء أكاذيبه الصارخة". ومع ذلك، فهو يعتقد أن الإجابات الخاطئة ستستمر طالما أن عمالقة التكنولوجيا يسعون إلى استخدام الذكاء الاصطناعي التوليدي.

اتجاه يصعب تصحيحه

ويؤكد أرفيند نارايانان، أستاذ علوم الكمبيوتر في جامعة برينستون، الذي أجرت صحيفة واشنطن بوست مقابلة معه أيضًا، أن "من غير المرجح أن يتم تصحيح ميل النماذج اللغوية الكبيرة لتوليد معلومات غير صحيحة في المستقبل القريب". ومن ناحية أخرى، يشير إلى الأخطاء التي يمكن تجنبها بسهولة والتي ترتكبها شركة جوجل. سوف تبحث نظرة عامة على الذكاء الاصطناعي بشكل خاص عن النتائج لتلخيصها حول "صفحات الويب ذات الجودة الرديئة وحتى علىالبصل ». صب رابيل،البصلهي وسيلة إعلامية محاكاة ساخرة.

«إن الذكاء الاصطناعي للقيام بذلك بشكل أكثر موثوقية غير موجود بعد»، تلخص ميلاني ميتشل، الأستاذة في معهد سانتا في والباحثة في الأنظمة المعقدة. ويذكرنا هذا الأخير بأن الاهتمام الذي تم تسليط الضوء عليه يتعلق بجميع الشركات التي تعمل على تطوير أدوات الذكاء الاصطناعي.

ومن الواضح أن منصة مثل ChatGPT من OpenAI ليست محصنة. ومن ناحية أخرى، فمن الواضح أن جوجل واجهت هذا النوع من المشاكل في أغلب الأحيانضجة سيئة. منذ وقت ليس ببعيد،قام منشئ الصور الخاص بـ Gemini بعمل القليل من أي شيءالرغبة في تعزيز التنوع. نية أكثر من جديرة بالثناء، لكن تم تنفيذها بطريقة خرقاء للغاية.


عرضنا على Twitch SURVOLTÉS، كل يوم أربعاء من الساعة 5 مساءً حتى 7 مساءً: قابلنا للحديث عن السيارات الكهربائية أو الدراجات الكهربائية، حول المناقشات والمقابلات والتحليلات والألعاب!