لقد كان الأمر متوقعًا للغاية: بعد أن أسرت العالم كله لمدة أربعة أشهر، تكشف OpenAI عن نسخة جديدة من تقنيتها. يُوصف نموذج لغة الذكاء الاصطناعي الجديد، GPT-4، بأنه خبير في مجموعة واسعة من المواضيع ويمكنه تقديم نصائح دقيقة، بالإضافة إلى وصف الصور وإخبار النكات المضحكة تقريبًا.
لقد جمع ChatGPT أكثر من 100 مليون مستخدم، متجاوزًا ذلك الوقتتيك توكاستغرق للوصول إلى نفس المعلم. إنه ضخم، استغرق الأمر أربعة أشهر فقط. كان رد فعل صناعة التكنولوجيا سريعا، مايكروسوفتوبحسب ما ورد استثمرت أكثر من 10 مليارات دولار في OpenAI، لإطعامابن خاص بـ chatbot Bingمع جي بي تي. تذكر أن ChatGPT يعتمد على GPT-3.5، بينما يستخدم Bing نموذجًا أحدث (والذي تبين أنه GPT-4). جوجل، من جانبها، سارعتللحاق بالركبمع عدة اعلانات
تثير شركة OpenAI، الشركة التي أنشأت ChatGPT، فضولًا كبيرًامن خلال تقديمنظام الذكاء الاصطناعي الجديد GPT-4. والأخير قادر على العمل بالصور وبحسب الشركة الأمريكية فهو “أكثر إبداعًا وتعاونًا من أي وقت مضى» ويمكنهم حل المشكلات المعقدة بدقة أكبر نظرًا لمعرفتهم الواسعة وقدراتهم المحسنة على حل المشكلات.
أعلنت شركة OpenAI أنها عقدت شراكة بالفعل مع العديد من الشركات، بما في ذلك Duolingo وStripe وKhan Academy، لدمج GPT-4 في منتجاتها. بالإضافة إلى ذلك، سيكون النموذج الجديد متاحًا على ChatGPT Plus وكواجهة برمجة التطبيقات (API).
على الرغم من أنك قد لا تلاحظ أي اختلافات على الفور عند استخدام ChatGPT، وفقًا لـ OpenAI، فإن الفرق بين GPT-4 وسابقه GPT-3.5 يكون "دقيقًا" أثناء المحادثة غير الرسمية. ومع ذلك، فإن هذه الاختلافات تصبح أكثر وضوحا خلال المهام الأكثر تعقيدا.
تجدر الإشارة إلى أن بعض الشائعات المتداولة حول قوة GPT-4 وقدراتها قد تم نفيها من قبل OpenAI. في الواقع، أوضحت الشركة أنه تم إصدار بيانات خاطئة وأن الفرق بين GPT-4 وسابقه، على الرغم من أنه ملحوظ، ليس ثوريًا كما اقترحت بعض المصادر.
المزيد من الدقة، وأخطاء أقل
كان من الممكن أن يتخذ GPT-4 خطوة مهمة من حيث دقة استجاباته، وبالتالي تجنب الأخطاء الصارخة وغير المنطقية التي يمكن أن يواجهها المرء على ChatGPT حاليًا. لذا يبدو أن نموذج Chatbot الجديد قادر على تقديم إجابات أكثر دقة وموثوقية من سابقه.
كان من الممكن أن يثبت GPT-4 تفوقه في الامتحانات الأمريكية، باستثناء المواد الأدبية التي يكون أدائه فيها أكثر تواضعًا.
القدرة على الوسائط المتعددة للعمل مع الصور
يتمتع GPT-4 أيضًا بقدرة جديدة متعددة الوسائط، مما يسمح له بالاستجابة للصور والنصوص أيضًا. تقدم OpenAI في مقالتها عروضًا توضيحية تمكن النظام من خلالها من وصف الصور بالتفصيل، وإنتاج وصف تفصيلي يمكن أن يمتد إلى عدة فقرات.
أعلنت شركة OpenAI أنها حددت العديد من الأخطاء وصححتها بالإضافة إلى تعزيز الأسس النظرية لنموذج الذكاء الاصطناعي الخاص بها لـ GPT-4. ومع ذلك، تعترف الشركة بأن هذا النموذج الجديد به قيود مماثلة لتلك الموجودة في أسلافه من GPT، حيث أنه ليس موثوقًا تمامًا ويمكن أن يرتكب أخطاء في التفكير. وعلى الرغم من تقليل هذه الأخطاء، إلا أنها لا تزال موجودة.
قد يفتقر GPT-4 أيضًا إلى المعرفة بالأحداث التي وقعت بعد سبتمبر 2021 ويفشل في التعلم من تجربته. بالإضافة إلى ذلك، قد يرتكب أحيانًا أخطاء استدلالية بسيطة تبدو غير متوافقة مع كفاءته في العديد من المجالات، أو يكون ساذجًا بشكل مفرط في قبول بيانات كاذبة بشكل صارخ من المستخدم. في بعض الأحيان يمكن أن يفشل في حل المشكلات الصعبة بنفس الطريقة التي يفشل بها البشر.
وأخيرًا، يستطيع GPT-4 إظهار الفكاهة في ردوده، مما سيساعد في جعل المحادثات أكثر متعة وطبيعية للمستخدمين. ومع ذلك، كما هو الحال مع أي نوع من الفكاهة، قد يتم أحيانًا إساءة تفسير ذلك أو فهمه من قبل المستخدمين، ولذلك توصي OpenAI بالحذر عند استخدام هذا النوع من الوظائف.
قدر ضئيل من التوفر
قائمة الانتظار متاحة بالفعل،في هذا العنوانسيسمح لك بالوصول إلى واجهة برمجة تطبيقات GPT-4. بينما سيتم تحديث ChatGPT بهذا النموذج الجديد، فقد تم تأكيد ذلك.
لكن،فقط مستخدمي ChatGPT Plus (20 دولارًا شهريًا) يمكنهم الوصول إلى GPT-4على chat.openai.com، ولكن مع حد للاستخدام. يستجيب ChatGPT فقط لـ 100 طلب كل أربع ساعات عند تمكين GPT-4.
سيقوم OpenAI بتعديل الحد الأقصى للاستخدام بناءً على الطلب وأداء النظام. أعلنت OpenAI أنه اعتمادًا على الطلب، يمكن تقديم مستوى اشتراك جديد، ومن الواضح أنه أكثر تكلفة. من جانبها، أكدت مايكروسوفتأن Bing الجديد كان يعتمد بالفعل على GPT-4.