قدمت Microsoft Phi-2، وهو نموذج صغير للغة الذكاء الاصطناعي مخصص للتجريب ويمكن تشغيله نظريًا على أي جهاز. يكفي للرد على منافسيها مثل جيميني نانو من جوجل.
مايكروسوفت لا تفعل ذلك فقطOpenAIفي جيبه عندما يتعلق الأمرالذكاء الاصطناعي. وتقوم الشركة أيضًا بتطوير منتجاتها الخاصةنماذج اللغةداخليا. يونيو الماضي،كشفت عن Phi-1، وهو نموذج صغير للذكاء الاصطناعي تمكن من التفوق في الأداءChatGPTفي بعض المهام، مع قوة أقل. والآن حان دور Phi-2 للدخول إلى المشهد بفلسفة مماثلة.
للذهاب أبعد من ذلك
ما هو ماجستير في القانون؟ كيف تعمل محركات ChatGPT وGoogle Bard وغيرها؟
العمل بشكل أفضل بموارد أقل: هذه هي فلسفة Phi-2 بأكملها. هذا نموذج لغة صغير، ويجب عدم الخلط بينه وبين نموذج اللغة الكبير. الفرق مع GPT أوتَوأَم(Pro أو Ultra)، هو أنه يحتوي على معلمات أقل بكثير: 2.7 مليار، مقارنة بعشرات، أو حتى مئات المليارات لأقوى حاملي شهادات الماجستير.
مايكروسوفت تفتخر بامتلاكها لـPhi-2"والذي يُظهر قدرات استثنائية في التفكير وفهم اللغة، مع أداء متطور بين نماذج اللغة الأساسية التي تقل عن 13 مليار معلمة.» وفقًا للاختبارات، يمكن أن يكون Phi-2 بنفس جودة الكائنات الحية المحورة، أو حتى أفضل منها، بما يصل إلى 25 مرة. ما أدركناه من خلال تطوير حاملي شهادات LLM هو أنهم يستطيعون إطلاق العنان لقدرات لم نتوقعها.
كيف تم تدريب هذا الذكاء الاصطناعي الصغير
الهدف منمايكروسوفتواليوم تحاول فتحها على نماذج أصغر وأكثر تخصصًا. ويمكننا بعد ذلك الحصول على نماذج مخصصة لمهام معينة: الترجمة، والمساعدة في البرمجة، وملخص النص، وما إلى ذلك. للقيام بذلك، من الضروري تكييف تدريب النماذج المذكورة، من خلال تقييد اختيار البيانات.
على سبيل المثال، تم تدريب Phi-2 باستخدام "بيانات تركيبية تم إنشاؤها خصيصًا لتعليم النموذج المنطق السليم والمعرفة العامة". والفكرة هي الحصول على بيانات أكثر دقة وأفضل جودة، في حين أن النماذج الأخرى سوف تضاعف البيانات وتنوعها. يعتمد Phi-2 بطبيعة الحال على نسخته السابقة، Phi-1.5، التي تحتوي على 1.3 مليار معلمة. علىمدونتهوتقول Microsoft إن التدريب على Phi-2 استمر 14 يومًا وتطلب 96 يومًاوحدة معالجة الرسومات نفيديا A100. اعتمد على 20.000 دولار لكل بطاقة رسومية من هذا النوع: هذا المنتج متخصص في تدريب نماذج الذكاء الاصطناعي.
كما تسمح معالجة البيانات في المنبع بطريقة أكثر دقة بنموذج أقل سمية. هذا على أية حال هو استنتاج مايكروسوفت، الذي يشير إلى سلوك أفضل لـ Phi-2 مقارنة بالنماذج الأخرى مفتوحة المصدر والتي تم تدريبها مع التعزيز البشري.
نموذج الذكاء الاصطناعي الذي ربما لن تستخدمه
في نهاية المطاف، يعمل Phi-2 بشكل أفضل في بعض المهام من نموذج Phi-2.ميسترال منظمة العفو الدوليةأو ذلكلاما-2مع 7 أو 13 مليار معلمة. يذهب SLM إلى أبعد من الإصدار الذي يحتوي على 70 مليار معلمةميتاصب «مهام الاستدلال متعددة الخطوات، مثل البرمجة والرياضيات.» بخصوص جيميني نانو، النسخة الأصغر من LLMجوجلتم الإعلان عنه مؤخرًا، Phi-2 يفوقه أو يساويه، على الرغم من كونه أصغر حجمًا مرة أخرى.
ومع ذلك، لا تتخيل Microsoft إتاحة Phi-2 لعامة الناس عبر شبكةchatbotيحبمساعد الطيارعلى سبيل المثال. المجتمع ينظر إليها أكثر على أنها "ملعب مثالي للباحثين، خاصة لاستكشاف إمكانية التفسير الآلي، أو تحسين الأمان، أو ضبط التجارب على مجموعة متنوعة من المهام.» يتوفر Phi-2 فعليًا في Azure AI Studio، وهي خدمة نمذجة الذكاء الاصطناعي الخاصة بها.