Groq، الشركة الناشئة التي يمكن أن تجعل Nvidia تركع على ركبتيها

جروك هو الوافد الجديد إلى الملعب الذي يتحدث عنه. إنها شركة ناشئة تغامر بتحدي شركة Nvidia، عملاق معالجات الرسوميات والذكاء الاصطناعي. لا يتخيل جروك فقط؛ يقال إنهم يفعلون ذلك باستخدام LPU (وحدة معالجة اللغة) الجديدة الخاصة بهم، والتي تعد بتعزيز سرعة الاستجابات من نماذج اللغة، مثل تلك الموجودة في ChatGPT.

المصدر: جروك

يمكن لشركة Groq، وهي شركة ناشئة غير معروفة لعامة الناس، أن تشكل تحديات خطيرة لشركة Nvidia، الشركة الرائدة بلا منازع في معالجة الرسومات وتقنيات الذكاء الاصطناعي. على أية حال، هذا ما يمكن أن نقرأه في وسائل الإعلام وعلى موقع إكس (تويتر).

لكن من هو جروك؟

السياق

ملاحظة جروك هي أن أجهزة الكمبيوتر والمعالجات التي نستخدمها حاليًا مصممة لمعالجة الكثير من المهام في نفس الوقت. لقد أصبحت معقدة للغاية حيث تعمل الكثير من الأجزاء معًا. إن جعل كل هذا يعمل بسرعة وبشكل جيد، وخاصة بالنسبة لتطبيقات مثل الذكاء الاصطناعي الذي يتعلم ويتخذ قرارات سريعة (ما نسميه الاستدلال)، هو صداع حقيقي. يتطلب الاستدلال، على وجه الخصوص، أن تصل الإجابات بسرعة ودون استهلاك الكثير من الطاقة.

لمحاولة إدارة كل هذا، أضاف مصممو المعالجات المزيد من المكونات والوظائف إلى الرقائق، مما يجعلها أكثر تعقيدًا. لكنها لم تساعد حقًا في بعض المهام المحددة، مثل تلك المتعلقة بالذكاء الاصطناعي، لأن هذه الإضافات لا تجعل الأمور أسرع لتلك الاستخدامات.

لقد كانت وحدات معالجة الرسومات (GPUs) حلاً جزئيًا لأنها تستطيع إجراء الكثير من العمليات الحسابية بالتوازي، وهو أمر رائع بالنسبة للصور أو مقاطع الفيديو على سبيل المثال. لكن حتى هذه الأجهزة تصل إلى حدودها، خاصة عندما يتعلق الأمر بمعالجة البيانات بسرعة دون انتظار.

لذلك توصل جروك إلى شيء مختلف. لقد قاموا بإنشاء نوع من الرقائق يسمى معالج التدفق الموتر (TSP).

Le LPU (وحدة معالجة اللغة) من Groq

من خلال تطوير LPU (وحدة معالجة اللغة)، تعد Groq بتنفيذ نماذج الذكاء الاصطناعي، بما في ذلكنماذج اللغةمثل ChatGPT، أسرع بما يصل إلى عشر مرات من الحلول الحالية المستندة إلى وحدة معالجة الرسومات. والأفضل من ذلك، أن نسبة السعر إلى الأداء ستكون أفضل 100 مرة من نسبة السعر إلى Nvidia. بما يكفي لإرغام شركة Nvidia على الركوع، والتي كانت في وضع السحابة التاسعة لعدة أشهر، أصبحت قيمة الشركة الأمريكية الآن بقدر قيمة Meta وAmazon.

للذهاب أبعد من ذلك
ما هو ماجستير في القانون؟ كيف تعمل محركات ChatGPT وGoogle Bard وغيرها؟

يكمن مفتاح هذا التقدم في البنية الفريدة لـ GroqChip، وهي شريحة مصممة خصيصًا لتحسين مهام الاستدلال بالذكاء الاصطناعي.

المصدر: جروك

على عكس وحدات معالجة الرسوميات التقليدية التي تعتمد على الذاكرة ذات النطاق الترددي العالي (HBM) لمعالجة البيانات، تستخدم وحدات LPU الخاصة بشركة Groq ذاكرة SRAM أسرع بنحو عشرين مرة. ومن شأن هذا النهج أن يقلل بشكل كبير من استهلاك الطاقة ويحسن كفاءة معالجة البيانات، خاصة بالنسبة لنماذج الاستدلال التي تتطلب بيانات أقل من عمليات التدريب النموذجية.

يختلف GroqChip عن وحدات معالجة الرسوميات الحالية أيضًا في نهج المعالجة الخاص به استنادًا إلى مجموعة تعليمات زمنية، مما يلغي الحاجة إلى إعادة تحميل البيانات من الذاكرة بشكل متكرر. لا تتغلب هذه التقنية على القيود التي يفرضها نقص HBM فحسب، بل تقلل أيضًا من تكاليف الإنتاج.

المصدر: جروك

لا يتم قياس فعالية GroqChip من حيث السرعة فقط. بالمقارنة مع شرائح Nvidia H100 pro، يُقدر أن نسبة السعر/الأداء لـ GroqChip أعلى بمائة مرة. ما يصنع الفرق هو أسلوبهم في المعالجة التسلسلية، وهو مثالي للغة الطبيعية والبيانات الأخرى التي تتبع التسلسل.

ستكون هذه العروض نتيجة لتصميم يفضل التخصص في معالجة نماذج اللغة (LLM)، مستوحى بشكل مباشر من وحدات معالجة Tensor (TPU) الخاصة بشركة Google. ويجب القول أن جوناثان روس، الرئيس التنفيذي ومؤسس الشركة الناشئة، يقف وراء Groq. وهو مبتكر Tensor، شريحة TPU المستخدمة في الذكاء الاصطناعي من Google.

المصدر: جروك

يتناقض نهج Groq، الذي يفضل البطء والعرض والاستهلاك المنخفض للطاقة، مع نهج Nvidia، الموجه نحو تنفيذ أسرع لحسابات المصفوفة وإدارة أكثر كفاءة للذاكرة الرئيسية. ويتم تعزيز هذا الاختلاف الأساسي من خلال التحسينات في كفاءة استخدام الطاقة، والانتقال إلى عمليات التصنيع الأكثر تقدما. في الوقت الحالي، تم نقش رقائق Groq بتقنية 14 نانومتر، ولكن يتم بالفعل النظر في الانتقال إلى 4 نانومتر.

باختصار، سيغيرون قواعد اللعبة بالنسبة لحملة LLMs، بسرعة وكفاءة تترك المنافسة بعيدة عن الركب. من الواضح أن هذا يشير أيضًا إلى أن الاعتماد على وحدات معالجة الرسوميات Nvidia قد ينخفض ​​بشكل كبير.

لا تدفن نفيديا بسرعة كبيرة

لا ينبغي لنا أن ندفن نفيديا بسرعة كبيرة. تواصل الشركة الأمريكية الابتكار في مجال وحدات معالجة الرسومات وخارجها. تذكر أن الأداء الذي لا مثيل له لوحدات معالجة الرسومات للتدريب يظل ميزة تنافسية كبيرة.

بالإضافة إلى ذلك، قامت Nvidia ببناء نظام بيئي برمجي قوي حول CUDA والأدوات المرتبطة به، مما يجعل تطوير وتشغيل تطبيقات الذكاء الاصطناعي على وحدات معالجة الرسومات الخاصة بها أكثر سهولة وكفاءة. من الصعب التنافس مع هذا النظام البيئي الغني ويخلق اعتماداً قوياً للباحثين والمطورين على منتجات Nvidia.

وهذا ما يفسر سبب قيام Nvidia بتأسيس العديد من الشراكات مع الشركات السحابية وشركات تصنيع أجهزة الكمبيوتر والمؤسسات البحثية، مما يضمن اعتمادًا واسع النطاق لوحدات معالجة الرسومات الخاصة بها للتدريب والاستدلال على الذكاء الاصطناعي.

باختصار، يجب أن يستمر.


نراكم كل يوم أربعاء على Twitch، من الساعة 5 مساءً حتى الساعة 7 مساءً، للمتابعة المباشرةالعرض Survoltésمن إنتاج فراندرويد. سيارة كهربائية، دراجة كهربائية، نصيحة الخبراء، ألعاب أو شهادات، هناك شيء للجميع!