Breaking News

تتسابق Nvidia وGroq وLimestone إلى الذكاء الاصطناعي في الوقت الفعلي: لماذا تفوز الشركات أو تخسر هنا



من على بعد أميال عبر الصحراء، يبدو الهرم الأكبر وكأنه هندسة مثالية وسلسة – مثلث أنيق يشير إلى النجوم. ومع ذلك، قف عند القاعدة، وسيختفي وهم النعومة. ترى كتلًا ضخمة خشنة من الحجر الجيري. إنه ليس منحدرًا. إنه درج.

تذكر هذا في المرة القادمة التي تسمع فيها المستقبليين يتحدثون عن النمو المتسارع.

من المعروف أن جوردون مور، المؤسس المشارك لشركة إنتل (قانون مور) قال في عام 1965 إن عدد الترانزستور على الرقاقة الدقيقة سوف يتضاعف كل عام. وفي وقت لاحق، قام ديفيد هاوس، وهو مسؤول تنفيذي آخر في شركة إنتل، بمراجعة هذا البيان من أجل “مضاعفة قوة الحوسبة كل 18 شهرًا”. لفترة من الوقت، كانت وحدات المعالجة المركزية (CPUs) الخاصة بشركة Intel هي الطفل المدلل لهذا القانون. أي حتى أصبح النمو في أداء وحدة المعالجة المركزية مسطحًا مثل كتلة من الحجر الجيري.

ومع ذلك، إذا قمت بتصغير الصورة، فستجد أن كتلة الحجر الجيري التالية كانت موجودة بالفعل – حيث تحول النمو في الحوسبة من وحدات المعالجة المركزية (CPUs) إلى عالم وحدات معالجة الرسومات (GPU). لقد لعب جنسن هوانغ، الرئيس التنفيذي لشركة Nvidia، لعبة طويلة وخرج منها فائزًا قويًا، حيث بنى نقاط انطلاقه الخاصة في البداية من خلال الألعاب، ثم من خلال رؤية الكمبيوتر، ومؤخرًا من خلال الذكاء الاصطناعي التوليدي.

وهم النمو السلس

إن النمو التكنولوجي مليء بالسباقات السريعة والهضاب، وجيل الذكاء الاصطناعي ليس محصنًا. الموجة الحالية مدفوعة بهندسة المحولات. وعلى حد تعبير رئيس الأنثروبيك والمؤسس المشارك داريو أمودي: “يستمر الوضع الأسي حتى يتوقف. وفي كل عام كنا نقول: “حسنًا، لا يمكن أن تستمر الأمور على هذا النحو الأسي” – ثم يحدث ذلك كل عام”.

ولكن مع استقرار وحدة المعالجة المركزية وأخذ وحدات معالجة الرسومات زمام المبادرة، فإننا نشهد دلائل على أن نمو LLM يغير النماذج مرة أخرى. على سبيل المثال، في أواخر عام 2024، فاجأت شركة DeepSeek العالم بتدريب نموذج عالمي بميزانية صغيرة للغاية، وذلك جزئيًا باستخدام تقنية MoE.

هل تتذكر أين رأيت هذه التقنية المذكورة مؤخرًا؟ بيان صحفي لـ Nvidia’s Rubin: تتضمن التكنولوجيا “… أحدث أجيال من تقنية التوصيل البيني Nvidia NVLink… لتسريع الذكاء الاصطناعي الوكيل والتفكير المتقدم واستدلال نموذج MoE واسع النطاق بتكلفة أقل بما يصل إلى 10x لكل رمز.”

​يعلم جنسن أن تحقيق هذا النمو المتسارع في الحوسبة لم يعد يأتي من خلال القوة الغاشمة بعد الآن. في بعض الأحيان تحتاج إلى تغيير البنية بالكامل لوضع نقطة الانطلاق التالية.

أزمة الكمون: حيث يناسب Groq

هذه المقدمة الطويلة تقودنا إلى Groq.

كانت أكبر المكاسب في قدرات الذكاء الاصطناعي الاستدلالي في عام 2025 مدفوعة بـ “حساب وقت الاستدلال” – أو، بعبارات عامة، “السماح للنموذج بالتفكير لفترة أطول من الوقت”. لكن الوقت هو المال. المستهلكون والشركات لا يحبون الانتظار.

يلعب Groq هنا دوره من خلال استنتاجه بسرعة البرق. إذا جمعت بين الكفاءة المعمارية لنماذج مثل DeepSeek والإنتاجية الهائلة لـ Groq، فستحصل على ذكاء حدودي في متناول يدك. ومن خلال تنفيذ الاستدلال بشكل أسرع، يمكنك “استنتاج” النماذج التنافسية، وتقديم نظام “أكثر ذكاءً” للعملاء دون عقوبة التأخير.

من الشريحة العالمية إلى تحسين الاستدلال

​على مدى العقد الماضي، كانت وحدة معالجة الرسومات بمثابة المطرقة العالمية لكل مسمار يعمل بالذكاء الاصطناعي. يمكنك استخدام H100s لتدريب النموذج؛ تستخدم H100s (أو الإصدارات المختصرة) لتشغيل النموذج. ولكن مع تحول النماذج نحو تفكير “النظام 2” – حيث يقوم الذكاء الاصطناعي بالتفكير والتصحيح الذاتي والتكرار قبل الإجابة – يتغير عبء العمل الحسابي.

يتطلب التدريب قوة غاشمة موازية هائلة. يتطلب الاستدلال، خاصة بالنسبة لنماذج الاستدلال، معالجة تسلسلية أسرع. يجب أن يقوم بإنشاء الرموز المميزة على الفور لتسهيل سلاسل التفكير المعقدة دون أن ينتظر المستخدم دقائق للحصول على إجابة. تعمل بنية LPU (وحدة معالجة اللغة) الخاصة بـ Groq على إزالة اختناق عرض النطاق الترددي للذاكرة الذي يصيب وحدات معالجة الرسومات أثناء الاستدلال على دفعات صغيرة، مما يوفر استدلالًا بسرعة البرق.

محرك الموجة القادمة من النمو

بالنسبة للمديرين التنفيذيين، فإن هذا التقارب المحتمل يحل أزمة زمن الوصول “لوقت التفكير”. خذ بعين الاعتبار التوقعات من وكلاء الذكاء الاصطناعي: نريدهم أن يحجزوا رحلات الطيران بشكل مستقل، وترميز التطبيقات بأكملها، ويبحثوا عن السوابق القانونية. للقيام بذلك بشكل موثوق، قد يحتاج النموذج إلى إنشاء 10000 “رمز فكري” داخلي للتحقق من عمله قبل أن يقوم بإخراج كلمة واحدة للمستخدم.

  • على وحدة معالجة الرسومات القياسية: قد يستغرق 10000 رمز فكري من 20 إلى 40 ثانية. يشعر المستخدم بالملل ويغادر.

  • على جروك: نفس سلسلة التفكير تحدث في أقل من ثانيتين.

إذا قامت Nvidia بدمج تقنية Groq، فإنها تحل مشكلة “انتظار الروبوت للتفكير”. إنهم يحافظون على سحر الذكاء الاصطناعي. تمامًا كما انتقلوا من عرض وحدات البكسل (الألعاب) إلى عرض الذكاء (جيل الذكاء الاصطناعي)، سينتقلون الآن إلى العرض المنطق في الوقت الحقيقي.

علاوة على ذلك، يؤدي هذا إلى إنشاء خندق برمجي هائل. كانت أكبر عقبة تواجه Groq دائمًا هي كومة البرامج؛ أكبر أصول نفيديا هو CUDA. إذا قامت Nvidia بتغليف نظامها البيئي حول أجهزة Groq، فإنها ستحفر فعليًا خندقًا واسعًا جدًا بحيث لا يتمكن المنافسون من عبوره. سيوفرون منصة عالمية: أفضل بيئة للتدريب والبيئة الأكثر كفاءة للتشغيل (Groq/LPU).

ضع في اعتبارك ما يحدث عندما تجمع قوة الاستدلال الخام هذه مع نموذج مفتوح المصدر من الجيل التالي (مثل DeepSeek 4 المشاع): تحصل على عرض من شأنه أن ينافس النماذج الحدودية الحالية من حيث التكلفة والأداء والسرعة. وهذا يفتح الفرص أمام Nvidia، بدءًا من الدخول مباشرة في مجال الاستدلال من خلال عروضها السحابية الخاصة، وحتى الاستمرار في دعم عدد متزايد من العملاء الذين يتزايد عددهم بشكل كبير.

الخطوة التالية على الهرم

بالعودة إلى استعارتنا الافتتاحية: النمو “المتسارع” للذكاء الاصطناعي ليس خطًا سلسًا من الإخفاقات الأولية؛ إنه درج من الاختناقات يتم تحطيمه.

  • الكتلة 1: لم نتمكن من الحساب بالسرعة الكافية. حل: وحدة معالجة الرسومات.

  • الكتلة 2: لم نتمكن من التدرب بشكل عميق بما فيه الكفاية. حل: هندسة المحولات.

  • الكتلة 3: لا يمكننا “التفكير” بسرعة كافية. حل: جروك LPU.

لم يكن جنسن هوانغ خائفًا أبدًا من تفكيك خطوط إنتاجه الخاصة لامتلاك المستقبل. من خلال التحقق من صحة Groq، لن تقوم Nvidia بشراء شريحة أسرع فحسب؛ سوف يقدمون معلومات استخباراتية من الجيل التالي إلى الجماهير.

أندرو فيليف، المؤسس والرئيس التنفيذي لشركة Zencoder

مرحبًا بك في مجتمع VentureBeat!

برنامج نشر الضيوف الخاص بنا هو المكان الذي يتبادل فيه الخبراء الفنيون الأفكار ويقدمون تعمقًا محايدًا وغير مكتسب حول الذكاء الاصطناعي والبنية التحتية للبيانات والأمن السيبراني وغيرها من التقنيات المتطورة التي تشكل مستقبل المؤسسة.

اقرأ المزيد من برنامج نشر الضيف الخاص بنا – وتحقق من موقعنا المبادئ التوجيهية إذا كنت مهتمًا بالمساهمة بمقالة خاصة بك!