شريحة إنفيديا الجديدة.. ثورة في تسريع استجابات الذكاء الاصطناعي
تتطلع “إنفيديا” إلى طرح شريحة جديدة مصممة خصيصا لتسريع استجابات الذكاء الاصطناعي، في خطوة قد تمثل تحولا جذريا عن نهجها المعتاد الذي يعتمد على تصميم “شريحة واحدة تناسب جميع الاستخدامات”.
وبدلا من تدريب نماذج الذكاء الاصطناعي، ستركز الشريحة الجديدة على عملية “الاستدلال”، والتي تقوم من خلالها نماذج التعلم الآلي باستخلاص النتائج من بيانات جديدة تماما.
ومن المتوقع أن يكشف الرئيس التنفيذي للشركة جنسن هوانغ عن شريحة تركز على مرحلة الاستدلال (Inference)، أي تشغيل نماذج الذكاء الاصطناعي بدلاً من تدريبها، وذلك خلال مؤتمر المطورين السنوي GTC الأسبوع المقبل، وفقاً لما نقلته فايننشال تايمز عن أشخاص مطلعين على خطط الشركة.
ثمار صفقة الـ20 مليار دولار
ويمثل هذا المنتج أول ثمار الصفقة التي أُبرمت في ديسمبر/ كانون الأول الماضي بقيمة 20 مليار دولار لاستقطاب مؤسسي شركة غروك “Groq” الناشئة، المتخصصة في تطوير ما يُعرف بوحدات معالجة اللغة (LPUs)، المصممة لتقديم استجابات عالية السرعة للاستفسارات المعقدة في تطبيقات الذكاء الاصطناعي.
وبعد ثلاثة أشهر من إتمام الصفقة، يُتوقع أن تكشف إنفيديا عن شريحة LPU قائمة على تقنيات غروك، لتعمل إلى جانب وحدة معالجة الرسوميات الرئيسية المرتقبة Vera Rubin، ضمن عائلة جديدة من المنتجات تستهدف مواجهة المنافسة المتزايدة وتلبية احتياجات تطبيقات الذكاء الاصطناعي الناشئة.
وتأتي هذه الخطوة في وقت تواجه فيه الشركة — التي تعد حاليا الأعلى قيمة في العالم — منافسة متنامية من شركات ناشئة، وكذلك من عملائها أنفسهم مثل غوغل الذين يطورون شرائح ذكاء اصطناعي خاصة بهم. كما أعلنت ميتا هذا الأسبوع عن عائلة جديدة تضم أربعة معالجات مخصصة لعمليات الاستدلال.
مرحلة مثيرة
وقال أحد المستثمرين في رأس المال الجريء في وادي السيليكون: “ندخل مرحلة مثيرة للاهتمام لم تعد فيها إنفيديا مهيمنة بشكل كامل.”
وخلال السنوات الثلاث الماضية، ارتفعت القيمة السوقية لإنفيديا إلى نحو 4.5 تريليون دولار، مدفوعة بتحول وحدات معالجة الرسوميات (GPU) الخاصة بها إلى العمود الفقري لصناعة الذكاء الاصطناعي التوليدي، بما في ذلك تدريب النماذج التي تقف خلف أدوات مثل ChatGPT التابعة لشركة أوبن إية آي.
وكان هوانغ يؤكد سابقاً أن النظام نفسه يمكن استخدامه لتدريب نماذج الذكاء الاصطناعي الجديدة ثم تشغيل تطبيقاتها، مثل روبوتات المحادثة وأدوات البرمجة. وقد أنفقت شركات التكنولوجيا الكبرى بالفعل مئات المليارات لنشر هذه الأنظمة، رغم استمرارها في الاستثمار بتطوير شرائح متخصصة خاصة بها.
لكن التعقيد المتزايد لأدوات الذكاء الاصطناعي، مثل أنظمة البرمجة الذاتية أو ما يُعرف بالأنظمة “الوكيلة” (Agentic)، يدفع هوانغ إلى التخلي تدريجياً عن مقولته السابقة بأن وحدة معالجة رسومية واحدة يمكنها التعامل مع جميع أعباء العمل.
تفاصيل صفقة “غروك”
وبلغت قيمة صفقة “غروك” نحو 20 مليار دولار، وفق مصادر مطلعة على تفاصيلها، ما يجعلها واحدة من أكبر الصفقات في تاريخ إنفيديا الممتد لنحو 33 عاماً.
وتتضمن الصفقة اتفاقيات ترخيص إلى جانب استقطاب كفاءات رئيسية، من بينها مؤسس غروك والمسؤول السابق عن تطوير الشرائح في غوغل جوناثان روس. وكانت “غروك” — التي تعاونت سابقاً مع سامسونغ لتصنيع منتجاتها — قد روّجت لوحدات LPU الخاصة بها باعتبارها أسرع وأكثر كفاءة من وحدات GPU لدى إنفيديا في عمليات الاستدلال.
وتعتمد أنظمة إنفيديا الرائدة مثل Blackwell وRubin على ذاكرة النطاق الترددي العالي (HBM) للتعامل مع الكميات الضخمة من البيانات المستخدمة في نماذج الذكاء الاصطناعي. غير أن هذه الذاكرة مرتفعة التكلفة وتعاني نقصاً متزايداً في الإمدادات، في وقت تكافح فيه شركات تصنيع الذاكرة مثل SK Hynix وMicron Technology لمواكبة الطلب المتصاعد من قطاع الذكاء الاصطناعي.
وبحسب أشخاص مطلعين على خطط إنفيديا، ستعتمد الشريحة الجديدة المستوحاة من تقنيات غروك على ذاكرة SRAM (الذاكرة الساكنة ذات الوصول العشوائي) بدلاً من الذاكرة الديناميكية المستخدمة في HBM. وتتميز SRAM بتوافرها الأكبر وملاءمتها الأفضل لتسريع مهام الاستدلال المنطقي في تطبيقات الذكاء الاصطناعي.
سوق بـ 1.2 تريليون دولار
وتقدّر تحليلات بنك أمريكا أنه بحلول عام 2030، عندما تصل سوق مراكز بيانات الذكاء الاصطناعي إلى نحو 1.2 تريليون دولار، ستستحوذ عمليات الاستدلال على نحو 75% من إجمالي الإنفاق، مقارنة بحوالي 50% العام الماضي.
وأشار محللو البنك في مذكرة هذا الأسبوع إلى أن الحدث السنوي الرئيسي لإنفيديا قد يشهد الكشف عن محفظة موسعة من حلول الذكاء الاصطناعي، بما في ذلك شريحة تعتمد على SRAM من تطوير “غروك”. وكانت صحيفة وول ستريت جورنال قد كشفت في وقت سابق عن بعض تفاصيل خطط الشركة.
ويرى جون بايك، الرئيس التنفيذي لشركة FuriosaAI المنافسة لإنفيديا، أن طرح شرائح مخصصة للاستدلال يمكن نشرها بسهولة أكبر يمثل ميزة إضافية.
وقال بايك: “كثير من الشركات ترغب في تنفيذ عمليات الاستدلال باستخدام مراكز البيانات الحالية لديها، لكن الغالبية العظمى من مراكز البيانات اليوم لا تستطيع دعم أحدث وحدات GPU المبردة بالسوائل.”
من جانبه، قال محلل التكنولوجيا بن باجارين من شركة Creative Strategies: “مستقبل مراكز البيانات لن يكون نموذجاً واحداً يناسب الجميع.”
aXA6IDQ1LjE0LjIyNS4xMCA= جزيرة ام اند امز



