تعمل Nvidia و Microsoft على بناء كمبيوتر ذكاء اصطناعي ضخم يعمل على Azure Cloud

قال مصمم الرقائق الأمريكي وشركة الحوسبة Nvidia يوم الأربعاء إنه يتعاون مع Microsoft لبناء جهاز كمبيوتر “ضخم” للتعامل مع أعمال حوسبة الذكاء الاصطناعي المكثفة في السحابة.

سيعمل كمبيوتر AI على سحابة Azure من Microsoft ، باستخدام عشرات الآلاف من وحدات معالجة الرسومات (GPU) ، وأقوى H100 من Nvidia وشرائح A100. رفضت Nvidia الإفصاح عن قيمة الصفقة ، لكن مصادر الصناعة قالت إن سعر كل شريحة A100 يتراوح بين 10000 دولار (ما يقرب من 814700 روبية) إلى 12000 دولار (ما يقرب من 9،77،600 روبية) ، وأن H100 أغلى بكثير من الذي – التي.

قال إيان باك ، المدير العام لشركة Nvidia لشركة Hyperscale و HPC ، لرويترز: “نحن في نقطة الانعطاف هذه حيث يأتي الذكاء الاصطناعي إلى المؤسسة ويصبح الحصول على تلك الخدمات التي يمكن للعملاء استخدامها لنشر الذكاء الاصطناعي لحالات استخدام الأعمال أمرًا حقيقيًا”. “نشهد انتشارًا واسعًا لاعتماد الذكاء الاصطناعي … والحاجة إلى تطبيق الذكاء الاصطناعي لحالات استخدام المؤسسات.”

بالإضافة إلى بيع Microsoft الرقائق ، قالت Nvidia إنها ستشارك مع عملاق البرمجيات والسحابة لتطوير نماذج الذكاء الاصطناعي. قال باك إن Nvidia ستكون أيضًا عميلًا للكمبيوتر السحابي AI من Microsoft وستطور تطبيقات AI عليه لتقديم الخدمات للعملاء.

أدى النمو السريع لنماذج الذكاء الاصطناعي مثل تلك المستخدمة في معالجة اللغة الطبيعية إلى زيادة الطلب بشكل حاد على بنية أساسية للحوسبة أسرع وأكثر قوة.

قالت Nvidia إن Azure ستكون أول سحابة عامة تستخدم تقنية شبكات Quantum-2 InfiniBand التي تبلغ سرعتها 400 جيجابت في الثانية. تربط تقنية الشبكات هذه الخوادم بسرعة عالية. هذا مهم لأن أعمال الحوسبة الثقيلة للذكاء الاصطناعي تتطلب آلاف الرقائق للعمل معًا عبر عدة خوادم.

© طومسون رويترز 2022


قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

رابط المصدر