تقوم Graphcore بتوسيع نطاق وصولها إلى منطقة أجهزة الكمبيوتر العملاقة التي تعمل بالذكاء الاصطناعي

التحديث: 23 أكتوبر 2021

تقوم Graphcore بتوسيع نطاق وصولها إلى منطقة أجهزة الكمبيوتر العملاقة التي تعمل بالذكاء الاصطناعي

تقوم Graphcore بتوسيع نطاق وصولها إلى منطقة أجهزة الكمبيوتر العملاقة التي تعمل بالذكاء الاصطناعي

أعلنت Graphcore عن تقدم كبير في توسيع نطاق أنظمة مراكز البيانات الخاصة بها ، مع الإطلاق الرسمي لـ IPU-POD 128 و 256.

مع 32 بيتافلوبس قوي من حوسبة الذكاء الاصطناعي لـ IPU-POD 128 و 64 بيتافلوبس لـ IPU-POD 256 ، قالت Graphcore أنها ستتمكن الآن من توسيع نطاق وصولها إلى منطقة الكمبيوتر العملاق AI.

وقد تم تطوير كلا النظامين من أجل الفائق السحابية ومختبرات الحوسبة العلمية الوطنية وشركات المؤسسات التي تضم فرقًا كبيرة للذكاء الاصطناعي في أسواق مثل الخدمات المالية أو المستحضرات الصيدلانية.

تتيح IPU-PODs ، على سبيل المثال ، تدريبًا أسرع لنماذج اللغة الكبيرة المستندة إلى Transformer عبر نظام كامل ، وتشغيل تطبيقات استدلال الذكاء الاصطناعي التجارية على نطاق واسع في الإنتاج ، وإعطاء المزيد من المطورين IPU الوصول عن طريق تقسيم النظام إلى vPODs أصغر ومرنة أو تمكين الاختراقات العلمية من خلال تمكين استكشاف النماذج الجديدة والناشئة مثل GPT و GNNs عبر أنظمة كاملة.

Graphcore قادرة على توفير تدريب ودعم مكثفين لمساعدة العملاء على تسريع الوقت لتحقيق القيمة من عمليات نشر الذكاء الاصطناعي القائمة على IPU.

كما هو الحال مع الشركة الأخرى أنظمة IPU-POD ، وتفصيل حوسبة وخوادم الذكاء الاصطناعي يعني أنه يمكن تحسين كل من 128 و 256 لتقديم أقصى أداء لأعباء عمل الذكاء الاصطناعي المختلفة. على سبيل المثال ، يمكن أن يستخدم النظام الذي يركز على البرمجة اللغوية العصبية ما لا يقل عن خادمين لـ IPU-POD 128 ، بينما قد تستفيد مهمة أكثر كثافة للبيانات مثل مهام رؤية الكمبيوتر من إعداد مكون من ثمانية خوادم.

بالإضافة إلى ذلك، يمكن تحسين تخزين النظام حول أعباء عمل معينة للذكاء الاصطناعي، باستخدام التكنلوجيا من شركاء التخزين في Graphcore.