Graphcore מרחיב את טווח ההגעה שלו לטריטוריית מחשבי העל בינה מלאכותית

עדכון: 23 באוקטובר 2021

Graphcore מרחיב את טווח ההגעה שלו לטריטוריית מחשבי העל בינה מלאכותית

Graphcore מרחיב את טווח ההגעה שלו לטריטוריית מחשבי העל בינה מלאכותית

Graphcore הכריזה על התקדמות משמעותית בקנה המידה של מערכות מרכז הנתונים שלהם, עם ההשקה הרשמית של IPU-POD 128 ו-256.

עם חישוב עוצמתי של 32 petaFLOPS של AI עבור IPU-POD 128 ו-64 petaFLOPS עבור IPU-POD 256, Graphcore אמרה שהיא תוכל כעת להרחיב את טווח ההגעה שלה לטריטוריית מחשבי העל בינה מלאכותית.

שתי המערכות פותחו עבור Hyperscalers בענן, מעבדות מחשוב מדעיות לאומיות וחברות ארגוניות עם צוותי AI גדולים בשווקים כמו שירותים פיננסיים או תרופות.

ה-IPU-PODs מאפשרים, למשל, אימון מהיר יותר של דגמי שפה גדולים מבוססי שנאי על פני מערכת שלמה, הפעלת יישומי AI מסחריים מסחריים בייצור, ומעניקים ליותר מפתחים גישה ל-IPU על ידי חלוקת המערכת ל-vPODs קטנים יותר וגמישים או מאפשר פריצות דרך מדעיות על ידי מתן אפשרות לחקור מודלים חדשים ומתפתחים כמו GPT ו-GNNs על פני מערכות שלמות.

Graphcore מסוגלת לספק הכשרה ותמיכה מקיפה כדי לעזור ללקוחות להאיץ את הזמן לערך מפריסות AI מבוססות IPU.

כמו עם האחר של החברה מערכות IPU-POD, הפירוק של מחשוב בינה מלאכותית ושרתים פירושו שניתן לבצע אופטימיזציה גם ל-128 וגם ל-256 כדי לספק ביצועים מקסימליים עבור עומסי עבודה שונים של בינה מלאכותית. לדוגמה, מערכת ממוקדת NLP יכולה להשתמש בשני שרתים עבור IPU-POD 128, בעוד שמשימה עתירת נתונים כמו משימות ראייה ממוחשבת עשויה להפיק תועלת מהגדרה של שמונה שרתים.

בנוסף, ניתן לייעל את אחסון המערכת סביב עומסי עבודה מסוימים של AI, באמצעות טֶכנוֹלוֹגִיָה משותפי האחסון של Graphcore.