נקודת מבט: כיצד AI משנה את הדרך בה אנו חושבים על זיכרון

עדכון: 6 באוגוסט 2023

נקודת מבט: כיצד AI משנה את הדרך בה אנו חושבים על זיכרוןהפלא שהוא HBM היה במסע קבוע בשנים האחרונות. הביצועים, יעילות החשמל והמהירות השתפרו בהדרגה עם הזמן. עד לאחרונה, התקדמות זו הייתה בסדר גמור כדי לתמוך בקצב השינוי הטכנולוגי לאורך רוב שנות 2010.

אך אנו נמצאים כעת בנקודה בה דברים חייבים להשתנות. יישומים מבוססי בינה מלאכותית כמו מנועי המלצה, סיווג תמונות ועיבוד שפות טבעיות נמצאים בכל מקום-בטלפונים, רמקולים חכמים, רכבים, לבישים ובבתים. וזה רק AI. למידת מכונה, מציאות מדומה, גיימינג מהדור הבא ואפליקציות אינטנסיביות אחרות כאן כדי להישאר.

כל היישומים הללו מציבים כעת דרישות חסרות תקדים ל- HBM, שפשוט לא יכול להמשיך ולשפר בקצב שהטכנולוגיות החדשות האלה צריכות. יישומים אלה לא רק צריכים לעבד מספר רב של נתונים, אלא שהם גם צריכים לעשות זאת מהר יותר וטוב יותר, והשיפורים צריכים להגיע במהירות. האלגוריתמים דורשים שיעורי גישה גבוהים ליכולות נתונים גדולות.

במערכות מסורתיות, רוחב הפס של הזיכרון וצריכת החשמל מגבילים בסופו של דבר את הביצועים והיכולות של יישומי AI ו-ML. אז מה התעשייה צריכה לעשות מכאן כדי לתמוך בדור הבא של טֶכנוֹלוֹגִיָה?

PIM לחילוץ

הרעיון של שימוש בטכנולוגיית עיבוד בזיכרון (PIM) עם HBM דובר כדרך להתגבר על מגבלות טכניות במשך יותר מ -30 שנה.

על ידי הצבת מנוע AI מותאם DRAM בתוך כל בנק זיכרון (יחידת משנה לאחסון), HBM-PIM מוסיף כוח עיבוד בדיוק במקום בו הנתונים מאוחסנים-מה שסלול את הדרך לעיבוד מקביל תוך הפחתת כמות הנסיעות שהנתונים צריכים לעשות. .

עבור מנהלי IT, אדריכלי מערכת מרכז נתונים ואדריכלי GPU, סוג זה של ארכיטקטורה מהווה הזדמנות מצוינת. לדוגמה, מהנדסי תוכנה יכולים לכתוב פקודות פשוטות כדי למנף את יחידת המחשוב הניתנת לתכנות של HBM-PIM כדי לשפר את מהירות עומסי העבודה החוזרים על עצמם.

ובכל זאת רחבה יותר, HBM-PIM מספק יותר מפי שניים מביצועי המערכת של HBM מסורתי תוך קיצוץ בשימוש באנרגיה ביותר מ -60%. ובתור בונוס גדול נוסף, HBM-PIM אינו זקוק לשינויי חומרה או תוכנה, כלומר מהנדסים יכולים להטמיע אותו בצורה חלקה בתוך מערכות קיימות.

למרות היתרונות הברורים הללו, זו לא הייתה אדריכלות קלה לתעשייה לבנות. עד לא מזמן, יצרני שבבי העבודה שהיו צריכים להתמודד עם ההתמודדות עם האתגרים הטכניים לפני כמה שנים היו גדולים מדי - וכתוצאה מכך ההתקדמות הייתה איטית לאורך השנים.

למה? הבעיה בטכנולוגיית PIM היא שבגלל האופן שבו היא מקשרת זיכרון והיגיון, מהנדסים תמיד התמודדו עם פשרה בין צפיפות האחסון בתהליך אופטימיזציה של זיכרון לבין טרנזיסטור ביצועים בתהליך מותאם לוגיקה.

כתוצאה מכך, הביצועים והיכולת של מכשירי PIM היו בצד הנמוך בהשוואה למכשול הטכני ולעלות האינטגרציה. ולכן שררה הארכיטקטורה המסורתית של פון נוימן, שמשתמשת ביחידות מעבד וזיכרון נפרדות לביצוע מיליוני משימות עיבוד נתונים מורכבות. אך באופן מתסכל, גישת עיבוד רציפה זו מזיזה את הנתונים קדימה ואחורה כל הזמן, וגורמת לצווארי בקבוק בעת טיפול בכמויות גדולות יותר של נתונים.

אבל יש חדשות טובות. ריבוי יישומי הבינה המלאכותית ולמידת המכונה חיזק את ההשקעה בטכנולוגיית PIM ופיתוחה - פשוט כי הטכנולוגיות האלה כאן כדי להישאר, והזיכרון צריך להסתגל כדי להתאים אותן, ולא להיפך.

וזה הגיוני. טכנולוגיית PIM היא הטכנולוגיה המושלמת להתמודדות עם עומסי עבודה של AI ו- ML, עם גרעינים מותאמים המפחיתים את תנועת הנתונים על ידי מיפוי גישות לנתונים ברמה גבוהה של מיקומים מרחביים וזמניים לעיבוד במקביל בבנקים (מקבילים) של זיכרון בעל ביצועים גבוהים. התקן. על ידי עבודה בדרך זו, PIM מתייחס לצוואר הבקבוק האופייני לרוחב הפס של זיכרון המעבד/GPU, ומשפר את ביצועי היישום AI ו- ML ואת היכולת הכוללת.

פריצות דרך בשוק

בגלל ההשקעה והפיתוח של טכנולוגיית PIM, השוק רואה כעת בשנת 2021 את ה- HBM-PIM הראשון לתכנותו מסוגו המשלב עיבוד נתונים מקביל וביצועים גבוהים ו- DRAM כולם על אותה סיליקון.

HBM-PIMs החדשים הללו, המבוססים על מפרט HBM2 סטנדרטי JEDEC ומשופרים בארכיטקטורת PIM, כבר מוכיחים שהם מצליחים מאוד לעמוד בדרישות יישומי AI-וכתוצאה מכך, היצרנים כבר מתכננים לכלול את טכנולוגיית PIM בטכנולוגיית HBM3 בעתיד. .

על ציר הזמן של סמיקונדקטור חדשנות, נראה שהעולם סוף סוף עבר את הנקודה שבה רוחב הפס הוא הגורם המגביל העיקרי בביצועי AI ו- ML. עכשיו אנחנו באמת יכולים להתחיל לראות את הטכנולוגיות המדהימות האלה פורחות.

ריצ'רד וולש עבד בחטיבת הזיכרון של סמסונג סמיקונדקטור אירופה ב-25 השנים האחרונות, מכסה בין טכנולוגיות DRAM, NAND ו- NOR flash. הוא בעל תואר ראשון בהנדסה באלקטרוניקה, חומרת מחשב ותוכנה מאוניברסיטת לימריק.

ראה גם: הטכנולוגיות המניעות את עתיד הבינה המלאכותית