AI: إلى أي مدى يمكن أن تنخفض؟

التحديث: 10 ديسمبر 2023

 

AI: إلى أي مدى يمكن أن تنخفض؟

AI: إلى أي مدى يمكن أن تنخفض؟

تخضع الأسواق للبدع وقطاع التحكم المدمج بعيد كل البعد عن الحصانة تجاهها. في تسعينيات القرن الماضي ، بدا أن المنطق الغامض هو الطريق إلى الأمام ، وسارع بائعو أجهزة التحكم الدقيقة (MCU) إلى تقديم الدعم لعروضهم فقط لرؤيتها مشتعلة.

 

يشهد التعلم الآلي المضمن (ML) جنون تغذية أكبر بكثير حيث يحاول لاعبو MCU الراسخون والشركات الناشئة لتسريع الذكاء الاصطناعي إظهار التزامهم بالفكرة ، والتي تقع في الغالب تحت راية TinyML.

دانيال سيتوناياكي ، مؤسس TinyML مهندس في شركة أدوات البرمجيات Edge Impulse ومؤلف مشارك لكتاب مشهور عن التكنلوجيا، يقول إن الوضع اليوم مختلف تمامًا عما كان عليه في التسعينيات.

"الشيء المثير في ML المضمن هو أن التعلم الآلي والتعلم العميق ليسا تقنيات جديدة وغير مثبتة - لقد تم نشرهما بنجاح على أجهزة كمبيوتر من فئة الخوادم لفترة طويلة نسبيًا ، وهما في صميم الكثير من التقنيات الناجحة منتجات. يدور التعلم الآلي المضمن حول تطبيق مجموعة مثبتة من التقنيات على سياق جديد من شأنه تمكين العديد من التطبيقات الجديدة التي لم تكن ممكنة من قبل ".

تتوقع ABI Research أن يرتفع سوق MCUs والمسرعات التي تدعم الذكاء الاصطناعي منخفضة الطاقة لسوق TinyML من أقل من 30 مليون دولار في الإيرادات السنوية هذا العام إلى أكثر من ملياري دولار بحلول بداية العقد المقبل.

على الرغم من النمو السريع ، يتوقع Lian Jye Su المحلل في ABI أن تصبح المنافسة أكثر شراسة مع دخول الشركات الكبيرة مثل Bosch إلى السوق. بالفعل ، انتقلت بعض الشركات الناشئة مثل Eta Compute من السيليكون إلى أدوات البرمجيات.

"نرى بعض التوحيد. في الوقت نفسه ، يعني التشرذم الهائل في سوق إنترنت الأشياء أن عددًا كبيرًا من المزودين سوف يستمرون ، مثل أسواق شرائح MCU أو IoT بشكل عام ، "كما يقول ، مشيرًا إلى العدد الكبير من الموردين الذين يركزون على أسواق رأسية محددة.

يواجه TinyML قيودًا شديدة. قال بيت واردن، القائد الفني لإطار عمل TensorFlow Micro في عملاق محركات البحث والمؤلف المشارك لـ Situnayake في كتاب "TinyML: التعلم الآلي باستخدام TensorFlow Lite على Arduino والمتحكمات الدقيقة ذات الطاقة المنخفضة للغاية"، في مؤتمر معالجات الخريف التابع لمجموعة Linley Group: الهدف هو أخذ نماذج التعلم العميق و"تشغيلها على الأجهزة التي تحتوي على ذاكرة وصول عشوائي (RAM) لا تزيد عن 20 كيلو بايت". نريد أن نأخذ نماذج مبنية باستخدام هذا التطور التكنلوجيا وسحقها لتعمل على معالجات ذات طاقة منخفضة جدًا.

"نظرًا لأنه برنامج مفتوح المصدر ، فإننا لا نتفاعل مع فرق المنتجات داخل Google فحسب ، بل نحصل أيضًا على الكثير من الطلبات من فرق المنتجات في جميع أنحاء العالم الذين يحاولون إنشاء منتجات مثيرة للاهتمام. وغالبًا ما يتعين علينا أن نقول: لا ، هذا غير ممكن بعد. يقول واردن: "سنرى ، بشكل إجمالي ، الكثير من المتطلبات التي لم تتم تلبيتها".

تكمن المشكلة الأساسية في أن نماذج التعلم العميق المنقولة من بيئة الخادم تتطلب الملايين أو حتى المليارات من وظائف الإضافة المضاعفة (MAC) ليتم تنفيذها في فترة زمنية قصيرة حتى بالنسبة للنماذج البسيطة نسبيًا. يقول Linley Gwennap ، رئيس مجموعة Linley Group ، إن التطبيقات الصوتية البسيطة نسبيًا ، مثل التقاط الكلمات في الكلام التي يمكن أن تنشط التعرف على الصوت ، تستدعي حوالي 2 مليون جهاز MAC في الثانية. يحتاج الفيديو إلى أكثر من ذلك بكثير.

كان بائعي السيليكون قادرين على دفع عدد MAC من خلال الاستفادة من المتطلبات المنخفضة نسبيًا للدقة في الحسابات الفردية عند إجراء الاستنتاج. في حين أن التدريب على الخوادم يتطلب عمومًا حساب فاصلة عائمة مفردة أو مزدوجة الدقة ، يبدو أن حسابات الأعداد الصحيحة على مستوى البايت (int8) كافية لمعظم التطبيقات.

هناك مؤشرات على أنه بالنسبة للطبقات المحددة في النموذج ، حتى int8 MACs غير ضرورية. الحسابات الثنائية أو الثلاثية التي يمكن إجراؤها باستخدام أكثر بقليل من عدد قليل من البوابات لا تضر بالدقة الكلية في كثير من الحالات. من المحتمل أن تكون مكاسب الأداء هائلة ولكنها تفتقر إلى مجموعة دعم الأجهزة والبرامج اللازمة لاستغلالها بالكامل ، كما يقول سيتوناياكي.

على الرغم من أن الأدوات الخاصة بإطار TensorFlow Lite تدعم عادةً أوزان int8 ، إلا أن دعم الدقة المنخفضة بعيد كل البعد عن الانتشار. يشير Situnayake إلى أن "هذا يتغير بسرعة" ، مشيرًا إلى مسرعات مثل Syntiant التي تدعم أوزان ثنائية و 2 بت و 4 بت بالإضافة إلى عمل بلوميراي لتدريب الشبكات العصبية الثنائية بشكل مباشر.

ويضيف: "في حين أن هذه التقنيات لا تزال في طليعة ولم تصبح بعد في الاتجاه السائد لمطوري تعلم الآلة المضمنة ، فلن يمر وقت طويل قبل أن تصبح جزءًا من مجموعة الأدوات القياسية".

تقليل العبء الحسابي

هناك خيارات أخرى لعمل TinyML تقلل العبء الحسابي. في حديثه في مؤتمر TinyML Asia أواخر العام الماضي ، قال Jan Jongboom ، المؤسس المشارك ورئيس التكنولوجيا في Edge Impulse ، إن عامل الجذب الرئيسي لـ ML هو قدرته على إيجاد ارتباطات في البيانات التي لا تختارها الخوارزميات التقليدية. تكمن المشكلة في العدد الهائل من المعلمات التي يتعين على معظم النماذج التقليدية معالجتها للعثور على تلك الارتباطات إذا كانت المدخلات عينات أولية.

يقول Jongboom: "إنك تريد مساعدة خوارزمية التعلم الآلي الخاصة بك لجعل حياتها أسهل". الأسلوب الأكثر فائدة للإشارات النموذجية في الوقت الحقيقي هو استخدام استخراج الميزات: تحويل البيانات إلى تمثيلات تجعل من الممكن بناء شبكات عصبية بأوامر أقل من حيث الحجم.

بأخذ الكلام كمثال ، فإن التحول إلى فضاء mel-cepstrum يقلل بشكل كبير من عدد المعلمات التي يمكنها ترميز التغييرات في الصوت بكفاءة.

في بيانات المستشعرات الأخرى ، مثل التغذية من مقياس التسارع المستخدم لاكتشاف الاهتزاز في الآلات الدوارة ، غالبًا ما تعمل الأشكال الأخرى لتمثيل التردد الزمني المشترك.

يستخدم هذا النهج جون إدواردز ، مستشار ومهندس DSP في Sigma Numerix ومحاضر زائر في جامعة أكسفورد ، في مشروع لتحليل الاهتزازات.

في هذه الحالة ، كان لتحويل فورييه القصير أفضل مقايضة مقترنة بالتحولات التي تعوض المحركات متغيرة السرعة. قلل استخراج الميزة من حجم النموذج إلى طبقتين فقط يمكن معالجتهما بسهولة على NXP LPC55C69 ، والذي يجمع بين أنوية Arm Cortex-M33 ومسرع DSP.

يقول Jongboom أنه على الرغم من أنه قد يكون من المغري السير في طريق التعلم العميق ، إلا أن خوارزميات التعلم الآلي الأخرى يمكن أن تحقق نتائج. "أفضل نموذج لكشف الشذوذ ليس شبكة عصبية: إنها تجمع الوسائل الأساسية k."

عندما يكون التعلم العميق مطلبًا ، يوفر التباين مزيدًا من التخفيض في النفقات العامة للنموذج. يمكن أن يأخذ هذا شكل التقليم ، حيث تتم إزالة الأوزان التي لها تأثير ضئيل على إخراج النموذج ببساطة من خط الأنابيب. خيار آخر هو تركيز الجهد على أجزاء من دفق البيانات التي توضح التغييرات بمرور الوقت. على سبيل المثال ، في مقاطع فيديو المراقبة ، قد يعني هذا استخدام معالجة الصور لاكتشاف الأجسام المتحركة وفصلها عن الخلفية قبل تغذية وحدات البكسل التي تمت معالجتها في النموذج.

لقد كانت تجربة تعليمية لـ Jongboom وآخرين. في وصف تقدمه خلال مراحل TinyML ، في صيف عام 2017 ، اعتقد أن المفهوم برمته مستحيل. بحلول صيف عام 2020 ، بعد أن نظر في طرق تحسين التطبيق وتصميم النموذج معًا ، تغير موقفه إلى الاعتقاد بأن تصنيف الصور في الوقت الفعلي على الأجهزة منخفضة الطاقة أمر ممكن. نظرًا لأن مسرعات الطاقة المنخفضة التي تدعم الدقة المنخفضة والتناثر تظهر بشكل أكثر كفاءة ، يجب توسيع نطاق النماذج التي يمكن تشغيلها بالطاقة الصغيرة.

والنتيجة ، كما تدعي Situnayake ، من المرجح أن تكون أن "ML سينتهي الأمر بتمثيل جزء أكبر من أي نوع آخر من عبء العمل. إن مزايا التعلم الآلي على الجهاز ستدفع الصناعة نحو إنشاء ونشر رقاقات منخفضة الطاقة أسرع وأكثر قدرة والتي ستمثل غالبية الحوسبة المضمنة في العالم ". على الرغم من وجود الكثير من الأجهزة التي لا تقوم بتشغيل أعباء العمل هذه ، فإن الحاجة إلى السرعة مع نمو أحجام النماذج حتمًا ستركز الانتباه على احتياجاتها وتبدأ في السيطرة على تطوير هياكل البرامج والأجهزة ، طالما أن التطبيقات تستمر.