إخفاء البرامج الضارة داخل شبكات الذكاء الاصطناعي العصبية

التحديث: 27 يوليو 2021
إخفاء البرامج الضارة داخل شبكات الذكاء الاصطناعي العصبية

وجد ثلاثة من الباحثين في جامعة كورنيل أنه من الممكن إخفاء كود البرامج الضارة داخل الشبكات العصبية للذكاء الاصطناعي. نشر كل من Zhi Wang و Chaoge Liu و Xiang Cui ورقة تصف تجاربهم في حقن الكود في الشبكات العصبية على خادم arXiv preprint.

كجهاز كمبيوتر التكنلوجيا يزداد تعقيدًا، وكذلك محاولات المجرمين لاقتحام الأجهزة التي تستخدم تكنولوجيا جديدة لأغراضهم الخاصة، مثل تدمير البيانات أو تشفيرها ومطالبة المستخدمين بالدفع مقابل إعادتها. وفي هذه الدراسة الجديدة، وجد الفريق طريقة جديدة لإصابة أنواع معينة من أنظمة الكمبيوتر التي تشغل تطبيقات الذكاء الاصطناعي.

تقوم أنظمة الذكاء الاصطناعي بعملها من خلال معالجة البيانات بطرق مشابهة للدماغ البشري. ووجد الباحثون الثلاثة أن مثل هذه الشبكات معرضة للتسلل عن طريق الشفرات الأجنبية.

الشبكات العصبية ، بطبيعتها ، يمكن غزوها من قبل عملاء أجانب. كل هذه العوامل يجب أن تفعلها هي تقليد بنية الشبكة بنفس طريقة إضافة الذكريات في الدماغ البشري. وجد الباحثون أنهم كانوا قادرين على فعل ذلك تمامًا من خلال تضمين برامج ضارة في الشبكة العصبية خلف نظام AI يسمى AlexNet - على الرغم من كونه ضخمًا إلى حد ما ، إلا أنه يشغل 36.9 ميغا بايت من مساحة الذاكرة على الأجهزة التي تشغل نظام الذكاء الاصطناعي. لإضافة الشفرة إلى الشبكة العصبية ، اختار الباحثون ما يعتقدون أنه سيكون أفضل طبقة للحقن. أضافوا أيضًا إلى نموذج تم تدريبه بالفعل ولكن لاحظوا أن المتسللين قد يفضلون مهاجمة شبكة غير مدربة لأنه من المحتمل أن يكون لها تأثير أقل على الشبكة ككل.

وجد الباحثون أن برامج مكافحة الفيروسات القياسية لم تفشل فقط في العثور على البرامج الضارة ، ولكن أداء نظام الذكاء الاصطناعي كان متماثلًا تقريبًا بعد الإصابة. وبالتالي ، كان من الممكن أن يتم اكتشاف العدوى إذا تم تنفيذها سراً.

لاحظ الباحثون أن مجرد إضافة برمجيات خبيثة إلى الشبكة العصبية لن يسبب ضررًا - أيًا كان من أدخل الرمز في النظام ، فلا يزال يتعين عليه إيجاد طريقة لتنفيذ هذا الرمز. لاحظوا أيضًا أنه الآن بعد أن أصبح من المعروف أن المتسللين يمكنهم حقن التعليمات البرمجية في الذكاء الاصطناعي الشبكات، يمكن تحديث برنامج مكافحة الفيروسات للبحث عنه.