Le système d'IA sur puce fonctionne à l'énergie solaire

Mise à jour : 9 décembre 2023

L'IA est utilisée dans toute une série d'applications utiles, telles que la prévision de la durée de vie d'une machine grâce à ses vibrations, la surveillance de l'activité cardiaque des patients et l'intégration de capacités de reconnaissance faciale dans les systèmes de vidéosurveillance. L'inconvénient est que basé sur l'IA sans souci nécessite généralement beaucoup d’énergie et, dans la plupart des cas, doit être connecté en permanence au cloud, ce qui soulève des questions liées à la protection des données, à la sécurité informatique et à la consommation d’énergie.

Les ingénieurs du CSEM ont peut-être trouvé un moyen de contourner ces problèmes, grâce à un nouveau système sur puce qu'ils ont développé. Il fonctionne avec une petite batterie ou une petite cellule solaire et exécute les opérations d'IA en périphérie, c'est-à-dire localement sur la puce plutôt que dans le cloud. De plus, leur système est entièrement modulaire et peut être adapté à toute application nécessitant un traitement du signal et de l'image en temps réel, en particulier lorsque des données sensibles sont impliquées. Les ingénieurs présenteront leur appareil au prestigieux VLSI 2021 Circuits Symposium à Kyoto en juin.

Le système sur puce CSEM fonctionne via une toute nouvelle architecture de traitement du signal qui minimise la quantité d'énergie nécessaire. Il se compose d'une puce ASIC avec un Processeur RISC-V (également développé au CSEM) et deux accélérateurs de machine learning étroitement couplés : un pour la détection des visages, par exemple, et un pour la classification. Le premier est un moteur d’arbre de décision binaire (BDT) capable d’effectuer des tâches simples mais ne peut pas effectuer d’opérations de reconnaissance.

Le responsable de la recherche sur les systèmes sur puce au CSEM déclare : « Lorsque notre système est utilisé dans des applications de reconnaissance faciale, par exemple, le premier accélérateur répondra à des questions préliminaires telles que : y a-t-il des personnes dans les images ? Et si oui, leurs visages sont-ils visibles ? ». Si notre système est utilisé en reconnaissance vocale, le premier accélérateur déterminera si du bruit est présent et si ce bruit correspond à des voix humaines. Mais il ne peut pas distinguer des voix ou des mots spécifiques, c'est là qu'intervient le deuxième accélérateur.

Le deuxième accélérateur est un moteur de réseau de neurones convolutifs (CNN) qui peut effectuer ces tâches plus compliquées - reconnaître des visages individuels et détecter des mots spécifiques - mais il consomme également plus d'énergie. Cette approche de traitement des données à deux niveaux réduit considérablement les besoins en énergie du système, car la plupart du temps, seul le premier accélérateur fonctionne.

Dans le cadre de leurs recherches, les ingénieurs ont amélioré les performances des accélérateurs eux-mêmes, les rendant adaptables à toute application nécessitant un traitement temporel du signal et de l'image. «Notre système fonctionne essentiellement de la même manière, quelle que soit l'application», explique le chercheur. "Nous devons juste reconfigurer les différentes couches de notre moteur CNN."

L'innovation CSEM ouvre la porte à une toute nouvelle génération d'appareils dotés de processeurs pouvant fonctionner indépendamment pendant plus d'un an. Il réduit également fortement les coûts d'installation et de maintenance de ces appareils, et permet de les utiliser dans des endroits où il serait difficile de changer le batterie.