Apprentissage par transfert vs apprentissage incrémentiel pour l'entraînement des réseaux neuronaux

Mise à jour : 6 août 2023
Apprentissage par transfert vs apprentissage incrémentiel pour l'entraînement des réseaux neuronaux

Dans l'apprentissage par transfert, les connaissances applicables établies dans un modèle d'IA préalablement formé sont « importées » et utilisées comme base d'un nouveau modèle. Après avoir pris ce raccourci d'utilisation d'un modèle pré-entraîné, tel qu'une image open source ou un jeu de données NLP, de nouveaux objets peuvent être ajoutés pour personnaliser le résultat pour le scénario particulier.

Le principal inconvénient de ce système est la précision. Le réglage fin du modèle pré-entraîné nécessite de grandes quantités de données spécifiques à la tâche pour ajouter de nouveaux poids ou points de données. Comme cela nécessite de travailler avec des couches dans le modèle pré-entraîné pour arriver là où il a de la valeur pour la création du nouveau modèle, cela peut également nécessiter des compétences, des outils et des fournisseurs de services plus spécialisés en apprentissage automatique.

Lorsqu'il est utilisé pour des applications d'IA de pointe, l'apprentissage par transfert implique l'envoi de données vers le cloud pour le recyclage, ce qui entraîne des risques pour la confidentialité et la sécurité. Une fois qu'un nouveau modèle est formé, chaque fois qu'il y a de nouvelles informations à apprendre, l'ensemble du processus de formation doit être répété. C'est un défi fréquent en edge AI, où les appareils doivent constamment s'adapter aux changements sur le terrain.

« D'abord et avant tout, il y a le problème de l'existence d'un modèle disponible que vous pouvez faire fonctionner pour votre application, ce qui n'est probablement pas pour une IA très basique, puis vous avez besoin de suffisamment d'échantillons pour le recycler correctement », explique le co-fondateur de Brianchip. Anil Mankar, « étant donné que cela nécessite d'aller dans le cloud pour se recycler, puis de revenir à l'appareil, l'apprentissage par transfert reste un processus très complexe et coûteux, même si c'est une bonne option quand et où il est possible de l'utiliser. »

L'apprentissage incrémentiel est une autre forme qui est souvent utilisée pour réduire les ressources utilisées pour former les modèles en raison de son efficacité et de sa capacité à s'adapter aux entrées de données nouvelles et modifiées. Un appareil périphérique qui peut effectuer un apprentissage incrémentiel au sein de l'appareil lui-même, plutôt que d'envoyer des données vers le cloud, peut apprendre en continu.

L'apprentissage incrémentiel ou « one-shot » peut commencer avec un très petit ensemble d'échantillons, et développer ses connaissances à mesure que davantage de données sont absorbées. La capacité d'évoluer en fonction d'un plus grand nombre de données se traduit également par une plus grande précision. Lorsque le recyclage est effectué sur le matériel de l'appareil, au lieu du recyclage dans le cloud, les données et l'application restent privées et sécurisées.

« La plupart du temps, les projets d'IA ne disposent pas d'ensembles de données suffisamment volumineux au début et n'ont pas accès au cloud computing pour se recycler, ils continuent donc à payer leur fournisseur chaque fois que quelque chose change », explique Mankar. « Nous recommandons généralement l'apprentissage incrémentiel, car il résout la plupart des lacunes de l'apprentissage par transfert et nécessite des coûts de calcul considérablement réduits. »