IBM fournit une protection client IA : nouvelle tendance dans les outils

Mise à jour : 22 novembre 2023 Mots clés:ecoelicltndasans souci

Récemment, IBM a annoncé qu'elle offrirait des protections de propriété intellectuelle développées par ses modèles d'IA, offrant ainsi une couche de sécurité et de sûreté à ceux qui ont besoin de solutions d'IA. À quels défis l'IA est-elle aujourd'hui confrontée, pourquoi IBM propose-t-elle une protection IP et qu'est-ce que cela signifie pour l'avenir des solutions d'IA ?

À quels défis l’IA est-elle aujourd’hui confrontée ?

La croissance rapide que l’IA a connue au cours des dernières années a été indéniablement époustouflante, les entreprises de gauche à droite et du centre essayant toutes de prendre le train de l’IA. En fait, la vitesse à laquelle l’IA est adoptée par les entreprises est si grande que les entreprises qui font la moindre référence à l’IA sont catapultées dans les moteurs de recherche et relayées dans l’actualité.

Cependant, tout comme tout ce qui est populaire attire une attention positive, il peut aussi attirer une attention négative. Par exemple, certains utilisateurs ont exploité l’IA pour créer du contenu deepfake sur des individus. Dans de nombreux cas, ces deepfakes sont destinés à l’humour et sont évidents, mais dans d’autres cas, ils sont utilisés pour créer des contenus préjudiciables qui sont presque impossibles à distinguer de la vie réelle.

Un autre exemple de défi majeur auquel l’IA est confrontée concerne les préoccupations liées à la confidentialité des données et à la manière dont l’IA stocke les données privées. Par exemple, la plupart des appareils personnels connectés à Internet (tels que les smartphones) sont sans aucun doute utilisés pour collecter des données privées et entraîner des modèles d’IA.

Bien que rien n’empêche les entreprises de procéder à ce type de collecte de données (puisqu’elles l’incluent souvent dans leurs conditions de service), elles sont tenues par la loi de stocker ces données en toute sécurité. Bien entendu, aucun système logiciel n’est à l’abri des cyberattaques, et ce n’est qu’une question de temps avant qu’un service d’IA ne soit attaqué à grande échelle, exposant ainsi toutes les données privées collectées.

Mais l’un des défis majeurs auxquels l’IA commence désormais à être confronté est la violation du droit d’auteur et de la propriété intellectuelle. En termes simples, de nombreux grands modèles d'IA (tels que ChatGPT) récupèrent Internet à la recherche de données accessibles au public et utilisent ces données pour s'entraîner. Cependant, selon les titulaires de droits de propriété intellectuelle, même si ces données sont accessibles aux personnes, les utiliser pour créer un modèle d’IA qui est ensuite utilisé à des fins commerciales peut constituer une violation de la loi. UN

Ainsi, de nombreuses entreprises d’IA font désormais face à des poursuites judiciaires, ce qui pourrait très bien paralyser l’industrie de l’IA telle que nous la connaissons. Pire encore, le contenu généré par ces moteurs pourrait également enfreindre la loi et pourrait ainsi voir les solutions d'IA des clients également affectées.

IBM va offrir une protection IP IA à ses clients

Conscient des défis rencontrés avec l'IA et des nombreux procès à venir, IBM a récemment annoncé qu'il offrirait bientôt une protection IP aux clients de ses solutions d'IA. En termes simples, les offres d'IA d'IBM sont d'abord formées sur des ensembles de données IBM, puis les clients peuvent utiliser leurs propres ensembles de données pour affiner le modèle.

Mais les clients ont souvent posé des questions sur les données utilisées par IBM et s'ils peuvent être sûrs de l'intégrité des données utilisées. Par exemple, les clients du secteur de la santé doivent s'assurer que les données utilisées pour former les modèles sont non seulement exactes, mais également dépourvues de données personnelles pouvant renvoyer à des individus et qu'elles ont été extraites avec le consentement de la source de données d'origine.

Ainsi, IBM a annoncé qu'il apporterait des garanties sur les données qu'il fournit pour entraîner les modèles, certifiant essentiellement ce qu'il génère. Dans le même temps, les clients bénéficieront de protections concernant ces données, de sorte qu'IBM assumera la responsabilité des modèles qu'il entraîne avant d'utiliser les données fournies par des clients individuels.

Dans le même temps, Microsoft a également annoncé offrir une protection juridique aux utilisateurs de sa solution logicielle d’IA copilote. En termes simples, si les clients du co-pilote étaient poursuivis pour le contenu généré par le co-pilote, Microsoft interviendrait non seulement pour défendre les clients, mais effectuerait les paiements nécessaires (cela inclut les outils utilisés dans les outils de développement Microsoft 365, Bing et GitHub). ).

Qu’est-ce que cela signifie pour l’avenir des solutions d’IA ?

Le fait que les modèles d’IA nécessitent d’énormes quantités de bases de données pour s’entraîner signifie que peu d’entités dans le monde ont la capacité de créer des modèles complexes (comme Microsoft, Google et Facebook). Comme ces entreprises sont propriétaires des données qu’elles stockent, il est peu probable qu’elles soient confrontées à des contestations juridiques concernant les modèles de formation, mais les petites entreprises (telles que OpenAI) qui s’appuient sur des données publiques risquent certainement de ressentir la chaleur de la salle d’audience dans les années à venir.

À l’avenir, cela signifie que les fournisseurs d’IA générative devront être extrêmement prudents quant à la provenance de leurs données, ce qui pourrait entraver le développement de l’IA. Bien entendu, rien n’empêche une entreprise de développer une IA interne à partir de données protégées par le droit d’auteur, mais les résultats de cette IA ne pourront jamais être partagés en dehors de l’organisation, ni contribuer au développement commercial.

Cependant, si seulement quelques entreprises ont la capacité de créer une IA complexe en raison de la propriété des données, cela pourrait être considéré comme un monopole injuste sur les données, déclenchant ainsi toutes sortes de changements législatifs. Par exemple, la loi peut exiger que la collecte de données ne soit pas autorisée à être utilisée dans l’IA.

La direction que prendra l’IA à partir de là n’est pas exactement claire, et même si sans souci ne sera pas interdit, il devra certainement franchir quelques obstacles.