L’IA est un terrain à maîtriser. C’est le maître-mot qui ressort de l’événement Confiance.ai, qui a lieu du 4 au 6 octobre à CentraleSupélec sur le plateau de Saclay. Le consortium d’industriels, de chercheurs et d’académiques français qui a lancé le programme du même nom, se rassemble à nouveau pour faire un premier bilan de son travail et des objectifs qu’il reste à atteindre. L’initiative vise à développer et à déployer un environnement méthodologique et technologique au service de l’intégration de l’intelligence artificielle dans les systèmes critiques, en France d’abord puis à l’international. Lancé dans le cadre de la 1re phase de la stratégie nationale en IA et financée par France 2030, le projet est soutenu aux 2/3 par l’Etat – soit 30 millions d’euros – et à 1/3 par les industriels.

Le projet qui rassemblait initialement 13 fondateurs (Air Liquide, Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales, Valeo, ainsi que le CEA, Inria, l'IRT Saint Exupéry et l'IRT SystemX) compte aujourd’hui une cinquantaine de partenaires pour 300 personnes mobilisées – l’équivalent de 150 ETP. Depuis juillet 2021, il a donc doublé ses effectifs pour répondre aux besoins. 12 start-ups ont par ailleurs été recrutées dans le programme. « Il s’agit d’injecter de l’IA de confiance dans les entreprises, de les armer afin qu’elles soient en conformité » indique Bertrand Braunschweig, coordonnateur scientifique du projet Confiance.ai à l'Institut de recherche technologique SystemX.

Quatre plateformes pour répondre aux problématiques de l’IA

Le collectif a travaillé dans un premier temps sur la constitution d’une vingtaine d’états de l’art scientifiques portant sur les différentes thématiques couverte par l’IA de confiance, incluant le monitoring, l’ingénierie de la donnée et de la connaissance, l’intelligence artificielle symbolique ou la caractérisation de la notion de confiance. A la suite de cela, les industriels partenaires du projet ont apporté 11 premiers cas d’usage qui découlent de problématiques opérationnelles réelles avec un référentiel concret de contraintes, de modèles, de données et d’objectifs sur lesquels les équipes peuvent appuyer leurs travaux, tester les différents composants technologiques et méthodologiques identifiés afin d’en valider ou non leur pertinence. Le fruit de cette collaboration : une première version de l’environnement de confiance qui a été livrée fin 2021 et est d’ores et déjà déployée au sein des ingénieries des partenaires.

L’un d’entre eux, Safran, indique avoir déployé la chaîne outillée de cet environnement : « Notre équipe a installé cet environnement sur un de nos serveurs de calcul dans une logique « On Premise ». Cette opération est stratégique pour nous du fait du caractère sensible de nos activités, car nous avons désormais l’opportunité d’appliquer les briques de cet environnement à nos uses cases internes en nous affranchissant du recours à un cloud public. Nous avons prévu d’évaluer dans les prochains mois l’interopérabilité des outils de MLOps avec les outils d'explicabilité et de robustesse développés par Confiance.ai », explique Jacques Yelloz, ingénieur en chef dans le domaine de l’IA chez Safran. A ce jour, l’environnement propose quatre plateformes dédiées à des problématiques majeures de l’IA : une consacrée à la gestion du cycle de vie de la donnée (acquisition, stockage, spécifications, sélection, augmentation), un ensemble de bibliothèques dédiées à la robustesse et au monitoring des systèmes à base d’IA, une autre plateforme dédiée à l’explicabilité, et enfin une plateforme destinée à l’embarquabilité des composants d’IA qui doit permettre d’identifier les contraintes de conception à respecter et accompagner tout au long de la réalisation, et ce, jusqu’au déploiement du composant dans le système.

Contribuer au futur AI Act

Le projet est né d’un réel besoin d’avoir une IA fiable, notamment dans les secteurs comme l’automobile, l’aéronautique, l’énergie et la défense. « La confiance est un élément essentiel dans tout système, y compris à base d’intelligence artificielle. D’où la naissance du projet pour répondre à un certain nombre de problématiques industrielles et sociétales », explique Julien Chiaroni, directeur du défi IA de confiance au sein du secrétariat général pour l’investissement. Parallèlement, le programme s’inscrit également dans le cadre de la réglementation européenne à venir, l’AI Act, qui vise à établir des règles d'harmonisation en la matière. « La notion de souveraineté est sous-jacente aux domaines dans lesquels l’intelligence artificielle va s’intégrer », précise Bertrand Braunschweig. Avec ce collectif, la France veut peser dans la balance et avoir son mot à dire quant au futur règlement européen et aux normes qui en découleront. « Il y a un besoin d’assurer la traçabilité, l’explicabilité, la transparence de cette IA », souligne Julien Chiaroni.

En ce sens, le consortium veut nouer des coopérations au niveau européen. En juillet dernier, le sujet avait déjà évoqué les relations internationales nouées. Ainsi, au Québec, Confiance.ai travaille avec tout un écosystème depuis un an pour montrer un partenariat et avoir une déclinaison locale. En Allemagne, les liens se sont renforcés et un label franco-allemand sur l’IA de confiance doit même être lancé cette semaine. Parmi les industriels qui rejoignent le projet, on trouve Bosch, Siemens, SAP, ainsi que VDE, l’institut de standardisation de normes allemand. Ces entreprises constituent un soutien inconditionnel au développement du projet. « Le programme Confiance.ai est particulier dans le panorama français, c’est le seul à vocation industrielle et qui se construit avec tout l’écosystème académique de start-ups, instituts de recherche, académiques, industriels, etc. L’ensemble fonctionne car il y a une mise à disposition du personnel des entreprises partenaires de ce programme », précise David Sadek, président du comité de direction du programme et en poste chez Thales.

Des cas d’usage propres aux industriels

Cette mobilisation d’acteurs apporte par ailleurs un spectre de cas d’utilisation très varié, comme en témoigne Rodolphe Gelin, expert deep learning pour le véhicule autonome et le véhicule connecté au sein du groupe Renault : « L’un des cas d’usage consiste à vérifier l’état de soudures sur un véhicule afin de vérifier son état ». En comparant deux photos, le modèle prend des décisions par rapport à l’image, et l’humain vérifie si le résultat donné par l’IA est juste. « Chaque partenaire peut apporter sa base de données et ses algorithmes » ajoute-t-il. Chez Renault, un autre cas, qui a posé des difficultés, consistait à traiter les retours client de l’entreprise à l’aide du NLP.

Chez Naval Group, également partenaire du programme, les tests ont porté sur la détection d’anomalies sur des capteurs vibratoires avec percepteurs. Le besoin : réduire le nombre de capteurs et les rendre intelligents sans perte de capacité opérationnelle. Mené conjointement avec Sopra Steria, le projet a poussé à détecter et classifier les anomalies découvertes par l’IA et mettre en valeur des patterns aux propriétés spécifiques. Au total, une centaine de composants logiciels sont en cours de conception pour répondre à des défis scientifiques et industriels, indique Bertrand Braunschweig. Pour ce dernier, il s’agit de tout livrer rapidement afin d’être dans les temps pour 2024, date de publication de l’AI Act.