« Reconnaître avec 85 % de fiabilité des chats sur de belles images bien contrastées, c'est très facile, mais atteindre les 90 à 95 % sur des données complexes voire de qualité médiocre, c'est deux ans de R&D » avertit Renaud Allioux, CTO et co-fondateur de la start-up Earthcube. Cette société développe des outils d'analyse d'images pour des besoins critiques, notamment dans la défense (analyse d'images satellites...) mais aussi dans l'industrie (analyse de photographies de pipelines...). Ces secteurs ne peuvent supporter des taux d'erreur élevés.

Mais que change le « besoin critique » lorsque l'on fait de l'analyse d'image par IA ? Pour Renaud Allioux, « il y a trois impacts essentiels ». Le premier est une nécessité de performances élevées, impliquant l'impossibilité d'utiliser des solutions traditionnelles orientées vers d'autres usages. Plus contraignant encore est l'impératif de fiabilité. « La fiabilité est la grande difficulté lorsque l'on passe de l'expérimentation à l'usage réel et qui explique beaucoup des abandons de projets en matière d'IA » observe Renaud Allioux. Pour cela, l'entreprise doit totalement maîtriser le code de sa plate-forme et ne peut donc pas se contenter d'assembler des briques de frameworks. Renaud Allioux relève : « les bugs peuvent être dus soit à du code de framework (comme Keras et Tensorflow), soit à l'intégration des modules. Par exemple, nous avons eu jadis un soucis de différence de scoring entre l'entraînement et la prédiction. »

Pour lire la suite sur CIO, cliquez ici