Parce que le battage médiatique autour de l'IA n'est rien d'autre que cela, il est facile d'oublier qu'un grand nombre d'entreprises utilisent réellement l’IA et avec succès. Et cela n’a rien à voir avec le marketing dévoyé de Tesla, qui continue de vanter les mérites de la « conduite autonome intégrale » grâce à l'IA. Comme l'écrit l'analyste Benedict Evans, « la version 9.0 du « Full Self-Driving », bientôt disponible (en bêta), ne sera pas vraiment totalement autonome, ni même proche de l'être ». Par contre, Mike Loukides, vice-président Content Strategy, O'Reilly Media, cite plusieurs exemples concrets d’IA impliqués dans la conduite autonome, même si elle n’est pas aussi intégrale que cela. Selon une enquête récente, pour que l'IA fonctionne, il faut, entre autres choses de l'argent et de bonnes données. En supposant que ce soit le cas, quels sont donc les domaines dans lesquels l'IA progresse réellement pour améliorer nos vies et pas seulement en termes marketing ?

Écrire le code à notre place

Copilot de GitHub fournit l’exemple récent le plus visible d'amélioration de la productivité humaine grâce à l'intelligence des machines. À l'instar d’un smartphone (ou de Gmail) qui suggère des mots ou des phrases quand on tape sur un clavier, Copilot est capable de suggérer aux développeurs des lignes de code ou des fonctions à utiliser. Entraîné sur des milliards de lignes de code dans GitHub, Copilot promet d'améliorer la productivité des développeurs en leur permettant d'écrire moins de code, mais mieux. Il est bien trop tôt pour savoir si Copilot fonctionnera. On ne peut pas dire s'il peut ou non faire ce qu'il prétend faire. Mais de nombreux développeurs se sont précipités pour l'essayer et ont vanté son potentiel. Mais, comme le souligne le chroniqueur et journaliste britannique Simon Bisson, Copilot pose plusieurs questions : « Il ne faut pas s'attendre à ce que le code produit par Copilot soit correct. D'une part, ce type d'application n'en est encore qu'à ses débuts, avec peu de formation au-delà de l'ensemble de données initial.

Au fur et à mesure que le nombre de personnes utilisant Copilot augmente, et que l’outil s'inspire de la manière dont ils utilisent ses suggestions pour renforcer son apprentissage, ses propositions devraient s'améliorer. Cependant, les développeurs devront toujours prendre des décisions concernant les extraits qu’ils utilisent et la manière dont ils les utilisent. Ils devront également faire attention au code que Copilot génère pour des raisons de sécurité ». Des questions se posent aussi en matière de droits d'auteur et d’open source, entre autres choses. On peut penser, comme certains, que tout cela est formidable en théorie, mais que la théorie se concrétisera dans des applications réelles à mesure que les développeurs recommenceront à écrire du code. L'essentiel est de savoir si les développeurs trouvent les suggestions de code de Copilot utiles dans des scénarios de programmation réels, et que cette capacité ne se suffit pas en elle-même. La meilleure IA est celle qui accroît la créativité humaine et non celle qui la supplante.

La véritable conduite autonome

Pour l’instant, la réalité sur les voitures autonomes, c’est qu'elles ne sont pas autonomes, mais qu'elles peuvent aider les conducteurs en assumant une plus grande part de la conduite. Pas vraiment ce que disent les campagnes marketing d’Elon Musk. Ce que peuvent faire les véhicules autonomes dépend beaucoup du GPS, qui peut tomber en panne. Cependant, comme l’explique la revue Science Robotics, des scientifiques de Caltech ont rendu « la navigation visuelle très indépendante des saisons, quelle que soit la nature du terrain ». En langage humain, cela signifie que les systèmes autonomes (et les véhicules en particulier) peuvent se baser sur le terrain qui les entoure pour déterminer leur localisation, que ce terrain soit couvert de neige, de feuilles mortes ou de l’herbe luxuriante du printemps. Les méthodes actuelles exigent que les données de cartographie/terrain correspondent presque exactement à ce que le véhicule « voit », mais la neige et d'autres éléments peuvent mettre ces systèmes en défaut.

Pour arriver à ce résultat, les scientifiques de Caltech ont adopté une autre approche, désignée sous le terme d’apprentissage autocontrôlé. « Alors que la plupart des stratégies de vision par ordinateur reposent sur des annotateurs humains qui conservent soigneusement de grands ensembles de données pour apprendre à un algorithme comment reconnaître ce qu'il voit, Caltech laisse l'algorithme apprendre par lui-même. L'IA recherche des modèles dans les images en faisant ressortir des détails et des caractéristiques que des humains ne verraient probablement pas. « Cette approche d'apprentissage profond choisie par les scientifiques permet d'améliorer très précisément la manière dont les machines voient et réagissent au monde qui les entoure ». Il n'est pas surprenant qu’une voiture soit d’abord et surtout entourée par d'autres voitures. Si l’on s’en tenait à cela, l'approche de Caltech n’aurait aucune utilité. Mais de nouvelles recherches réalisées par un scientifique du College of Engineering and Computer Science de la Florida Atlantic University visent à tirer des enseignements des émotions des conducteurs humains et à modifier la conduite en conséquence. La recherche nouvellement brevetée n'est pas encore utilisée en situation réelle, mais elle permet d'envisager une approche globale de la sécurité et de la confiance dans la conduite autonome.

Une question de confiance

D’accord, il faut reconnaître que tout cela est encore un peu spéculatif. Mais ce que Google a réalisé en matière de design de puce à l’aide de l’IA ne l'est pas. Comme l’explique la revue Nature, les ingénieurs de Google ont adopté une approche très innovante pour concevoir le design des composants physique de leur puce d’apprentissage machine. Cela fait des décennies que les ingénieurs essaient sans succès d'automatiser ce processus. Mais en utilisant l'apprentissage machine, les concepteurs de Google ont réussi à réduire un processus laborieux de plusieurs mois à moins de six heures. Comment ? Ils ont créé un plan de conception des composants en le traitant « comme un problème

d'apprentissage par renforcement, et ils ont développé une architecture de réseau neuronal convolutif à base de graphes, capable d'apprendre à partir des représentations riches et transférables de la puce ». Pour en arriver là, les ingénieurs ont soumis un agent à un entraînement préalable en utilisant un ensemble de 10 000 designs de puce différents. Ensuite, en utilisant l'apprentissage par renforcement, comme l'ont expliqué les ingénieurs, l'agent « apprend » des validations précédentes pour déterminer les blocs à poser à la prochaine étape : À chaque étape, l'agent entraîné évalue l'« état » de la puce en développement, jusqu'à l’étape en cours de réalisation, puis applique sa stratégie apprise pour identifier la meilleure « action », c'est-à-dire le meilleur endroit où placer le prochain composant de mémoire. « C’est un exploit impressionnant, mais ce qui l'est encore plus, c'est qu'il est actuellement utilisé en production chez Google. Cela signifie que Google fait confiance aux plans conçus par l’IA pour développer sa puce ».

Peu de confiance dans l'IA 

Pour finir, on ne peut manquer d’évoquer le projet Uncertainty Quantification 360 (UQ360) d’IBM. L'un des défis de l'IA est de vaincre la (mauvaise) volonté des humains à faire confiance à ses résultats. C'est une chose d'être guidé par les données, mais si l’on ne fait pas entièrement confiance à ces données ou à ce que la machine en fera, il devient impossible de laisser l'IA prendre le contrôle. Comme le décrit IBM, l’UQ360 est une « boîte à outils open source avec un package Python qui fournit aux scientifiques des données et aux développeurs un accès à des algorithmes de pointe pour rationaliser les processus d'estimation, d'évaluation, d'amélioration et d’information sur l'incertitude des modèles d'apprentissage machine et de rendre ces pratiques courantes pour rendre l’IA transparente ». C’est un progrès important, car il devrait susciter une plus grande confiance dans l'IA, qui gère de plus en plus de choses dans le monde qui nous entoure. Cela fait des années que l'on nous dit que les robots prennent le pouvoir, même si notre expérience réelle se résume à des publicités qui ne parviennent toujours pas à faire coïncider les intérêts et les opportunités d'achat. L'IA est devenue bien réelle, et le battage médiatique n’est pas nécessaire pour rendre compte de son utilité dans le monde réel