Il y a cinq ans, le superordinateur Watson avait créé l'événement en battant ses adversaires sur le jeu télévisé Jeopardy au cours duquel les candidats doivent répondre à des questions de culture générale. Depuis, l’intelligence artificielle s’est infiltrée dans notre vie quotidienne. IBM a largement élargi son offre Watson qui propose maintenant des solutions d’informatique cognitives pour diagnostiquer des maladies, faire de l’exploration pétrolière, faire tourner des modèles scientifiques ou encore permettre aux voitures de conduire de façon autonome. Il propose aussi ses technologies d'apprentissage machine sous forme d'API et il vient maintenant d’annoncer de nouveaux packages pour le deep learning.

Comparé au système Watson d'origine, les systèmes recourant aux technologies d’intelligence artificielle sont aujourd'hui largement déployés. Les méga-datacenters exploités par Facebook, Google, Amazon et d’autres fournisseurs recourent à l’IA sur des milliers de serveurs pour reconnaître les images ou la voix, et analyser d’énormes volumes de données. Watson n’est qu’une des initiatives d’IBM pour fournir de l’IA aux entreprises. Les systèmes de deep learning que vient d'annoncer IBM sont couplés aux outils PowerAI. Ces derniers sont utilisés pour entraîner les logiciels à traiter différentes tâches de deep learning comme la reconnaissance d’image ou de paroles. Plus l’ordinateur apprend, meilleurs sont les résultats obtenus. Cet entraînement requiert beaucoup de puissance informatique.

Un Power8 exploitant des GPU Tesla et des liens NVLink

Les systèmes qu’annonce IBM pourraient être un rouage clé pour rendre les technologies Watson facilement accessibles facilement à ses clients, à la fois dans le cloud et sur site. PowerAI constitue ainsi une continuation de la plateforme cognitive Watson permettant d’étendre l’expertise IA dans les entreprises en utilisant des méthodes de deep learning pour entraîner Watson, explique IBM dans un communiqué. Pour Ken King, general manager d'OpenPower, « PowerAI démocratise le deep learning et d’autres technologies analytiques avancées en apportant aux data scientists dans les entreprises une plateforme facile à déployer pour faire avancer leur projets autour de l’IA ».

La première configuration annoncée repose sur un serveur Power8 équipé de GPU Tesla de Nvidia, le Power S822LC pour le calcul haute performance. C’est le système de deep learning le plus rapide actuellement disponible, selon Sumit Gupta, vice-président, responsable des systèmes HPC et analytiques chez IBM. Les processeurs Power8 et les GPU Tesla P100 sont parmi les puces les plus rapides du moment. Elles sont connectées à travers des liens NVLink, plus performants que PCI-Express 3.0. Les puces graphiques de Nvidia équipent de nombreux systèmes de deep learning de Google, Facebook ou encore du groupe chinois Baidu. « La performance est très importante car les tâches de deep learning s’exécutent pendant des jours », rappelle Sumit Gupta. Dans ce contexte, il est également important d’accélérer les technologies de stockage et de réseaux, ajoute-t-il.

Accessible à travers le cloud Nimbix

Le système Power8 s’exploite à travers le cloud Nimbix qui permet d’accéder à des serveurs bare metal et de disposer de connexions Infiniband. IBM prévoit aussi de livrer du matériel et des logiciels pour l’inférence qui requiert des traitements plus légers sur des terminaux ou en bout de réseau. Le moteur d’inférence prend les résultats d’un modèle déjà entraîné, leur ajoute des données et combine des résultats. Les drones, les robots et les voitures autonomes utilisent les moteurs d’inférence pour la navigation, la reconnaissance d’images et l’analyse de données. Les puces utilisées pour l’inférence sont aussi exploitées dans les datacenters pour doper les modèles de deep learning. Google a créé ses propres puces, TPU (Tensor Processing Unit). D’autres fournisseurs comme KnuEdge, Wave Computing et GraphCore créent également des puces pour l’inférence. IBM travaille sur un modèle différent pour ses systèmes d’inférence, a expliqué Sumit Gupta, mais sans donner plus de détail.

PowerAI réunit les distributions binaires de cinq des frameworks de deep learning les plus populaires dont Caffe, Torch et Theano. Des distributions additionnelles incluent les versions IBM et Nvidia de Caffe, optimisées pour tirer parti des puces Power8 associées aux liens NVLink sur le serveur S822LC. Ces frameworks sont utilisés comme des sandboxes dans lesquelles les utilisateurs peuvent créer et ajuster les paramètres d’un modèle informatique qui apprend à résoudre un problème particulier. Caffe est largement utilisé pour la reconnaissance d’images. Le toolkit proposé par IBM exploite par ailleurs les bibliothèques cuDNN, cuBLAS et NCCL au sein du SDK Nvidia pour apporter une accélération multi-GPU sur les serveurs.