Déjà bien fourni, le catalogue de services d’apprentissage machine d’AWS s’enrichit avec l’ajout de services pour les développeurs, de modèles et d’algorithmes pour la plateforme managée SageMaker, du data labeling automatique et des versions optimisées de TensorFlow et d’autres bibliothèques de machine learning. La dernière évolution de TensorFlow concoctée par AWS est proposée en disponibilité générale. Elle automatise la mise à l’échelle des jobs et leur répartition entre plusieurs nœuds EC2 exploitant des GPU. Cette amélioration de l’efficacité opérationnelle sur des dizaines de GPU accélère l’apprentissage des modèles par rapport à une mise en place manuelle, pointe Amazon.

Autre évolution de l'offre de machine learning, AWS accélère le service d'inférences à partir de modèles à l'échelle et permet de limiter le coût en GPU en fonction des besoins d’apprentissage. Amazon Elastic Inference prend les modèles des frameworks habituels (TensorFlow, Apache MXNet, etc.) et les utilise pour servir des prédictions à partir d’une instance EC2 relativement modeste qui dispose de performances GPU pouvant être montées en puissance ou réduites si nécessaire. Le client ne paie que pour la puissance GPU utilisée. L’idée ici est donc de ne pas mettre en route une instance EC2 trop puissante qui ne serait en grande partie pas utilisée.

Automatisation du classement des données dans SageMaker

AWS a aussi complété SageMaker, son service entièrement managé par AWS qui permet de créer des modèles et des workflows de machine learning (ML). De nombreux modèles ML ont besoin de données ayant été catalogué ou pré-classifiées. Il s’agit de tâches très chronophages parce qu’elles sont généralement faite à la main. Avec l’arrivée de Ground Truth, SageMaker apprend à étiqueter un jeu de données en temps réel au moment où elles sont classées par les utilisateurs spécialisés sur ces tâches. Une fois entraînées sur un jeu de données, le service peut appliquer automatiquement cette classification sur d’autres données.

Une autre difficulté du machine learning concerne le renforcement des systèmes d’apprentissage quand le modèle est continuellement affiné sur la base des feedbacks obtenus sur le terrain. SageMaker RL (real-world) permet aux développeurs de bâtir, entraîner et déployer en disposant d’un apprentissage renforcé à travers des algorithmes d’apprentissage renforcés managés, ces derniers étant packagés avec les différents éléments requis par les piles logicielles utilisées pour le faire. Un 3ème service vient compléter SageMaker, Neo. Celui-ci optimise les modèles ML pour qu’ils s’exécutent plus vite en consommant moins de ressources. Cela s’apparente à la façon dont les modèles TensorFlow sont déployés sur des machines d’entrée de gamme. Pour l’instant, Neo est limité au déploiement de modèles sur des instances Amazon EC2, sur les endpoints SageMaker et sur des équipements gérés par AWS IoT Greengrass, précise AWS. Par ailleurs, il est désormais possible d’acheter sur AWS Marketplace et de déployer sur SageMaker des modèles ML prépackagés pour les tâches métiers les plus répandues comme la prévision de la demande, la préparation de données ou le traitement en langage naturel.

Forecast génère des modèles à partir de données historiques

Enfin, Amazon Web Services a dévoilé différents services pour que les développeurs puissent ajouter de l’IA à leurs applications. Textract, par exemple, utilise l’apprentissage machine pour extraire des données de documents ou de formulaires. Un autre service de même nature se focalise sur le monde médical : Comprehend Medical utilise le traitement en langage naturel pour extraire des informations des notes prises par les médecins et des dossiers patients. Enfin, Forecast génère des modèles ML personnalisés à partir de données historiques, l’objectif étant de créer des prévisions présentant une dimension temporelle.