AWS fait feu de tout bois dans le cadre de sa dernière conférence re:Invent. Ce mercredi, au cours de sa prise de parole, Swami Sivasubramanian, vice-président d'AWS en charge des données et de l'IA, a présenté les mises à jour de plusieurs modèles de fondation existants pour le service de construction d'applications d'IA générative Amazon Bedrock. Elles concernent Claude 2.1 d'Anthropic et Meta Llama 2 70B, tous deux généralement disponibles. Amazon a également ajouté à Bedrock les modèles de fondation propriétaires Titan Text Lite et Titan Text Express. Le fournisseur de services cloud a aussi livré en aperçu le modèle Amazon Titan Image Generator pour Bedrock. « Ce modèle, qui peut servir à générer et à faire rapidement de l’itération d’images à un coût peu élevé, peut comprendre des messages complexes et générer des images pertinentes avec une composition précise des objets et des distorsions limitées », a déclaré AWS. Les entreprises peuvent utiliser le modèle dans la console Amazon Bedrock en soumettant une requête en langage naturel pour générer une image ou en téléchargeant une image pour une édition automatique, avant de configurer les dimensions et de spécifier le nombre de variations que le modèle doit générer.

Pour lutter contre la propagation de fausses informations, Titan dispose d’un mécanisme d’identification discret pour inscrire un filigrane invisible dans les images qu’il génère. Les modèles de fondation actuellement disponibles dans Bedrock comprennent de grands modèles de langage (LLM) d’AI21 Labs, Cohere Command, Meta, Anthropic et Stability AI. « Il est possible d’affiner ces modèles dans Bedrock, à l'exception, pour l’instant, de Claude 2 d'Anthropic », a indiqué AWS, qui ajoute que cette capacité sera disponible prochainement. Afin d'aider les entreprises à générer des embeddings (ou incorporations) pour l'entraînement ou le prompting des modèles de fondation, le fournisseur met également à disposition Amazon Titan Multimodal Embeddings. « Le modèle convertit les images et les textes courts en embeddings - ces représentations numériques sont utilisées par le modèle pour comprendre facilement les significations sémantiques et les relations entre les données - qui sont stockées dans la base de données vectorielle du client », a déclaré l'entreprise dans un communiqué.

Évaluer le meilleur modèle de fondation pour les applications d'IA générative

Par ailleurs, une dernière fonctionnalité de Bedrock permet aux entreprises d'évaluer, de comparer et de sélectionner le meilleur modèle de fondation pour leur cas d’usage et leurs besoins commerciaux. « Baptisée Model Evaluation on Amazon Bedrock, cette fonctionnalité, actuellement en aperçu, simplifie des tâches comme l'identification de benchmarks, la mise en place d'outils d'évaluation et l'exécution d'évaluations », a indiqué l'entreprise, ajoutant que la fonction permet de gagner du temps et de réduire les coûts. « Dans la console Amazon Bedrock, les entreprises choisissent les modèles qu'elles souhaitent comparer pour une tâche donnée, comme la réponse à une question ou le résumé de contenu », a fait savoir Swami Sivasubramanian, expliquant que pour les évaluations automatiques, les entreprises sélectionnent des critères d'évaluation prédéfinis (par exemple, la précision, la robustesse et la toxicité) et téléchargent leur propre ensemble de données de test ou sélectionnent des ensembles de données intégrés et disponibles publiquement.

« Pour les critères subjectifs ou les contenus nuancés nécessitant un jugement plus sophistiqué, les entreprises peuvent mettre en place des flux de travail d'évaluation basés sur l'humain, soit à partir de données provenant du personnel interne à l'entreprise, soit à partir de données fournies par AWS pour évaluer les réponses des modèles », a aussi indiqué Swami Sivasubramanian. Parmi les autres mises à jour de Bedrock il faut également citer les Guardrails, actuellement en aperçu, qui aident les entreprises à adhérer aux principes de l'IA responsable. À noter par ailleurs que les bases de connaissances Knowledge Bases et les agents Amazon Agents pour Bedrock sont désormais généralement disponibles.

Des capacités SageMaker pour la mise à l'échelle de LLM

Afin d'aider les entreprises à former et à déployer efficacement de grands modèles de langage (Large Language Model, LLM), AWS a lancé deux offres SageMaker HyperPod et SageMaker Inference au sein du service Amazon SageMaker AI and machine learning. « Contrairement au processus manuel de formation des modèles, souvent sujet à des retards, des dépenses inutiles et autres complications, HyperPod évite les lourdes tâches liées à la construction et à l'optimisation de l'infrastructure d'apprentissage machine pour la formation des modèles, réduisant ainsi le temps de formation jusqu'à 40 % », selon l'entreprise. L’offre inclut les bibliothèques d'apprentissage distribuées de SageMaker, qui permettent aux utilisateurs de répartir automatiquement les charges de travail d'apprentissage sur des milliers d'accélérateurs, et de traiter les charges de travail en parallèle pour améliorer les performances des modèles. Selon Swami Sivasubramanian, « HyperPod permet également aux clients de poursuivre l'apprentissage des modèles sans interruption en sauvegardant périodiquement des points de contrôle ».

Quant à SageMaker Inference, il peut aider les entreprises à réduire les coûts de déploiement des modèles et à réduire la latence dans les réponses des modèles. Pour cela, Inference permet aux entreprises de déployer plusieurs modèles sur la même instance cloud afin de mieux utiliser les accélérateurs sous-jacents. « Les entreprises peuvent également contrôler les politiques de mise à l'échelle pour chaque modèle, ce qui facilite l'adaptation aux schémas d'utilisation des modèles tout en optimisant les coûts d'infrastructure », a expliqué la firme, ajoutant que SageMaker surveille activement les instances qui traitent les demandes d'inférence et achemine intelligemment les demandes en fonction des instances disponibles. Le fournisseur a aussi mis à jour sa plateforme d'apprentissage machine low-code destinée aux analystes commerciaux, SageMaker Canvas. « Les analystes peuvent utiliser le langage naturel pour préparer les données dans Canvas afin de générer des modèles d'apprentissage machine », a annoncé Swami Sivasubramanian. La plateforme no-code supporte les LLM d'Anthropic, Cohere et AI21 Labs. SageMaker dispose également d'une fonctionnalité d'évaluation des modèles, désormais appelée SageMaker Clarify, accessible depuis SageMaker Studio. D'autres mises à jour liées à l'IA générative incluent le support des bases de données vectorielles pour Amazon Bedrock. Ces bases de données incluent Amazon Aurora et MongoDB. Les autres bases de données prises en charge sont Pinecone, Redis Enterprise Cloud et Vector Engine pour Amazon OpenSearch Serverless.