Avec la ChatGPT mania, les regards et les médias se sont focalisés sur le soutien de Microsoft et son intègration de l’agent conversationnel à beaucoup de ses services. Très discret, Amazon Web Services a décidé de sortir du bois sur les IA génératives, mais non pas pour construire ses propres modèles d’IA. Il préfère s’adresser aux développeurs à travers un service cloud nommé Bedrock.

Des partenariats avec les start-ups IA en vogue

Ce dernier propose de créer des applications basées sur des IA génératives à partir de modèles pré-entraînés fournis par des start-ups. Parmi elles, on trouve AI21 Labs (spécialiste en NLP avec ses solutions Jurassic), Anthropic (éditeur du chatbot Claude et qui vient de lever 300 M$ auprès de Google) et Stability AI (éditeur de Stable Diffusion générateur d’image). Ce service est disponible en preview limitée. En complément de cet accès, les développeurs auront aussi à disposition les modèles Titan, une famille de systèmes formés en interne par AWS, pour par exemple rédiger des articles de blog.

Pour le fournisseur de services cloud, Bedrock et Titan répondent à deux objectifs. Le premier est que les entreprises « ont besoin d’un moyen simple de trouver et d’accéder à des modèles de base (appelés Foundation Models) performants qui donnent des résultats pertinents et adaptés à leurs objectifs », explique AWS dans un blog. Il ajoute, « deuxièmement, les clients souhaitent une intégration transparente dans les applications, sans avoir à gérer d'énormes grappes d'infrastructures ou à supporter des coûts élevés ». On notera que dans sa communication, AWS se garde bien de donner une grille tarifaire sur le service Bedrock. Par contre, il donne le nom des clients qui s'intéressent à ce service : Pegasystems, Deloitte et Accenture.

CodeWhisperer et les instances Inf2 ouverts à tous

Cette annonce intervient après plusieurs annonces de partenariats comme Stability AI qui a choisi en novembre dernier AWS comme fournisseur de cloud privilégié. Plus récemment, à sa conférence parisienne, AWS a dévoilé un accélérateur d’IA générative : un programme visant à aider les start-ups en phase de démarrage sur ce secteur. La firme avait également déclaré travailler avec Nvidia pour élaborer une infrastructure de « prochaine génération » pour l’entraînement des modèles d’IA.

En parlant d’infrastuctures, AWS profite de l’annonce de Bedrock pour mettre à disposition au plus grand nombre ses instances Inf2 et Trn1 sur EC2. Les première ont été présentées lors du dernier Re:invent et fonctionnent avec les puces Inferentia2, dédiée à l’entraînement des modèles d’IA. Les instances Trn1 reposent sur la puce Trainium, avec un axe de performance réseau (une bande passant de 800 Gbt/s) pour les applications ML. Elles sont compatibles avec TensorFlow, PyTorch et MXNet. Enfin, AWS ouvre à tous CodeWhisperer, un concurrent de Copilot de Github dans l'auto-complétion de code. Ce dernier a annoncé plusieurs évolutions récemment dont l’intégration de ChatGPT. Pour séduire les développeurs individuels, Amazon propose une version gratuite de son offre.