Quelques mois après le lancement de Grok 3, son grand modèle de langage, la startup xAI entend désormais franchir une nouvelle étape pour s’imposer dans la course aux IA. Jusque-là limité à une interface de chatbot intégrée à la plateforme X (ex-Twitter), Grok 3 devient maintenant accessible via une API. Cette ouverture propose aux développeurs d’intégrer directement le modèle dans leurs propres applications, marquant un tournant stratégique. Avec cette évolution, xAI cible clairement des usages professionnels, où la demande en IA performante, personnalisable et intégrable à grande échelle ne cesse de croître.
Deux versions pour des besoins distincts
L'outil se décline en deux modèles : la version complète de Grok 3 et Grok 3 mini plus léger avec des capacités de raisonnement. A noter que les deux versions proposent à un coût supplémentaire une option premium, offrant des performances supérieures. L'API, conforme aux standards de l’industrie, s'intègre facilement pour les développeurs et supporte les interactions multimodales, incluant l'analyse d'images, tout en offrant une large capacité de traitement avec une fenêtre de contexte de 131 072 tokens.
En termes de tarifs, Grok 3 coûte 3 dollars par million de tokens en entrée et 15 dollars en sortie, ou 5 et 25 dollars pour la version accélérée. La déclinaison mini est plus abordable, avec un tarif de 0,30 dollar par million de tokens en entrée et 0,50 dollar en sortie, ou 0,60 et 4 dollars pour la version accélérée. Comparé à l'ancienne API grok-2, qui était à 2 dollars en entrée et 10 dollars en sortie, ces prix restent compétitifs.
Cybersécurité en question
Si Grok 3 impressionne sur le papier par ses performances techniques et ses ambitions, les professionnels de la cybersécurité appellent à la prudence. L’API arrive avec son lot de promesses : raisonnement avancé, recherche web en temps réel via DeepSearch, traitement multimodal. La volonté affichée par Elon Musk de proposer une IA moins filtrée, présentée comme plus "transparente", dans une logique assumée d’opposition aux systèmes jugés trop modérés, fait naître de réelles inquiétudes chez les experts.
Pour Dina Saada, analyste en cybersécurité et membre du réseau Women in Cybersecurity Middle East, il est impératif qu’un modèle de ce type passe par un processus d’évaluation rigoureux avant toute adoption en entreprise. Cela inclut des revues de code approfondies, des tests d’intrusion, des analyses en conditions extrêmes et une conformité stricte aux normes internationales. Pour elle, la confiance ne s’obtient qu’à deux conditions : « xAI doit prouver sa transparence et sa résilience face aux risques. » Les équipes d’Elon Musk ont donc du travail pour garantir aux entreprises que xAI peut répondre à leurs attentes en matière d'intégrité et de fiabilité des modèles.