Positionné - comme bien d'autres en ce moment - sur le bouillonnant marché de la GenAI, le chinois DeepSeek va de l'avant. La start-up a donc dévoilé R1, une version open source de son grand modèle de langage (LLM) capable de raisonnement complexe, comprenant 671 milliards de paramètres et revendiquant des performances supérieures à o1 d'OpenAI sur des critères clés. « DeepSeek-R1 atteint un score de 79,8 % Pass@1 sur AIME 2024, dépassant légèrement OpenAI-o1-1217 », a déclaré l'entreprise dans un document technique. « Sur MATH-500, il atteint un score impressionnant de 97,3 %, avec des performances équivalentes à celles d'OpenAI-o1-1217 et nettement supérieures à celles des autres LLM. Pour les tâches liées au codage, DeepSeek-R1 a obtenu une note Elo de 2 029 sur Codeforces et a surpassé 96,3 % des participants humains lors d'une compétition, a ajouté l'entreprise.

« Pour les tâches liées à l'ingénierie, DeepSeek-R1 est légèrement plus performant que DeepSeek-V3 [un autre modèle de l'entreprise], ce qui pourrait aider les développeurs dans des tâches réelles », a déclaré le fournisseur chinois. R1 est disponible sur la plateforme de développement IA Hugging Face sous licence MIT, permettant une utilisation commerciale sans restriction. L'entreprise propose également des versions de son modèle, allant de 1,5 milliard à 70 milliards de paramètres, la plus petite pouvant fonctionner sur un ordinateur portable. La version complète de R1, qui nécessite un matériel plus performant, est disponible via une API à des coûts jusqu'à 95 % inférieurs à ceux d'o1. En tant que modèle de raisonnement, R1 vérifie lui-même ses résultats, ce qui permet de réduire les erreurs courantes dans les autres modèles. Bien que plus lents, les modèles de raisonnement offrent une fiabilité accrue dans des domaines tels que la physique, les sciences et les mathématiques.

Un retard chinois à combler face aux Etats-Unis

La course à la construction de modèles de langage s'est intensifiée, notamment en raison de l'évolution des réalités géopolitiques. « Si OpenAI et d'autres entreprises basées aux États-Unis ont incontestablement l'avantage du premier arrivé, la Chine a beaucoup investi dans l'IA pour renforcer ses capacités et  occuper la seconde place sur le podium », a déclaré Sharath Srinivasamurthy, vice-président associé d'IDC. Dans les applications d'entreprise réelles, les performances de DeepSeek-R1 sur les mesures clés se traduisent par des capacités améliorées en matière de raisonnement mathématique, de résolution de problèmes et de tâches de codage.

DeepSeek R1

Performances comparées de DeepSeek-R1 face à d'autres LLM. (crédit : DeepSeek)

« Bien que cela suggère que DeepSeek-R1 pourrait potentiellement surpasser o1 d'OpenAI dans des scénarios pratiques nécessitant ces compétences spécifiques, le résultat final dépend encore de divers facteurs au sein de l'écosystème d'IA plus large, tels que la préparation des données, le support des RAG et des agents, les intégrations des chaînes d'outils ModelOps et DevOps, le support de l'infrastructure cloud, et la gouvernance de l'IA », a déclaré Charlie Dai, vice-président et analyste principal chez Forrester. En outre, si les performances supérieures annoncées par R1 sont attrayantes, son efficacité réelle reste incertaine en raison d'un manque de clarté concernant les datasets sur lesquelles il a été formé. « Les modèles ne valent que ce que valent les données sur lesquelles ils ont été formés », a déclaré M. Srinivasamurthy. « Avec les politiques restrictives de la Chine en matière de consommation et de publication de données, il est possible que les données soient biaisées ou incomplètes. M. Srinivasamurthy a également noté que le véritable potentiel des LLM réside dans le traitement de modalités multiples telles que le texte et les images. Bien que de nombreux modèles y soient parvenus, R1 a cependant encore une marge de progression pour devenir une solution complète.

Un potentiel d'utilisation par les entreprises

La licence MIT de DeepSeek-R1, qui propose une utilisation commerciale et une personnalisation sans restriction, ainsi que ses coûts réduits, en font une option attrayante et rentable pour une adoption dans les entreprises. Cependant, elles devront peut-être prendre en compte les coûts supplémentaires associés à la licence MIT, tels que la personnalisation, le fine tuning et l'adaptation du modèle pour répondre aux besoins spécifiques de l'entreprise pour obtenir un meilleur retour sur investissement, selon Mansi Gupta, analyste principal chez Everest Group.

Les sociétés situées en dehors de la Chine peuvent également être réticentes à utiliser leurs données pour former le modèle ou l'intégrer dans leurs opérations en raison des défis réglementaires qui affectent l'adoption de l'IA. « Les entreprises doivent évaluer soigneusement les risques géopolitiques liés à l'utilisation de l'IA, en particulier pour leus opérations mondiales », a déclaré M. Gupta. « Il s'agit notamment de naviguer dans les réglementations chinoises et de mener des évaluations de conformité et des analyses de risques approfondies. En fin de compte, l'adoption de R1 dépendra de la capacité des entreprises à optimiser le compromis entre son retour sur investissement potentiel et ces défis géopolitiques et réglementaires. »