Après le lancement, le 20 janvier, de son modèle R1 doté de capacités de raisonnement avancées et disponible en open source, la start-up chinoise basée à Hangzhou a partagé un aperçu de la performance économique des taches d'inférence de ses LLM. Dans un post sur GitHub, les données exposées font ressortir que Deepseek dégagerait une marge brute théorique pouvant atteindre 545 %. L'entreprise estime le coût quotidien total de l'inférence pour ses deux modèles V3 et...