Historiquement, les grands modèles de langage (LLM) ont nécessité des ressources informatiques substantielles. Cela signifie que le développement et le déploiement étaient principalement confinés à des systèmes centralisés puissants, tels que les fournisseurs de cloud public. Cependant, bien que beaucoup pensent que nous avons besoin de quantités massives de GPU liées à d'énormes capacités de stockage pour faire fonctionner l'IA générative, en réalité, il existe...