Nvidia a livré une nouvelle version de TensorRT, un runtime spécialisé dans la livraison d’inférences utilisant des modèles deep learning via ses propres GPU. Les inférences ou les prédictions réalisées à partir d'un modèle peuvent être délivrées soit via le CPU soit via le GPU. Nvidia a bien sur fait le choix de gérer la livraison des inférences via le circuit graphique, espérant ainsi stimuler l’adoption de ses processeurs. Le fondeur veut aussi contrer la...