Intel n'est pas prêt à jouer les seconds rôles sur le marché des puces destinées à l'apprentissage machine. Pour ce faire, et contrecarrer les plans de Google avec son Tensor Processing Unit (TPU) mais aussi de Nvidia et son GPU dédié, le fondeur américain a ainsi ajouté des fonctionnalités à son processeur Xeon Phi. Pour l'instant, la société n'a pas encore précisé quand ces fonctions seront ajoutées, même si l'on sait que la prochaine version du Xeon Phi est prévue pour 2018. 

La dernière mouture de la puce Xeon Phi lancée par Intel, nom de code Knights Landing, comptant jusqu'à 72 coeurs a été lancée la semaine dernière et est actuellement testée pour le machine learning. Le fondeur estime qu'elle est en mesure de dépasser les capacités de GPU pour certains modèles d'apprentissage machine. Le Xeon Phi peut être utilisé en tant que CPU primaire ou co-processeur, mais pour l'instant sa conception le prédispose davantage pour un usage en environnement supercalculateur plutôt que d'auto-apprentissage avec chaque coeur Atom épaulé par deux unités de traitements vectoriels et des instructions dédiées AVX-521. D'après Intel, Le Xeon Phi réduit la nécessité de délester les tâches de calcul relatives au machine learning à des co-processeurs sachant qu'elle peut s'appuyer sur une interconnexion rapide comme OmniPath particulièrement adaptée au déplacement rapide des données entre serveurs.

Le support de Google TensorFlow dans les tuyaux

Intel va également ajouter du support pour un nombre plus important de logiciels machine learning open source. Le fondeur est ainsi en train de concevoir des modèles d'apprentissage machine autour de Caffe, un package open source sachant que Xeon Phi pourrait au final supporter TensorFlow, le logiciel machine learning de Google. Le fondeur de Santa Clara pense que sa puce pourra être utilisée pour des usages dans le médical et le traitement des images, où les modèles d'apprentissage peuvent aider à donner du sens aux données comme trouver à identifier une maladie ou aider à classer une image par l'analyse de pixels. L'objectif étant de réduire le temps pour traiter un modèle spécifique et effectuer des calculs plus rapidement.