Grâce aux nouveaux outils de développement que Google a dévoilés mercredi à l’occasion de son évènement Google I/O (du 17 au 19 mai à Mountain View), Android sera beaucoup plus affuté à l’avenir. La société a en effet annoncé TensorFlow Lite, une version de son framework conçue pour fonctionner sur des smartphones et autres appareils mobiles. « TensorFlow Lite tirera parti d'une nouvelle API de réseau neuronal pour exploiter les accélérateurs spécifiques au silicium, et au fil du temps, nous nous attendons à voir [des puces de traitement de signal numérique] spécifiquement conçues pour l'inférence et la formation de réseaux de neurones », a déclaré Dave Burke, vice-président en charge de l'ingénierie Android chez Google. « Nous pensons que ces nouvelles fonctionnalités aideront à développer une prochaine génération de traitements de la parole sur les périphériques, de la recherche visuelle, de la réalité augmentée, et plus encore ».

Le framework Lite sera bientôt intégré au projet open source TensorFlow, et l'API du réseau neuronal sera ajoutée à la prochaine édition majeure d'Android, un peu plus tard cette année. Ce framework a de sérieuses implications pour ce que Google considère comme l'avenir de sa plate-forme matérielle mobile. Les puces accélératrices dédiées à  l'IA pourraient permettre aux smartphones de gérer des calculs d'apprentissage machine plus avancés sans consommer autant de puissance. Avec davantage d'applications utilisant l'apprentissage machine pour fournir des usages avancés, ce type de fonctionnalités sera plus facilement exploitable sur les mobiles.

Des calculs déportés pour les algorithmes d'apprentissage machine 

À l'heure actuelle, l’intégration de solutions d’apprentissage machine dans les applications, en particulier en ce qui concerne les modules de formation, exige une puissance de calcul qui requiert habituellement un matériel costaud, beaucoup de temps et beaucoup de puissance. Ce n'est pas vraiment pratique pour les applications pour smartphones, alors que le calcul déporté dans un datacenter avec des serveurs spécialisés assure l’analyse de très grandes quantités de données (images, texte et autres données) nécessitant un traitement sur Internet. Mais l'exploitation de ces données dans le cloud comporte plusieurs inconvénients, selon Patrick Moorhead, analyste principal chez Moor Insights et Stratégie : les utilisateurs doivent être disposés à transférer leurs données sur les serveurs d'une entreprise et doivent être dans un environnement offrant une connectivité réseau suffisamment performante, avec une faible latence.

Il existe déjà un processeur mobile avec un DSP spécifiquement dédié à l'apprentissage machine sur le marché aujourd'hui. Il s’agit de la puce Qualcomm Snapdragon 835 qui accueille le circuit Hexagon DSP capable de travailler avec TensorFlow. Les DSP sont également utilisés pour fournir des fonctionnalités comme la reconnaissance de la phrase de réveil « OK, Google » pour Google Assistant, selon l’analyste. Les utilisateurs devraient s'attendre à voir plus de puces accélératrices dédiées à l’apprentissage machine dans le futur, a déclaré Patrick Moorhead. « Depuis que la loi de Moore a ralenti, c'est un modèle informatique hétérogène », a-t-il déclaré. « Nous utilisons différents types de processeurs pour faire différents types de choses, qu'il s'agisse d'un DSP, d'une [grille de calcul programmable], ou d'un CPU. C'est presque comme si nous utilisions le bon club de golf pour le bon trou ».

Des circuits spécifiques pour les mobiles 

Google investit déjà dans du matériel spécifique à l’apprentissage machine avec sa gamme de puces Tensor, qui sont conçues pour accélérer à la fois les algorithmes d'apprentissage machine ainsi que le traitement de données à l'aide de modèles existants. Mercredi, la société a annoncé la deuxième version de ce matériel, conçue pour accélérer la formation et l'inférence de l'apprentissage machine. Elle n'est pas la seule à exploiter un framework d'apprentissage machine conçu pour les smartphones. L’an dernier, Facebook a également montré un framework d'apprentissage machine orienté mobile appelé Caffe2Go, qui sert à alimenter des applications comme l’application en temps réel de filtres sur des vidéos et des images.