« Dans notre équipe, nous venons de la supply chain, pas de la data, a tenu à préciser Jamal Akhiad, directeur du Global demand forecasting du Global innovation center de Sanofi. Nous pratiquons la data, mais nous venons du métier. » C'est sur cette question de la prévision de la demande qu'ils ont travaillé, pas à pas, avec pour objectif d'optimiser la supply chain. « La pharmacie est une industrie qui n'aime pas le risque. Nos prévisions ne doivent donc être ni trop élevées, ni trop basses. Si je n'ai pas prévu assez de produits pour un marché spécifique, un centre de distribution spécifique, je risque une tension sur les stocks. Et a contrario, si je prévois trop, je retire de la capacité de production pour une entité qui en aurait besoin, et je produis là où je n'ai pas de besoin. »

L'industrie pharmaceutique en général, exige d'anticiper la demande à court terme, pour organiser au mieux la distribution des produits, et à long terme, pour la prise de décisions stratégiques. Et au sein de ce secteur, Sanofi évolue dans un contexte spécifique d'un ensemble d'entreprises consolidées au fil du temps, au fonctionnement historiquement décentralisé. « Nous n'avons pas une, mais plusieurs supply chains, avec des temps de production moyens assez longs comme dans toute cette industrie, mais surtout variés, précise ainsi Alex Pedurand, data scientist au sein du Global innovation center. Qui plus est, nous avons aussi dans le groupe des méthodes de calcul de prévisions différentes. » Le duo a pris l'exemple du vaccin Hexaxim, qui cible plusieurs maladies, dont le product lead time moyen (délai entre le début de la production et le départ en livraison) est de 36 mois.

Première étape : nettoyage des données

Le Global innovation center de Sanofi travaille sur des prévisions à au moins 60 mois, mois par mois, avec une granularité au niveau du SKU (unité de gestion de stock). Les équipes concernées exploitent pour ce faire, des méthodes quantitatives à base de modèles de data, amendées avec des prévisions qualitatives, en cas d'historique insuffisant par exemple. « Dans ce cas, nous avons nos biais humains ou les informations provenant du marché, » détaille Alex Perdurand. Le processus a commencé par le nettoyage des données avec de simples régressions linéaires « manuelles », puis la décomposition de séries temporelles en tendances et saisonnalités (méthode STL), l'imputation ou la winzorisation. Cette dernière méthode atténue l'impact de valeurs extrêmes comme les effets induits par des événements comme les comportements de consommation de panique qui se sont multipliés durant les confinements ou le blocage du canal de Suez par le porte-conteneurs Ever Given.
Enfin, Sanofi a aussi testé des algorithmes de machine learning et de deep learning.


Jamal Akhiad, directeur du Global demand forecasting (à G) et Alex Pedurand, data scientist (à D), tous deux travaillant au sein du Global innovation center de Sanofi, à Barcelone. (Photo E.D.)

« C'est tout l'intérêt d'être proche du métier, de discuter au jour le jour avec les marchés, de comprendre les impacts sur la supply chain », souligne Alex Pedurand. « De cette façon, on peut assumer ce rôle d'accompagnateur du changement et pousser l'adoption des outils de prévision, appuie Jamal Akhiad. Ces prévisions nécessitent des compromis qu'il nous est souvent plus facile de faire au sein du métier. » Les data scientists ont ainsi parfois opté pour une solution moins optimisée, plus pragmatique, mais suffisante pour les prévisions recherchées et qui évite un gaspillage inutile de ressources. C'est ainsi que les bons résultats obtenus avec les forecasts supply chain ont aussi intéressé d'autres départements de Sanofi, malgré leur optimisation spécifique pour la supply chain. « Ils sont appliqués dans des domaines pour lesquels ils restent cohérents, sans pour autant avoir été spécifiquement optimisés pour les activités concernées, » complète Alex Pedurand.

Une solution de base entourée de corrections de risque

L'équipe de Barcelone a ensuite progressivement organisé ses développements par modules, pour répondre à différentes typologies de besoins identifiées. À court terme, pour organiser la distribution de produits en fonction de la pression de la demande, par exemple, et rediriger un produit d'un pays vers un autre en cas de ruptures de stock. Dans ce cas, il faut une solution très réactive. Pour le long terme, on parle de décisions stratégiques, comme la construction de nouvelles capacités de stockage des produits par exemple. Sanofi travaille alors sur ses prévisions en collaboration avec les équipes commerciales. « Notre idée, poursuit le data scientist, c'est d'avoir une solution de base autour de laquelle construire une correction de risque à court terme, mois par mois, et des scenarios de long terme. »

Le développement de ces outils de prévision au sein de l'équipe supply chain du Global innovation center de Sanofi ne s'est pour autant pas faite en un jour. « Nous avons commencé avec de simples fichiers linéaires qui s'appelaient Alex ou Jamal », se souvient Alex Pedurand en plaisantant. L'équipe de data scientists a ensuite grossi et a dû se structurer. « Nous avons automatisé nos codes, continue-t-il. Ce qui nous a logiquement conduits à automatiser tous nos workflows. Et nous avons construit une API pour notre solution de supply chain Kinaxis. » Les packages de forecasts ont cependant de plus en plus dépassé les limites de compétences des équipes métier, dont la moitié n'avait pas de notions de code. « Nous étions 3 datascientists, et nous passions notre temps sur des améliorations ou de la maintenance, explique-t-il. Nous ne répondions plus aux demandes quantitatives qui sont notre coeur de métier et apportent réellement de la valeur. »

Une solution conçue par le métier, qui a désormais besoin de l'IT

Pour redresser la barre, Sanofi s'est finalement tourné vers Azure Databricks de Microsoft, qui a d'abord libéré du temps sur la maintenance. La solution s'est par ailleurs révélée plus facile d'accès pour des non-développeurs. « Elle donne aux utilisateurs un accès visuel au workflow, à l'orchestration, à la suite d'exécution des tâches pour qu'ils puissent partager avec nous les problèmes d'orchestration à déboguer, par exemple. Les fonctions de communication et de collaboration nous permettent de répondre très rapidement. » Les outils de MLops, ML Flow et tableaux de bord ont aussi été intégrés à Databricks. Enfin, l'équipe a remis à plat tous ses codes pour les rendre modulaires. « Un input, une tache, un output » vers le datalake en format Delta (Azure Databricks), résume le data scientist. « Cela nous permet de brancher d'autres fonctions, quel que soit le langage, comme une datavisualisation PowerBI par exemple. »

Pour Jamal Akhiad, ces développements pirates ou shadow IT, comme il les qualifie lui-même, ont permis de créer des outils stables, sur mesure pour les besoins de prévisions de la supply chain. « Aujourd'hui, il est plus facile pour nous de défendre un business case auprès de nos équipes digitales, insiste-t-il. Et on parle de centaines de millions de boîtes livrées au bon endroit, au bon moment. Et de ruptures de stock évitées. L'innovation est partout, pas seulement dans la data, pas seulement dans l'IT. Elle est aussi dans le métier. Mais il faut l'aider avec du support. Les résultats sont bien meilleurs que si on travaille en silo. »