Avec ses 352 magasins en France et en Europe, Maisons du Monde est un acteur installé de la décoration et de la vente de meubles... même si la naissance de la marque ne remonte qu'à 1996. L'histoire est assez similaire dans la donnée : le groupe a lancé sa marketplace en 2020 (celle-ci pèse aujourd'hui 14% du chiffre d'affaires), alors que l'équipe en charge de la data n'a été constitué que trois ans plus tôt. Intégrée à la DSI, celle-ci compte aujourd'hui entre 35 et 40 personnes, avec des profils diversifiés allant du webtracking à la data science. Principalement sur Google Cloud Platform (GCP), cette activité gère des volumes importants : un Po de données sur un datalake BigQuery, 16 000 requêtes SQL journalières, 800 data sources et 500 utilisateurs de la solution de visualisation (Qlik). « En matière d'applicatifs, nous avons fait le choix des développements maison, avec une trentaine d'applications en Python. Cela s'est avéré payant en matière de coûts », assure Guillaume Duflot, responsable data engineer et DataOps du groupe de distribution.

Une précaution qui n'empêche toutefois pas l'explosion des coûts du cloud. Au premier semestre 2022, la facture GCP bondit de 56% par rapport à la période comparable de 2021. « Trois services, BigQuery, le calcul et le stockage, étaient à l'origine de 93% des coûts. Et nous n'avions ni monitoring, ni bonnes pratiques en place. Je me suis donc lancé dans une démarche FinOps, raconte Guillaume Duflot, qui s'exprimait lors de la conférence Big Data & AI organisée à Paris fin septembre. La démarche vise à acculturer les utilisateurs sur les coûts qu'ils génèrent, à les amener à évaluer combien leurs applications coûtent et pourquoi elles coûtent. » Pour le spécialiste data, le FinOps passe par un ensemble d'actions (choisir la bonne architecture, mieux consommer les ressources déjà disponibles, etc.) qui, mises bout à bout, permettent d'atteindre un résultat important. En l'occurrence ici, une réduction de 30% de la facture globale de GCP en un an. « Pourtant ce n'est pas forcément facile à vendre à un comex, car on ne peut pas miser sur un 'effet waou' », assure le responsable.

De la compréhension des factures à l'anticipation des coûts

Au démarrage de la démarche, Guillaume Duflot décrit une phase exploratoire, visant avant tout à comprendre la facture du ou des prestataires cloud. « Ensuite, on entre dans l'action en priorisant les taches en fonction des économies réalisables et de l'effort à consentir pour les atteindre », indique-t-il. Il faut également faire oeuvre de vulgarisation, en expliquant les bonnes pratiques aux profils les moins familiarisés avec les architectures cloud. Au sein du département data, les data scientists ou data analysts notamment. L'étape d'après consiste à prévenir les nouvelles hausses de coûts. « Pour ce faire, il faut expliquer, expliquer et encore expliquer. Sans oublier de monitorer, en démarrant, par exemple, avec les outils que proposent les fournisseurs de cloud qui fournissent un premier niveau d'analyse », dit Guillaume Duflot. Enfin, dernière étape, il faut anticiper l'évolution future des factures, en estimant les coûts que va générer la feuille de route de l'entreprise.

Pour établir des comparaisons et affecter les coûts avec précision, Maisons du Monde a labellisé ses ressources IT par équipe ou par projet. « Et je suis vigilant sur les points de comparaison. J'ai par exemple normalisé les mois à 30 jours et 4 week-ends pour éviter les effets dus à des bases de comparaison différentes », glisse Guillaume Duflot. Par ailleurs, tous les collaborateurs de l'équipe data se voient assigner un objectif lié au FinOps, tout comme ils ont un objectif associé à la réduction de l'empreinte carbone.

Monitoring fin et étude de l'origine des pics de charge

Concrètement, les trois services les plus générateurs de coûts ont été rebalayés dans le détail. Ainsi de BigQuery, dont les coûts avaient presque été multipliée par deux entre le premier semestre 2021 et le premier semestre 2022. « Les factures étaient peu prévisibles, et nous avions des niveaux de charge très variables, avec des pics importants », décrit le responsable. Maisons du Monde a mis en place un monitoring fin de ces environnements systématisé les investigations sur les origines des pics de charge. Après refonte des requêtes les plus coûteuses et optimisation des tables, les coûts de BigQuery sont en recul de 52% au premier semestre 2023. « Aujourd'hui, la courbe des dépenses sur ce service est plus plate et les factures sont plus prévisibles », indique Guillaume Duflot, qui a également mis en place un système de validation des requêtes ad hoc par un ingénieur data, avant leur passage en production. Maisons du Monde n'en subit pas moins les évolutions de coûts dictées par Google... comme l'augmentation de 25% des coûts des requêtes BigQuery, décidée en juillet. « Mais, en parallèle, nous avons bénéficié de la possibilité de payer le stockage en coûts compressés et non théoriques, ce qui a abaissé notre facture de stockage d'environ 80% sur BigQuery. »


Guillaume Duflot, responsable data engineer et DataOps de Maisons du Monde : « la démarche FinOps vise d'abord à acculturer les utilisateurs sur les coûts qu'ils génèrent. » (Photo : R.F.)

Autre service cible de toutes les attentions : le calcul, qui a vu ses coûts progresser de 32% au premier semestre 2022. Sur ce total, les serveurs Qlik Sense, allumés en continu, représentaient 78% du total. « Là encore, nous n'avions pas de monitoring en place et les engagements contractuels pris auprès de Google n'étaient pas adaptés », précise Guillaume Duflot. Les ressources ont, depuis, été labellisées à la VM. « Mais les vraies économies sont venues d'une bascule vers des machines plus petites durant les nuits et les week-ends et d'un changement de type de machines. » Sur ce terrain, Maisons du Monde a pu réduire ses coûts de 13% entre juin 2022 et juin 2023, « tout en augmentant les performances pour les métiers », assure le responsable.

Stockage : une semaine d'efforts pour -83%

Enfin, sur la partie Google Storage, Guillaume Duflot a déployé des règles définissant des classes de stockage, permettant d'exploiter des environnements adaptés aux besoins réels. Sans oublier une purge automatique des fichiers. « Des actions qui nous ont pris moins d'une semaine et nous ont permis de sortir d'une forme de stockage aveugle », résume le responsable. Pour un résultat spectaculaire : une baisse de 83% des coûts !

Si Maisons du Monde a mené aujourd'hui à bien une première phase de rationalisation, lui permettant d'éviter les surprises trop importantes sur les factures de son fournisseur, d'autres optimisations sont encore possibles. Via un monitoring plus fin des projets métiers. Via encore un travail sur la suppression des données devenues inutiles (Guillaume Duflot espère économiser encore 10 à 20% des coûts de stockage grâce à ce levier). Ou encore via de nouvelles optimisations dans BigQuery. Surtout, le département data, pionnier du FinOps en interne, a désormais vocation à accompagner l'ensemble de la DSI sur le sujet, en commençant par les optimisations de Google Kubernetes Engine (GKE) qu'exploite l'IT du groupe.