Quels constats faites-vous sur les besoins concrets des entreprises en matière de data et d’IA ? Et comment les transformez-vous en offres concrètes ?

Laurent Delaisse : Hitachi est un groupe industriel créé il y a plus de 110 ans, et la branche IT a été initiée il y a plus de 60 ans.

Le groupe Hitachi a lancé au Japon en 2015 une solution d’intelligence artificielle nommée Hitachi AI Technology/H. Cette technologie fonctionne en passant au crible de grandes quantités de données afin de déterminer quels facteurs sont fortement corrélés aux indicateurs clés de performance (KPI) et d'en déduire des améliorations potentielles (prédiction, machine learning, business improvement, etc.). La data, sous toutes ces formes, se situe au cœur de nos secteurs stratégiques : l'énergie verte et la mobilité, les solutions industrielles de connectivité (incluant les solutions autour de la santé) et enfin les solutions et services autour du digital.

Nous intégrons l'IA sous deux formes : en usage interne, pour améliorer nos propres équipements, puis en rendant ces innovations disponibles pour nos clients. Par exemple, dans l'énergie, Hitachi Energy a développé une solution logicielle qui fournit des prévisions précises sur la demande, l'offre et les prix de l'énergie dans un contexte de volatilité. Elle s'appuie sur plus de 30 ans de données et d'apprentissage automatique. Dans le transport, nous avons lancé en 2024 une plateforme de gestion des actifs numériques basée sur l'IA de Hitachi Rail, HMAX (Hyper Mobility Asset Expert), conçue pour optimiser les opérations ferroviaires dans les domaines des trains, de la signalisation et des infrastructures avec la collaboration de Nvidia.

Dans le cadre des solutions et services autour du digital, nous proposons Hitachi iQ, une offre d'infrastructure adaptable avec des modèles « small, medium ou large » selon les besoins clients.

Y a-t-il des points de friction ? Et quels sont les principaux cas d’usage que vous avez identifiés ?

Laurent Delaisse : Le premier point de friction majeur chez les clients, c'est le silotage de la data, avec des environnements fermés qui ne dialoguent pas entre eux. Il y a là un véritable enjeu de gouvernance.

Les entreprises commencent à faire des cas d'usage IA sur des groupes de données restreints, mais pas sur la totalité du scope. Résultat : le modèle généré, basé sur des données pauvres, n'arrive pas à résoudre le problème de manière viable. C'est pourquoi notre approche découverte commence par définir les cas d'usage en nous appuyant sur nos retours d'expérience industriels. Ensuite, nous identifions les sources de données, puis nous aidons le client à les cartographier pour les rendre exploitables. Avec le bon cas d'usage, les bonnes données et la bonne gouvernance, nous pouvons créer un POC avec un véritable ROI.

Les secteurs de la finance, banque et assurance sont très en avance. Au début, il s’agissait surtout de chatbots. Désormais, on observe une montée des dispositifs "customer 360", Credit Card fraud detection, Credit risk analysis qui utilisent le machine learning et le deep learning pour traiter les données de manière comportementale. Ensuite, on trouve des applications plus intéressantes sur le croisement de différentes données – clients, métiers, logistique.

Comment appréhendez-vous l'hétérogénéité des systèmes d'information clients ?

Laurent Delaisse: La cartographie est essentielle. Un client évolue : les acquisitions, la croissance internationale créent de nouveaux silos – on-premise, hosted services, hyperscalers, clouds publics et clouds de confiance locaux (SecNumCloud), etc.

Nous utilisons donc des outils capables de cartographier cette infrastructure et définir un échantillonnage représentatif. Souvent, quand on demande à un client s'il a cette cartographie, il répond positivement, mais le document est rarement à jour car la donnée évolue constamment, en raison des acquisitions ou nouveaux besoins métiers.

Nous pouvons, si nécessaire, créer ensuite un mécanisme ETL (Extract, Transform, Load) pour transformer les données propriétaires en formats ouverts exploitables et les intégrer dans un pipeline de données. C'est la clé de notre "data management as a service" : cartographier la donnée avec les différentes équipes dirigeantes des entreprises (data, gouvernance, sécurité, information, finance, etc.) pour fournir les bonnes sources d'information et les bonnes actions à mener par rapport à leur secteur d’activité. Une même donnée peut se trouver plus de treize fois dans un système d'information ! Nous pouvons optimiser la donnée, la rationaliser, la mettre au bon endroit, la taguer correctement et l’enrichir si nécessaire. La qualité de la donnée fait partie du processus de réussite d'un projet IA. Selon Gartner, 30% des projets GenAI échouent après l’étape de POC.

Comment votre offre s’intègre-t-elle aux enjeux data et IA de vos clients ?

Laurent Delaisse : Avec notre offre Hitachi iQ, désormais opérationnelle depuis été 2024, nous définissons des modèles selon les cas d'usage clients, en fournissant l'infrastructure matérielle et logicielle. Nous avons toutes les certifications Nvidia nécessaires. Nous pouvons démarrer par de petits POCS pour répondre à un besoin de création et aller jusqu'aux plus grosses infrastructures Nvidia certifiées de bout en bout.

A quoi s’ajoute notre nouvelle offre Hitachi iQ Studio, qui permet de gérer différents moteurs GenAI - Claude, Llama, ChatGPT, Gemini, etc - et d’identifier, par exemple, dans des sources de données celles qui ne sont pas conformes au RGPD. C'est du no-code/low code : l'objectif est d'assister nos clients via une interface web graphique en langage naturel.

Comment les enjeux de sobriété numérique, de RGPD et de circularité sont-ils pris en compte ?

Laurent Delaisse : D’abord, il faut dire que dans les appels d'offres, la pondération de ce sujet est passée de 40% à environ 20% – non pas parce que c'est moins important, mais en raison de l'IA qui consomme beaucoup d'énergie. C'est pourtant notre vrai différenciateur. Ainsi, nous sommes certifiés par Energy Star, société américaine de certification et d'audit qui, à la base, évaluait des écrans mais qui certifie désormais aussi les équipements datacenter. Nous avons également obtenu la certification « Carbon Footprint of Products » (CFP) qui quantifie le faible impact environnemental du VSP One Block (Virtual Storage Platform One) tout au long de son cycle de vie. Notre gamme VSP One Block a ainsi été élue la machine qui optimise le mieux la consommation énergétique. Sur les cinq premières machines du classement, trois sont des machines Hitachi.

Rappelons que nos produits sont conçus et fabriqués au Japon. Notre empreinte carbone est 38% moindre que celle de nos concurrents. Hitachi a anticipé ce sujet et l’a pris en compte il y a 10 ans. Le Japon étant une île avec un espace limité, nous avons développé une chaîne complète de gestion du CO2 optimisée au maximum.

En Europe, nos produits transitent par notre centrale logistique néerlandaise certifiée Ecovadis Gold et carbone neutre : panneaux solaires sur le bâtiment, ainsi que sur nos camions pour éviter de consommer du diesel.

Nous sommes l'un des rares constructeurs à établir notre bilan carbone scope 1, 2 et 3, publié annuellement. Nous allons être certifiés SBTi (Science Based Targets initiative) d’ici la fin d’année 2025. Quand un client achète nos équipements, nous proposons un engagement contractuel de consommation CO2 avec un tableau de bord pour mesurer l'évolution de l'empreinte.

Valérie Huet : Dans cette chaîne, il faut également considérer le poids du partenaire. Nous devons démontrer que l'ensemble du cycle – revendeur, distributeur, fournisseur - est conforme à nos engagements. Ainsi, TD SYNNEX suit les mêmes guidelines Green IT. Nous emmenons nos partenaires visiter notre Center of Excellence pour leur montrer le recyclage des emballages à Zaltbommel aux Pays-Bas. Et l'année dernière, nous avons participé à Move for Climate, qui nous a reconnus, en tant qu’organisation de l'infrastructure de stockage, comme le seul acteur Green IT impactant.

Comment adressez-vous l'enjeu de la souveraineté ?

Laurent Delaisse : Effectivement, avec l'IA, la souveraineté l’autre grand sujet d'actualité. Nous proposons, via nos partenaires, une infrastructure dans un environnement certifié, notamment par l'ANSSI.

Il y a deux types de souveraineté. D'abord, la souveraineté européenne, avec un hébergement en Europe. Mais de plus en plus, on nous réclame la souveraineté France pour garantir que la data ne sorte pas d'un espace contrôlé. Nous constatons aussi une accélération des rapatriements de workloads des cloud publics, pour 4 raisons principales : des coûts non prédictibles ; les aspects liés à la sécurité et à la conformité ; les prérequis en termes de performances (latence, workloads critique, etc.) ; enfin, la volonté de ne plus dépendre d’un seul fournisseur.

Mais nous pourrions en rajouter un autre : le rapatriement des workloads AI et machine learning. Ce qui a déclenché une croissance exponentielle de nouveaux datacenters en France. Beaucoup de clients montent de nouveaux datacenters pour héberger leurs assets chez eux et assurer par l'audit que la donnée est bien sous leur contrôle physique.

C'est l'approche que nous proposons avec notre offre Everflex (Infrastructure-as-a-service): une consommation à l'usage dans le datacenter du client, lui permettant de retrouver le même mécanisme de tarification à l’usage, mais dans un environnement contrôlé et maîtrisé.

Quels sont les objectifs de votre partenariat avec TD SYNNEX ?

Valérie Huet : Après plus de 4 ans, notre partenariat arrive à maturité. TD SYNNEX est un distributeur global qui adresse l'Europe avec des ressources et investissements européens. Notre objectif consistait à nous ouvrir le marché des ETI et du mid-market avec notre offre VSP One - ex VSP E-Series. TD SYNNEX, avec son expertise dans le recrutement de partenaires, nous apporte la dynamique, la flexibilité et les ressources marketing nécessaires pour adresser ce marché différent de notre cœur de cible.

Romain Delaporte : Chez TD SYNNEX, nous avons pour vocation d'adresser le portefeuille technologique le plus large dans les domaines de l’infrastructure de stockage, du data management, du cloud ou la cybersécurité. Hitachi apportait ces expertises, ainsi qu’une différenciation avec une vraie approche métier.

A l’origine, l'image d’Hitachi reposait sur une approche orientée grandes entreprises avec d’importants besoins en volume de stockage. La nouvelle gamme VSP One combine toute l'expertise enterprise, mais pour un segment mid-market. Nous voyons des demandes croissantes sur des volumétries moindres, mais avec toujours les mêmes exigences et attentes de performance, souveraineté, RSE, Green IT.

Quant à l’IA, nous la travaillons au niveau européen avec le programme Destination IA, présenté début novembre 2025. Il consiste à accompagner le distributeur sur les sujets IA avec l'ensemble des vendors pour construire des offres conjointes en réponse aux besoins de nos partenaires.

Valérie Huet : Notre partenariat est effectivement porté par deux programmes. Empower Mid-Range pour accéder à des prix compétitifs avec l'expertise du Lab TD SYNNEX. Et Destination IA pour identifier et former de nouveaux partenaires avec une approche verticalisée.

Romain Delaporte : Nous combinons l'expertise métier d'Hitachi et l'expertise IA de TD SYNNEX avec des spécialistes comme l’entreprise Craftmandata. L'objectif : travailler en tripartite – distributeur, apporteur de solutions, et Hitachi – pour monter des offres basées sur des besoins métiers ayant la capacité de répondre aux attentes et problématiques futures en matière d’IA.

Quels sont les prochains enjeux ? Le quantique est-il un axe de réflexion ?

Valérie Huet : Les grandes transformations s’orientent vers trois axes. Premier axe : la technologie, qui se compose de l'infrastructure hybride pour adresser les transformations IT dans leur ensemble ; l'IA, avec son approche verticalisée métier. Notre stratégie vise à rapprocher nos entités – Hitachi Rail, Hitachi Energy – avec les plateformes IA éprouvées sur des cas industriels. Enfin, troisième aspect : l'énergie/Green IT, porté par la réglementation.

Deuxième axe : les grands acteurs, comme Nvidia qui se développe très vite – Hitachi a d’ailleurs signé avec Nvidia. Même chose pour les hyperscalers. Enfin, il faut observer la vitesse à laquelle nos acteurs traditionnels - distributeurs, revendeurs, alliances technologiques - se transforment. Et à l’image de l’importance croissante des MSP et CSP, Hitachi se transforme et met en place des équipes spécifiques MSP/CSP, composées de spécialistes et d’architectes. Nous nous renforçons aussi sur la sécurité au travers de notre entité Hitachi Cyber.

Troisième axe : la verticalisation. C’est l’objectif de notre approche One Hitachi, orientée métier et industrie. Nous avons une expertise importante en matière de finance, santé, énergie, transport. Le secteur public reste très important, principalement en France.

Voilà pour moi les trois tendances - la techno, les acteurs, la verticalisation – qui devront s'interfacer les unes avec les autres dans les prochains mois et années. Les acteurs phares demain devront être capables d'aborder la donnée de bout en bout, depuis l'edge jusqu'à l'IT, avec une approche fluide. En tant qu'industriel avec notre approche verticale et IT, nous avons les solutions data, software, infra et métiers. C'est là notre principal point différenciant, avec notre écosystème porté par TD SYNNEX.

Laurent Delaisse : Le quantum computing au sein du groupe Hitachi est un sujet qui a démarré en 1989 par la création de Hitachi Cambridge Laboratory (recherche quantique). Nous avons annoncé un accord technologique pour développer un ordinateur quantique en silicium pour 2027. Néanmoins, ce sujet n'est pas encore mature – cela reste encore de la prospective, mais nous y travaillons !