Lors d’un entretien pour DeepTalk by Yunik, Aldrick Zappellini, chief data officer du groupe Crédit Agricole avait souligné que la mise en application du RGPD en mai 2018 avait déjà amené les entreprises à se poser cette question : est-ce que je fais bien avec les données dont je dispose ? Ce règlement a été en quelque sorte ce facteur déclenchant que la donnée est un actif stratégique de l’entreprise. C’est donc à partir de 2018 que le Crédit Agricole a mis en place ce qu’il faut pour être conforme et a créé toute une organisation autour de la data composée notamment de communautés d’échanges. Même si ces lois rendent difficile la consolidation des données pour une vue d’ensemble complète, elles ont permis à de très nombreuses entreprises d’adopter des pratiques de gouvernance et de traçabilité claire des données. Sans cela, les responsables de la sécurité et de la conformité n'ont d'autre choix que de ralentir ou de bloquer les projets. Ils ne peuvent pas risquer d'exposer des données sensibles ou d'enfreindre des réglementations comme le RGPD ou l’IA Act dans des pipelines d'IA qu'ils ne peuvent pas auditer intégralement.

La sécurité et la conformité sont deux aspects essentiels pour Eric Bezille, directeur technique et responsable des avant-ventes chez Dell Technologies : « La majorité des données sont sensibles et c’est une IA privée ou locale qui apporte leur sécurisation, il faut aussi des outils d’anonymisation et de protection de type zero trust, dès la source, c’est que nous apportons via notre AI Dataplatform », et d’ajouter : « il faut être également capable de revenir en arrière en cas d’infection de données, comment ? En effectuant une sauvegarde du modèle et de son dataset d’entrainement, c’est aussi ce que nous proposons. » Tous les éditeurs interviewés disposent d’une stratégie dédiée, c’est le cas de Starburst qui assure la conformité en centralisant la gouvernance de la donnée, éliminant ainsi les goulots d'étranglement des équipes de sécurité et de conformité. « Starburst applique des politiques fines de sécurité, essentielles pour prévenir l'exposition des données sensibles, directement au niveau de la requête. Les permissions sont définies une seule fois sur le cluster Starburst et selon le rôle de l’utilisateur. Par exemple, un responsable ne verra que les transactions de sa région. De plus, nous fournissons la preuve de conformité via des journaux détaillées qui servent par la suite de preuve légale. Lorsque l'environnement se complexifie, les données étant dispersées dans différents clouds ou datacenters, nous disposons de Starburst Stargate qui permet un contrôle d’accès par région et limite le déplacement des données sensibles en connectant de multiples instances Starburst, notre solution préserve ainsi la souveraineté des données », explique Pascal Gasp, senior solutions architect de Starburst.

Chez Databricks, Unity Catalog sert de base à la gouvernance de la plateforme, fournissant une couche unifiée pour le contrôle d'accès aux données, le suivi de la traçabilité et l'auditabilité de toutes les données, de l'IA et des charges de travail analytiques. Lakehouse Monitoring et les fonctionnalités de MLflow étendent cette gouvernance au cycle de vie du machine learning, permettant un contrôle qualité proactif, la transparence des modèles et une surveillance continue des dérives et des biais. En unifiant les données, les analyses et l'IA sous un seul cadre de gouvernance, Databricks garantit une sécurité, une confidentialité et une conformité cohérentes à tous les niveaux, des données brutes aux agents d'IA déployés.