En quelques mois, les outils d’IA générative se sont imposés dans le quotidien des entreprises. ChatGPT, Copilot, Gemini ou Mistral ne sont plus seulement des outils expérimentaux : ils servent à rédiger, coder, analyser ou automatiser des tâches. Mais cette adoption s’est faite dans un angle mort : celui du contrôle. Dans de nombreuses organisations, ces outils sont utilisés sans validation préalable de la DSI ou du RSSI, reproduisant un phénomène déjà vu avec le shadow IT. La différence, cette fois, tient à la nature des données manipulées. Le problème n’est pas tant l’outil que ce que les collaborateurs y injectent. Par facilité ou par gain de temps, certains y copient des contrats, du code source, des données internes ou des informations clients. Gregory Cardiet, VP sales engineer Europe chez CrowdStrike, alerte : « La vraie question, c’est le contrôle de la donnée qui va être soumis à cet outil. » Ce transfert invisible transforme les IA en canaux potentiels d’exfiltration. D’autant plus que les utilisateurs n’en perçoivent pas toujours les implications. Gregory Cardiet rappelle : « Si vous n’avez pas un contrôle (…) la donnée affuitée est réutilisée pour l’apprentissage. » Une information sensible peut donc sortir du périmètre de l’entreprise sans qu’aucun outil de sécurité classique ne la bloque. Le phénomène est amplifié par la multiplication des usages non encadrés. L’IA ne passe plus seulement par les outils officiels : elle est accessible depuis un navigateur, un smartphone ou une application tierce. Gregory Cardiet souligne ce manque de visibilité : « La plus grande problématique (…) c’est le manque de visibilité totale sur les LLM que vous ne maîtrisez pas. » 

Le shadow IA devient ainsi un angle mort stratégique. Les entreprises ne savent pas toujours quels outils sont utilisés, ni quelles données y transitent réellement. Et cette faiblesse n’est pas seulement technique. Gabriel Ferreira, directeur technique d’ Everpure France, insiste sur la dimension organisationnelle du problème : « Il y a un problème organisationnel, il y a des silos organisationnels. » Dans les faits, les équipes sécurité, IT et métiers n’avancent pas toujours ensemble, alors même que l’IA traverse désormais tous les usages. Cette fragmentation complique la réponse. Gabriel Ferreira le résume : « L’humain au-delà des solutions des produits, du contexte, etc. Dans les entreprises, l’humain a une grande importance. » Dans le cas du Shadow IA, cela se vérifie pleinement : la fuite de données provient souvent moins d’un acte malveillant que d’un usage banal, mené par un salarié qui cherche simplement à aller plus vite. Au-delà de la fuite d’informations, un autre risque émerge : celui de la manipulation. Les systèmes d’IA peuvent être influencés, détournés ou exploités comme vecteurs d’attaque. Gregory Cardiet évoque une tendance nette : « On a une augmentation de 89 % » des attaques liées à l’exploitation de l’IA. 

Ces attaques prennent plusieurs formes. Certaines visent à contourner les garde-fous des modèles pour générer du code malveillant ou accélérer la recherche de vulnérabilités. D’autres exploitent directement les interactions entre l’utilisateur et l’IA. C’est le cas des attaques par injection de prompt. En manipulant les instructions envoyées à un assistant IA intégré à un outil métier, un attaquant peut modifier son comportement, contourner des restrictions ou provoquer des actions non prévues. L’IA devient alors un nouveau point d’entrée dans le système d’information. Non plus via une faille technique classique, mais via une interaction utilisateur détournée. À cela s’ajoute le risque lié aux extensions et aux intégrations. De plus en plus d’outils d’IA proposent des plug-ins ou des connexions à des services tiers. Mal contrôlées, ces briques peuvent intercepter des données, détourner des requêtes ou introduire des comportements inattendus dans les workflows. Pour les entreprises, le défi est double : encadrer l’usage sans freiner l’innovation. Interdire totalement ces outils est rarement réaliste. Gregory Cardiet adopte une position radicale mais révélatrice : « La règle de facto devrait interdire tous les LLM jusqu’à ce qu’il y ait un contrôle absolu. » 

Dans les faits, la plupart des entreprises cherchent plutôt un équilibre. Certaines mettent en place des versions internes ou cloisonnées des outils d’IA, d’autres développent des solutions d’anonymisation ou de filtrage des données. L’objectif reste le même : permettre l’usage tout en évitant les fuites. Mais la technologie seule ne suffit pas. Gabriel Ferreira rappelle que les outils doivent être pensés comme un ensemble cohérent : « Il faut que les outils cloud soient coordonnés avec le SOC installé par l’entreprise pour gérer au mieux les menaces. » Appliquée au Shadow IA, cette logique implique de ne pas traiter l’IA comme un simple outil bureautique, mais comme une nouvelle couche du système d’information à superviser et intégrer au dispositif de sécurité. Alexandra Bejan, directrice marketing chez Synology, insiste d’ailleurs sur une bonne pratique essentielle : « Une bonne pratique consiste de désidentifier les données. » Elle précise que l’objectif est de « supprimer ou masquer les données personnelles » avant toute utilisation d’un outil d’IA externe. Mais cette approche reste difficile à appliquer à grande échelle. Elle repose sur la discipline des utilisateurs, dans un contexte où la rapidité prime souvent sur la prudence. Gabriel Ferreira le dit lui-même : aujourd’hui, « le sujet cyber n’arrête pas de monter en température ». Le shadow IA révèle ainsi une mutation plus profonde : la frontière entre usage personnel et usage professionnel s’efface. Les employés utilisent les mêmes outils, parfois sur leurs propres appareils. Cela augmente donc indirectement la surface d’attaque des entreprises, car un employé qui se ferait subtiliser son compte IA pourrait exposer des données sensibles de son entreprise de plus certains cybercriminels comme les ShinyHunters arrivent à récupérer des identifiants via des Chat IA ou des agents IA compromis.  Autrement dit, l’attaque ne passe plus forcément par un logiciel malveillant, mais par des usages détournés, des identifiants compromis ou des interactions manipulées. Et pour Gabriel Ferreira, cette transformation impose aussi une meilleure coopération interne : « Les gars, il va falloir que vous vous parliez ! » Le Shadow IA ne vient pas de l’extérieur. Il vient du poste de travail lui-même, des usages quotidiens et des décisions individuelles. C’est précisément ce qui le rend si difficile à maîtriser.