Portée par la vague ChatGPT, l'IA s'insinue dans nombre de métiers. Au point, parfois, de les transformer en profondeur. Parmi les professions au premier rang de ces mutations figurent les auditeurs internes. Pour évaluer l'impact de la technologie sur ce métier, le master CARF (Contrôle audit et reporting financier) de l'université Paris-Dauphine-PSL et le cabinet d'audit et de conseil Grant Thornton viennent de sortir une étude dressant un portrait de l'auditeur du futur. Un portrait profondément marqué par l'extension des usages de l'IA.

Pour mener à bien cette seconde mouture de leur enquête sur le sujet, le cabinet et l'université ont interrogé 52 auditeurs internes, appartenant pour la moitié à des entreprises de plus de 5000 personnes. Les trois-quarts d'entre eux prévoient de faire un usage systématique de l'IA - et la proportion est encore plus importante dans les seules grandes entreprises -, contre seulement 17% qui sont dans ce cas actuellement. L'échéance de cette généralisation des usages est plus discutée. Pour 42% des répondants, il faut mettre l'accent sur le développement des outils d'IA dans leurs usages à court terme (moins de deux ans), tandis que 46% estiment que le virage prendra plus de temps (entre 2 et 5 ans).

« Ce qui fait gagner du temps et que l'on maîtrise »

Si la technologie semble vouée à toucher des tâches de plus en plus diversifiées au sein de la profession, sa place est déjà bien établie dans une part significative des entreprises interrogées. Avec des usages actuels avant tout tournés vers les opérations de contrôle : recherche d'anomalies (où l'IA est exploitée par 37% des entreprises), contrôle de la qualité des données (35%) ou recherche de fraudes (25%). Dans les usages futurs, les auditeurs lorgnent vers des utilisations centrées sur la détection de fuites de données ou sur la description ou contrôle de processus par process mining. Pour Enguerrand Bertholet, qui dirige l'audit interne et la gestion des risques du groupe Legrand, « il ne faut pas demander à l'IA de faire quelque chose qu'en tant qu'auditeur on ne maîtrise pas, mais se focaliser sur ce qui fait gagner du temps et que l'on maîtrise. »

Et si la technologie a investi la phase d'analyse préalable des risques et de préparation des missions (en particulier pour identifier les risques) et la phase dite 'de terrain' (en particulier pour analyser les données), elle s'invite aussi de plus en plus dans la partie dédiée à la rédaction du rapport, « phase peu digitalisée au sein de la démarche d'audit et qui reste un sujet sensible », selon les auteurs de l'étude. Pour 43% des répondants, l'IA peut aider à affiner les résultats d'audit, tandis que 29% y voit une aide à la rédaction du rapport proprement dit. « Des évolutions significatives par rapport aux résultats de notre enquête précédente », soulignent Paris-Dauphine-PSL et Grant Thornton.

Manque de compétences, mais aussi insuffisances dans la donnée

Le phénomène ChatGPT est entretemps passé par là. Levant au passage certains blocages décelés en 2022. « Alors que les principaux freins au développement et à l'utilisation des outils liés à l'IA dans l'audit étaient principalement d'ordre financier et technique en 2022, l'accès aux compétences et le manque de connaissances et de culture sur les outils d'IA deviennent les principaux freins en 2023 », observent les auteurs de l'étude. La difficulté à recruter des ressources adéquates (citées par 81% des répondants) et le manque de culture en systèmes d'information (79%) sont ainsi vus comme les écueils majeurs. Notons tout de même que 7 auditeurs sur 10 mentionnent le manque de fiabilité et de qualité des données et la difficulté à accéder à ces dernières comme des freins au développement des usages de l'IA dans leur profession.

Les principaux risques à la technologie sont d'ailleurs directement associés à ces limites. 9 auditeurs sur 10 craignent des erreurs de paramétrage des scripts ou des algorithmes de contrôle, faute de disposer des compétences suffisantes. A peine moins s'inquiètent des conclusions erronées que pourrait délivrer l'IA faute d'une qualité de données insuffisante ou de biais dans la sélection de celles-ci. Des lacunes et des risques qui permettent de dessiner le portrait de l'équipe d'audit interne de demain, que 90% des personnes interrogées voient comme un mix entre data analysts et data scientists et auditeurs 'traditionnels'.