Le développement des technologies de machine learning (ML) ou apprentissage machine a donné un nouvel élan à l'intelligence artificielle (IA). De la médecine aux véhicules autonomes, de la logistique à la cybersécurité, en passant par le monde militaire et policier, la finance, le marketing ou encore le recrutement : ces technologies d'IA sont aujourd'hui présentes dans tous les domaines. Selon les cas, elles servent à aider la prise de décisions d'un humain ou à déclencher des actions automatiques. Mais cet essor nécessite des garde-fous, en particulier quand les décisions prises ou guidées par l'IA ont des conséquences importantes sur les individus. Face à l'opacité de certains algorithmes, les individus ont en effet des droits, dont celui d'avoir une explication et de pouvoir contester les décisions les concernant. Mais cela suppose de comprendre comment un modèle d'IA fonctionne et comment il est arrivé à son résultat. Ce constat alimente un champ de recherche particulièrement dynamique à l'heure actuelle, celui de l'IA explicable, souvent abrégé en XAI (eXplainable AI).

Lire la suite de l'article sur CIO