Selon Gartner Research, d'ici 2022, 85 % des projets d'IA produiront des résultats erronés en raison du biais dans les données, les algorithmes ou introduit par les équipes responsables de leur gestion. De plus, selon l'institut de sondage Gallup, aujourd'hui, 85 % des Américains utilisent au moins un appareil, un programme ou un service alimenté par l'IA.

David Linthicum, Chief Cloud Strategy Officer chez Deloitte, et contributeur de notre confrère d'Infoworld (Groupe IDG), connaît bien la question. En effet, depuis la fin des années 1980, il s'intéresse au biais des systèmes d'intelligence artificielle. Le fait est que ce sont des individus qui programment et entrainent les systèmes d'IA, de sorte que, d'une façon ou d'une autre, ces systèmes héritent des préjugés de ceux qui les forment.

Un manque de compétences entraînant la propagation d'erreurs

L'usage du cloud pour héberger de coûteux systèmes d'intelligence artificielle ne fait qu'empirer les choses, car le nombre d'entreprises pouvant s'offrir des capacités d'intelligence artificielle a augmenté. Par contre, le nombre de personnes pouvant attester de solides compétences en IA n'a pas augmenté au même rythme. D'une part, les outils d'IA soumis à ce biais intrinsèque sont utilisés de façon plus générale. D'autre part, le manque de compétences signifie aussi que les erreurs dans la manière de construire les bases de connaissances vont se propager et perdurer pendant un certain temps.

Alors, de quelle nature sont ces préjugés ? Déjà, parce que la majorité du développement et de l'entrainement de l'IA est effectuée par des hommes, leurs préjugés conscients ou inconscients se retrouvent dans le code qu'ils écrivent et les femmes pourront s'apercevoir qu'elles sont désavantagées. Ainsi, une étude réalisée en 2015 a montré que lors d'une recherche d'images dans Google avec la requête « CEO », seulement 11 % des personnes apparaissant dans les résultats étaient des femmes, alors qu'aux États-Unis 27 % des CEO sont des femmes. Google a rapidement corrigé le problème.

Repérer les préjugés des systèmes IA pour limiter les préjudices

Ces biais intégrés de l'IA ont aussi un impact négatif sur l'activité des entreprises. Par exemple, le fait de ne pas accorder suffisamment de prêts à un nombre suffisant de femmes, alors qu'elles représentent environ 55 % du marché, est une perte de profit. Au pire, cette défaillance pourrait aussi exposer les entreprises à des actions en justice.

Que faire, alors ? En réalité, les systèmes d'IA biaisés sont plus la norme que l'exception. Les responsables IT doivent reconnaître que ces préjugés existent, ou qu'ils peuvent exister, et prendre des mesures pour en limiter les méfaits. Heureusement, des outils émergents permettent déjà de repérer les préjugés des systèmes d'intelligence artificielle. Reste que, l'IT doit chercher à débusquer ceux qui sont cachés et prendre des mesures pour en limiter les préjudices.