La mode de l’intelligence artificielle a atteint son paroxysme en 2017 auprès des DSI, des consultants et des universitaires. Partout, la technologie est vantée comme automatisant tout, depuis les opérations commerciales et informatiques jusqu’aux relations clients. Cependant, depuis le premier trimestre de cette année, de nombreux médias alertent sur les dangers de l’IA. L’entrainement des ordinateurs à réaliser des tâches nécessitant habituellement l’intelligence humaine par exemple. Thomas Davenport, professeur émérite en technologies cognitives au Babson College, estime qu’« il y a eu tellement d'exagération dans les médias à ce sujet et ce sont juste des journalistes qui entretiennent le battage médiatique en parlant du côté négatif de l’IA ».

Quand bien même, ces préoccupations ne sont pas nouvelles et restent persistantes dans l’imaginaire collectif. Les peurs vont des biais de race, de genre que pourraient manifester les algorithmes d’IA aux drones automatisés et leur risque létal. Et ces peurs se sont décuplées lorsqu’une première personne est morte après avoir été renversée par une voiture autonome d’Uber en Arizona.

Nos confrères d’IDG ont détaillé six de ces préoccupations concernant l’adoption de l’IA. Et proposent des recommandations pour les DSI qui envisagent d’intégrer cette technologie.

1. L’arroseur arrosé

Comme nous l’a appris l’incident désastreux du chatbot Tay de Microsoft, les agents conversationnels peuvent se montrer absurdes, impolis voire même offensants. Les DSI doivent donc à ce qu’ils utilisent et comment ils l’utilisent. Un adjectif insultant venant d’un chatbot suffit à détruire l’image d’une marque.

2. Une mauvaise vue

Bien que développée par les humains, l'IA n'est pas très semblable à l'être humain, pointait ironiquement un chercheur de Google à l'Université de Stanford, Fei-Fei Li, dans une chronique du New York Times. M. Li a noté que bien que la perception visuelle humaine soit profondément contextuelle, la capacité de l'IA à percevoir des images est assez étroite. Le chercheur pense que les programmeurs d'IA devront probablement collaborer avec des experts du domaine pour combler le fossé entre la perception humaine et la perception de la machine.

3. L'énigme de la boîte noire

Beaucoup d'entreprises veulent utiliser l'IA, en particulier pour certaines activités qui peuvent fournir un avantage stratégique. Mais, dans certains secteurs, comme dans la santé , l'éducation ou la finance, les sociétés doivent être en mesure de pouvoir expliquer comment l'IA tire ses conclusions. « L'utilisation de l’IA dans des domaines tels que les décisions de crédit, qui peut sembler évidente, est en réalité confrontée à de nombreux obstacles réglementaires à franchir » explique  Bruce Lee, responsable des opérations et de la technologie chez Fannie Mae, société spécialiste en crédit hypothécaire. « Une grande partie de ce que nous faisons doit être soigneusement revérifié pour nous assurer que nous ne sommes pas en train d’introduire un biais inapproprié ou un avantage net pour telle infrastructure de logement. L'IA doit être particulièrement explicable. »

Sans une compréhension claire de la façon dont les logiciels d'IA détectent les tendances et observent les résultats, les entreprises les plus réglementées se demandent à quel point elles peuvent faire confiance aux machines.  « Le contexte, l'éthique et la qualité des données sont des problèmes qui affectent la valeur et la fiabilité de l'IA » explique Dan Farris, coprésident du cabinet de droit Fox Rothschild. « Déployer l'IA dans une industrie hautement réglementée peut créer des problèmes de conformité réglementaire. 

4. La place de la femme

Même les assistants virtuels IA sont encombrés de biais. Vous êtes-vous déjà demandé les technologies comme Alexa, Siri ou Cortana sont des femmes ? « Pourquoi donnons-nous à ces technologies "auxiliaires" un genre féminin ? » s’interroge Rob LoCascio, PDG du logiciel de service client ConcernPerson. « Et qu'est-ce que cela dit de nos attentes envers les femmes dans le monde et au travail ? Que les femmes seraient intrinsèquement des "assistantes", qu'elles seraient des "imbéciles", qu'elles jouent des rôles administratifs, qu'elles ne sont bonnes qu’à prendre les commandes ? »

Alors qu’elle dirigeait un projet qui utilisait des images de voitures de Google Street View pour déterminer la composition démographique des villes américaines, Timnit Gebru, étudiante à Stanford University Ph.D, s'est intéressée aux préjugés raciaux, sexuels et socioéconomiques dans ses recherches. Ceci l’a amenée à rejoindre Microsoft, où elle travaille aujourd’hui à repérer les biais de l'IA.

5. Le côté obscur de l'IA

Selon un rapport de 98 pages réalisé par 25 chercheurs en politiques publiques et techniques des universités de Cambridge, d’Oxford et de Yale, les utilisateurs malveillants vont bientôt être capables de monter des attaques automatisées, imiter les humains pour répandre de la désinformation ou transformer des drones commerciaux en armes ciblées. « Nous sommes tous d'accord sur le fait qu'il y a beaucoup d'applications positives de l'IA » assure auprès de Reuters Miles Brundage, chercheur à l'institut Future of Humanity d'Oxford. « Mais il y avait une lacune dans la littérature universitaire autour de la question de l'utilisation malveillante de l’IA. »

6. Tous des « chats d'appartement »

Ensuite, il y a la théorie de l'esclavage. L'entrepreneur Elon Musk, de Tesla et de SpaceX, a averti que les humains courraient le risque de devenir des «chats d’appartement » dépendants de l'intelligence artificielle. Stephen Hawking redoutait cela avant lui. Plus récemment, l'historien israélien Youval Noah Harari a postulé que l'émergence de l'IA qui automatise tout pourrait créer une « classe mondiale inutile ». Dans un tel monde, la démocratie sera menacée parce que les humains ne se comprennent pas aussi bien que les machines.

Des préoccupations largement exagérées

En règle générale, ces préoccupations sont largement exagérées, selon Thomas Davenport. Par exemple, il rappelle que les biais existent depuis longtemps dans le cadre de projets d'analyse normaux. « Je ne connais aucun analyste de données qui dira que le biais n'existe pas ». Le professeur affirme que plusieurs grandes entreprises testent l'IA de manière responsable. « Nous voyons maintenant beaucoup d'applications en entreprise, et je n'ai entendu personne dire qu’ils allaient mettre un terme à leur programme informatique » indique l’universitaire, ajoutant que la technologie reste à un stade peu avancé. « Les entreprises continuent à travailler sur ce genre de projets et essayent de ne pas se laisser décourager par des listes d’avantages et des inconvénients venant des médias. »

Les dirigeants IT semblent en effet fort découragés par le battage médiatique… Selon le Gartner, 85% des DSI piloteront un programme d’IA d’ici deux ans que ce soit à l’achat, en développement interne ou de manière externalisée. Le cabinet d’étude recommande lui aux DSI de commencer à développer des solutions d’assistance intelligentes dans des domaines où le grand public s’habitue à trouver de l’IA (relation client, etc.). L’important est de travailler avec leurs équipes pour créer une stratégie numérique éthique.