Les déploiements d'intelligence artificielle (IA) se multiplient dans les entreprises qui s’appuient de plus en plus sur ces technologies pour mieux comprendre les clients, les marchés et mieux rivaliser avec leurs concurrents. L’IA sert aussi à automatiser les processus dans presque toutes les activités opérationnelles. Mais l’intelligence artificielle expose les entreprises à différents risques moins visibles, notamment dans des domaines comme la conformité réglementaire, le droit, la protection de la vie privée et l'éthique.

En premier lieu, il est indispensable de bien comprendre comment les machines prennent leurs décisions. « En effet, les législateurs, les autorités judiciaires ou le jury d’un tribunal peuvent désapprouver la création et le déploiement de systèmes dont les décisions ne sont pas bien comprises, même par leurs concepteurs », a ainsi expliqué Matt Scherer, associé de Littler Mendelson P.C, un cabinet international d'avocats spécialisé en droit du travail et de l'emploi. « Je pense que l’on peut résoudre ce problème d’opacité en testant de manière extensive ces systèmes avant leur déploiement, comme on le fait avec d'autres technologies - dans le secteur pharmaceutique par exemple - que nous ne comprenons pas bien », a-t-il ajouté. « En pratique et à une échelle macroéconomique, cela revient à procéder par tâtonnements. Ce qui signifie que l’entreprise pourra, avec le temps, identifier les décisions qu’il vaut mieux réserver à l'homme et celles qu’elle pourra déléguer à la machine ».

Entreprises et organismes réglementaires main dans la main

Selon Mark Radcliffe, associé chez DLA Piper, un cabinet d'avocats mondial qui aide ses clients à mieux comprendre l'impact des technologies émergentes et disruptives, les entreprises doivent se demander si elles peuvent concevoir un système capable de « suivre » la logique des décisions afin de répondre aux exigences des organismes réglementaires et aux critères légaux. « Les régulateurs peuvent encourager cette transparence par des décisions de responsabilité et d'autres approches », a-t-il ajouté. Selon lui, les entreprises devraient aussi participer à l'élaboration des règles définies par les organismes réglementaires, afin de vérifier que ces règles, destinées à encadrer leur activité, sont applicables. « Les organismes gouvernementaux ne peuvent pas établir de règles réalistes sans la contribution concrète de l'industrie », explique-t-il par ailleurs. Selon lui, en matière d'IA, les entreprises devraient s’impliquer davantage dans l'élaboration de règles propres à leurs industries. « Pour éviter des réponses à chaud, pour éviter qu’un gouvernement réagisse trop rapidement et approuve des règles irréalistes sur la base d’un seul incident ou d’une série d'incidents, les entreprises doivent travailler avec les organisations de l'industrie et les agences de réglementation gouvernementales », affirme M. Radcliffe.

Les entreprises devraient également savoir si, dans certains cas, il est plus avisé de se fier aux conclusions de l'IA plutôt qu’à une décision humaine, notamment quand la question de la responsabilité est en jeu. « Le problème pourra se poser différemment d'une industrie à l'autre et au sein d’une même industrie », déclare encore M. Radcliffe. « Par exemple, l’usage de l’IA par des internes en médecine pour réaliser un diagnostic sur un patient est beaucoup moins risqué que celui des chirurgiens en chirurgie robotique. Dans des activités à risque élevé, soumises à un régime juridique et règlementaire bien établi, comme la médecine, les entreprises devraient collaborer avec les régulateurs pour faire évoluer les règles applicables à la nouvelle approche. Par ailleurs, les entreprises doivent savoir comment s’effectue le partage de responsabilité entre elles et leurs clients et partenaires commerciaux en cas d’usage de l'IA. « Par exemple, si une société développe une application IA pour une banque, les parties doivent se demander qui est responsable si le programme d'IA pose des problèmes réglementaires, comme le « redlining, une pratique de discrimination consistant à refuser des prestations à des populations situées dans des zones géographiques déterminées », ou s’il commet des erreurs dans le calcul des paiements par exemple, puisque ces questions n'ont pas de précédent et que les parties peuvent répartir la responsabilité entre elles dans le contrat », explique encore M. Radcliffe.

L'IA un outil qui doit rester sous contrôle humain

« Dans le cas des réseaux neuronaux, l’IA devient plus fiable. Mais les entreprises qui veulent contrôler les risques réglementaires et juridiques devraient considérer l'IA comme un outil parmi d'autres dans le processus de prise de décision humaine », estime pour sa part Dan Farris, co-président du cabinet d'avocats Fox Rothschild, spécialisé dans les pratiques technologiques. « L'IA est un outil. Il doit rester sous contrôle humain et être déployé de manière réfléchie », a-t-il ajouté. « Pour réussir leurs déploiements d’IA, les entreprises doivent d'abord investir dans des ensembles de données et se préoccuper de la qualité de ces données. L'évaluation de la qualité et de l'adéquation des données pour les applications IA est une première étape importante. L’étape suivante est de savoir identifier les tâches et les décisions que l’on peut confier à l'apprentissage machine, et celles qui doivent rester du ressort humain ».