Fin 2021, l'IA générative est entrée avec fracas dans nos vies quotidiennes. Et elle s'infiltre rapidement dans nos environnements de travail. Quel sens donner à la collaboration avec cette nouvelle collègue et tous les autres types d'IA ? Comment ce phénomène va-t-il influer sur nos modes de travail, notre organisation ? Dans le cadre d'une soirée Grand Théma le 19 mars, CIO et Le Monde Informatique ont convié Laurence Devillers (lire l'encadré) à répondre à ces questions. La chercheuse en IA, spécialiste du traitement du langage et des interactions entre IA et humains, est aussi fortement impliquée dans les enjeux éthiques associés. Elle est l'autrice de nombreux ouvrages dont « Des robots et des hommes » et « Les robots émotionnels »

Retrouvez l'entretien avec Laurence Devillers en vidéo

Avec nous, elle a retracé l'histoire de l'IA, et en particulier des réseaux de neurones. Un parcours progressif de plus de 80 ans, parti de la tentative de modélisation d'un neurone de notre cerveau par les neuroscientifiques américains Warren McCulloch et Walter Pitts et allant jusqu'à l'IA générative d'aujourd'hui. Une évolution rendue possible par la disponibilité de corpus de données et de capacités de calcul de plus en plus importants. La chercheuse a évoqué ses propres travaux sur le traitement automatique du langage et la reconnaissance de la parole, qui l'ont conduite vers « l'affective computing », autrement dit la détection des émotions dans les relations entre humains et machines et les enjeux d'éthique associés.

Car l'une des caractéristiques de l'IA, c'est qu'elle a, en apparence, tout d'un humain. Illusion... Même à propos de l'IA générative qui comble un vide important, celui de la sémantique, Laurence Devillers a ainsi rappelé qu'elle « n'a rien ni d'une pensée, ni d'une intention, ni d'une émotion ». Une affirmation applicable à toute l'IA. Cet ensemble de technologies reste une mécanique, aussi complexe soit-elle devenue. Alors, quel impact sur le travail ? « L'IA générative amenuise la distance entre l'humain et la machine », a précisé la chercheuse. Pourtant, on reste bien dans un jeu d'imitation. « Les LLM accumulent des data textuelles déshumanisées, a-t-elle rappelé. Elles ne sont pas centrées sur un corps avec un contexte de vie. Elles n'ont aucun contexte spatial, ni temporel. »

« Une machine extrêmement puissante qui ne comprend rien à ce qu'elle fait »

La chercheuse a aussi soulevé les très nombreuses questions d'éthique associées à l'IA. Que l'on parle des biais qu'elle engendre et des méthodes discutables pour tenter de les corriger, de la non-transparence des algorithmes ou encore de la difficulté d'accès aux sources d'information servant à l'entraîner. « L'IA est une machine extrêmement puissante, mais qui ne comprend rien à ce qu'elle fait, a insisté Laurence Devillers. Dans le monde du travail, par exemple, il sera essentiel de cocréer avec des experts des tâches demandées, et de transférer leurs connaissances, leur expertise aux nouveaux arrivants, pour qu'ils continuent de challenger les machines. »

Un sujet central, d'autant que les prochaines évolutions pourraient encore augmenter la confusion sur « l'humanité » de l'IA. Pour la chercheuse, nous devrions en effet entrer dans une ère de systèmes multimodaux qui se nourrissent de signaux visuels, auditifs, linguistiques, contextuels, etc. L'occasion pour Laurence Devillers de conclure la rencontre avec un conseil de Blaise Pascal. L'auteur des Pensées, mais aussi inventeur de la Pascaline, rappelait ainsi qu'il faut « agir avec raison dans l'incertain ».