Selon Reuters, Meta envisage de suivre les mouvements de souris, les clics, les frappes au clavier et l’activité à l’écran de ses employés américains afin de former des agents IA en condition réelle. Cela donne une idée des limites que les grandes entreprises IT sont prêtes à franchir pour mettre au point des systèmes capables d'automatiser les tâches. Selon l’agence de presse, la firme dirigée par Mark Zuckerberg prévoit d’utiliser un outil appelé MCI (mode capability initiative) qui fonctionnera sur les applications et les sites web liés au travail et fera périodiquement des captures d'écran.
Dans des notes internes, Meta aurait indiqué à son personnel que les données collectées via MCI seraient utilisées pour aider à former des modèles IA dans des domaines où ceux-ci peinent encore à imiter la manière dont les humains interagissent avec les ordinateurs, comme la navigation dans les menus déroulants et l'utilisation des raccourcis clavier. L'entreprise a ajouté que ces informations ne seraient pas utilisées pour les évaluations de performance et seraient strictement réservées à l’entraînement des LLM.
Une volonté de confronter les agents IA au réel
Cette initiative risque d'intensifier le débat sur la surveillance des employés et la gouvernance des données, alors que les entreprises s'efforcent d'utiliser l'IA pour réaliser toujours plus de tâches au travail. « Dans une note distincte, Andrew Bosworth, CTO de Meta, a précisé aux employés que l’entreprise étendait la collecte de données en interne dans le cadre de son projet « AI for Work », désormais rebaptisé « Agent Transformation Accelerator », a ajouté Reuters. Selon le dirigeant, Meta souhaite que, demain, les agents IA « puissent effectuer l’essentiel du travail » et que les employés « les dirigent, les supervisent et les aident à s’améliorer ». L’annonce intervient alors que le secteur de l’IA dans son ensemble s’oriente vers des agents capables d’utiliser des logiciels pour le compte des utilisateurs. Anthropic a déjà présenté ses capacités dans l’utilisation des ordinateurs, tandis qu’OpenAI a lancé son agent Operator l’année dernière.
« L’initiative de Meta marque un passage de l’automatisation de tâches distinctes à la reproduction de flux de travail humains entiers en tirant des enseignements du comportement réel des employés », a constaté Pareekh Jain, CEO de Pareekh Consulting. « Les systèmes d’entreprise serviront de plus en plus de canaux de collecte de données, capturant la manière dont le travail est réellement effectué afin que les agents IA puissent l’exécuter. » Pour Sanchit Vir Gogia, analyste en chef chez Greyhound Research, ce changement est important car les entreprises ne se limitent plus à documenter les flux de travail à des fins d’automatisation, mais capturent la manière dont le travail est réellement effectué au sein des systèmes.
Inquiétudes sur la gouvernance et la conformité
Pour les responsables IT des entreprises, cette surveillance fait émerger d’autres risques liés aux données comportementales, car elle permet de recueillir non seulement des informations métier, mais aussi la manière dont les employés effectuent leurs tâches au sein des applications de l’entreprise. « Les risques de confidentialité et de conformité sont importants, en particulier en Europe dans le cadre du RGPD et de la législation du travail, où l’enregistrement des frappes clavier et de l’activité à l’écran peut être interdit ou nécessiter un consentement explicite », a fait remarquer M. Jain. « Les risques de sécurité augmentent car les ensembles de données d'entraînement peuvent contenir des identifiants, des adresses IP et des flux de travail sensibles, ce qui en fait des cibles de grande valeur pour les attaques. »
M. Gogia estime que ces risques ne devraient pas être considérés isolément. « Ils s'accumulent, interagissent et se renforcent mutuellement », a-t-il souligné, ajoutant que les données collectées pour l'entraînement IA pourraient également être réutilisées au fil du temps pour la surveillance de la productivité ou d'autres décisions liées à l'emploi. Pareekh Jain pense également que la gouvernance pourrait devenir plus difficile, car les entreprises pourraient avoir du mal à retracer ce que les systèmes IA ont appris de certains employés. La prise de conscience des collaborateurs quant à la surveillance pourrait également affecter la qualité des données elles-mêmes. « Les gens ne se comportent pas de la même manière lorsqu’ils savent qu’ils sont observés », a déclaré l’analyste. Au fil du temps, cela pourrait signifier que les LLM ne sont pas entraînés sur la manière dont le travail se déroule naturellement, mais sur un comportement façonné par l’observation.

Commentaire