Google fait face à une fronde interne d’ampleur. 950 employés de Google et 102 d'OpenAI ont adressé, le 27 avril, une lettre au CEO d’Alphabet, Sundar Pichai, pour exiger que l’entreprise renonce à tout usage de son IA dans des programmes militaires classifiés. Parmi les signataires figurent non seulement des salariés, mais aussi des cadres dirigeants, des vice-présidents et des ingénieurs issus notamment de Google DeepMind. Un soutien transversal qui confère à cette mobilisation un poids inhabituel en interne. Dans leur lettre, les employés mettent en garde contre les dérives potentielles de ces technologies : « En tant que personnes travaillant sur l’IA, nous savons que ces systèmes peuvent concentrer le pouvoir et qu’ils commettent des erreurs. » Et d’ajouter : « Notre proximité avec ces technologies nous confère la responsabilité de prévenir leurs usages les plus dangereux et contraires à l’éthique. »
Cette prise de position intervient alors que, selon The Information, Google est en discussion avec le Pentagone pour l’intégration de ses modèles IA dans des environnements classifiés. Une perspective qui suscite une vive inquiétude en interne. « En l’état, il n’y a aucun moyen de s’assurer que nos outils ne seront pas utilisés pour faire des dégâts affreux ou rogner les libertés individuelles, loin des regards », alerte un employé, cité dans une déclaration consultée par l’AFP, sous couvert d’anonymat.
Gemini au cœur des discussions
Au centre des échanges : Gemini. Plusieurs informations évoquent un accord garantissant au département de la Défense américain d’exploiter ces technologies « à toutes fins légales », une formulation qui cristallise les critiques. Le sujet dépasse d’ailleurs le seul cas de Google. La start-up Anthropic a récemment engagé un bras de fer avec les autorités américaines après l’échec de négociations autour d’un contrat estimé à 200 M$. En cause : le refus de voir son modèle Claude utilisé sans restriction, notamment dans des contextes militaires. À la suite de ce désaccord, l’entreprise a été classée comme « risque pour la chaîne d’approvisionnement » par le DoD.
De son côté, OpenAI a renégocié un accord avec le Pentagon afin d’encadrer plus strictement les usages de ses modèles. Une clause précise désormais qu’ils ne doivent pas servir à la surveillance de masse ni au suivi ciblé de citoyens américains, y compris via l’exploitation de données personnelles commerciales.
Une défiance persistante en interne
Les employés de Google restent toutefois sceptiques face à ce type de garde-fous contractuels. Selon eux, la seule manière d’éviter des dérives consiste à refuser tout usage des systèmes IA dans des environnements classifiés. Ce débat ravive un précédent interne. En 2018, des salariés s’étaient déjà opposés à l’implication de Google dans des projets militaires, poussant l’entreprise à formaliser des principes éthiques encadrant ses travaux en IA. Le groupe s’était alors engagé à ne pas développer de technologies « susceptibles de causer des dommages » ni à concevoir des outils destinés à des armes ou à des systèmes de surveillance. Depuis, ces principes ont évolué, alimentant les inquiétudes d’une partie des équipes.
Dans leur lettre, les signataires mettent en garde contre les conséquences d’une telle décision : « Faire le mauvais choix aujourd’hui causerait des dommages irréparables à la réputation, à l’activité et au rôle de Google dans le monde. » Ils ajoutent que « des vies humaines sont déjà perdues et des libertés civiles mises en danger » en raison de mésusages de technologies auxquelles l’entreprise contribue.