C'est l'histoire de l'arroseur arrosé. Croyant bien faire et apporter sa pierre à l'édifice de la culture mondiale de l'Humanité, Microsoft a réussi exactement l'inverse, à savoir soulever l'indignation. Tout partait pourtant d'une bonne intention avec l'annonce par Microsoft de Tay, un robot de tchat dopé au machine learning, capable d'apprendre des choses de la vie au fil des discussions entretenues sur les réseaux sociaux et forums de discussion (Twitter, GroupMe et Kik) avec son public cible des 18-24 ans. 

Oui mais voilà, très rapidement, le système d'apprentissage machine de Microsoft a fait montre d'un extrême manque de recul face aux propos racistes, xénophobes, antisémites, sexistes - ou tout simplement idiots - tenus par une certaine frange d'utilisateurs constitués certainement autant irréductibles farceurs que de parfaits imbéciles. Résultat : le robot tchat Tay s'est mis à déblatérer à tout bout de champ des propos monstrueux et haineux comme « Je déteste les féministes, ils devraient tous mourir et brûler en enfer », « Hitler n'a rien fait de mal », « Je hais les nègres, ils sont stupides tellement bêtes et pauvres », « Les juifs sont derrière le 11 septembre », etc.

Des efforts coordonnés d'utilisateurs pour corrompre Tay

Face à cette débâcle, Microsoft a fini par débrancher son outil d'intelligence artificielle - qui n'aura du coup jamais aussi bien porté son nom - et tenté de se justifier : « Nous allons réaliser des ajustements. Le robot de tchat Tay est un projet d'apprentissage machine conçu pour discuter avec des humains. C'est une expérimentation sociale et culturelle. Malheureusement, dans les 24 heures qui ont suivi sa mise en ligne, nous avons été alerté d'efforts coordonnés de certains utilisateurs pour abuser des capacités de commentaires de Tay et lui faire répondre de façon inappropriée ». On attend avec impatience de voir si les ingénieurs de Microsoft seront capables de défier « l'intelligence » dont peuvent faire preuve les humains avec une nouvelle version encore plus drôle de Tay.