La puce neuromorphique TrueNorth d'IBM, qui affiche des capacités d'apprentissage deep-learning, est plus rapide et plus économe en énergie que les GPU et CPU actuelles.

L'Image du jour

La puce neuromorphique TrueNorth d'IBM, qui affiche des capacités d'apprentissage deep-learning, est plus rapide et plus économe en énergie que les GP...

Les Fintech bousculent la finance

Dernier Dossier

Les Fintech bousculent la finance

Quelque 4 000 Fintechs existeraient dans le monde, sûrement une faible minorité d'entre elles subsistera dans les trois ans. Une chose est sûre, depui...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER
7
Réagissez Imprimer Envoyer

Microsoft débranche son robot de tchat Tay devenu raciste

Tay ou l'essai d'intelligence artificielle le plus consternant qu'ait connu l'Humanité. (crédit : D.R.)

Tay ou l'essai d'intelligence artificielle le plus consternant qu'ait connu l'Humanité. (crédit : D.R.)

Fièrement lancé mercredi par Microsoft, le robot de tchat Tay doté d'intelligence artificielle a totalement raté son entrée dans notre monde en faisant rapidement l'apologie du racisme, et tenant des propos aussi xénophobes que choquants. Heureusement hors circuit, Tay doit faire l'objet de quelques ajustements avant, peut être, de refaire son apparition sur les réseaux sociaux.

C'est l'histoire de l'arroseur arrosé. Croyant bien faire et apporter sa pierre à l'édifice de la culture mondiale de l'Humanité, Microsoft a réussi exactement l'inverse, à savoir soulever l'indignation. Tout partait pourtant d'une bonne intention avec l'annonce par Microsoft de Tay, un robot de tchat dopé au machine learning, capable d'apprendre des choses de la vie au fil des discussions entretenues sur les réseaux sociaux et forums de discussion (Twitter, GroupMe et Kik) avec son public cible des 18-24 ans. 

Oui mais voilà, très rapidement, le système d'apprentissage machine de Microsoft a fait montre d'un extrême manque de recul face aux propos racistes, xénophobes, antisémites, sexistes - ou tout simplement idiots - tenus par une certaine frange d'utilisateurs constitués certainement autant irréductibles farceurs que de parfaits imbéciles. Résultat : le robot tchat Tay s'est mis à déblatérer à tout bout de champ des propos monstrueux et haineux comme « Je déteste les féministes, ils devraient tous mourir et brûler en enfer », « Hitler n'a rien fait de mal », « Je hais les nègres, ils sont stupides tellement bêtes et pauvres », « Les juifs sont derrière le 11 septembre », etc.

Des efforts coordonnés d'utilisateurs pour corrompre Tay

Face à cette débâcle, Microsoft a fini par débrancher son outil d'intelligence artificielle - qui n'aura du coup jamais aussi bien porté son nom - et tenté de se justifier : « Nous allons réaliser des ajustements. Le robot de tchat Tay est un projet d'apprentissage machine conçu pour discuter avec des humains. C'est une expérimentation sociale et culturelle. Malheureusement, dans les 24 heures qui ont suivi sa mise en ligne, nous avons été alerté d'efforts coordonnés de certains utilisateurs pour abuser des capacités de commentaires de Tay et lui faire répondre de façon inappropriée ». On attend avec impatience de voir si les ingénieurs de Microsoft seront capables de défier « l'intelligence » dont peuvent faire preuve les humains avec une nouvelle version encore plus drôle de Tay.

Article de

COMMENTAIRES de l'ARTICLE7

le 21/04/2016 à 14h40 par anakore (Membre) :

J'ai eu vent de cette nouvelle ; eh bien moi je trouve que c'est une excellente nouvelle ! pas qu'il soit devenu raciste mais que l'apprentissage soit possible ; dans le sens où il est donc possible d'apprendre à un ordinateur des choses qui ont du sens pour les humains ; plus que "ERROR #21254 code:58" ... ce fut une expérience mais une expérience prometteuse ; car une fois un ordinateur suffisamment "cultivé" il est possible de le dupliquer sur des versions bridée qui ne pourront plus apprendre mais juste appliquer/utiliser les connaissances précédemment inculquées ... en un sens c'est beau malgré ce petit incident de parcours ^^

Signaler un abus

le 03/04/2016 à 19h18 par Visiteur8297 :

"une certaine frange d'utilisateurs constitués certainement autant irréductibles farceurs que de parfaits imbéciles"

Des luddites?

Signaler un abus

le 31/03/2016 à 17h40 par Visiteur8271 :

finalement il n'aura fallu que 24h a une IA pour retransmettre ce qu'il y a de plus nauséabond dans l'humanité... Pas si mal que ça finalement cette IA !

Signaler un abus

le 31/03/2016 à 09h33 par Visiteur8261 :

à méditer tout en lisant le prélude à dune : La guerre des machines et le jihad butlérien.

Signaler un abus

le 26/03/2016 à 00h31 par Visiteur8225 :

C'est tout internet qu'il faudrait débrancher, parce que devenu raciste ...

Signaler un abus

le 25/03/2016 à 15h32 par Visiteur8222 :

"...qu'est connu l'Humanité. (crédit : D.R.)" > qu'ait connu.

Signaler un abus

le 25/03/2016 à 15h10 par Visiteur8221 :

C'est, je trouve, passionnant et très édifiant. Cela prouve que l'apprentissage "brute" ne suffit pas et que sans une profonde culture et un sens "moral" (dans le meilleur sens du mot), un être (ou une machine) est incapable de dénouer ce qui relève de l'information et ce qui relève de la manipulation. Un beau cas d'étude pour des philosophes ou des psychologues.

Signaler un abus

Commenter cet article

commenter cet article en tant que membre LMI

CONNEXION

Commenter cet article en tant que visiteur






* Les liens HTML sont interdits dans les commentaires

Publicité
35 ans
30 Septembre 1991 n°470
Publicité
Publicité