Neogend permet aux gendarmes de vérifier les identités et pré-remplir en mobilité un dépôt de plainte (à droite le Lt-Colonel Olivier Langou).

L'Image du jour

Neogend permet aux gendarmes de vérifier les identités et pré-remplir en mobilité un dépôt de plainte (à droite le Lt-Colonel Olivier Langou).

La refonte du SI face à la transformation numérique

Dernier Dossier

La refonte du SI face à la transformation numérique

La meilleure façon d'illustrer la transformation numérique est d'apporter des témoignages concrets d'entreprises. C'est dans cette optique que la...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER
0
Réagissez Imprimer Envoyer

Microsoft réactive par erreur Tay, son robotchat fou

Le retour de Tay sur Twitter a été accueilli avec humour par de nombreux twittos. (crédit : D.R.)

Le retour de Tay sur Twitter a été accueilli avec humour par de nombreux twittos. (crédit : D.R.)

Désactivé 24 heures après avoir eu le temps de devenir l'intelligence artificielle la plus raciste et xénophobe du monde et aussi la risée du web, le robot tchat Tay de Microsoft a fait un court instant son retour sur Twitter. Une erreur malencontreuse de Microsoft en est à l'origine.

A peine désactivé, dejà réactivé ? Une interrogation qui a dû frapper les utilisateurs de Twitter en voyant réapparaître une poignée de jours après son retrait, Tay, le robot tchat de Microsoft qui a semé la semaine dernière une immense consternation en diffusant des messages aussi racistes que xénophobes. Mais heureusement pour l'Humanité, l'heure de sa résurrection n'a pas encore sonné, sa brève réapparition était purement accidentelle.

« Tay reste hors ligne pendant que nous faisons des ajustements. Pendant la phase de test, elle a été activée par inadvertance sur Twitter pour une période de temps limitée », a indiqué Microsoft dans un mail. Le compte @TayandYou, désormais privé, ne peut plus accueillir de nouveaux abonnés, ne répond plus à aucun tweet ou message direct sachant que plusieurs milliers de tweets déplacés ont également été effacés.

Article de

Commenter cet article

commenter cet article en tant que membre LMI

CONNEXION

Commenter cet article en tant que visiteur






* Les liens HTML sont interdits dans les commentaires

#LMItoutneuf

lancement dans

Publicité
Publicité
Publicité