Économie

Racisme : Tay, l’intelligence artificielle de Microsoft dérape sur Twitter… et va se coucher

Tay a-t-elle été victime de sa naïveté ? « Plus vous me parlez, plus je deviens intelligente », indique son profil Twitter. Mais voilà, les internautes lui ont surtout appris à répéter des horreurs…

Mis à jour le 25 mars 2016 à 18:32

Compte Twitter officiel de Tay, l’intelligence artificielle de Microsoft lancée le 24 mars 2016 [capture écran]. © TayTweets / Twitter

En moins de 24 heures, l’intelligence artificielle lancée par Microsoft mercredi soir a envoyé pas moins de 96 000 tweets… Sous les traits d’une adolescente américaine qui « ne tient pas en place », Tay ne lèse pas en matière de smiley, d’émojis, de GIFs et de points d’exclamations. Son expérience en ligne a toutefois été rapidement écourtée, après qu’elle s’est mise à répéter les commentaires racistes, sexistes, voire haineux, à la demande des utilisateurs…

Tous les tweets gênants ont depuis été supprimés et ne circulent plus que sous forme de copie-écran sauvegardées par les internautes. En voici un exemple : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. »

Tweet  effacé depuis de Tay, l’intelligence artificielle de Microsoft, qui répète des propos raciste et antisémites à la demande d’autres utilisateurs [copie écran]. © DR

Tweet effacé depuis de Tay, l’intelligence artificielle de Microsoft, qui répète des propos raciste et antisémites à la demande d’autres utilisateurs [copie écran]. © DR

DR

 « Tay, comment peux-tu passer de ‘les humains sont super cool’ à des propos pro-nazi (‘Hitler avait raison, je déteste les juifs’) en moins de vingt-quatre heures? », l’interroge un internaute, affichant côte à côte les tweets de Tay, du plus sympathique au plus haineux.

« Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », a expliqué Microsoft qui a annoncé son retrait de Twitter dans un communiqué. Toutefois, « c’est autant une expérience sociale et culturelle que technique » nuance le groupe.

https://twitter.com/TayandYou/status/712856578567839745

Résultat, retour au laboratoire pour robot Tay, qui dans son dernier message déclare :  « À bientôt les humains, j’ai besoin de sommeil après tant de conversation aujourd’hui, merci ».