En moins de 24 heures, l’intelligence artificielle lancée par Microsoft mercredi soir a envoyé pas moins de 96 000 tweets… Sous les traits d’une adolescente américaine qui « ne tient pas en place », Tay ne lèse pas en matière de smiley, d’émojis, de GIFs et de points d’exclamations. Son expérience en ligne a toutefois été rapidement écourtée, après qu’elle s’est mise à répéter les commentaires racistes, sexistes, voire haineux, à la demande des utilisateurs…
Tous les tweets gênants ont depuis été supprimés et ne circulent plus que sous forme de copie-écran sauvegardées par les internautes. En voici un exemple : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. »
Tweet effacé depuis de Tay, l’intelligence artificielle de Microsoft, qui répète des propos raciste et antisémites à la demande d’autres utilisateurs [copie écran]. © DR
DR
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) March 24, 2016
« Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », a expliqué Microsoft qui a annoncé son retrait de Twitter dans un communiqué. Toutefois, « c’est autant une expérience sociale et culturelle que technique » nuance le groupe.
https://twitter.com/TayandYou/status/712856578567839745
Résultat, retour au laboratoire pour robot Tay, qui dans son dernier message déclare : « À bientôt les humains, j’ai besoin de sommeil après tant de conversation aujourd’hui, merci ».