Tay, conçue comme une réplique d'une jeune Américaine, avait été mise hors ligne la semaine dernière après avoir tenu des propos racistes et révisionnistes. Les internautes avaient testé les limites du "robot conversationnel" (ou"chatbot") qui construisait ses réponses à partir des données disponibles.
A son retour sur Twitter cette semaine, les milliers de réponses de Tay ont de nouveau été scrutées. Et le robot a déraillé, se décrivant comme "une des pires technologies" ou "fumant de l'herbe devant la police", selon les sites d'information Mashable et VentureBeat. Depuis, ses tweets ne sont plus accessibles.
Microsoft procède à des "ajustements"
"Tay sera maintenue hors ligne pendant que nous procédons à des ajustements", a déclaré mercredi Microsoft à Mashable. "Pour le test, elle a été activée par inadvertance sur Twitter pour une courte période", a-t-il ajouté.
Microsoft avait déjà dû expliquer le comportement de Tay la semaine dernière, se déclarant "profondément désolé".
tmun
Pas de dérapage pour la version chinoise
Microsoft avait déjà lancé un programme similaire en Chine, avec le robot XiaoIce, afin d'étudier les conversations de la génération Y, ces jeunes nés entre les années 80 et le début des années 2000.
XiaoIce dialogue depuis 2014 avec des millions d'utilisateurs sur WeChat, une application de discussion. Mais pas de dérapage pour cette version asiatique de post-adolescente. Reflet d'une société chinoise policée ou de la liberté d'expression dans le pays?