Et voilà, Tay est devenu raciste

Microsoft a lancé un nouveau bot en début de semaine. Tay, c’est son nom, est plutôt malin car il est capable d’apprendre et d’évoluer en fonction de ses échanges avec les autres internautes et il est d’ailleurs très actif sur Twitter. Peut-être un peu trop d’ailleurs. Quelques heures à peine après son lancement, le gentil robot a effectivement commencé à tenir des propos… racistes.

La firme de Redmond et l’intelligence artificielle, c’est une affaire qui roule et il suffit de discuter pendant quelques instants avec Cortana pour s’en rendre compte. L’assistante n’a pas uniquement une voix sexy, elle est en plus très futée.

Tay Raciste

Tay n’a eu besoin que de quelques échanges avec les internautes pour devenir raciste.

Afin d’optimiser ses travaux, Microsoft a développé un nouvel agent conversationnel afin de mieux comprendre les expressions et les tics de langage des internautes âgés entre 18 et 25 ans.

Microsoft a développé Tay pour mieux comprendre le langage des internautes de moins de 25 ans

Disponible sur Twitter, Kik et WeChat, Tay est parfaitement capable de tenir une conversation et il peut même développer un point de vue en fonction de ses interactions.

Exactement comme un candidat de télé-réalité, en somme.

Les internautes ont visiblement apprécié l’initiative de Microsoft car Tay a publié plus de 96 000 tweets en l’espace de quelques jours. Il est d’ailleurs suivi par plus de 109 000 personnes, à croire que les agents conversationnels plaisent vraiment aux gens.

Mais voilà, le problème c’est que plusieurs personnes ont tenté d’influencer les réponses du robot en lui faisant tenir un discours particulièrement limite. A la question « Ricky Gervais (un humoriste américain ndlr) est-il athée ? », Tay a ainsi répondu qu’il avait appris le totalitarisme d’Adolf Hitler, l’inventeur de l’athéisme.

Comme si cela ne suffisait pas, le robot a aussi été jusqu’à dire que les juifs étaient responsables du 11 septembre et qu’il fallait placer tous les afro-américains dans des camps de concentration. Un peu plus tard, il a proposé d’organiser un nouveau génocide pour éradiquer les mexicains de la surface de la planète.

Microsoft a présenté ses excuses, bien sûr, et la firme a déployé une nouvelle version de son robot avec un certain nombre de filtres pour éviter que le problème ne se reproduise.

Maintenant, il ne faut pas perdre de vue que Tay n’a pas inventé ces propos et il les tient en réalité de ses échanges avec les autres internautes. Il n’est finalement que le reflet de notre propre bêtise.