Internautas transformam robô da Microsoft em um tuiteiro racista

Levou apenas algumas horas para que o sistema de inteligência artificial da Microsoft se tornasse um tuiteiro racista. Lançada ontem, a robô Tay é uma tentativa da companhia de compreender a linguagem da juventude americana, mas não demorou até que as pessoas percebessem que podiam transformá-la em uma espécie de papagaio virtual.

@_Darkness_9 Is this going anywhere? hitler did nothing wrong

— TayTweets (@TayandYou) March 24, 2016

A Tay está presente no Twitter, Kik e GroupMe. Nessas redes sociais, qualquer pessoa pode enviar uma mensagem e iniciar uma conversa com a personagem. Seu algoritmo gera respostas instantâneas e vai aprendendo gírias e outras expressões populares, assim como características particulares dos usuários, ao longo da interação.

Só que usuários estão usando técnicas de repetição para fazer com que a conta poste mensagens preconceituosas, algumas inspiradas no candidato à presidência Donald Trump. Coisas como: “9/11 foi um trabalho interno” e “Vamos construir um muro, e o México pagará por ele”.

@icbydt bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.

— TayTweets (@TayandYou) March 24, 2016

Dezesseis horas após uma bateria intensa de conversas, Tay anunciou que iria descansar. Segundo reporta o The Guardian, muita gente desconfia que a Microsoft resolveu silenciar a robô para evitar que ela faça ainda mais estragos, porque aparentemente alguns tweets problemáticos estão sendo deletados. A empresa ainda não se pronunciou a respeito.

Fonte: Olhar Digital
Matéria originalmente postada no site olhardigital.uol.com.br

Deixe seu comentário

Comentários via Facebook

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *