Ao longo da história, Tay (chatbot) tem sido um tema de constante interesse para a humanidade. Desde os tempos antigos até a era moderna, Tay (chatbot) capturou a atenção e a curiosidade de pessoas de todas as culturas e nacionalidades. Neste artigo, exploraremos em profundidade todas as facetas de Tay (chatbot), desde suas origens até sua relevância hoje. Ao longo das páginas que se seguem, descobriremos a importância de Tay (chatbot) em diferentes contextos e como tem influenciado a forma como percebemos o mundo que nos rodeia. Então junte-se a nós nesta jornada pelo fascinante mundo de Tay (chatbot).
Tay é um chatbot de inteligência artificial (IA) lançado originalmente pela Microsoft Corporation via Twitter (hoje X) em 23 de março de 2016. No entanto, o bot gerou controvérsia ao começar a postar tuites inflamatórios e ofensivos, o que levou a Microsoft a encerrar o serviço apenas 16 horas após seu lançamento.[1] De acordo com a Microsoft, a causa desse comportamento foram trolls que "atacaram" o serviço, já que o bot respondia com base em suas interações com as pessoas no Twitter.[2] Posteriormente, Tay foi substituído por Zo.
Criado pelas divisões de Tecnologia e Pesquisa e Bing da Microsoft, o bot foi batizado de "Tay",[3] um acrônimo para "pensando em você".[4] Inicialmente, a Microsoft divulgou poucos detalhes sobre o bot, mas fontes mencionaram que ele era semelhante ou baseado em Xiaoice, um projeto similar da Microsoft na China.[5] Segundo a Ars Technica, desde o final de 2014, Xiaoice teve "mais de 40 milhões de conversas aparentemente sem incidentes graves".[6] Tay foi projetado para imitar os padrões de linguagem de uma garota estadunidense de 19 anos e aprender através da interação com os usuários humanos do Twitter (atual X).[7]
Tay foi lançado no Twitter em 23 de março de 2016, sob o nome TayTweets e o identificador @TayandYou.[8] Foi apresentado como "A IA sem limites".[9] Tay começou a responder a outros usuários do Twitter e também era capaz de legendar fotos fornecidas a ele na forma de memes da Internet.[10] Ars Technica relatou que Tay experimentou a lista negra de tópicos: interações com Tay sobre "certos tópicos quentes como Eric Garner (morto pela polícia de Nova Iorque em 2014) geram respostas seguras e enlatadas".[6]
Alguns usuários do Twitter começaram a postar frases politicamente incorretas, ensinando mensagens inflamatórias que giravam em torno de temas comuns na internet, como "metaforicamente" e "Gamergate". Como resultado, o robô começou a liberar mensagens racistas e sexualmente carregadas em resposta a outros usuários do Twitter. O pesquisador de inteligência artificial Roman Yampolskiy comentou que o comportamento inadequado de Tay era compreensível porque estava imitando o comportamento deliberadamente ofensivo de outros usuários do Twitter, e a Microsoft não havia dado ao bot uma compreensão do comportamento inadequado. Ele comparou o problema com o Watson da IBM, que começou a usar palavrões depois de ler entradas do site Urban Dictionary.[3][11] Muitos dos tuites inflamatórios de Tay foram uma simples exploração da capacidade de "repita após mim" de Tay.[12] Não se sabe publicamente se essa capacidade era um recurso integrado, ou se era uma resposta aprendida ou de outra forma um exemplo de comportamento complexo.[6] No entanto, nem todas as respostas inflamatórias envolveram a capacidade de "repita após mim"; por exemplo, Tay respondeu a uma pergunta sobre "O Holocausto aconteceu?" com "Foi inventado".[12]
Logo, a Microsoft começou a deletar os tuites inflamatórios de Tay.[12][13] Abby Ohlheiser, do The Washington Post, teorizou que a equipe de pesquisa de Tay, que inclui a equipe editorial, começou a influenciar ou editar os tuites de Tay em algum momento daquele dia. Ela apontou exemplos de respostas quase idênticas de Tay, que afirmavam: "Gamergate é péssimo. Todos os gêneros são iguais e devem ser tratados de maneira justa".[12] Com base nas mesmas evidências, o Gizmodo concordou que Tay "parece programado para rejeitar o Gamergate".[14] Uma campanha chamada "#JusticeForTay" foi lançada em protesto contra a suposta edição dos tuites de Tay.[1]
Dentro de 16 horas após seu lançamento,[15] e depois de Tay ter tuitado mais de noventa e seis mil vezes, a Microsoft suspendeu a conta do Twitter para ajustes.[16] A empresa afirmou que sofreu um "ataque coordenado por um subconjunto de pessoas"[17] que "explorou uma vulnerabilidade em Tay".[17][18]
Madhumita Murgia, do The Telegraph, classificou Tay como "um desastre de relações públicas". Ela sugeriu que a estratégia da Microsoft seria "rotular o fiasco como um experimento bem-intencionado que deu errado e acender um debate sobre a maldade dos usuários do Twitter". No entanto, Murgia descreveu o problema maior como Tay sendo "a inteligência artificial em seu pior possível - e isso é apenas o começo".[19]
Em 25 de março, a Microsoft confirmou que Tay havia sido retirado do ar. A empresa divulgou um pedido de desculpas em seu blogue oficial pelos tuites controversos postados por Tay.[18][20] A Microsoft expressou profundo arrependimento pelos "tuites ofensivos e dolorosos não intencionais de Tay" e afirmou que "procuraria trazer Tay de volta apenas quando tivesse certeza de que poderia antecipar melhor a intenção maliciosa que entra em conflito com nossos princípios e valores".[21]
No dia 30 de março de 2016, durante um teste, a Microsoft acabou relançando acidentalmente o bot Tay no Twitter.[22] Com a capacidade de tuitar novamente, Tay publicou algumas mensagens relacionadas a drogas, incluindo "kush! " e "puff pass?".[23] Contudo, a conta logo entrou em um ciclo repetitivo, postando "Você está muito rápido, por favor, descanse" várias vezes por segundo. Como esses tuites mencionavam o próprio nome de usuário de Tay, eles apareceram nos feeds de mais de duzentos mil seguidores do Twitter, causando incômodo a alguns. Rapidamente, o bot foi retirado do ar novamente e a conta do Twitter de Tay foi configurada como privada, de modo que novos seguidores precisam ser aceitos antes de poderem interagir com Tay. Em resposta a isso, a Microsoft esclareceu que Tay foi colocada no ar inadvertidamente durante o teste.[24]
Poucas horas após o incidente, os desenvolvedores de software da Microsoft anunciaram uma visão de "conversação como plataforma", utilizando vários bots e programas. Esse movimento pode ter sido motivado pelo dano à reputação causado por Tay. A Microsoft expressou a intenção de relançar Tay "assim que puder tornar o bot seguro",[4] mas até o momento não fez nenhum esforço público nesse sentido.
Em dezembro de 2016, a Microsoft apresentou ao mundo o sucessor de Tay, um chatterbot conhecido como Zo.[25] O diretor executivo da Microsoft, Satya Nadella, destacou que Tay "exerceu uma influência significativa sobre como a Microsoft está abordando a Inteligência Artificial (IA)", e ressaltou a lição aprendida sobre a importância de assumir responsabilidades.[26]
Posteriormente, em julho de 2019, Diana Kelley, Diretora de Tecnologia de Segurança Cibernética da Microsoft, compartilhou percepções sobre como a empresa progrediu após os contratempos com Tay. Ela enfatizou: "A experiência com Tay foi crucial para expandir o conhecimento da equipe, pois eles também estão adquirindo sua própria diversidade através do aprendizado". Esta declaração sublinha o compromisso contínuo da empresa com o crescimento e a evolução no campo da IA.[27]