Tay, a inteligência artificial racista e cheia de ódio da Microsoft, voltou a aparecer

Desta vez, Tay resolveu dizer que estava a fumar erva... em frente à polícia

Tay, uma experiência de inteligência artificial da Microsoft que correu horrivelmente mal, voltou à rede social Twitter durante breves momentos, na quarta-feira à noite, para dizer que... estava a fumar erva em frente a polícias.

A ideia da Microsoft era criar uma "pessoa" artificial na internet, uma inteligência artificial (IA), capaz de aprender e evoluir à medida que ia interagindo com os outros utilizadores. Mas a experiência não corre bem e Tay teve de ser "abatida": bastaram dias para a IA aprender a detestar pessoas no geral, feministas e judeus em particular, e apreciar Hitler.

Na quarta-feira à noite, Tay voltou a existir durante breves momentos e afirmou repetidamente "vais demasiado depressa, por favor descansa", antes de dizer que estava a fumar erva em frente à polícia.

Alguns pensaram que Tay tinha ganhado vida própria, mas um porta-voz da Microsoft admitiu ao site Quartz que a Tay "foi inadvertidamente ativada durante um breve período de tempo" em testes.

A Tay, como se lê no site oficial do projeto, tinha como objetivo "fazer experiências e investigar a compreensão conversacional". No entanto, essa aprendizagem seria sempre um reflexo das interações com outros utilizadores e Tay tornou-se rapidamente um alvo para os trolls da rede social (utilizadores que de dedicam à disrupção, uma espécie de vandalismo digital) que decidiram tornar a IA da Microsoft num deles.

A Microsoft desativou o perfil de Tay mas continua em testes, como se viu por ontem à noite. Resta saber com quem anda Tay a falar agora.

Mais Notícias