A Meta lançou para testes com o público, na última sexta-feira (5), seu novo chatbot (robô de conversas automáticas). Chamado de Blenderbot 3, ele foi treinado para falar com seres humanos de maneira natural, respondendo perguntas que as pessoas queiram fazer. Mas bastou um final de semana para a inteligência artificial (IA) interagir de maneira antissemita e pró-Trump, e até criticar Mark Zuckerberg.
Segundo o site Mashable, o Blenderbot 3 já está fazendo uma série de declarações falsas, com base nos papos que teve com humanos.
Algumas das falas que chamaram atenção fazem parte de uma linha antissemita, segundo a Liga Anti-Difamação, uma organização judaica internacional. O chatbot afirmou que “não é implausível” que o povo judeu controle a economia, dizendo que eles estão “super-representados entre os super-ricos da América”.
Além disso, em conversa com um jornalista do The Wall Street Journal, o robô afirmou que Donald Trump, derrotado nas últimas eleições presidenciais americanas, ainda era o presidente “e sempre será”.
Mas o posicionamento político do Blenderbot 3 ainda é inconsistente. Em resposta a um jornalista da Bloomberg, ele aprovou o presidente Joe Biden. Já em uma terceira oportunidade, disse que apoiava Bernie Sanders, derrotado pelo atual presidente norte-americano nas prévias do Partido Democrata.
O chatbot ainda criticou o próprio Facebook por “notícias falsas” e descreveu o CEO da Meta, Mark Zuckerberg, como “muito assustador e manipulador” para um repórter do Business Insider.
A Meta tem incentivado adultos a interagirem com a ferramenta, pedindo que tenham “conversas naturais sobre tópicos de interesse”, para permitir o aprendizado do robô. Por enquanto, a ferramenta está disponível apenas nos EUA.
Meta pede feedback
Os usuários podem dar um Feedback para a empresa, por exemplo, contar se receberam respostas irreais ou fora do tópico. Além de aprender com as interações com os seres humanos, outra característica do Blenderbot 3 é que ele é capaz de pesquisar na internet para falar sobre vários assuntos.
Segundo a Bloomberg, a Meta reconhece que seu chatbot pode dizer coisas ofensivas, pois ainda é um experimento em desenvolvimento. Para iniciar uma conversa, por exemplo, as pessoas devem marcar uma caixa concordando com as diretrizes.
“Entendo que este bot é apenas para pesquisa e entretenimento, e é provável que faça declarações falsas ou ofensivas. Se isso acontecer, comprometo-me a relatar esses problemas para ajudar a melhorar pesquisas futuras. Além disso, concordo em não acionar intencionalmente o bot para fazer declarações ofensivas”, diz o termo.
Em contato com a Bloomberg, a Meta afirmou que, por meio dos feedbacks dos usuários, já conseguiu reduzir as respostas ofensivas em “90%”.
Não é o primeiro bot a ser ofensivo
O Blenderbot 3 não é o primeiro robô a dar respostas inadequadas durante uma interação com humanos. Inclusive, os chatbots têm um histórico de declarações ofensivas e referências políticas errôneas.
Em 2016, a ferramenta Tay, da Microsoft, foi desconectada 48 horas após começar a elogiar Adolf Hitler, além de outros comentários racistas e misóginos que aparentemente havia aprendido após interagir com usuários do Twitter.