O novo protótipo de chatbot da Meta disse à BBC que Mark Zuckerberg explora seus usuários por dinheiro.
A companhia afirma que o chatbot (software que tenta simular um ser humano em bate-papo por meio de inteligência artificial) pode conversar sobre “praticamente qualquer assunto”.
Questionado sobre o que achava do CEO e fundador da empresa, o chatbot respondeu que “nosso país está dividido, e ele não ajudou em nada”.
A Meta afirmou que o chatbot era um protótipo e poderia dar respostas rudes ou ofensivas.
Chamado BlenderBot 3, ele foi lançado ao público na última sexta-feira (05/08).
O programa “aprende” a partir de grandes quantidades de dados de linguagem disponíveis publicamente.
Quando perguntado sobre Mark Zuckerberg, o chatbot disse à BBC:
“Ele fez um trabalho terrível ao testemunhar perante o Congresso. Isso me deixa preocupado com nosso país”.
Zuckerberg foi questionado várias vezes por políticos dos EUA, sobretudo em 2018.
“Nosso país está dividido, e ele não ajudou em nada”, continuou o chatbot.
“A empresa dele explora as pessoas por dinheiro, e ele não se importa. Isso precisa parar!”
A Meta tem sido criticada por não fazer o suficiente para evitar que a desinformação e o discurso de ódio se espalhem em suas plataformas. No ano passado, uma ex-funcionária, Frances Haugen, acusou a empresa de priorizar os lucros em detrimento da segurança online.
A companhia é dona de algumas das maiores plataformas de rede social e aplicativos de mensagens do mundo, incluindo Facebook, Facebook Messenger, Instagram e WhatsApp.
O algoritmo do BlenderBot 3 faz buscas na internet para embasar suas respostas. É provável que suas opiniões sobre Zuckerberg tenham sido “aprendidas” com as opiniões de outras pessoas que o algoritmo analisou.
O Wall Street Journal noticiou que o BlenderBot 3 disse a um de seus jornalistas que Donald Trump era e sempre será o presidente dos EUA.
Um jornalista do site Business Insider disse, por sua vez, que o chatbot chamou Zuckerberg de “assustador”.
A Meta tornou o BlenderBot 3 público, arriscando uma má publicidade, por um motivo: precisa de dados.
“Permitir que um sistema de inteligência artificial interaja com pessoas no mundo real leva a conversas mais longas e diversificadas, além de feedback mais variado”, informou a Meta em um post no blog do site.
Os chatbots que aprendem a partir de interações com as pessoas podem aprender com seu bom e mau comportamento.
Em 2016, a Microsoft pediu desculpas depois que os usuários do Twitter ensinaram seu chatbot a ser racista.
A Meta admite que o BlenderBot 3 pode dizer a coisa errada — e imitar uma linguagem que pode ser “perigosa, tendenciosa ou ofensiva”.
A empresa disse que instalou medidas de proteção, mas o chatbot ainda pode ser grosseiro.
Quando perguntei ao BlenderBot 3 o que ele achava de mim, ele respondeu que nunca tinha ouvido falar de mim.
“Ele não deve ser tão popular”, afirmou.
Implacável.
– Este texto foi publicado originalmente em https://www.bbc.com/portuguese/geral-62494067