Dois pesquisadores identificaram mais de mil perfis falsos no LinkedIn, utilizando as fotos como critério de identificação. A descoberta, divulgada pelo portal NPR, foi possível porque os avatares eram de pessoas que não existem – ou seja, haviam sido gerados por inteligência artificial.
As contas teriam sido criadas por agências terceirizadas, com o objetivo de atrair potenciais clientes às empresas contratantes.
A pesquisa, comandada por Renée DiResta e Josh Goldstein, do Observatório de Internet de Stanford, foi iniciada após a própria DiResta receber em seu LinkedIn mensagens de dois perfis do tipo.
Falha no cabelo e brinco faltando
Em seu LinkedIn, a pesquisadora recebeu uma mensagem de uma usuária chamada Keenan Ramsey. Ela explicou fazer parte de um grupo em comum com DiResta e, em seguida, ofereceu um serviço de telecomunicações.
Ao portal NPR, a cientista explicou que inicialmente pretendia ignorar a mensagem, mas que, ao observar mais detalhadamente a foto utilizada pelo perfil, percebeu que se tratava de uma imagem gerada por inteligência artificial. Ela identificou falhas no cabelo, um brinco sem par e fundo borrado e de difícil identificação – falhas comuns em fotografias criadas por IA.
Após outro suposto usuário lhe enviar mais uma mensagem com o mesmo conteúdo, DiResta decidiu levar o caso ao seu colega de departamento, Goldstein. Foi aí que os dois iniciaram a pesquisa e encontraram mais de mil outros perfis que tinham o mesmo funcionamento e objetivo.
As contas falsas teriam sido criadas por agências dos Estados Unidos, contratadas por empresas para adquirir leads (contatos de clientes em potencial, com informações como nome, e-mail e telefone). Caso o perfil fake despertasse o interesse da pessoa enganada, a conversa era então transferida a um atendente real dessas empresas, que prosseguia com a venda.
Só pessoas de verdade
À primeira vista, os perfis pareciam verdadeiros porque, além de utilizarem fotos de uma pessoa aparentemente real, também tinham uma lista de empregadores, escolaridade e interesses, incluindo nomes como Amazon e a Universidade de Nova York (NYU).
Em resposta ao NPR, as mais de 70 empresas listadas como contratantes destes usuários falsos declararam não ter autorizado a criação de contas fake nem o uso de fotografias geradas por IA.
Ao que tudo indica, os criadores dos perfis teriam optado por imagens de inteligência artificial como um forma de “driblar” as regras de uso do LinkedIn, que não permite a utilização de fotos de outras pessoas.
Após identificarem as contas falsas, os pesquisadores do Observatório de Internet de Stanford entraram em contato com a plataforma. Em nota, o LinkedIn afirmou ter apagado os perfis que não condiziam com as regras de uso da plataforma, sem especificar o método utilizado em sua investigação.
“Nossas políticas deixam claro que cada perfil do LinkedIn deve representar uma pessoa real. Estamos constantemente atualizando nossas defesas técnicas para melhor identificar e remover perfis falsos de nossa comunidade, como fizemos nesse caso”, explicou a porta-voz Leonna Spilman, ao NPR.
Rede Adversária Generativa
Embora tenha surpreendido pelo objetivo de uso (vendas de produtos em uma rede de contatos corporativos), esta não é a primeira vez que imagens geradas por inteligência artificial são utilizadas em contas falsas.
A maioria dos usos já relatados são de cunho político. Já houve casos em redes fake para disseminar desinformação na China e em perfis que se passaram por pessoas reais para promover conteúdo pró-Trump durante as eleições estadunidenses de 2021.
Em fevereiro deste ano, fotos de IA foram utilizadas em perfis falsos para disseminar desinformação sobre a Ucrânia e mensagens pró-Rússia no Facebook, Twitter e YouTube. Na época, as plataformas declararam ter removido as contas.
As imagens geradas por IA são produzidas por uma tecnologia conhecida como “Rede Adversária Generativa (Generative Adversarial Network, em inglês, ou GAN). Criada em 2014, ela funciona por aprendizado de máquina e, por causa disso, tem se tornado cada vez mais poderosa e acessível.
Hoje, por exemplo, as “fotografias” feitas por GAN podem ser encontradas em bancos de imagens. De acordo com o que foi revelado pela pesquisa, os perfis descobertos por DiResta e Goldstein teriam utilizado imagens disponíveis destes sites.
Similaridades preocupantes com rostos humanos
Como a GAN tem funcionamento por aprendizado de máquina, ela tende a melhorar seus resultados no decorrer do tempo . Ou seja, as imagens geradas parecem cada vez mais reais. Embora impressione a alguns, essa característica, a longo e curto prazo, pode ser preocupante, principalmente quando somada à acessibilidade da tecnologia.
Uma pesquisa divulgada em 2022 pela revista da Academia Nacional de Ciências dos Estados Unidos revelou que rostos falsos têm aparência “mais confiável” do que rostos verdadeiros. De acordo com os pesquisadores Sophie J. Nightingale e Hany Farid, “pessoas” geradas por inteligência artificial hoje em dia são praticamente indistinguíveis de pessoas reais, o que levanta preocupações sobre seus possíveis usos.
Segundo o estudo, uma pessoa tem, em média, 50% de chance de identificar se uma pessoa representada em uma foto é real ou não. Farid explicou ao portal NPR que esta dificuldade provavelmente está relacionada ao fato de que as tecnologias de IA se baseiam nas características faciais mais gerais na hora de desenvolver rostos.
Além de servir como arma política na disseminação de desinformação, este tipo de tecnologia é preocupante porque pode, por exemplo, ser utilizada em pornografias de vingança, com a criação de vídeos falsos usando deep fake. Outro uso possível seria na perseguição online a ativistas, com desenvolvimento de múltiplos perfis com funcionamento similar ao das contas utilizadas pelas agências de marketing (embora com objetivos diferentes).
“Precisamos de diretrizes éticas mais rigorosas e mais marcos legais em vigor [sobre a tecnologia] porque inevitavelmente haverá pessoas lá fora que querem usar [essas imagens] para fazer mal”, apontou Nightingale.