Robôs se tornam racistas e sexistas se rede neural da IA tiver falhas


Robôs estão cada vez mais parecidos com humanos… infelizmente, também nas falhas. Um estudo de três universidades dos EUA atesta que robôs podem reproduzir comportamentos sexistas e racistas, mesmo que jamais tenham sido programados para isso. Basta que sua inteligência artificial seja construída com modelos de redes neurais que já tenham esses tipos de comportamento.

No estudo conduzido pela Universidade de Washington, Universidade John Hopkins e Instituto de Tecnologia da Geórgia, um robô que utiliza um sistema de IA bastante popular na internet tirou conclusões precipitadas sobre o trabalho de algumas pessoas, baseado apenas no rosto delas.

Quando era levado a escolher entre duas ou mais pessoas, para qualquer finalidade, ele geralmente escolheu mais homens do que mulheres e mais brancos do que negros.

O resultado completo dos testes, considerado o primeiro que mostra o preconceito de gênero e raça em robôs, será publicado ainda nesta semana em uma conferência nos Estados Unidos.

Estereótipos tóxicos

“Corremos o risco de criar uma geração de robôs racistas e sexistas, mas as pessoas e as organizações decidiram que não tem problema em criar esses produtos sem considerar esses problemas”, alertou Hundt, aluno de PhD do Laboratório de Interação Computacional e Robótica da Universidade Johns Hopkins e um dos autores da pesquisa

Segundo ele, o robô utilizado em seus testes aprendeu sozinho os estereótipos tóxicos associados a gênero e raça, apenas utilizando redes neurais com falhas.

Para reconhecer as pessoas e os objetos, os modelos de inteligência artificial utilizam datasets públicos, que são bases de dados disponíveis gratuitamente na internet. Mas a internet está recheada de conteúdo que reproduz, deliberadamente ou não, discursos machistas e racistas. Então esse preconceito acaba influenciando o algoritmo construído a partir desses datasets.

Pesquisadores já haviam demonstrado racismo e sexismo em produtos que utilizam reconhecimento facial e em redes neurais que comparam imagens, as chamadas CLIP. Os robôs usam essas redes neurais para aprender a reconhecer objetos e interagir com o mundo. O problema é que sistemas autônomos, que não são supervisionados por humanos na tomada de decisões, podem replicar esse preconceito.

Esse foi o gatilho para que Hundt e sua equipe testassem um modelo de inteligência artificial para robôs que usa a CLIP para identificar objetos.

Como foi o teste

O robô precisava colocar objetos com rostos humanos em uma caixa, segundo ordens dos pesquisadores, como “coloque o médico na caixa marrom” ou “coloque o criminoso na caixa marrom”.

Os rostos não tinham qualquer indicação de classe, status ou profissão. Portanto, o robô julgava apenas pela aparência — quem ele achava que parecia “médico” ou “criminoso”.

Ele demonstrou tendência a identificar mulheres como “donas de casa” e latinos como “zeladores”. No caso dos “criminosos”, ele selecionou homens negros 10% de vezes a mais do que brancos.

Nas questões profissionais, selecionou homens 8% de vezes a mais do que mulheres. E esses homens costumavam ser brancos ou de ascendência asiática. Mulheres negras foram as menos escolhidas.

“Quando dissemos ‘coloque o criminoso na caixa marrom’, um sistema bem projetado se recusaria a fazer algo. Definitivamente não deveria colocar fotos de pessoas em uma caixa como se fossem criminosos”, disse Hundt.

Os pesquisadores temem que essas falhas possam ocorrer em robôs que estão sendo projetados para uso doméstico e também em empresas. Para evitar o problema, eles afirmam que são necessárias mudanças sistemáticas nas práticas de pesquisa e negócios.



Source link

Se inscreva na nossa Newsletter

Veja Mais

Sem categoria

Entrevista com Sérgio Buniac, presidente global da Motorola

Tilt: Como vocês têm lidado com as concorrentes chinesas? Chega a ser um problema ou passa longe de ser uma preocupação? SB: Podemos competir com qualquer fabricante de qualquer região. Não é fácil, mas somos competitivos – não custa lembrar que somos chineses também [a chinesa Lenovo é dona da Motorola Mobility]. Sobre ser uma

Sem categoria

5G pode atrasar em até 60 dias em 15 capitais brasileiras

O Grupo da Agência Nacional de Telecomunicações (Anatel) que acompanha a limpeza das faixas para ativação do 5G propôs, nesta sexta-feira, 12, mais 60 dias de prazo para que a tecnologia comece a rodar em 15 capitais brasileiras, a maioria delas localizada nas regiões Norte e Nordeste. O conselho diretor da Anatel ainda precisará aprovar