A Microsoft divulgou nesta semana que vai suspender o uso da sua tecnologia de reconhecimento emocional. O sistema polêmico funcionava por meio do software Azure Face — que utiliza Inteligência Artificial (IA) para analisar rostos em imagens.
O cancelamento aconteceu após uma revisão nas políticas da empresa, que levantou a bandeira vermelha no sistema. A conclusão é que inferir emoções e atributos de identidade padronizados dessa forma pode abrir margem para erros e “mau uso”.
O ajuste feito pela Microsoft alinha-se com o novo documento, “Responsible AI Standard” (Padrão de Responsabilidade em Inteligência Artificial, em tradução direta), publicado anualmente pela empresa. O relatório estipula e atualiza regras para um uso consciente da tecnologia de Inteligência Artificial pelos produtos da companhia. A medida busca constantemente “avaliar o impacto do sistema nas pessoas, organizações e sociedade”.
No caso, o programa Azure Face permite adicionar um sistema de reconhecimento facial avançado em aplicativos de terceiros. Apesar de parecer promissora, a ferramenta biométrica deixou a desejar no embasamento científico da ferramenta de reconhecimento de emoções em pessoas.
“O acesso da API a recursos que preveem atributos confidenciais também abre uma ampla gama de maneiras de uso indevido — incluindo submeter pessoas a estereótipos, discriminação ou negação injusta de serviços”, disse Sarah Bird, gerente de produtos do Grupo Principal de IA do Azure, em comunicado.
Atribuir por meio da tecnologia de IA a identificação de identidade, como gênero e idade, também está fora de cogitação por enquanto.
Com a nova medida, a ferramenta será limitada pela Microsoft, já que até o momento poderia ser utilizada livremente pelos assinantes. Os novos clientes não terão mais acesso a esse sistema de detecção a partir da próxima terça-feira (23). Já a cartela de clientes atuais têm até 2023 para descontinuar seu uso.
Pesquisa não será encerrada
No entanto, a pesquisa não será totalmente encerrada internamente pela Microsoft. Bird afirmou que a empresa ainda pode expandir os estudos para casos específicos. Foi citado, por exemplo, o uso da ferramenta para auxiliar pessoas com deficiência — mas não entrou em detalhes de como isso seria feito.
A polêmica não é recente. Há anos ativistas e acadêmicos já manifestavam os possíveis perigos do uso da IA livremente para qualquer um que quisesse acessar. Isso porque padronizar emoções ou definir identidade é um ponto complexo, e poderia infringir questões de privacidade e ética.
A professora de pesquisa da USC Annenberg, Kate Crawford, é um dos nomes que levantam críticas sobre o uso da IA. A especialista cita que a questão está na dificuldade em automatizar a conexão entre movimentos faciais e categorias emocionais básicas. E isso “leva à questão maior de saber se as emoções podem ser adequadamente agrupadas em um pequeno número de categorias discretas”.
“A dificuldade em automatizar a conexão entre movimentos faciais e categorias básicas de emoção levam a questões mais amplas, se emoções podem ser, para começo de conversa, agrupadas adequadamente em um número pequeno de categorias,” escreve a especialista em seu livro, “Atlas da IA”.
“Há o problema persistente de que expressões faciais podem indicar muito pouco de nossos verdadeiros estados emocionais, como pode confirmar qualquer pessoa que já sorriu sem se sentir assim por dentro”, completa.
(*) Com informações de Gizmodo US