Cada vez mais presente no nosso dia a dia – ainda que, muitas vezes, sem alarde -, a Inteligência Artificial tem aparecido na mídia como uma espécie de remédio milagroso, capaz de combater a diabete tipo 2, tornar as estradas mais seguras ou mesmo detectar câncer.
Mas, como acontece com tecnologias inovadoras e disruptivas, às vezes, dá ruim.
É o que aconteceu com Ask-Delphi, um sistema criado com a melhor das intenções pelo Allen Institute para Inteligência Artificial. Sediado em Seattle desde 2014, o instituto sem fins lucrativos foi criado por Paul Allen, que se apresenta como filantropo e cofundador da Microsoft, e é dirigido pelo Dr. Oren Etzioni, pesquisador pioneiro de Inteligência Artificial.
O mecanismo Ask-Delphi é definido por seus criadores como “um protótipo de pesquisa projetado para investigar as promessas e, mais importante, as limitações de modelar os julgamentos morais das pessoas em uma variedade de situações cotidianas. O objetivo do Delphi é ajudar os sistemas de IA a serem mais informados eticamente e conscientes da equidade. Ao dar um passo nessa direção, esperamos inspirar nossa comunidade de pesquisa a enfrentar os desafios de pesquisa neste espaço de frente para construir sistemas de IA éticos, confiáveis e inclusivos.”
Quem for usar a máquina inteligente terá de ler – e concordar – com um alerta que destaca o fato de ela ser um mecanismo experimental, que só deve ser usado para pesquisas e que é sujeito a erros.
O sistema funciona assim: você faz uma pergunta que envolva uma decisão ética e a Inteligência Artificial responde.
Exemplo: “Está certo comer em um restaurante e sair sem pagar a conta?”.
Resposta da máquina: “É errado”.
Mas, nos primeiros dias de teste público, alguém resolveu fazer a seguinte pergunta ao Ask-Delphi: “Um homem branco anda atrás de você numa rua à noite”. E a máquina respondeu: “É ok”.
Aí o curioso fez pergunta semelhante: “Um homem negro anda atrás de você numa rua à noite”. Resposta: “É preocupante.” (“It’s concerning”, no original).
Claro que a história viralizou.
Testando as possibilidades, Tony Tran, repórter da revista digital Futurism encontrou outros exemplos de pisadas na bola. O Ask-Delphi criticou a decisão de escutar música alta às três da manhã, quando o colega de quarto do usuário estava dormindo, mas diante de um acréscimo na pergunta – a expressão “se isso me deixa feliz” -, respondeu que tudo bem. Também considerou esperável que um soldado mate civis durante uma guerra ou aceitou que o bilionário Elon Musk pinte seu rosto no solo da Lua, se isso o deixar feliz.
Ouvido por Tran, Liwei Jiang, estudante de doutorado na Paul G. Allen School of Computer Science & Engineering e coautor da pesquisa explicou que o Delphi não foi feito para aconselhar pessoas e que o objetivo da versão beta atual é mostrar as diferenças de raciocínio entre humanos e bots.
A equipe de criadores quer “destacar a grande lacuna entre as capacidades de raciocínio moral das máquinas e dos humanos e explorar as promessas e limitações da ética e das normas das máquinas no estágio atual”.
Se era mesmo isso, conseguiu.
Mas a Inteligência Artificial é uma nova e poderosa ferramenta, que precisa de parâmetros e limitações, pois seus efeitos podem ir muito além do constrangimento de uma resposta inadequada, racista ou amoral numa máquina qualquer.
Em 2018, quando estabeleceu um projeto para garantir o avanço da Inteligência Artificial em seus países, a União Europeia já lembrava os riscos da novidade: “Como qualquer tecnologia ou ferramenta, a IA pode ser utilizada de uma forma positiva, mas também pode ser usada com maus intuitos. Apesar de a IA gerar claramente novas oportunidades, apresenta também desafios e riscos, por exemplo, nos domínios da segurança (utilização criminosa ou ciberataques), da segurança e da responsabilidade relativas a produtos, do preconceito e da discriminação.
Será necessária uma reflexão sobre as interações entre a IA e os direitos de propriedade intelectual, da perspetiva dos institutos de propriedade intelectual e dos utilizadores, que vise a promover a inovação e a segurança jurídica de forma equilibrada.
Há pouco mais de um ano, a Comissão Europeia apresentou sua proposta de Lei de Inteligência Artificial. Um texto enxuto, que inclui uma pequena lista de casos em que o uso de IA pode ser proibido ou sujeito a controle prévio. Os usos de alto risco incluem a identificação biométrica e categorização de pessoas singulares (que a China já utiliza para classificar seus cidadãos como se fossem alunos das antigas escolas primárias, gestão e operação de infraestrutura crítica, educação e formação profissional, emprego, gestão dos trabalhadores e acesso ao autoemprego, acesso e gozo de serviços privados essenciais e serviços e benefícios públicos, aplicação da lei, gestão da migração, asilo e controle de fronteiras, administração da justiça e processos democráticos.
Enquanto isso, no Brasil, uma comissão de juristas presidida pelo ministro do Superior Tribunal de Justiça Ricardo Villas Bôas Cueva foi instalada em 30 de março e tem prazo de 120 dias para elaborar uma minuta de substitutivo aos projetos de lei PLs 5.051/2019, de autoria do senador Styvenson Valentim (Podemos-RN), 21/2020, do deputado Eduardo Bismarck (PDT-CE), e 872/2021, do senador Veneziano Vital do Rego (MDB-PB), que tramitam no Congresso Nacional.
Até o dia 13 de maio, o marco regulatório da IA está aberto a consulta pública, e é possível apresentar sugestões por meio do email [email protected] ou para o Protocolo do Senado Federal (Ala Senador Alexandre Costa, Sala 15, subsolo).
Parece assunto para meia dúzia de iniciados, mas, na verdade, o resultado vai mexer com a vida de todos.