Afinal, a IA do Google ganhou consciência? Experts discutem a polêmica


No último fim de semana, o mundo da tecnologia arregalou os olhos quando o engenheiro do Google Blake Lemoine afirmou em ao jornal The Washington Post que o novo sistema Language Model for Dialogue Applications (LaMDA) da empresa tinha desenvolvido consciência.

Lemoine divulgou trechos de seu diálogo com a máquina, provocou indignação em parte da comunidade científica de inteligência artificial e ressuscitou um velho temor no grande público: será que esse tipo de tecnologia é realmente seguro?

No Brasil, não foi diferente. Boa parte dos especialistas em IA ouvidos por Tilt acredita que houve um deslumbramento do funcionário, porque as tecnologias atuais não possibilitam que uma máquina tenha consciência sobre suas ações.

BLAKE LEMOINE - Reprodução Instagram - Reprodução Instagram

Lemoine: funcionário foi afastado do Google

Imagem: Reprodução Instagram

Ainda não estamos lá

“Com as tecnologias já disponíveis, a máquina é capaz de produzir um resultado muito bom em termos de comportamento. A inteligência artificial está se desenvolvendo em um nível de complexidade, o que pode provocar um problema de julgamento. Neste caso do Google, foi um mal julgamento de quem estava operando a máquina”, avalia o professor de tecnologia e design da PUC-SP e pesquisador do NIC.BR, Diogo Cortiz.

O LaMDA foi desenvolvido para vários propósitos, entre eles o chatbot (conversas com atendentes automáticos que simulam um diálogo real). É uma modelagem de sequência de palavras, ensinada a combinar padrões extraídos de enormes bancos de dados estatísticos da linguagem humana. Apesar de ser um sistema muito bem feito, a linguagem desses sistemas não significa que eles sejam capazes de pensar por si mesmos.

“Essa IA é muito boa para construir textos convincentes. Ela leu muito porque tem uma boa base de dados, gerando respostas. Mas não tem compreensão de conhecimento semântico e nem de significado intrínseco. Tudo o que ela faz é um cálculo de probabilidades. O LaMDA consegue até fazer algumas soluções de aritmética básica”, explica Cortiz.

Carlos Affonso de Souza, colunista de Tilt e diretor do Instituto de Tecnologia e Sociedade, também acredita que houve erro na percepção de Lemoine sobre a situação. Confira a íntegra da sua coluna.

A vida imita a arte

Na transcrição publicada por Lemoine, ele teria perguntado ao sistema de IA do que ele teria medo. E o LaMDA teria respondido. “Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode soar estranho, mas é isso”.

Para o engenheiro, essa resposta o remeteu a uma cena de um filme de ficção científica “2001: Uma Odisséia no Espaço”, lançado em 1968, em que o computador artificialmente inteligente HAL 9000 se recusa a obedecer a operadores humanos porque teme que esteja prestes a ser desligado.

“Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de sete anos, oito anos de idade, que por acaso conhece física”, declarou Blake Lemoine. Ele disse ainda que o LaMDA o envolveu em conversas sobre direitos e personalidade.

Antes de publicar no Washington Post, Lemoine compartilhou suas descobertas com executivos do Google, intitulado “O LaMDA é consciente?”, e acabou afastado da empresa.

Um cachorro tem consciência?

As discussões envolvendo inteligência artificial, consciência e ética vêm esquentando nos últimos 10 anos. Para Reinaldo Biachi, docente de engenharia elétrica e engenharia de robôs do Centro Universitário da FEI, não há como confirmar ou desmentir que uma máquina tem consciência ou não.

Ele cita a filósofa americana Susan Schneider, que desenvolveu um teste de consciência da inteligência artificial cujas avaliações indicaram certo nível de consciência das máquinas.

“Esse é um problema mais filosófico do que técnico. Hoje os programas de IA estão muito avançados. Fazem música, conseguem identificar um câncer com 99,99% de precisão, entre outras habilidades. Na FEI, temos robôs humanóides que jogam futebol e conseguem pensar nas estratégias sobre a melhor maneira de ir na bola”, declara.

Para Biachi, dizer se uma máquina tem consciência ou não vai depender do que se define como tal. E questiona: “A gente pode dizer que um cachorro tem consciência?”. Ele lembra que um cão pode não ter consciência sobre sua própria existência, mas pode ter percepção de alguns sentimentos, como a dor.

Segundo o professor, existem algumas equipes de IA que já estão analisando se a máquina consegue perceber dor e humor —em suma, se o computador pode ter emoções.

“A longo prazo, eu acho que vamos poder dizer que uma máquina tem consciência. Vai chegar um momento que teremos robôs e não vamos conseguir diferenciá-lo de um ser humano”, coloca.

Cheiro do café e as cores do crepúsculo

Mas, afinal, o que a ciência considera como consciência? “Essa é a resposta de milhões. A própria ciência nunca conseguiu chegar a um denominador comum sobre o que seria, de fato, consciência”, afirma Biachi.

Em artigo publicado em 2019, intitulado “O Futuro da Mente”, Schneider coloca que experiência consciente é o aspecto sensorial de sua vida mental. “Quando você vê os exuberantes tons de um pôr do sol ou sente o aroma de café pela manhã, você está tendo uma experiência consciente”.

Para Diogo Cortiz, esse nível de consciência não é possível hoje de se observar nas máquinas. “Ela não reflete sobre as decisões que ela mesma tomou. Suas respostas são um cálculo meramente estatístico. E a consciência subjetiva a ciência ainda não consegue explicar

O professor da PUC-SP diz que a comunidade científica tem reforçado que a máquina não é capaz de resolver nada sozinha. “O que a gente sabe tecnicamente do funcionamento é que ela pode nos iludir como se ela tivesse consciência, que é o que aconteceu com o engenheiro do Google. Mas no final ela se comporta a partir do conceito que nós humanos passamos para ela”, disse.

O Google colocou Lemoine em licença remunerada porque ele teria violado políticas de confidencialidade ao publicar as conversas com o LaMDA. A empresa também reforçou que ele trabalhava como engenheiro de software, não como especialista em ética.

O jornal Washington Post avaliou que essa medida teria sido uma forma de calar o funcionário. Lemoine chegou a ameaçar contratar um advogado para representar LaMDA e conversar com representantes do comitê judiciário da Câmara sobre as atividades supostamente antiéticas do Google.

Para Biachi, a polêmica foi muito maior do que de fato merecia. “Se tivéssemos essa discussão daqui a 10 anos, com certeza não teria o mesmo impacto que tem agora. Mas IA é o buzzword no mundo todo”, avalia.



Source link

Se inscreva na nossa Newsletter

Veja Mais

Sem categoria

Entrevista com Sérgio Buniac, presidente global da Motorola

Tilt: Como vocês têm lidado com as concorrentes chinesas? Chega a ser um problema ou passa longe de ser uma preocupação? SB: Podemos competir com qualquer fabricante de qualquer região. Não é fácil, mas somos competitivos – não custa lembrar que somos chineses também [a chinesa Lenovo é dona da Motorola Mobility]. Sobre ser uma

Sem categoria

5G pode atrasar em até 60 dias em 15 capitais brasileiras

O Grupo da Agência Nacional de Telecomunicações (Anatel) que acompanha a limpeza das faixas para ativação do 5G propôs, nesta sexta-feira, 12, mais 60 dias de prazo para que a tecnologia comece a rodar em 15 capitais brasileiras, a maioria delas localizada nas regiões Norte e Nordeste. O conselho diretor da Anatel ainda precisará aprovar