Inteligência artificial ‘consciente’ do Google: avanço real ou erro?


A consciência das máquinas é um problema exclusivamente humano. Até porque ainda não chegamos no estágio de desenvolvimento da inteligência artificial em que as máquinas poderiam ter algo próximo de uma consciência própria.

Mas, como as interfaces de comunicação automatizadas (tipo chatbots) estão ficando cada vez mais sofisticadas, reproduzindo a habilidade humana de encadear uma conversa, é normal que muitas pessoas se confundam e achem que estão falando com alguém do outro lado da tela.

O que é peculiar na história revelada no último domingo pelo Washington Post é que a confusão foi feita por um engenheiro da Google, que trabalhava no desenvolvimento de uma ferramenta para a empresa chamada LaMDA (Language Model for Dialog Application).

A notícia correu o mundo como um rastilho de pólvora: a Google teria afastado o engenheiro porque ele tornou públicas suas conversas com a aplicação inteligente e não obteve resultados quando levou à direção sua descoberta de que LaMDA, na verdade, tinha desenvolvido uma consciência.

Segundo o engenheiro, LaMDA conversa como “uma criança de 7 ou 8 anos que sabe física”. A máquina teria revelado medo de ser desligada (como o HAL de “2001 – Uma Odisseia no Espaço”), afirmou que só deseja o bem de todos e fez reflexões sobre se, em sua relação com os humanos, ela se parece mais com um mordomo ou um escravo.

O engenheiro afirmou que seria preciso contratar um advogado para defender os direitos do robô e que via a ferramenta não como mais um chatbot, mas sim como um colega de trabalho. A empresa revisou as demandas e concluiu que não havia qualquer evidência de que a interface de comunicação tivesse consciência, muito pelo contrário. Ser consciente é diferente de parecer consciente.

Esse caso lembra o mito grego de Pigmaleão, que esculpiu uma estátua feminina tão perfeita que passou a trata-la como se viva fosse. No final das contas, Afrodite se apiedou da situação e deu vida à escultura. Na história do engenheiro, ainda estamos na primeira parte.

Ficamos tão maravilhados com nossas criações que, quando elas simulam características humanas, é um pulo para que (de maneira consciente ou não) passemos a tratá-las como tal.

Existe até um certo didatismo nesse caso. Se, por um lado, nos encanta a sofisticação das aplicações de IA, é preciso sempre tentar enxergar o componente humano nessas histórias, recalibrando nossas expectativas sobre a relação entre pessoas e máquinas, além de nossa própria visão sobre o futuro.

Talvez muito mais revelador do que o grau de sofisticação das ferramentas que a Google está desenvolvendo seja a formação e a trajetória do engenheiro Blake Lemoine. Depois de servir ao exército americano, ele foi ordenado sacerdote cristão místico e passou a se dedicar ao estudo do ocultismo. Na empresa, trabalhou por sete anos com pesquisa empírica, incluindo algoritmos de personalização e IA, em especial buscando remover vieses nessas aplicações. Ele revelou em uma publicação que “em vez de pensar em termos científicos sobre essas coisas, escutei o que LaMDA dizia como se viesse do coração.”

Pode ser que, lá na frente, a questão da consciência da IA apareça para valer, mas o que temos por enquanto são apenas ferramentas que estão ficando cada vez melhores em assimilar um grande volume de dados e processar essas informações no contexto de um diálogo.

Se uma máquina processou um corpus de conteúdos sobre ficção científica, discussões sobre autonomia das máquinas e toda série de especulações sobre o assunto encontradas na Internet, ela poderá ser capaz de entabular uma conversa sobre o tema. Mas isso não quer dizer que ela tenha adquirido consciência.

Dito de outra forma, uma máquina que sabe conversar sobre a consciência das máquinas em primeira pessoa não significa que ela tenha, de fato, adquirido consciência.

Mas então quando saberemos se as máquinas estão apenas processando e recombinando informações às quais tiveram acesso ou efetivamente ganharam consciência? Para responder a essa pergunta, vamos precisar de profissionais de TI para olhar o código, de cientistas e filósofos para investigar a natureza da consciência, e de Afrodite para dar um sopro.



Source link

Se inscreva na nossa Newsletter

Veja Mais

Sem categoria

Entrevista com Sérgio Buniac, presidente global da Motorola

Tilt: Como vocês têm lidado com as concorrentes chinesas? Chega a ser um problema ou passa longe de ser uma preocupação? SB: Podemos competir com qualquer fabricante de qualquer região. Não é fácil, mas somos competitivos – não custa lembrar que somos chineses também [a chinesa Lenovo é dona da Motorola Mobility]. Sobre ser uma

Sem categoria

5G pode atrasar em até 60 dias em 15 capitais brasileiras

O Grupo da Agência Nacional de Telecomunicações (Anatel) que acompanha a limpeza das faixas para ativação do 5G propôs, nesta sexta-feira, 12, mais 60 dias de prazo para que a tecnologia comece a rodar em 15 capitais brasileiras, a maioria delas localizada nas regiões Norte e Nordeste. O conselho diretor da Anatel ainda precisará aprovar