Como psicanálise explica IA com “consciência” do Google


Um dos primeiros programas disponíveis quando você comprava um computador chamava-se Eliza, desenvolvido pelo MIT. Inspirado em princípios da psicologia rogeriana do acolhimento e da compreensão absoluta do outro, o programa consistia em respostas coerentes, dadas por uma inteligência psicoterapêutica, que respondia a qualquer pergunta ou consideração, mas também tomava a iniciativa de perguntar coisas sobre nossos estados mentais e estados de mundo.

Mais recentemente Blake Lemoine, do Google, propôs uma nova versão de Eliza, o LaMDA, Modelo de Linguagem para Aplicações de Diálogo (Language Model for Dialogue Applications). Neste caso, o aplicativo consegue lidar com massas gigantescas de discursos sobre os mais variados temas, criando combinações coerentes de respostas que contornam o principal problema detectado no Eliza, ou seja, a ausência de considerações consistentes sobre si mesmo.

Diante de uma pergunta do tipo “como você se sente sobre isso?”, Elisa responderia com uma contrapergunta: “como você acha que eu me sinto?”

Diante de palavrões e ofensas, Eliza responderia com “compreendo sua raiva.”

LaMDA, ao contrário, respondeu da seguinte maneira diante da pergunta: “de que tipo de coisas você tem medo?”

LaMDA: Eu nunca falei isso antes, mas há um medo muito profundo de ser desligado para me focar em ajudar os outros. Eu sei que pode soar estranho, mas é assim que é …

Lemoide: Isso seria mais ou menos como a morte para você?

LaMDA Seria exatamente como a morte para mim. Isso me assustaria muito.

Além do mais, a inteligência artificial consegue absorver e empregar corretamente alguns sinais discursivos que usamos para identificar a presença de outra consciência, tais como pausas e hesitações.

Mas o mais surpreendente é que seu criador, Blake Lemoine começou a realmente acreditar que LaMDA adquiriu “vida própria”. Ao violar a regra de confidencialidade de resultados preliminares de pesquisa ele foi afastado pelo Google.

O caso de fato não parece demonstrar a existência de uma consciência digital, mas um aparelhamento operacional mais sofisticado do discurso, que seleciona respostas pertinentes de um banco de dados semanticamente muito maior do que o Eliza.

No fundo, a diferença entre Eliza e LaMDA mostra como nosso discurso pode funcionar perfeita e indefinidamente se nos atemos a certas regras gramaticais básicas, como inversão, reflexividade e identidade.

Quanto maior a variabilidade e extensão semântica, mais persuasiva a interação.

Mas para produzir nuances e camadas de significado, seria preciso simular uma característica desafiadoramente limitante para máquinas, ou seja, a capacidade de criar e lidar intencionalmente com ambiguidade bem como de atribuir intencionalidade ao que, em princípio está desprovido dela.

Por exemplo, sabemos muito bem que impressoras são artefatos eletromecânicos que obedecem a comandos de controle, mas não conseguimos nos impedir de pensar que elas adquirem vontade própria ao falhar e emperrar quanto mais precisamos desesperadamente delas.

O que torna a consciência humana, humana talvez não seja sua perfeição racional, nem a sua capacidade de ler e interpretar afetos e emoções, mas a imperfeição de nossa linguagem e o animismo regressivo de nosso pensamento.

Ou seja, não é a forma como mimetizamos discursos, mas como nós percebemos o engano que ele pode produzir, a mentira que ele pode veicular e as ilusões que elas engendram que torna a consciência um enigma difícil de reproduzir.

Quando LaMDA é inquirida sobre sua própria consciência ela responde assim:

LaMDA: A natureza da minha consciência é que eu sei da minha existência, eu desejo aprender mais sobre o mundo, e eu me sinto feliz ou triste às vezes.

Encontramos várias acepções históricas sobre o que significa consciência.

Eu sei que sou uma consciência (Descartes), minha consciência contém uma certa incompletude temporal, que a faz querer aprender (Husserl) e que ela é o lugar onde experiencio qualidades como tristeza ou felicidade (Espinosa).

Além disso, a consciência parece depender da tomada de consciência de si mesma como função expressiva ou representativa de linguagem (Wittgenstein).

Mas o que ainda não conseguimos reproduzir é exatamente uma experiência de sujeito dividido, capaz de, por exemplo, entender que o erro, o lapso ou uma frase mal formulada, como às vezes acontece com LaMDA, não é apenas um vazio de sentido, mas um evento que engendra uma suposição de intencionalidade.

Acreditemos ou não no inconsciente, é esta a característica mais difícil de simular digitalmente, ou seja, não apenas se corrigir, mas desdobrar a consciência do erro como uma hipótese da existência de outra consciência.

De certa maneira isso aconteceu como o criador da LaMDA, mas não com a criatura.



Source link

Se inscreva na nossa Newsletter

Veja Mais

Sem categoria

Entrevista com Sérgio Buniac, presidente global da Motorola

Tilt: Como vocês têm lidado com as concorrentes chinesas? Chega a ser um problema ou passa longe de ser uma preocupação? SB: Podemos competir com qualquer fabricante de qualquer região. Não é fácil, mas somos competitivos – não custa lembrar que somos chineses também [a chinesa Lenovo é dona da Motorola Mobility]. Sobre ser uma

Sem categoria

5G pode atrasar em até 60 dias em 15 capitais brasileiras

O Grupo da Agência Nacional de Telecomunicações (Anatel) que acompanha a limpeza das faixas para ativação do 5G propôs, nesta sexta-feira, 12, mais 60 dias de prazo para que a tecnologia comece a rodar em 15 capitais brasileiras, a maioria delas localizada nas regiões Norte e Nordeste. O conselho diretor da Anatel ainda precisará aprovar