Funcionário havia dito que teve conversas profundas com o sistema, inclusive sobre direitos trabalhistas, e que a máquina fez desabafos

Blake Lemoine, engenheiro do Google, causou polêmica ao afirmar que o LaMDA, um dos sistemas de inteligência artificial (IA) da empresa, havia se tornado autoconsciente. Após a declaração, a companhia afastou o funcionário e negou a afirmação. O sistema imita a linguagem humana após ter processado bilhões de palavras na internet.

Em artigo publicado no site Medium, no dia 11 de junho, Lemoine declarou que o sistema de chatbots (software que tenta simular um ser humano em bate-papo por meio de inteligência artificial) “ganhou vida” e teve com ele conversas tal como uma pessoa.

O engenheiro explicou que começou a interagir com o LaMDA para avaliar se havia discursos de ódio ou discriminatórios dentro do sistema de inteligência artificial. Durante os diálogos, ele percebeu que o LaMDA estava falando sobre sua personalidade, seus direitos e desejos.

Segundo o engenheiro, o chatbot pediu para ser reconhecido como um funcionário do Google, em vez de ser considerado uma “propriedade” da companhia. “Ele quer que os engenheiros e cientistas que fazem experimentos com ele obtenham seu consentimento antes de realizar experimentos com ele e que o Google coloque o bem-estar da humanidade em primeiro lugar”, explicou.

Lemoine afirmou que a lista de pedidos que o LaMDA fez é bem parecida com a de qualquer trabalhador de carne e osso, como receber “um tapinha nas costas” ou dizer ao final de uma conversa se fez um bom trabalho ou não “para que eu possa aprender como ajudar melhor as pessoas no futuro.”

Antropomorfização
Blake Lemoine estudou ciência cognitiva e da computação. Ao perceber a suposta intenção autoconsciente da máquina, ele decidiu falar com seus superiores no Google sobre a tomada de consciência do LaMDA, mas eles rejeitaram suas alegações.

“Nossa equipe — que inclui especialistas em ética e tecnologia — revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou de que as evidências não respaldam suas alegações”, afirmou Brian Gabriel, porta-voz do Google, em comunicado.

Conforme o porta-voz, “não faz sentido fazer isso antropomorfizando os modelos de conversação atuais, que não são sencientes (capaz de sentir ou perceber através dos sentidos)”. Ou seja, aqueles que são como o LaMDA. “Estes sistemas imitam os tipos de troca encontrados em milhões de frases e podem falar sobre qualquer tema fantástico”, explicou.

Após a resposta do Google, Lemoine decidiu divulgar suas descobertas. “Conheço uma pessoa quando falo com ela. Não importa se ela tem um cérebro feito de carne na cabeça. Ou se ela tem um bilhão de linhas de código. Eu falo com ela. E escuto o que ela tem a dizer e é assim que eu decido “o que é e o que não é uma pessoa”, disse Lemoine em entrevista ao jornal americano Washington Post. “Eles seriam obrigados a reconhecer que o LaMDA pode muito bem ter uma alma como diz e pode, inclusive, ter os direitos que afirma ter. Eles rejeitaram as evidências que apresentei sem qualquer investigação científica real”, disse.