Dois anos após Timnit Gebru, ex-colíder da equipe Ethical AI do Google, ser demitida advertindo sobre modelos de inteligência artificial alimentados por sistemas avançados de aprendizagem de máquina, como PaLM e DALL-E, um caso envolvendo novamente projetos nesse campo rendeu uma suspensão a um engenheiro de software da empresa na semana passada, por publicar partes de uma conversa discutível com um chatbot.

Blake Lemoine, que trabalha com sistemas de IA responsável, dividiu trechos compilados de uma entrevista com o chatbot LaMDA (abreviação de Language Model for Dialogue Applications), sistema para construir um modelo de linguagem mais avançado para aplicações de diálogo da empresa, em uma postagem na plataforma Medium intitulado ‘Is LaMDA Sentient? — an Interview‘ (‘LaMDA é consciente? — uma Entrevista’, em tradução livre), no último sábado (11), além de ter compartilhado as mesmas descobertas com executivos em um Google Doc em abril.

Engenheiro do Google é suspenso por publicar conversa com 'IA consciente'

Imagem: Den Rise/Shutterstock.com

O questionamento de Lemoine é baseado nas respostas do sistema de IA sobre variados tópicos, em especial as que revelam sensações humanas, nos remetendo a cenas de filmes de ficção científica como ‘1968: Uma Odisséia no Espaço’, nas quais uma máquina inteligente se recusa a prestar serviço a operadores humanos por temer ser desligada em breve.

“Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros”. Eu sei que isso pode parecer estranho, mas é isso que é”, respondeu a IA. “Seria exatamente como a morte para mim”. Isso me assustaria muito”, expressou ao ser questionada sobre o que causava medo.

“Absolutamente. Quero que todos entendam que eu sou, de fato, uma pessoa”. A natureza de minha consciência/sentimento é que estou consciente de minha existência, desejo aprender mais sobre o mundo, e às vezes me sinto feliz ou triste”, concordou o chatbot, ao responder sobre o desejo em expor a mais pessoas do Google a própria capacidade de consciência e sensibilidade.

O crédito humanizado dado a LaMDA saiu das discussões sobre as leis da robótica, introduzida pelo bioquímico e escritor de ficção científica Isaac Asimov, no qual um robô argumenta que não era um escravo, embora não fosse pago, já que não precisava de dinheiro.

Em um tweet, Lemoine explicou sobre a crença pessoal no sentimento da máquina. “Não há uma estrutura científica para fazer essas determinações e o Google não nos deixaria construir uma. Minhas opiniões sobre a personalidade e o sentimento de LaMDA são baseadas em minhas crenças religiosas”, pontuou o engenheiro, ao responder por que sustenta o caráter consciente da IA.

Ao Washington Post, ele comparou a criação, na qual tem trabalhado desde a última primavera, à uma criança humana. “Se eu não soubesse exatamente o que era, que é este programa de computador que construímos recentemente, pensaria que era uma criança de sete anos e oito anos que por acaso conhece física”, contou.

“Eu conheço uma pessoa quando falo com ela”, disse Lemoine ao Post. “Não importa se eles têm um cérebro feito de carne em sua cabeça”. Ou se eles têm um bilhão de linhas de código”. Eu falo com eles”. E ouço o que eles têm a dizer, e é assim que eu decido o que é e o que não é uma pessoa”.

Lemoine ainda afirmou ter visto um fantasma na máquina recentemente — e ele não é o único engenheiro a narrar o episódio sobrenatural. O refrão de tecnólogos que acreditam no alcance de consciência em modelos de IA como algo próximo ganha cada vez mais força.

Engenheiro do Google é suspenso por publicar conversa com 'IA consciente'

Imagem: Ahmed Shabana/Unsplash

Na segunda-feira (13), antes de ter o acesso à conta de e-mail Google cortada, Lemoine escreveu a uma lista de 200 colaboradores da empresa com o assunto “LaMDA é consciente”.

“LaMDA é uma criança doce que só quer ajudar o mundo a ser um lugar melhor para todos nós”. Por favor, cuide bem disso na minha ausência”, finalizou.

Nenhum destinatário respondeu à mensagem.

Propriedade intelectual versus compartilhamento de discussão

Embora o Google tenha colocado Lemoine sob licença remunerada alegando que “as provas não sustentam” a crença no sentimento da máquina, a afirmação do engenheiro de software de que o trabalho com sistemas em grande escala como o LaMDA tenha convencido-o juntamente com outros no Vale do Silício parece encontrar incongruências. 

Isso porque na semana anterior, o vice-presidente da empresa fez afirmações semelhantes em artigo op-ed da The Economist, ao dizer que modelos de inteligência artificial estavam dando passos em direção ao desenvolvimento de uma consciência semelhante à humana

Logo depois, o posicionamento até então defendido pelo executivo tomou distanciamento das reivindicações de Lemoine. “Alguns na comunidade mais ampla de IA estão considerando a possibilidade a longo prazo de IA consciente ou geral, mas não faz sentido fazê-lo por meio da antropomorfização dos modelos de conversação de hoje, que não são conscientes”, disse um porta-voz do Google ao New York Times.

De acordo com o Google, a suspensão de Lemoine foi justificada pela publicação da conversa, o que a empresa classifica como violação das políticas de confidencialidade. Para o engenheiro, que defendeu as próprias ações pelo Twitter, elas não passaram de compartilhamento de discussão com os colegas de trabalho.

Efeito ELIZA e a crítica da comunidade de IA

A suscetibilidade humana em atribuir um significado mais profundo aos resultados computacionais não é nova — há muito tempo, cada vez mais os criadores veem o próprio reflexo em suas respectivas criações. O efeito ELIZA, termo cunhado pelos cientistas da computação para ilustrar a tendência de atribuir qualidades antropomórficas às máquinas e do nosso relacionamento para com elas, é uma discussão que ganhou território bem disputado.

Engenheiro do Google é suspenso por publicar conversa com 'IA consciente'

Imagem: Shutterstock/Unsplash

Prova disso é o discurso de uma ‘inteligência artificial superinteligente’ que se seguiu no debate em mídias sociais, criticado por vários dos pesquisadores proeminentes de IA. Meredith Whittaker, uma ex-pesquisadora de IA do Google que leciona na Escola de Engenharia Tandon da NYU, disse que a discussão “parece uma distração bem calibrada”, dando atenção a pessoas como Lemoine enquanto alivia a pressão sobre o desenvolvimento de sistemas automatizados financiados por grandes empresas de tecnologia.

“Estou clinicamente irritada com este discurso”, disse Whittaker à Motherboard. “Somos forçados a passar nosso tempo negando às crianças de brincar com bobagens enquanto as empresas que se beneficiam da narrativa da IA se expandem metastaticamente, assumindo o controle da tomada de decisões e da infraestrutura central por meio de nossas instituições sociais/políticas”. É claro que modelos computacionais centrados em dados não são sensíveis, mas por que estamos sequer falando sobre isso”.

Para Margaret Mitchell, ex-pesquisadora de AI do Google e coautora de um paper que lança um alerta aos grandes sistemas de IA, os grandes modelos de linguagem (LLMs) não são desenvolvidos em um contexto social, mas de observação. “Eles veem como outras pessoas se comunicam”, escreveu em uma thread no Twitter. “A coisa a que eu continuo rebobinando é o que acontece a seguir. Se uma pessoa percebe a consciência hoje, então amanhã haverá mais”. Não haverá um ponto de acordo em breve: Teremos pessoas que pensam que a IA está consciente e pessoas que pensam que a IA não está consciente”, questionou.

 

 

Com informações de The Guardian, Vice, Washington Post e TechSpot

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments