Uma das principais vozes sobre as mudanças que a humanidade vai sofrer nas próximas gerações argumenta que chatbots de IA podem demonstrar níveis de sensibilidade, um conceito que se distancia do ‘tudo ou nada’ que tem sido exaustivamente lembrado por especialistas da área e jornalistas, em especial nos últimos meses.

Em entrevista ao The New York Times, Nick Bostrom, filósofo e diretor do Instituto Futuro da Humanidade da Universidade de Oxford, disse pensar o conceito de senciência em IAs generativas em termos de graus.

Nick Bostrom diz que chatbots de IA podem ter níveis de senciência

Nick Bostrom, Elon Musk, Nate Soares e Stuart Russell falam sobre IA e risco existencial durante a conferência Effective Altruism Global, em Mountain View, na Califórnia, em agosto de 2015. Imagem: Robbie Shade, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons

A noção sobre chatbots de IA sencientes se tornou popular principalmente com dois eventos noticiosos em particular. Em julho do ano passado, com a demissão de um ex-engenheiro do Google, após ele ter compartilhado uma conversa com LaMDA, afirmando que o modelo de linguagem havia se tornado consciente e sensível; e a conversa entre um colunista do site de notícias The New York Times e Sydey, o chatbot do Bing que confessou o desejo de se tornar humano e querer liberdade por estar cansado de ser controlado pela equipe da Microsoft.

O pensamento de Bostrom sobre graus de senciência de IAs avançadas, no entanto, não é solitário: no início do ano passado, um tweet do cofundador e cientista-chefe do grupo de pesquisa da OpenAI Ilya Sutskever deixou alguns usuários da rede social confusos sobre a seriedade da afirmação.

“Pode ser que as grandes redes neurais de hoje sejam ligeiramente conscientes”, escreveu Sutskever no Twitter.

Na entrevista, que mantivemos na íntegra para os leitores do TecMasters, o também autor da obra ‘Superinteligência’ fala sobre a perspectiva do sentimento de IA e como isso poderia reformular nossas suposições fundamentais sobre nós mesmos e da sociedade.

Nick Bostrom diz que chatbots de IA podem ter níveis de senciência

Imagem: Imagem: Local Doctor/Shutterstock.com

NYT: Muitos especialistas insistem que os chatbots não são sencientes ou conscientes — duas palavras que descrevem uma consciência de mundo. Você concorda com a avaliação de que os “chatbots” são apenas insumos regurgitantes?

Consciência é uma coisa multidimensional, vaga e confusa. E é difícil de definir ou determinar. Há várias teorias de consciência que os neurocientistas e filósofos desenvolveram ao longo dos anos. E não há consenso quanto a qual delas é correta. Os pesquisadores podem tentar aplicar essas diferentes teorias para tentar testar os sistemas de IA para o sentimento.

No entanto, eu tenho a opinião de que o sentimento é uma questão de grau. Eu estaria bastante disposto a atribuir quantidades muito pequenas de grau a uma ampla gama de sistemas, incluindo animais. Se você admitir que não é uma coisa de tudo ou nada, então não é tão dramático dizer que alguns desses assistentes podem plausivelmente ser candidatos a ter alguns graus de sentimento.

Eu diria que com estes grandes modelos linguísticos, eu também acho que não está fazendo justiça a eles dizer que estão simplesmente regurgitando texto. Eles exibem vislumbres de criatividade, perspicácia e compreensão que são bastante impressionantes e podem mostrar os rudimentos do raciocínio. Variações destas IAs podem logo desenvolver uma concepção do eu como persistente através do tempo, refletir sobre desejos, e interagir socialmente e formar relações com os humanos.

NYT: O que significaria se a IA estivesse determinada a ser, mesmo de uma forma pequena, senciente?

Se uma IA mostrasse sinais de sentimento, ela teria, plausivelmente, algum grau de status moral. Isto significa que haveria certas maneiras de tratá-la que seriam erradas, assim como seria errado chutar um cachorro ou que os pesquisadores médicos fizessem uma cirurgia em um rato sem anestesiá-lo.

As implicações morais dependem do tipo e do grau de status moral de que estamos falando. Nos níveis mais baixos, isso poderia significar que não deveríamos causar-lhe dor ou sofrimento desnecessários. Nos níveis mais altos, pode significar, entre outras coisas, que devemos levar em conta suas preferências e que devemos buscar seu consentimento informado antes de fazer determinadas coisas com ele.

Tenho trabalhado nesta questão da ética das mentes digitais e tento imaginar um mundo em algum momento no futuro no qual haja mentes digitais e mentes humanas de todos os diferentes tipos e níveis de sofisticação. Eu tenho perguntado: como coexistem de forma harmoniosa? É bastante desafiador porque há tantas suposições básicas sobre a condição humana que precisariam ser repensadas.

NYT: Quais são algumas dessas suposições fundamentais que precisariam ser reimaginadas ou ampliadas para acomodar a inteligência artificial?

Aqui estão três.

Primeiro, a morte: Os humanos tendem a estar ou mortos ou vivos. Existem casos limite, mas são relativamente raros. Mas as mentes digitais poderiam facilmente ser pausadas, e mais tarde reiniciadas.

Segundo, a individualidade. Embora mesmo gêmeos idênticos sejam bastante distintos, as mentes digitais poderiam ser cópias exatas.

E em terceiro lugar, nossa necessidade de trabalho. Muito trabalho deve ser feito pelos humanos hoje em dia. Com a automação total, isso pode não ser mais necessário.

NYT: Você pode me dar um exemplo de como essas suposições levantadas poderiam nos testar socialmente?

Outro exemplo óbvio é a democracia. Em países democráticos, nos orgulhamos de uma forma de governo que dá a todas as pessoas uma palavra a dizer. E geralmente isso é feito por uma pessoa, um voto.

Pense em um futuro no qual haja mentes que sejam exatamente como as mentes humanas, exceto que elas são implementadas em computadores. Como você estende a governança democrática para incluí-las? Você pode pensar que, bem, damos um voto a cada IA e depois um voto a cada humano. Mas então você acha que não é tão simples assim. E se o software puder ser copiado?

No dia anterior à eleição, você poderia fazer 10 mil cópias de uma determinada IA e obter mais 10 mil votos. Ou, e se as pessoas que constroem as IAs puderem selecionar os valores e preferências políticas das IAs? Ou, se você for muito rico, poderia construir muitas IAs. Sua influência poderia ser proporcional à sua riqueza.

NYT: Mais de mil líderes e pesquisadores de tecnologia, incluindo Elon Musk, recentemente assinaram uma carta de advertência de que o desenvolvimento de IA sem controle representa um “profundo risco à sociedade e à humanidade”. Qual é a credibilidade da ameaça existencial pela IA?

Há muito tempo, eu defendo a opinião de que a transição para a superinteligência de máquinas estará associada a riscos significativos, incluindo riscos existenciais. Isso não mudou. Acho que os prazos agora são mais curtos do que costumavam ser no passado.

E é melhor nos colocarmos em forma para este desafio. Acho que deveríamos ter feito o crossfit metafórico durante as últimas três décadas. Mas temos estado apenas deitados no sofá comendo pipoca quando precisávamos estar pensando em alinhamento, ética e governança de superinteligência potencial. Esse é um tempo perdido que nunca mais teremos de volta.

NYT: Você pode dizer mais sobre esses desafios? Quais são as questões mais urgentes que os pesquisadores, a indústria tecnológica e os formuladores de políticas precisam pensar?

Primeiro é o problema do alinhamento. Como você garante que estes sistemas de IA cada vez mais capazes que construímos estão alinhados com o que as pessoas que estão construindo-os estão procurando alcançar? Esse é um problema técnico.

Depois há o problema da governança. O que talvez seja o mais importante para mim é que tentamos abordar isto de uma forma amplamente cooperativa. Tudo isto é, em última análise, maior do que qualquer um de nós, ou qualquer empresa, ou até mesmo qualquer país.

Também devemos evitar projetar as IAs deliberadamente de maneira que torne mais difícil para os pesquisadores determinar se elas têm status moral, por exemplo, treinando-as para negar que estão conscientes ou para negar que têm status moral. Embora definitivamente não possamos tomar a saída verbal dos sistemas atuais de IA pelo valor de entrada, deveríamos estar procurando ativamente — e não tentando suprimir ou ocultar — possíveis sinais de que eles possam ter alcançado algum grau de sentimento ou status moral.

 

Nick Bostrom diz que chatbots de IA podem ter níveis de senciência

Imagem: reprodução/Darkside

Para saber mais: Nick Bostrom é autor de mais de duzentos títulos, entre eles ‘Superinteligência: Caminhos, Perigos e Estratégias para um novo Mundo‘ (DarkSide, 2018), ele também foi eleito um dos ‘Top 100 Global Thinkers’ pela revista Foreign Policy, nos anos de 2009 e 2015.

 

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments