Nos Estados Unidos, um advogado foi duramente criticado após desenvolver um processo judicial contra a Avianca contendo mentiras fornecidas pelo ChatGPT. No material de dez páginas, há processos como Martinez e Delta Air Lines, Varghese e China Southern Airlines, Zicherman e Korean Air Lines. Só que nem o próprio juiz consegue encontrar essas decisões. Todos são inexistentes.

Imagem mostra tela do ChatGPT por trás de um celular com o logotipo do chatbot

Imagem: Ascannio/Shutterstock.com

Na Colombia, um juiz usou o ChatGPT para escrever a decisão sobre os direitos de saúde de uma criança autista. Os documentos legais mostram que ele fez a seguinte pergunta à ferramenta: “Um menor autista está isento de pagar taxas por suas terapias?”. Conforme relata o The Guardian, a tecnologia deu sua resposta.

Quando o ChatGPT passa a ocupar funções que exigem inteligência humana, precisamos pisar no freio e analisar onde queremos chegar, já que esse cenário é preocupante. Essa inversão de papéis, onde a IA manda e nós obedecemos pode ser catastrófico para a humanidade.

E, de fato, essa tecnologia não foi criada para isso. Pelo contrário, ela veio para trazer benefícios e ser uma aliada nos deveres humanos. Entretanto desde que o ChatGPT chegou no mercado, seu uso tem sido não como um auxílio, mas atribuído à funções que são inerentes do ser humano.

E pergunto: será que essa tecnologia realmente tem respostas e soluções para todas as nossos problemas e dores?

Embora queríamos que a resposta fosse positiva, venho alertar que não. Ela não consegue resolver qualquer questão, apesar de ser treinada constantemente para trazer inúmeras informações, escrever textos sucintos, concisos e repleto de dados.

Se houve o tempo em que as pessoas tinham medo que as máquinas ganhassem consciência humana, preciso dizer que isso é impossível e por mais que elas sejam inteligentes demais, elas são apenas máquinas.

É por isso que nos três casos citados acima existe o mesmo erro: acreditar na inteligência artificial como verdade absoluta, esquecendo que ela é uma tecnologia que tem como objetivos auxiliar os humanos na tomada de decisão, somente. Quando ultrapassamos esse limite e a deixamos no controle, corremos um sério risco de fazer da humanidade obsoleta.

Não só de fatos vive o ChatGPT

O ChatGPT mal chegou no mercado e já causou um verdadeiro alvoroço. Conforme a tecnologia passar a ser usada por um grande número de pessoas, os debates e polêmicas sobre seu uso também se expandem. Afinal, estamos falando de uma ferramenta que já passou em redação na escola, esteve em discursos políticos, deu entrevista e também esteve nos tribunais.

Isso porque as conversas no ChatGPT realmente parecem reais. No entanto, nem sempre ela é precisa, além de poder inventar fatos. Portanto, não estamos falando diretamente com uma fonte confiável e é aqui que mora o perigo.

Primeiro, vale ressalta que o ChatGPT é treinado apenas com dados até setembro de 2021, portanto, não tem conhecimento dos últimos eventos ou desenvolvimentos, o que cria uma barreira gigantesca para a tomada de decisão atual. Além das informações desatualizadas, a ferramenta é treinada em conversas humanas baseada em textos e esses dados podem ser totalmente falsos.

Outro ponto preocupante é a questão das pessoas usarem a IA de maneira errada, acreditando em todas as respostas que a máquina dá, sem questionar, sem pesquisar ou se aprofundar. Parece que ela traz uma única verdade, o que tem limitado a capacidade humana. No entanto, não é bem assim que funciona.

A capacidade humana não deve ser ignorada

Apesar do ChatGPT se tratar de uma tecnologia revolucionária, que vai auxiliar em diversas esferas da nossa sociedade, é bom sempre lembrar que a inteligência humana é insubstituível. Sendo assim, é nossa capacidade de pensar, reagir às emoções e ter consciência que vão manusear as máquinas e não o contrário.

Sou uma grande entusiasta das novas tecnologias que surgem, inclusive dos avanços da IA. Certamente, estamos falando de algo que pode beneficiar muitas pessoas se bem usada. Porém, se torna uma ameaça caso deem mais poder a ela do que ela é capaz.

Nem tudo o ChatGPT vai poder responder, nem sempre ele será preciso e nós não podemos usá-lo como muleta. Essa tecnologia tem um potencial muito maior do que esse e nós estamos nos esquecendo disso.

 

Alessandra MontiniAlessandra Montini é diretora do LabData da FIA – Laboratório de Análise de Dados; consultora em Projetos de Big Data e Inteligência Artificial, Professora de Big Data; Inteligência Artificial e Analytics; professora da Área de Métodos Quantitativos e Informática da FEA; Coordenadora do Grupo de Pesquisa do CNPQ: Núcleo de Estudo de Modelos Econométricos e Núcleo de Estudo de Big Data; e parecerista do CNPQ e da Fapesp.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments