Um denunciante que ajudou a expor um escândalo mundial de suborno ligado ao Australia’s National Reserve Bank [Banco Nacional de Reserva da Austrália] disse que planeja processar a empresa que está por trás do ChatGPT por difamação.

Brian Hood, que recebeu elogios por “demonstrar uma coragem tremenda” no caso Securency, disse ter ficado atônito ao ler sobre a resposta produzida pelo chatbot da OpenAI ao pergunta-lo sobre o papel do denunciante no escândalo.

Com uma versão completamente oposta ao fato, o ChatGPT afirmou falsamente que Hood foi condenado por pagar subornos a funcionários estrangeiros, declarou-se culpado de suborno e corrupção e foi condenado à prisão.

ChatGPT pode ser processado por produzir mentiras

Imagem: Andrew Neel/Unsplash

Hood, que hoje é prefeito do Condado de Hepburn, próximo de Melbourne na Austrália, disse que tem planos para processar a OpenAI por seu produto contar mentiras sobre ele, no que poderia ser o primeiro processo por difamação contra o chatbot de inteligência artificial.

“Nunca, jamais houve uma sugestão em lugar algum de que eu tenha sido cúmplice de alguma coisa, por isso essa máquina criou isso completamente do zero”, disse Hood, confirmando a intenção de entrar com um processo por difamação contra o ChatGPT. “É preciso haver um controle e regulamentação adequados sobre a chamada inteligência artificial, porque as pessoas estão confiando neles….”.

Se levada adiante, a ação judicial de Hood será a primeira a acusar o conteúdo do ChatGPT por difamação, segundo a Reuters. Nos tribunais, o caso testaria solo jurídico desconhecido, forçando os juízes a considerar se os operadores de um bot de inteligência artificial podem ser responsabilizados por suas declarações supostamente difamatórias.

O ChatGPT adverte aos usuários de que “pode ocasionalmente gerar informações incorretas”. Enquanto que uma reportagem do Post observa que todos os principais chatbots agora incluem isenções de responsabilidade, “tais como a mensagem de sobescrita abaixo de cada consulta do Bard” – ‘Bard pode exibir informações imprecisas ou ofensivas que não representam as opiniões do Google'”.

O caso de Hood não é único, outra reportagem do Washington Post observa que o ChatGPT ainda “inventou uma falsa história de assédio sexual envolvendo um professor real de direito, Jonathan Turley – citando uma reportagem do Washington Post que não existia como prova”.

Responsabilidade pelos erros cometidos por ChatGPT e outras IAs

Em uma declaração, o porta-voz da OpenAI Niko Felix disse que a empresa está fazendo progressos em relação às mentiras produzidas pelo chatbot. “Quando os usuários se inscrevem no ChatGPT, nós nos esforçamos para ser o mais transparentes possível, pois nem sempre isso pode gerar respostas precisas. Melhorar a precisão factual é um foco significativo para nós, e estamos fazendo progressos…”, afirmou.

Já Katy Asher, diretora sênior de comunicação da Microsoft, disse que a empresa está tomando medidas para garantir que os resultados da busca sejam seguros e precisos. “Desenvolvemos um sistema de segurança incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para fornecer uma experiência de busca segura para nossos usuários”, garantiu Asher em uma declaração, acrescentando que “os usuários também são avisados explicitamente que estão interagindo com um sistema de IA”.

ChatGPT pode ser processado por produzir mentiras

Imagem: Imagem: Local Doctor/Shutterstock.com

Embora as empresas estejam prontas para defender o lucro dos seus produtos, ainda não está claro quem é responsável quando a inteligência artificial gera ou espalha informações imprecisas. Esta, entretanto, já era uma das preocupações levantadas por pesquisadores da área de IA antes mesmo do lançamento do ChatGPT em novembro do ano passado.

De uma perspectiva legal, “nós simplesmente não sabemos” como os juízes podem decidir quando alguém tenta processar os criadores de um chatbot de IA por algo que ele diz, disse Jeff Kosseff, professor da Academia Naval e especialista em discurso online. “Não tivemos nada parecido com isso antes”.

 

Com informações The Sydney Morning Herald e The Washington Post

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments