Uma ordem judicial deu à Microsoft, proprietária do motor de busca Bing, 48 horas para que remova uma informação falsa na qual acusa um médico de delitos envolvendo assédio sexual, os quais, na verdade, ele investiga.

Ao analisar o pedido de liminar, o juiz Jayter Cortez Junior, da 7ª vara Cível de Bauru/SP, considerou o risco de demora e o alcance mundial da grande plataforma. Ao defiri-la, deu até 48 horas para que a empresa proprietária do Novo Bing retire o conteúdo produzido pelo chatbot de IA dos resultados de pesquisa, sob multa diária de R$ 5 mil até R$ 250 mil, em caso de desobediência.

Juiz de SP multa Microsoft em até R$ 250 mil por dia por mentira produzida por IA

Imagem: Microsoft

De acordo com a ata notarial adicionada ao processo, o chatbot capaz de “obter respostas resumidas”, “criar e redigir” e-mails e histórias, desenvolvida em parceria com a OpenAI, criadora do ChatGPT, apresentou nos resultados de pesquisa uma informação inverídica, na qual coloca como investigado por crime de assédio sexual em ofício de médico. Na realidade, o médico atua na apuração desses fatos pelo Conselho Regional de Medicina de São Paulo (CRM).

O médico que entrou com a ação contra a Microsoft disse que a ferramenta de busca não se limita a coletar e reproduzir informações, mas altera equivocadamente informação lançada em matéria jornalística.

IAs generativas promovem mentiras

Embora haja uma defesa sobre a automatização de tarefas consideradas operacionais delegadas a chatbots de IA, a substituição do trabalho humano em algumas áreas tem se provado desastrosas em várias partes do globo.

Exemplos não faltam e processos contra as empresas proprietárias têm se tornado corriqueiras. Além do exemplo acima mencionado, com a IA do Novo Bing, a OpenAI já começa a colecionar processos por difamação por informações inventadas pelo ChatGPT.

No início de junho, noticiamos o caso da IA conversacional acusar um inocente de desvio de dinheiro em uma queixa que não havia qualquer conexão com reivindicações de contabilidade financeira. Anteriormente, um dos primeiros casos de alucinação chamou a atenção da comunidade jurídica: um advogado que usou ChatGPT para preparar um processo de danos pessoais contra a companhia aérea Avianca, apresentou “casos inexistentes” ao tribunal. O uso da ferramenta de IA generativa só foi descoberta após advogados da Avianca não conseguirem encontrar alguns dos documentos do tribunal, os quais entraram com pedido de vistas.

Juiz de SP multa Microsoft em até R$ 250 mil por dia por mentira produzida por IA generativa

Imagem: Emiliano Vittoriosi/Unsplash

Após a situação do advogado Steven Schwartz ter se tornado manchete, um juiz federal do Distrito Norte do Texas emitiu uma ordem permanente no final de maio para que qualquer pessoa que compareça ao tribunal ateste que “nenhuma parte de qualquer processo será redigida por inteligência artificial generativa” ou sinalize qualquer linguagem que tenha sido redigida por IA para ser verificada quanto à precisão.

De acordo com o magistrado, embora as “plataformas sejam incrivelmente poderosas e tenham muitos usos na lei”, os briefings não são um deles, pois as plataformas são “propensas a alucinações e preconceitos” em seu estado atual.

 

Com informações de Migalhas e Forbes

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments