Bard, a inteligência artificial generativa do Google, surgiu em uma “ação meio desastrosa”. Pelo menos foi assim que classificaram os próprios funcionários da empresa, que criticaram o CEO, Sundar Pichai, pela apresentação “apressada e mal feita” – afinal, a tecnologia foi anunciada às pressas, com intuito de não ficar para trás quando o ChatGPT começou a ganhar notoriedade ao ser integrado ao Bing pela Microsoft.

Nesta quarta-feira (29), o The Information publicou um artigo com alegações de um ex-pesquisador de inteligência artificial do Google de que a empresa teria usado as respostas do ChatGPT, da rival OpenAI, para treinar seu próprio chatbot. A big tech nega que o Bard use tais dados.

Google Bard, inteligência artificial

Imagem: Shutterstock

IA do Google além do Bard

A publicação também afirma que o Google está apostando forte em melhorar a performance da IA forçando a divisão DeepMind a ajudar a equipe do Google Brain a vencer a OpenAI com uma nova iniciativa chamada Gemini.

Sobre a acusação de usar o rival como fonte, a gigante de Mountain View nega: “O Bard não é treinado em nenhum dado do ShareGPT ou ChatGPT”, disse o porta-voz Chris Pappas ao The Verge.

O The Information também revela que Jacob Devlin, um ex-engenheiro de IA do Google, deixou a empresa imediatamente para ir para a rival OpenAI depois de tentar alertar o Google para não usar os dados do ChatGPT, porque violaria os termos de serviço da OpenAI, bem como resultaria em respostas muito semelhantes.

Uma outra fonte disse à publicação que o Google parou de usar esses dados logo após os alertas.

Ajudem a Bard!

Para melhorar a precisão da IA, conforme informa a CNBC, o Google pediu ajuda aos funcionários da empresa para treinar melhor a Bard.

O vice-presidente de pesquisa, Prabhakar Raghavan, teria enviado um e-mail aos membros da equipe pedindo a eles que reescrevessem as respostas da inteligência artificial sobre tópicos que conhecessem bem.

O chatbot “aprende melhor pelo exemplo”, disse Raghavan. Assim, treiná-lo com respostas factuais ajudará a melhorar sua precisão. O executivo também incluiu uma lista do que fazer e não fazer quando se trata de corrigir as respostas do Bard: segundo ele, as respostas e correções devem ser em primeira pessoa, neutras e sem opinião, e devem ter um tom educado, casual e acessível.

Google

Imagem: Trac Vu/Unsplash

Atenção às regras

O e-mail também sugere aos funcionários que “evitem fazer presunções com base em raça, nacionalidade, sexo, idade, religião, orientação sexual, ideologia política, localização ou categorias semelhantes”. Mais do que isso, são instruídos a não descrever o Bard como uma pessoa, insinuar que ele tem emoções ou alegar que tem experiências semelhantes às humanas.

Por fim, outra indicação para melhorar as respostas da IA é rejeitar quaisquer respostas que o chatbot possa dar que contenha “aconselhamento jurídico, médico e financeiro” ou que sejam odiosas e abusivas.

O e-mail de Raghavan veio depois que Sundar Pichai também enviou uma mensagem aos funcionários do Google pedindo que eles gastem algumas horas por semana testando o chatbot de inteligência artificial.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments