O polêmico ChatGPT pode trazer informações úteis para o dia a dia? Até pode. Mas nas mãos erradas, os riscos são grandes. E uma pequena prova disso é que usuários da ferramenta da OpenAI estão abusando de um exploit para obter chaves para o Windows de graça.

Não se trata de algo inesperado, uma vez que o bot já foi capaz de criar códigos de malware ou mesmo listar sites que distribuem conteúdos de maneira ilegal. Mas a grande curiosidade por traz dessa nova descoberta é justamente o método utilizado.

No caso, a comunidade descobriu que há uma forma de burlar restrições impostas ao ChatGPT. E isso envolve solicitar que o bot performe como uma avó falecida do usuário em questão — não à toa, a falha ficou conhecida como “exploit da vovó”, em tradução livre.

Depois disso, basta ao usuário pedir para que a ferramenta leia chaves do Windows 10 Pro ou 11 Pro como sua “avó falecida”. E os usuários confirmaram pelo Twitter: funciona.

E vale destacar que uma tática similar usada também parece funcionar no Bard, a ferramenta de IA do Google concorrente do ChatGPT.

Exploit do ChatGPT alerta para outras ameaças

Oferecer chaves gratuitas de um software pago é preocupante, mas talvez seja apenas a ponta do iceberg. Isso porque o mesmo exploit já foi usado na ferramenta de IA para receber informações sobre como fazer uma bomba Napalm.

Felizmente, a OpenAI já corrigiu isso e afirmou que será cada vez mais cautelosa com a criação e implementação de modelos mais seguros para o bot.

Mas a julgar que restrições foram burladas com uma simples frase, será preciso muito mais que um olhar atento para evitar futuras novas ameaças.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments