O uso de modelos de linguagem baseados em inteligência artificial, como o GPT e o LLM, têm se popularizado cada vez mais. Por conta disso, diversas aplicações são estudadas e, em uma das mais recentes, temos um modelo que obtém suas solicitações não de coisas escritas, mas diretamente da mente dos usuários.

O GPT-1, nome dado a um modelo desenvolvido por uma equipe de pesquisa da Universidade do Texas, entende o que o usuário está “ouvindo, dizendo ou imaginando”. Como descrito em um artigo publicado na revista Nature, o modelo GPT interpreta a atividade cerebral de uma pessoa por meio de seu fluxo sanguíneo, como mostrado em uma fMRI (imagem por ressonância magnética funcional).

O mais interessante disso é que a leitura é feita sem nenhuma cirurgia invasiva ou qualquer fixação no próprio paciente.

No entanto, por conta da técnica fMRI usada, o GPT-1 não consegue analisar palavras específicas que uma pessoa pensa. Além disso, como o modelo de inteligência artificial funciona em um nível de abstração, ele entende o que está sendo pensado, embora não consiga reproduzir fielmente.

GPT-5, evolução da inteligência artificial da OpenAI

Imagem: Shutterstock

Em um exemplo citado, o paciente pensou: “Ainda não tenho minha carteira de motorista”. Ao processar os dados, o GPT-1 retornou a frase original como significando “ela ainda não começou a aprender a dirigir”.

Portanto, não há uma transcrição integral dos pensamentos. O que a ferramenta faz é entender seu significado geral e elaborar um pensamento a partir disso.

Mesmo assim, a criação pode ser usada com o propósito de ajudar pacientes com Esclerose Lateral Amiotrófica ou afasia a se comunicarem. Em outra frente, usuários também podem usar o modelo de inteligência artificial para registrar seus pensamentos.

Por outro lado, sua utilização pode não ser benéfica em alguns casos, como usá-la para conseguir informações diretamente do cérebro de alguém que reluta a confessar algo. Por não ser invasivo, as possibilidades de utilização para diversos fins que não os científicos são muito grandes.

Inteligência artificial

Imagem: cono0430/Shutterstock.com

Felizmente, os próprios pesquisadores chamaram a atenção para possíveis usos indevidos e impactos negativos da tecnologia em seu estudo.

“Nossa análise de privacidade sugere que a cooperação do sujeito é atualmente necessária tanto para treinar quanto para aplicar o decodificador. No entanto, desenvolvimentos futuros podem permitir que decodificadores ignorem esses requisitos”, descrevem os pesquisadores.

E completam: “Além disso, mesmo que as previsões sejam imprecisas sem a cooperação do sujeito, elas podem ser intencionalmente mal interpretadas para fins maliciosos. Por esses e outros motivos imprevistos, é fundamental aumentar a conscientização sobre os riscos da tecnologia de decodificação do cérebro e promulgar políticas que protegem a privacidade mental de cada pessoa”.

Via: Tom’s Hardware

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments