Tem muita gente com o pé atrás…com os dois! Recentemente, uma carta assinada por mais de mil pessoas, inclusive grandes nomes da tecnologia, como o polêmico Elon Musk, pedia uma pausa generalizada no desenvolvimento dos modelos de inteligência artificial mais poderosos, como o ChatGPT e similares.

Um dos figurões que assinou o documento foi Steve Wozniak, cofundador da Apple. Para ele, a IA é extremamente perigosa e pode dificultar a identificação de golpes e desinformação.

Em entrevista à BBC, Wozniak disse ter medo que a tecnologia seja explorada por “pessoas mal-intencionadas”. Em sua opinião, todo e qualquer o conteúdo produzido com IA deve ser claramente rotulado — e que é necessária uma regulamentação para o setor.

Steve Wozniak

Imagem: Shutterstock

“A inteligência artificial é tão inteligente que está aberta às pessoas mal-intencionadas, aquelas que querem te enganar sobre quem elas são”, advertiu Wozniak.

O confundador da Apple não acredita que a inteligência artificial vai chegar ao ponto substituir as pessoas porque carece de emoção. Ainda assim, ele acredita que a IA vai tornar pessoas mal-intencionadas ainda mais convincentes, porque programas como o ChatGPT podem criar textos que “soam muito inteligentes”.

Responsabilidade pela inteligência artificial

Ainda em conversa com a rede britânica, Wozniak defendeu que a responsabilidade por qualquer coisa gerada por inteligência artificial e depois divulgada ao público deve ser de quem a publica: “um ser humano realmente tem que assumir a responsabilidade pelo que é gerado por inteligência artificial”, declarou.

GPT-5, evolução da inteligência artificial da OpenAI

Imagem: Shutterstock

Mais do que isso, o veterano do Vale do Silício diz que é preciso haver uma regulamentação que responsabilize as grandes empresas de tecnologia que “sentem que podem se safar de qualquer coisa”. Ainda assim, Wozniak mostrou certo ceticismo sobre a expectativa de que isso realmente aconteça. “As forças que buscam dinheiro geralmente vencem, o que é meio triste”.

Fonte: BBC

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments