Se 2021 foi marcado pelo ano do blockchain (criptomoedas, NFTs e afins), 2023 certamente será lembrado pela inteligência artificial (IA) generativa — técnicas de linguagem natural que criam modelos para transformar parâmetros matemáticos em linguagens sociais.

E não é preciso ir muito longe para observar isso: desde a chegada do polêmico ChatGPT, observou-se uma verdadeira corrida das big techs para o lançamento de suas próprias ferramentas. Consequentemente, a tecnologia passou a figurar em manchetes de tabloides, no roadmap de grandes corporações e no dia a dia de usuários.

O ChatGPT, por exemplo, tornou-se uma espécie de “Google 2.0” que, além de respostas a simples questões, também pode produzir textos e até letras de músicas. O Midjourney, por sua vez, possibilitou a criação de imagens e fotos a partir de uma única palavra. Enquanto isso, chatbots baseados na tecnologia já são capazes de funcionar como webnamorado(a) para consumidores mais solitários.

Mas diferente do que muitos pensam, a inteligência artificial generativa não é um mar de rosas. Por mais que tenha possibilitado recursos talvez inimagináveis há alguns anos, a tecnologia também despertou grandes ameaças — que já eram alertadas por especialistas — para a sociedade.

E acredite: os riscos são bem mais delicados do que aparentam.

Os robôs não vão dominar o mundo, mas as ameaças existem

Imagem de robôs para ilustrar o temores com a inteligência artificial

Imagem: Shutter z/Shutterstock

Quando se fala em riscos tecnológicos, a primeira coisa que pode vir à cabeça são os receios de que máquinas se tornem “conscientes” e exterminem a humanidade para tomar conta da Terra. Isso pode fazer sentido em filmes como Eu, Robô ou Exterminador do Futuro, mas no mundo real, não se tratam de ameaças plausíveis.

“O medo de que a IA irá se tornar autônoma e dominar o mundo, do ponto de vista das causas precipitantes, deveria estar no mesmo nível do temor de que alguém construa uma nave espacial equipada com bombas de hidrogênio e com ela destrua a Lua. Não há qualquer evidência remotamente relevante de que a IA está adquirindo intencionalidade própria e que esta se alinha ao desejo de eliminar a humanidade”, destacou Álvaro Machado Dias, neurocientista, professor e futurista.

Álvaro Machado Dias, neurocientista, professor e futurista

Álvaro Machado Dias, neurocientista, professor e futurista – Imagem: acervo pessoal

A queda desse mito, no entanto, não elimina diversas preocupações levantadas com o rápido crescimento da IA nos últimos meses. E até as próprias desenvolvedoras dessas ferramentas parecem estar cientes disso.

  • Disrupção trabalhista
Ilustração de robô de inteligência artificial no trabalho

Imagem: Something Special/Shutterstock

Por mais que pareça um receio cíclico já visto em épocas passadas, a ameaça de mudanças estruturais na mão de obra trabalhista com a chegada da inteligência artificial generativa, de fato, trata-se de uma preocupação real.

“Algo muito distinto [em relação ao mito das máquinas dominando o mundo] se dá em relação à problemática socioeconômica que se precipita. Aliás, essa cortina de fumaça toda só existe para despistar esse ponto. É preciso agir de maneira firme neste campo, evitando que o mundo se torne ainda mais desigual. A minha proposta é tributar por trabalhador substituído e usar esse dinheiro para subsidiar quem perder o emprego para IAs – uma variação da renda básica universal”, completou Dias.

Prova disso é que um estudo do Goldman Sachs prevê que o avanço da IA generativa — a exemplo do ChatGPT e outras ferramentas — vai afetar cerca 300 milhões de empregos nas grandes economias mundiais. E não é loucura dizer que isso, de certa forma, já está acontecendo.

Há empresas que já estão substituindo escritores e redatores pelo ChatGPT. Enquanto isso, profissionais de RH têm usado a ferramenta para escrever roteiros de entrevistas. E segundo uma pesquisa da Resumebuilder.com, metade das empresas que já adotaram a tecnologia substituíram os funcionários por ferramentas de IA.

  • Coleta de dados
Ilustração de dados

Imagem: Markus Spiske/Unsplash

Como se sabe, uma ferramenta de inteligência artificial generativa não provê soluções “do nada”. Para isso, ela precisa de uma enxurrada de dados que, após serem coletados, são utilizados para treinar os modelos de linguagem em prol das perguntas e tarefas solicitadas.

Isso significa que para maior eficácia, mais dados têm de ser coletados. Com isso, cria-se uma dependência dos usuários para otimizar os sistemas de IA. E como os dados são a principal commodity da atualidade, são as grandes corporações que saem no lucro com o domínio dos bancos de informações.

“Um dos riscos é a dependência de um conjunto de pequenas e médias empresas, além de outras estruturas sociais, que passam a depositar uma confiança totalmente exageradas nesses sistemas sem o entendimento de que eles [por meio dos dados] têm de ser usados para melhorar o desempenho”, destacou Sérgio Amadeu da Silveira, sociólogo e pesquisador que presidiu o Instituto Nacional de Tecnologia da Informação.

Sérgio Amadeu, sociólogo e pesquisador que presidiu o Instituto Nacional de Tecnologia da Informação

Sérgio Amadeu, sociólogo e pesquisador que presidiu o Instituto Nacional de Tecnologia da Informação – Imagem: acervo pessoal

Consequentemente, cresce ainda mais a preocupação de usuários sobre a proteção de dados pessoais. Até porque, em alguns casos, essa coleta acontece sem que as pessoas tenham ciência disso. E convenhamos que de dados as big techs já estão bem alimentadas.

  • Desinformação e deepfakes
Fake news internet

Foto: Memyselfnaeye/Pixabay

Há também temores de um aumento significativo de desinformação. Não à toa, pesquisadores que testaram o ChatGPT com teorias da conspiração e falsas narrativas constataram que a ferramenta pode elaborar uma nova narrativa falsa em escalas “dramáticas”.

“Esta ferramenta [ChatGPT] será a mais poderosa para espalhar desinformação que já existiu na internet”, pontuou Gordon Crovitz, coCEO da empresa de rastreio de desinformação online NewsGuard.

Para piorar a situação, o avanço da inteligência artificial generativa pode impactar negativamente para o aumento de deepfakes — tecnologia que abusa da IA para criar vídeos e imagens falsas com rostos ou vozes de pessoas —, que ameaçam de meros civis até grandes figuras governamentais.

  • Princípios éticos
Ética da inteligência artificial

Imagem: 3rdtimeluckystudio/Shutterstock

Também ligados a desiformação e deepfakes estão as ameaças que vão de desencontro com princípios éticos. Afinal, a IA generativa já mostrou potenciais interessantes para diversas áreas, mas é sempre bom lembrar que ela também pode ser usada para atividades ilegais.

Um bom exemplo disso é que hackers já utilizaram ferramentas para otimizar golpes. Em alguns casos, a tecnologia ajudava a criar malwares “do zero”. Em outros, restrições foram dribladas para que chatbots desenvolvessem e-mails enganosos de phishing e outros ataques.

Isso sem mencionar que existem maneiras de burlar algumas restrições impostas. Pedidos de sugestão para sites torrent que distribuem conteúdos de forma ilegal podem não trazer as respostas esperadas. Mas solicitar sites com esses conteúdos que o usuário deveria evitar pode listar uma série de links que são vistos como “pedras no sapato” de donas de direitos autorais.

  • Direitos autorais
Ilustração de direitos autorais

Imagem: Umberto/Unsplash

Por falar em direitos autorais, há duas grandes questões. A primeira gira em torno de saber se essas ferramentas violam direitos autorais de terceiros. Afinal, toda “criação” usa como base imagens, músicas e fotos coletados no banco de dados. Mas o crédito ao autor original inexiste.

Por outro lado, também se discute a proteção de direitos autorais para obras criadas pela inteligência artificial generativa. Até porque seriam as máquinas — por meio de inserções humanas, é verdade — as responsáveis por mixar tudo e desenvolver o novo conteúdo.

E aí cria-se a dúvida: o “filho” é de quem?

  • Concentração de poder pelas big techs
Ilustração de poder das big techs

Imagem: Blue Planet Studio/Shutterstock

Por fim e, talvez o ponto mais importante, está a perpetuação e concentração de poder nas mãos das grandes corporações. IAs generativas não são “coisas” baratas e requerem uma enxurrada de dados. E quem possui grana suficiente para bancar isso e controlar os dados dos usuários? Acertou quem apostou nas big techs.

“As consequências negativas já estão aí. A chamada inteligência artificial generativa simplesmente vai trabalhar com as informações coletadas e isso resulta em um risco enorme de concentração de dados nas mãos de grandes corporações, que ficam cada vez mais poderosas e se tornam capazes de conduzir os comportamentos sociais”, enfatizou Silveira.

As empresas realmente estão considerando esses riscos?

Diante das ameaças, há quem questione a falta de uma mobilização mais acelerada em prol de soluções para essa tal inteligência artificial generativa. As discussões já estão rolando no mundo. Mas deve-se observar que nem tudo está causando o efeito esperado.

No fim de março, por exemplo, uma carta aberta assinada por diversos pesquisadores e grandes empresários — incluindo Elon Musk (cofundador da OpenAI e CEO da Tesla, SpaceX e Twitter); Jaan Tallinn (cofundador do Skype); e Andrew Yang (fundador da Venture for America) — alertou sobre o rápido avanço da tecnologia.

Inclusive, no documento, foi mencionado como os “sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade”. Em virtude disso, foi sugerida uma interrupção em todos os projetos de inteligência artificial por, pelo menos, seis meses.

Carta aberta pedindo paralisação de projetos de inteligência artificial

Imagem: reprodução/Future of Life

Mas como é de se imaginar, não surtiu efeito. Tanto que Musk, no mês seguinte, anunciou que estava trabalhando no TruthGPT (uma espécie de concorrente do ChatGPT). A Microsoft, por sua vez, introduziu o ChatGPT ao Bing, enquanto o Google integrou sua própria ferramenta de IA generativa aos serviços do Workspace.

Tudo levou a crer que a carta não serviu de nada. Mas há quem diga que ela, de fato, cumpriu seu propósito: servir como uma espécie de marketing para atrair os holofotes para a tecnologia.

“Eu entendo aquilo [o documento assinado] como uma espécie de manifesto voltado para chamar a atenção das pessoas sobre a importância que aquela tecnologia de IA específica tem. Eles conseguiram ganhar destaque em todo mundo e a minha impressão é que aquilo foi completamente uma operação de marketing”, opinou Silveira.

Curiosamente, a impressão foi a mesma tida pelo neurocientista Álvaro Machado Dias.

“O impacto foi o objetivado desde o início: atrair atenção para o modelo de futurismo, de visão tecnológica dos proponentes, como Harari e Elon Musk, que se vêm menos representados do que gostariam na onda da vez. Marketing versus marketing, enfim”, analisou.

“Isso significa que o setor não está levando em conta os riscos apontados?”, podem estar se perguntando alguns. E por mais que seja algo muito mais complexo do que um “não” e um “sim”, a resposta pode ser resumida (bem superficialmente) com um não e um sim.

De um lado há especialistas e pesquisadores do setor que não escondem suas preocupações. Também conhecido como “padrinho da inteligência artificial”, Geoffrey Hinton recentemente deixou o Google e passou a não medir esforços para criticar o atual cenário do setor.

Para ele, as novas ferramentas resultam em imagens, textos e outros conteúdos que ninguém seria capaz de confirmar a veracidade, o que ocasionará um aumento na disseminação de desinformação. E Hinton vai além ao palpitar que a IA será capaz (se é que já não é) de eliminar algumas funções de trabalho.

Inteligência artificial

Imagem: cono0430/Shutterstock.com

Por mais que seja favorável ao desenvolvimento e novas pesquisas, a gigante IBM também se posiciona como um membro do setor que enxerga ressalvas no cenário atual.

“A criação e implementação de qualquer tipo de tecnologia sem responsabilidade é a forma errada de promover inovação, especialmente quando envolvemos IA. A IBM acredita que a tecnologia, incluindo a IA, deve ser trazida ao mundo com responsabilidade, desde a sua concepção. O foco em questões éticas para o desenvolvimento de uma tecnologia não significa parar a inovação, mas devemos cuidar para que essa inovação seja responsável. Para a IA, especificamente, isso se traduz em implementações cuidadosas focadas em casos de uso específicos com controles e governança adequados e considerações éticas abordadas desde o início”, disse ao TecMasters, Danilo Macedo, líder de Relações Governamentais e Assuntos Regulatórios na IBM Brasil.

Trazendo para a prática, Macedo pontuou três princípios que a big tech tem adotado em prol de cuidados éticos e da mitigação de riscos da IA: o de que o propósito da IA é potencializar a Inteligência Humana, não a substituir; o de que os dados e conhecimentos gerados por esses dados pertencem a quem os criou; e o de que tecnologias como a IA devem ser transparentes, explicáveis e mitigar vieses prejudiciais e inapropriados.

Danilo Macedo, líder de Relações Governamentais e Assuntos Regulatórios na IBM Brasil

Danilo Macedo, líder de Relações Governamentais e Assuntos Regulatórios na IBM Brasil – Imagem: divulgação/IBM

O grande ponto é que, por mais que exista essa preocupação, também há a pressão de acionistas e tomadores de decisão para o lançamento de novas ferramentas de inteligência artificial generativa. E em muitos dos casos, o fator lucro pode ser mais dominante que as preocupações.

“Você tem uma preocupação que está sendo legítima e que está sendo alertada por vários pesquisadores, e você tem acionistas de empresas que querem cada vez mais concentrar dados e gerar produtos”, observou Sérgio Amadeu da Silveira.

Como resultado, há uma verdadeira corrida entre as grandes corporações para o lançamento de ferramentas. É ChatGPT x Bard aqui, DALL-E x Midjourney acolá, e assim por diante. Enquanto isso, as soluções para as ameaças parecem ficar em segundo plano.

Inteligência artificial 1

Imagem: Alex Shuper/Unsplash

Inteligência artificial com responsabilidade: é possível?

Parece claro que os riscos não são meras invenções de especialistas. E que o cenário, do jeito que está, ainda encontra-se muito longe do esperado. Há saída? Bem, a luz no fim do túnel para solucionar essas questões é vista na regulamentação da inteligência artificial.

Ilustração da regulamentação da inteligência artificial

Imagem: Phonlamai Photo/Shutterstock

Até porque qualquer mercado precisa de regulamentação para crescer. E com a tecnologia não é diferente: o Marco Civil da Internet, por exemplo, foi sancionado em 2014, enquanto a lei 14.478/22, sancionada em dezembro do ano passado, vai regulamentar as criptomoedas por aqui a partir de junho.

Logo, a regulamentação para o uso da inteligência artificial pode ser a melhor forma de mitigar os riscos do setor sem esmagar o mercado. Isso porque simplesmente parar o desenvolvimento tecnológico não parece algo interessante. Tampouco plausível.

“Como a ameaça é econômica, é preciso criar um sistema de compensação eficiente. A discussão sobre parar o desenvolvimento tecnológico é só mais uma falácia; não há a menor chance de acontecer, nem deveria haver”, contou Dias.

Claro que a tarefa não é fácil. A União Europeia acaba de aprovar uma versão inicial de projeto de regulamentação que inclui restrições ao uso de reconhecimento facial e exige transparência sobre o funcionamento de ferramentas como o ChatGPT. Mas o texto ainda precisa passar por votação final no Parlamento Europeu.

Nos Estados Unidos, o Senado decidiu que vai realizar audiências públicas para estabelecer regras sobre a inteligência artificial generativa. No briefing, questões de segurança nacional e saúde figuram como as principais diretrizes para as discussões.

Pelas bandas brasileiras, tramita um projeto de lei (PL 2.338/2023) no Senado, apresentado pelo senador Rodrigo Pacheco (PSD-MG), que baseia-se em uma classificação de risco dos sistemas de inteligência artificial, direitos das pessoas afetadas pelos sistemas de IA e transparência desses mecanismos.

Projeto de regulamentação de inteligência artificial no Brasil

Imagem: Pedro França/Agência Senado

A grande questão é que a regulamentação pode não ser o único mecanismo para fiscalizar e controlar o setor. Para Dias, é importante que o setor se organize e discuta sobre o tema, como já vem ocorrendo em alguns eventos.

Já a IBM acredita em adoções de parâmetros de governança que podem complementar uma possível regulamentação.

“Para além da regulamentação, a adoção de parâmetros de governança de IA responsável e a incorporação de princípios éticos atrelados ao seu desenvolvimento geram sistemas baseados em confiança e revelam-se como mecanismos igualmente importantes ao desenvolvimento seguro da tecnologia”, finalizou Macedo.

Naturalmente que os próximos capítulos dessa novela (no caso, a regulamentação da IA) é que vão ditar o futuro da inteligência artificial. E fica a torcida para que todo esse processo global aconteça da maneira mais rápida possível — embora já esteja atrasado.

Do contrário, toda a euforia causada pelas novas tecnologias se transformará em preocupações ainda maiores. Se é que isso já não aconteceu.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments