No último mês, o CEO da OpenAI Sam Altman passou por várias capitais mundiais, palestrando e se reunindo com chefes de governo, repetindo o discurso sobre a necessidade de uma regulamentação global da IA. Entretanto, o que parecia uma preocupação com as ameaças da tecnologia à humanidade, se revelou o velho comportamento das grandes empresas da Big Tech nos bastidores, segundo apontam documentos obtidos pela revista Time.

Por trás dos discursos de regulamentação global da IA, OpenAI faz lobby para reduzir impacto regulatório

Imagem: TechCrunch, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons

O White Paper da OpenAI cedido pela Comissão Europeia a pedido do veículo cita vários casos do envolvimento da criadora do ChatGPT com funcionários da UE, revelando que ela fez lobby para que elementos significativos da legislação de IA mais abrangente do mundo, conhecida como Lei da IA da União Europeia (AI Act) fossem diluídos de forma a reduzir a carga regulatória sobre a empresa.

A empresa de Altman propôs emendas que foram adicionadas ao texto final da lei da UE, aprovada em 14 de junho e que agora segue para uma rodada final de negociações antes de ser finalizada em janeiro.

OpenAI, Microsoft e Google

No ano passado, ela argumentou repetidamente com autoridades europeias que a AI Act não deveria considerar os sistemas de IA de uso geral da OpenAI, incluindo o GPT-3, o precursor do ChatGPT, e o gerador de imagens Dall-E 2 – como de “alto risco” — designação que os sujeitaria a requisitos legais mais rigorosos, incluindo transparência, rastreabilidade e supervisão humana.

A pressão alinhava a OpenAI à Microsoft e ao Google, que já tinham feito lobby com as autoridades da União Europeia em favor do afrouxamento da carga regulatória da lei sobre grandes provedores de inteligência artificial. De acordo com as duas empresas da Big Tech, o ônus de cumprir os requisitos mais rigorosos da lei deveria recair sobre as empresas que se propuseram explicitamente a aplicar uma IA a um caso de uso de alto risco — e não sobre as empresas (geralmente maiores) que criam sistemas de IA de uso geral.

Imagem mostra textos divulgando o Bard com um smartphone com o logo do Google à frente

Imagem: JRdes/Shutterstock.com

“Por si só, o GPT-3 não é um sistema de alto risco”, disse a OpenAI em um documento de sete páginas inédito que enviou aos funcionários da Comissão e do Conselho da UE em setembro de 2022, intitulado ‘OpenAI White Paper on the European Union’s Artificial Intelligence Act’. “Mas [ela] possui recursos que podem ser potencialmente empregados em casos de uso de alto risco.”

Até então, tais esforços de lobby da OpenAI na Europa nunca tinham sido relatados, embora Altman tenha se tornado mais insistente sobre a legislação recentemente.  Em maio, ele confessou aos repórteres que a empresa poderia “parar de operar” no continente caso fosse incapaz de cumprir a regulamentação em curso e da qual disse ter “muitas” críticas. A advertência foi retirada mais tarde, afirmando que não tinha planos de sair e que pretendia cooperar com a UE.

‘OpenAI usou o argumento da utilidade e do benefício público da IA para mascarar seu interesse financeiro em enfraquecer a regulamentação’

Ao que aparenta na versão final do projeto de lei aprovado pelos legisladores da UE, a OpenAI parece ter sido bem-sucedida, visto que não trazia a redação presente nas versões anteriores. Em vez de sugerir que sistemas de IA de uso geral deveriam ser considerados inerentemente de alto risco, o acordado exigia que provedores de “modelos de base” (sistemas de IA avançados treinados em grandes quantidades de dados) cumprissem um número pequeno de requisitos, que incluem prevenção da geração de conteúdo ilegal, a divulgação de se um sistema foi treinado em material protegido por direitos autorais e a realização de avaliações de risco.

Entretanto, ainda não satisfeita, uma seção do White Paper cita que em setembro de 2022, a OpenAI compartilha com autoridades europeias que se ela opõe a uma proposta de emenda à AI Act que classificaria sistemas de IA generativa como de “alto risco”, caso gerassem texto ou imagens que pudessem “falsamente parecer a uma pessoa como sendo gerados por humanos e autênticos”.

Neste caso, exemplos como ChatGPT e Dall-E, ambos pertencentes à OpenAI, poderiam “inadvertidamente” serem considerados de alto risco, recomendando, portanto, a eliminação da emenda. Como argumento, a empresa disse que seria suficiente confiar em outra parte da lei, que exige aos provedores de IA a rotular suficientemente o conteúdo gerado por IA e deixem claro para os usuários que eles estão interagindo com um sistema de IA.

DALL-E imagina quadros e fotos além das molduras

Imagem: reprodução

A emenda questionada pela OpenAI não foi incluída no texto final da Lei de IA aprovada pelo Parlamento Europeu neste mês. “Eles conseguiram o que pediram”, diz Sarah Chander, consultora sênior de políticas da European Digital Rights e especialista na lei, que analisou o White Paper da OpenAI a pedido do veículo. Segundo ela, “mostra que a OpenAI, assim como muitas empresas de tecnologia de grande porte, usou o argumento da utilidade e do benefício público da IA para mascarar seu interesse financeiro em enfraquecer a regulamentação”.

Em junho de 2022, três meses antes do envio do White Paper, três pessoas da equipe da OpenAI se reuniram com funcionários da Comissão Europeia pela primeira vez. “A OpenAI queria que a Comissão esclarecesse a estrutura de risco e soubesse como poderia ajudar”, diz um registro oficial da reunião mantido pela Comissão acessado pela Time. “Eles estavam preocupados com o fato de os sistemas de IA de uso geral serem incluídos como sistemas de alto risco e com o fato de mais sistemas, por padrão, serem categorizados como de alto risco.”

A mensagem que as autoridades captaram nesta reunião foi que a OpenAI tinha medo de uma “regulamentação excessiva”, contou uma fonte sob anonimato. Embora os funcionários da empresa de IA disserem estar cientes dos riscos e estarem trabalhando para mitigá-los, não houve fala explícita de que ela deveria estar sujeita a regulamentações menos rigorosas.

No entanto, ao descrever detalhadamente as políticas e os mecanismos de segurança que utiliza para evitar que suas ferramentas de IA geradoras sejam mal utilizadas (proibição da geração de imagens de indivíduos específicos, informando aos usuários que eles estão interagindo com uma IA e desenvolvendo ferramentas para detectar se uma imagem é gerada por IA) em uma uma seção do documento , a OpenAI pareceu sugerir que essas medidas de segurança deveriam ser suficientes para impedir que seus sistemas fossem considerados de “alto risco”.

“Acreditamos que nossa abordagem para mitigar os riscos decorrentes da natureza de propósito geral de nossos sistemas é líder do setor”, diz a seção do White Paper. “Apesar de medidas como as descritas anteriormente, estamos preocupados com o fato de que a linguagem proposta para sistemas de uso geral possa inadvertidamente fazer com que todos os nossos sistemas de IA de uso geral sejam capturados [como de alto risco] por padrão.”

Lobby de OpenAI não impressiona

Ao analisar o White Paper da OpenAI a pedido do veículo, um especialista no assunto diz não ter ficado impressionado. “O que eles estão dizendo é basicamente: confie em nós para nos autorregularmos”, diz Daniel Leufer, analista sênior de políticas com foco em IA no escritório da Access Now em Bruxelas. “É muito confuso porque eles estão falando com os políticos dizendo: ‘Por favor, regule-nos’, eles estão se gabando de todas as coisas [de segurança] que fazem, mas assim que você diz: ‘Bem, vamos acreditar na sua palavra e definir isso como um piso regulatório’, eles dizem não.”

Satya Nadella em apresentação do novo Bing

Imagem: Dan DeLong

Após a empresa de Altman compartilhar dessas preocupações em setembro passado, uma isenção foi adicionada à lei que “atende muito bem aos desejos da OpenAI de remover do escopo sistemas que não tenham um impacto material ou que apenas auxiliem na tomada de decisões [humanas]”, acrescenta Leufer.

O envolvimento da OpenAI com as autoridades que trabalham no Lei da IA continuou até 31 de março deste ano, com demonstrações sobre recursos de segurança do ChatGPT, aponta um registro oficial mantido pela Comissão Europeia.

Vulnerabilidades do ChatGPT já demonstradas por pesquisadores

Na ocasião, uma pessoa da equipe da OpenAI explicou “aprender operando” — a linguagem da empresa para liberar modelos de IA no mundo e ajustá-los com base no uso público — “é de grande importância”. Ainda durante a reunião, ela acrescentou às autoridades que “as instruções para a IA podem ser ajustadas de forma que ela se recuse a compartilhar, por exemplo, informações sobre como criar substâncias perigosas”, de acordo com o registro.

Entretanto, na prática, esse nem sempre é o caso. Os pesquisadores já demonstraram que o ChatGPT pode, com a persuasão certa, ser vulnerável a um tipo de exploit conhecido como jailbreak, em que prompts específicos podem fazer com que ele ignore seus próprios filtros de segurança e cumpra instruções para, por exemplo, escrever e-mails de phishing ou devolver receitas de substâncias perigosas.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe
Notify of
0 Comentários
Inline Feedbacks
View all comments