Estudo da EY aponta cinco tendências globais para regulamentação de IA
Foram analisadas as abordagens de momento envolvendo inteligência artificial dos reguladores e legisladores na União Europeia, nos Estados Unidos, no Reino Unido, na China, no Canadá, no Japão, na Coreia do Sul e em Singapura.
Estudo identifica tendências regulatórias em IA com base nas movimentações de diversos países. (Foto: Unsplash)
Ninguém questiona a ascensão dos sistemas de inteligência artificial no dia a dia das empresas e dos cidadãos. Essa utilização da IA ocorre de diversas formas por meio de tecnologias como a generativa, com destaque para ChatGPT e Gemini (anteriormente chamada de Bard); dados precisos e em tempo real de geolocalização; reconhecimento facial; e processamento cognitivo avançado (como machine learning). Todos esses recursos demandam esforços dos reguladores e legisladores para que sejam regulamentados, sem que isso represente um obstáculo à inovação ou à continuação do desenvolvimento tecnológico.
Enquanto alguns países europeus manifestam que são favoráveis a liberar o reconhecimento facial, o Parlamento da União Europeia quer impor restrições rígidas a ele por meio do chamado AI Act, que tem gerado debates intensos. Nos EUA, a probabilidade é baixa de lei federal para regulamentar IA, mas reguladores como a FTC (Federal Trade Commission) têm respondido às preocupações da sociedade sobre o impacto da IA generativa, com a abertura de investigações sobre plataformas de inteligência artificial.
A IA está transformando diversas indústrias, com impactos visíveis nos serviços financeiros, na agricultura e no setor de saúde, por meio do ganho de produtividade nas operações e da reconfiguração do trabalho. Esses sistemas estão permitindo, entre outros avanços, uma gestão logística mais eficaz, otimizando a utilização da energia elétrica, criando uso mais eficiente dos leitos hospitalares por meio da análise de dados de pacientes e modelagem preditiva, além de estarem viabilizando experiências personalizadas para o consumidor. Com as empresas dispostas a utilizar IA no mundo inteiro e receosas de ficarem para trás no mercado, os níveis de investimento nessa tecnologia são 18 vezes superiores aos observados em 2013.
Por outro lado, os riscos e consequências não intencionais preocupam. Há diversos exemplos disso como software de imitação da voz que pode fazer uma pessoa se passar por outra para convencer sistemas de banco e do local de trabalho, bem como amigos e familiares, obtendo assim benefícios financeiros ou acesso a informações sigilosas e dados pessoais. Ou, ainda, o reforço de vieses inconscientes em plataformas de IA, com desrespeito aos direitos das pessoas. Por fim, o comprometimento da segurança dos dados pessoais e a produção de fake news não podem ser ignorados, já que têm potencial para desestabilizar a sociedade, incluindo o sistema financeiro.
É nesse contexto que a EY, no estudo "The Artificial Intelligence (AI) global regulatory landscape", se debruçou sobre as abordagens de momento dos reguladores e legisladores na União Europeia, nos EUA, no Reino Unido, na China, no Canadá, no Japão, na Coreia do Sul e em Singapura para identificar cinco tendências regulatórias em IA reunidas a seguir:
1) Observância dos princípios da OCDE
Os textos legais que estão sendo discutidos, assim como eventuais orientações, estão em consonância com os princípios da IA definidos pela OCDE (Organização para Cooperação e Desenvolvimento Econômico) e aprovados pelo G20, como respeito aos direitos humanos; transparência; e gestão eficaz dos riscos envolvidos nos sistemas.
2) Abordagem baseada no risco
A tendência é que os sistemas de inteligência artificial sejam regulamentados conforme uma abordagem baseada no risco. Isso significa que as obrigações de conformidade devem ser proporcionais ao nível de risco oferecido à sociedade. Na UE, no AI Act, a proposta é que os sistemas sejam divididos em categorias: baixo risco à sociedade, como games; risco limitado, como chatbots; alto risco, como veículos autônomos; e risco inaceitável, como sistemas biométricos de vigilância. Cada uma dessas classificações traz obrigações de privacidade e transparência para as companhias, que devem seguir as regras da categoria na qual seus serviços e produtos se enquadram.
3) IA com regras abrangentes ou específicas para cada setor
Alguns setores econômicos que utilizam sistemas de IA de alto risco podem ser regulamentados com regras específicas. É o caso das empresas envolvidas com veículos autônomos, que, por circularem na via pública, trazem risco de atropelamento. Também é o caso dos serviços financeiros em relação à análise de risco de crédito dos consumidores interessados em contratar um empréstimo. Há um desafio nessa escolha porque a legislação deverá contemplar uma série de utilizações, abrangendo casos diversos, o que se mostra muito difícil considerando a velocidade própria da tecnologia. Já outras jurisdições perceberam a impossibilidade disso e estão optando pela criação de regras gerais, aplicáveis a todos os setores econômicos ou a blocos de setores.
4) Alinhamento político
De forma geral, as jurisdições estão considerando implementar as regras de IA no contexto de outras regulamentações de política digital, como cibersegurança, privacidade dos dados e proteção da propriedade intelectual, com a União Europeia adotando a abordagem mais abrangente nesse sentido.
5) Colaboração do setor privado
Muitas jurisdições estão usando o modelo de sandbox (ambiente de testes) como uma ferramenta para o setor privado colaborar com os legisladores. Há muitos benefícios nisso, incluindo desenvolver uma regulação mais efetiva e que não iniba investimentos, além de promover a comunicação entre os formuladores de políticas e o setor privado. O objetivo é criar uma regulação que promova o uso seguro e ético da IA, considerando especialmente as implicações das inovações de alto risco para a sociedade, o que exigirá supervisão rigorosa – ou ao menos mais rigorosa do que a padrão.
Interoperabilidade das diferentes legislações
Ainda segundo o estudo da EY, as regulações globais devem se conectar ou ter pontos em comum por três motivos principais: redução de custos de adequação ou conformidade para as companhias, que fazem cada vez mais negócios globais; garantia de regras consistentes, comparáveis e eficazes em todas as jurisdições; e fornecimento de efetiva proteção aos consumidores em relação aos serviços globais de IA.