IA em 2024 requer fortalecimento da governança em assuntos como proteção de dados
Empresas devem utilizar como base os Princípios de IA, adotados pela OCDE e pelo G20, além da recente Declaração Bletchley.
Denis Balaguer, líder de inovação da EY. (Foto: Agência EY)
Considerando que a inteligência artificial está no topo da agenda corporativa, com 99% dos CEOs planejando investir nela de acordo com estudo recente da EY, as empresas precisam neste ano fortalecer sua governança nos assuntos relacionados a essa tecnologia, como proteção de dados e cibersegurança. Para isso, devem utilizar como base os Princípios da IA, adotados pela OCDE (Organização para Cooperação e Desenvolvimento Econômico) e pelo G20, além da recente Declaração Bletchley, relacionando essas diretrizes com as legislações existentes como a de dados pessoais - LGPD (Lei Geral de Proteção de Dados) no Brasil. Essa recomendação faz parte do estudo “2024 Geostrategic Outlook”, elaborado pela EY.
A Declaração Bletchley, liderada pelo Reino Unido e com adesão do Brasil, fornece a base para a construção de um amplo consenso sobre os esforços necessários para garantir uma IA responsável e confiável, o que passa pela transparência desses sistemas, incluindo funcionamento dos algoritmos, e prestação de contas. Ao mesmo tempo, o “G7 Hiroshima AI Process” vai continuar sendo um fórum importante para coordenar abordagens regulatórias e tecnológicas. O desafio para as empresas será estabelecer uma governança robusta em IA para garantir, ao mesmo tempo, a conformidade com as regras existentes e construir confiança perante os reguladores e outras partes interessadas nas suas aplicações de inteligência artificial.
De forma geral, ainda segundo o levantamento da EY, os governos estão se movendo para descobrir a melhor forma de regular a inteligência artificial, mas fazem isso de forma diferente. No ano passado, a China introduziu regulações específicas de IA; o G7 definiu um conjunto de princípios de IA e um código de conduta; a União Europeia avançou nas discussões sobre o AI Act; e os EUA emitiram uma ordem executiva sobre segurança de IA. Os avanços tecnológicos inseridos no contexto de IA aumentaram sua importância para a segurança nacional e a competição entre os países em termos de desdobramentos geopolíticos.
A China continuará investindo em pesquisa para alcançar a autossuficiência em IA. O Reino Unido vai manter a regulação em um patamar mínimo com o propósito de incentivar ao máximo a inovação e expandir ainda mais o recebimento de investimento nessa tecnologia. A Arábia Saudita continuará comprando tecnologias de ponta para desenvolver sua indústria de IA. Por um lado, os governos querem promover a inovação para competir geopoliticamente e para possibilitar melhores resultados nos cuidados de saúde, além de avanços na segurança nacional e ganhos de produtividade econômica. Por outro lado, eles desejam elaborar regras que reduzam a probabilidade de riscos econômicos e sociais conforme a IA desempenha mais funções de trabalho e demonstra potencial de gerar instabilidade política devido a campanhas de desinformação ou fake news. Há, ainda, riscos envolvendo essa tecnologia para a segurança nacional.
Identificação de oportunidades para testar soluções de IA
Os governos estão buscando aumentar o investimento em inovação, com destaque para IA, como forma de gerar crescimento econômico. Faz parte desse processo a criação de ambientes monitorados ou controlados, os chamados sandboxes regulatórios, para permitir que as empresas testem com segurança novas aplicações de IA.
“O desafio agora é materializar ou tangibilizar essa tecnologia em sua aplicação no dia a dia, desenhando para isso ferramentas ou produtos para casos específicos que atendam a dores das empresas”, diz Denis Balaguer, líder de inovação da EY. “O objetivo deve ser melhorar a qualidade da tomada de decisão como estamos fazendo com a IA generativa em Tax, que fornece insights de negócio a partir dos dados tributários”, completa.
De acordo com pesquisa recente da EY, apenas 8% das organizações usam IA para impulsionar a inovação, enquanto 91% estão utilizando essa tecnologia para otimizar operações e desenvolver ferramentas de autoatendimento como chatbots ou voltadas para automatização de processos. Há, portanto, uma enorme lacuna para que as empresas usem IA como ferramenta de inovação em produtos e modelos de negócios, especialmente nos mercados que contam com o incentivo dos reguladores.
Treinamento de talentos em IA
Em 2024, ainda segundo o estudo “Geostrategic Outlook”, as empresas devem trabalhar em parceria com os governos para criar oportunidades de treinamento dos profissionais em inteligência artificial, que já está transformando o mercado de trabalho.
Ao mesmo tempo, as organizações precisam lidar com essas mudanças apostando em uma comunicação assertiva com seus colaboradores que demonstre as aplicações dos seus negócios que serão transformadas pela IA e o que será feito para tornar a força de trabalho preparada para lidar com essa tecnologia. Nesse ponto, há uma desconexão entre as empresas e sua força de trabalho, já que somente 49% dos colaboradores usam ou esperam usar IA generativa nos próximos 12 meses – em comparação com 84% dos empregadores que têm essa expectativa.