Como a Europa pretende regular a inteligência artificial

Proposta de um marco regulatório para 27 países da região pode banir usos que são considerados ameaçadores

O Nexo é um jornal independente sem publicidade financiado por assinaturas. Este conteúdo é exclusivo para nossos assinantes e está com acesso livre como uma cortesia para você experimentar o jornal digital mais premiado do Brasil. Apoie nosso jornalismo. Conheça nossos planos. Junte-se ao Nexo!

A União Europeia pretende impor uma série de restrições no uso da inteligência artificial em atividades cotidianas, do reconhecimento facial ao uso em serviços públicos.

A Comissão Europeia anunciou na quarta-feira (21) a proposta de um marco regulatório que tem como objetivo banir “sistemas de inteligência artificial considerados uma ameaça clara à segurança, sustento e direitos das pessoas”.

A chefe de tecnologia europeia, Margrethe Vestager, destacou a questão da confiança em uma tecnologia cujas aplicações muitas vezes incluem a utilização e o armazenamento de dados pessoais de maneiras pouco transparentes.

"Com essas regras históricas, a União Europeia está liderando o desenvolvimento de novas normas globais para garantir que a IA [inteligência artificial] seja confiável", afirmou Vestager em nota.

A partir de análise de vastos bancos de dados, sistemas de inteligência artificial realizam cada vez mais tarefas por conta própria em diferentes áreas, da financeira à educacional. Assim, a proposta pretende regular sistemas de identificação biométrica e de tomada de decisão em áreas como recrutamento, saúde, educação e policiamento.

“É uma iniciativa interessante porque estamos vendo um movimento mundial no sentido de se levantar os riscos dessa tecnologia, que ainda é pouco precisa, como mostrado no documentário ‘Coded Bias’ [que aborda o viés racial de tecnologia de reconhecimento facial]”, disse ao Nexo Priscila Silva Laterça, consultora em direito e novas tecnologias do ITS Rio (Instituto de Tecnologia e Sociedade do Rio). “É uma discussão que acontece nos EUA por causa do uso dessa tecnologia contra movimentos sociais e em aplicações preditivas de crime, resultando às vezes na prisão de inocentes.”

A proposta pode levar alguns anos até ser aprovada no Parlamento Europeu. Se aprovada, valerá para todos os 27 estados-membros da União Europeia, assim como para empresas de outros países que ofereçam sistemas de inteligência artificial para países do bloco. As gigantes de tecnologia americanas, como Google, Facebook e Amazon, investem pesadamente na tecnologia. Empresas que infringirem as novas regras podem ser multadas em até 6% de sua receita global ou US$ 36 milhões, seja qual for o valor mais alto.

“Essa proposta provavelmente deverá inspirar regulações ao redor do mundo, da mesma maneira que a lei de proteção de dados europeia inspirou outras legislações, inclusive a brasileira”, afirmou Laterça, do ITS Rio.

Para a ONG de direito digital European Digital Rights, a proposta europeia deixa a desejar em aspectos importantes. “A lista de exceções para o que já é uma proibição limitada ainda deixa muito espaço para o uso de tecnologias biométricas que nos vigiam e monitoram", escreveu em artigo ao Euronews Sarah Chander, especialistas em políticas para inteligência artificial da ONG.

Além das restrições a usos da inteligência artificial, em paralelo, a proposta também defende o incremento da pesquisa e a inovação desse tipo de tecnologia em todos os setores da indústria. O plano prevê a aceleração de investimentos na inteligência artificial como parte de estratégias de recuperação econômica no pós-pandemia e da Retomada Verde, que tem foco em iniciativas econômicas sustentáveis.

Nos EUA, o governo de Donald Trump lançou em fevereiro de 2020 a primeira estratégia nacional de inteligência artificial. A proposta incluía maior investimento em pesquisa e em diretrizes regulatórias. Em janeiro de 2021, a gestão de Joe Biden estabeleceu o Escritório Nacional de Iniciativas da Inteligência Artificial com o propósito de assegurar a liderança global do país nessa área, posição que disputa com a China.

Segundo Laterça, do ITS Rio, cerca de 20 países, entre eles México e Índia, já têm estratégia definida para a área.

As classificações europeias

Risco inaceitável

Aqui entram os usos considerados perigosos para segurança, sustento ou direitos dos cidadãos, incluindo aplicativos ou sistemas que manipulam o comportamento humano, sistemas governamentais que realizam “pontuação social” (como já existe na China) e sistemas de identificação biométrica (que inclui reconhecimento facial) em espaços públicos para fins policiais (com exceção para casos de busca por crianças desaparecidas ou criminosos fugitivos).

Risco alto

Esta categoria abrange tecnologia usada em treinamento educacional, que pode determinar o acesso à educação ou o percurso profissional de um indivíduo, software de recrutamento de pessoal, sistemas de segurança pública que podem interferir em direitos fundamentais e verificação de passaportes em controle de fronteiras. O uso de IA de alto risco ficará sujeito a normas rígidas. Todos os sistemas de identificação biométrica, incluindo reconhecimento facial, são considerados de alto risco.

Risco limitado

São sistemas de IA definidos com obrigações de transparência específicas. Por exemplo, quando usuários estão dialogando com robôs via chat de uma empresa eles precisam ser avisados de que se trata de uma máquina.

Risco mínimo

De acordo com a proposta, todos os sistemas de IA que não se encaixam nas categorias anteriores ficam sujeitas à legislação existente. Segundo a apresentação do projeto, a grande maioria dos usos cai nessa categoria. Inclui filtros de spam e alguns videogames. A sugestão é que, voluntariamente, os provedores adotem os requerimentos para fornecer um sistema de IA confiável.

A estratégia brasileira

Em 12 de abril, foi publicada a Estratégia Brasileira de Inteligência Artificial, que pretende orientar o governo federal em ações como estímulo à pesquisa, desenvolvimento de soluções e usos éticos.

No entanto, especialistas apontam que o documento carece de aprofundamento e despreza as cerca de 900 contribuições de especialistas, empresárias e sociedade civil enviadas ao Ministério da Ciência, Tecnologia e Inovação entre dezembro de 2019 e março de 2020 como parte de um processo de consulta pública.

“Foi muito decepcionante se comparado a estratégias de outros países. E muito aquém, considerando que o Brasil é muito inovador em certas áreas, tem muitas startups, muitos 'unicórnios' (startup que possui avaliação de preço de mercado de mais de US$ 1 bilhão), tem uma tecnologia rural”, avalia Laterça, do ITS Rio, ao Nexo. “Nossa estratégia é no final muito imatura, não contém nenhum plano sólido, nenhuma questão estratégica, só traz dados, mas não traz previsões orçamentárias nem criação de centros de pesquisa ou algo do tipo. É muito ruim na parte de inovação e não chegou nem a traçar princípios éticos.”

Fora a estratégia federal, o país conta com diversos projetos sobre o tema em tramitação no Congresso. Entre eles, estão propostas que pretendem introduzir um marco regulatório de inteligência artificial no país.

Para Laterça, aprovar esse marco regulatório seria importante para desenvolver o debate sobre o tema, que ainda é muito incipiente no país.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.