Europa aprova texto preliminar da primeira lei de regulamentação de IA do ocidente

O texto cria parâmetros que devem ser seguidos por desenvolvedores e empresas que controlam inteligências artificiais, como a OpenAI, criadora do ChatGPT.

Um comitê especial do Parlamento Europeu recentemente aprovou a versão inicial de um projeto de lei que tem como objetivo estabelecer diretrizes para o desenvolvimento e uso de sistemas de inteligência artificial no Continente Europeu.

A aprovação dessa fase preliminar marca um avanço significativo na busca por regulamentações destinadas a controlar o avanço acelerado das tecnologias de IA. Essas leis são necessárias devido à rápida evolução dessas tecnologias.

A nova legislação, intitulada “Lei Europeia de Inteligência Artificial”, é pioneira no Ocidente, já que na China e outros países asiáticos já existem regulamentações que as empresas de IA generativa, como a OpenAI com seu ChatGPT, devem seguir.

A regulamentação europeia para a inteligência artificial adota uma abordagem baseada no potencial de risco de cada sistema de IA. Quanto maior o perigo que representam, mais estritamente serão controlados.

As regras também estabelecem requisitos específicos a serem seguidos pelos desenvolvedores, conhecidos como “modelos de fundação”.

As categorias de risco das inteligências artificiais

A Lei Europeia de Inteligência Artificial também categoriza as IAs por seus níveis de risco. São eles: risco mínimo ou inexistente, risco limitado, alto risco e risco inaceitável.

Até o alto risco, as inteligências artificiais podem funcionar sob regulamentação, mas ferramentas categorizadas como tendo um risco inaceitável não podem sequer funcionar na Europa. IAs de risco inaceitável são:

  • Sistemas que usam técnicas subliminares, manipuladoras ou enganosas para distorcer seu próprio comportamento;
  • Inteligências artificiais que exploram vulnerabilidades de indivíduos ou grupos específicos;
  • Sistemas de categorização biométrica baseados em atributos ou características sensíveis;
  • IAs usadas para pontuação social ou avaliação da confiabilidade;
  • Sistemas de IA usados para avaliações de risco que preveem ofensas criminais ou administrativas;
  • Sistemas que criam ou expandem bancos de dados de reconhecimento facial por meio de raspagem não direcionada;
  • Mecanismos que inferem emoções na aplicação da lei, gerenciamento de fronteiras, local de trabalho e educação.

Para evitar a proliferação de inteligências artificiais nocivas, como as de alto risco e risco inaceitável, a nova Lei Europeia de Inteligência Artificial obrigará que os desenvolvedores sigam padrões pré-determinados.

Um dos aspectos dessa base de dados é a testagem prévia das inteligências artificiais, que deve ocorrer em todos os casos, sob pena de sanção ao desenvolvedor que se recusar a fazer os testes.

“Os fornecedores desses modelos de IA serão obrigados a tomar medidas para avaliar e mitigar riscos aos direitos fundamentais, saúde, segurança, meio ambiente, democracia e Estado de Direito”, disse Ceyhun Pehlivan, advogado europeu ouvido pela emissora CNBC.

Com a palavra, os especialistas em Inteligência Artificial

Como não poderia deixar de ser, a notícia de que uma lei está sendo criada para regulamentar a IA na Europa caiu como uma bomba entre os especialistas na área e algumas indústrias de tecnologia.

De antemão, vale destacar que a Lei Europeia de Inteligência Artificial ainda está sendo desenvolvida e que a aprovação recente é apenas preliminar. Mesmo assim, alguns atores importantes demonstram preocupação.

De acordo com a Associação do Setor de Computadores e Comunicações da Europa, o escopo da nova lei se estendeu demais, o que pode fazê-la “pegar IAs inofensivas”.

“É preocupante ver que grandes categorias de aplicativos úteis de IA – que apresentam riscos muito limitados, ou nenhum – agora podem enfrentar requisitos rigorosos, ou podem até ser banidos da Europa”, disse Boniface de Champris, gerente de políticas da organização, em comunicado enviado à CNBC por e-mail.

Segundo Dessi Savova, chefe do setor de tecnologia do renomado escritório de advocacia Clifford Chance, disse que as leis de controle de IA que estão surgindo na Europa irão influenciar o mundo.

“O alcance das regras de IA propostas na Europa irão atingir desenvolvedores de IA em todo o mundo”, afirmou.

“No entanto, a questão central é se a Lei Europeia de Inteligência Artificial definirá um padrão para a IA no mundo. Isso porque China, EUA e Reino Unido, para citar alguns, estão definindo sua própria política de IA e abordagens regulatórias”, questiona Savova.

“Mas, inegavelmente, todos eles acompanharão de perto as negociações que estão acontecendo na Europa para fazer adaptações em suas próprias abordagens”, concluiu.

Por fim, Sarah Chander, consultora sênior de políticas da European Digital Rights, destacou que as novas leis de IA europeias irão exigir que os desenvolvedores demonstrem o seu “poder”.

“Embora esses requisitos de transparência [contidos na proposta de lei] não erradiquem as preocupações com infraestrutura e economia, com o desenvolvimento desses vastos sistemas de IA, eles exigem que as empresas de tecnologia divulguem as quantidades de poder computacional necessárias para desenvolvê-las”, relembrou, em conversa com a CNBC.

Até o momento, os próximos passos da Lei Europeia de Inteligência Artificial ainda não foram divulgados pelo Parlamento Europeu.

você pode gostar também

Comentários estão fechados.