A versão final da regulamentação para os sistemas de inteligência artificial da União Europeia (EU AI Act), foi aprovada no dia 13 de março de 2024, pelo Parlamento Europeu (com 523 votos a favor, 46 contra e 49 abstenções dos deputados). O EU AI Act foi aprovado após longo processo legislativo que começou em 2019. O regulamento traz um conjunto de definições e regras que visam garantir a segurança e o cumprimento dos direitos fundamentais, ao mesmo tempo que impulsiona a inovação e a transformação digital.
Nesse sentido é o que dispões o artigo 1º do regulamento europeu de IA: “ A finalidade do presente regulamento é melhorar o funcionamento do mercado interno e promover a adoção de uma inteligência artificial centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança e dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais, incluindo a democracia, o Estado de direito e a proteção do ambiente, contra os efeitos nocivos dos sistemas de inteligência artificial (“sistemas de IA”) na União, bem como apoiar a inovação.”
O EU AI Act será a primeira regulamentação para as ferramentas de inteligência artificial no bloco da União Europeia, e certamente promoverá forte influência a nível global. Contudo, ainda depende de um período de vacatio legis, vinculado a certas obrigações específicas, para entrar efetivamente em vigor, conforme disposto no documento.
A regulamentação traz uma ampla abordagem baseada na avaliação dos riscos inerentes ao sistema de IA apresentado e seus possíveis impactos. Não foram inseridos na regulação, os programas de inteligência artificial concebidos para fins militares, de defesa e soberania nacional.
O regulamento proibiu determinados sistemas de IA que ameaçam direitos dos cidadãos, incluindo os sistemas de categorização biométrica que classifiquem individualmente as pessoas com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual, bem como sistemas que coletam de forma não direcionada imagens faciais da Internet ou imagens de CCTV para criar bases de dados de reconhecimento facial e identificar pessoas em tempo real.
Além disso, também são proibidas as aplicações de IA que utilizam o reconhecimento de emoções no local de trabalho e nas escolas, pontuação social, o policiamento preditivo (que se baseia apenas no perfil de uma pessoa ou na avaliação das suas características a fim de avaliar ou prever a probabilidade de uma pessoa singular cometer uma infração penal), e o sistema de IA que manipula e engana o comportamento humano ou explora as vulnerabilidades das pessoas.
Contudo, será possível usar o reconhecimento facial para lidar com risco iminente à vida ou à segurança física de pessoas, situações de terrorismo, ou para ajudar na busca direcionada de uma pessoa desaparecida, na investigação de rapto, tráfico e exploração sexual, desde que com autorização judicial e estando associada a uma infração penal.
Dentro do contexto de abordagem de riscos, estão previstas obrigações para os sistemas de IA definidos como de alto risco, mas não são expressamente proibidos. Entre os exemplos de utilizações de IA de alto risco contam-se as infraestruturas críticas, a educação e a formação profissional, o emprego, os serviços públicos e privados essenciais (por exemplo, cuidados de saúde, serviços bancários), a migração e a gestão das fronteiras, a justiça e os processos democráticos (por exemplo, influenciar as eleições).
Os sistemas de IA para fins gerais (GPAI) e os modelos GPAI, como por exemplo, sistemas de filtragem de spam, devem também cumprir as obrigações de transparência e determinados requisitos, incluindo o cumprimento da legislação da UE em matéria de direito autoral e a publicação de resumos pormenorizados dos conteúdos utilizados para o desenvolvimento da ferramenta. Os modelos GPAI mais potentes que possam representar riscos sistémicos terão de cumprir requisitos adicionais, incluindo a realização de avaliações de modelos, a avaliação e atenuação dos riscos sistémicos e a comunicação de incidentes. Além disso, as imagens artificiais ou manipuladas, os conteúdos áudio ou vídeo (“deepfakes”) devem ser claramente identificados como originários de sistemas de IA.
Assim, o regulamento para os sistemas de IA Europeu é o primeiro texto vinculativo aprovado no mundo. A regulação Europeia tem com eixo central, a defesa dos direitos fundamentais e dos princípios éticos, e para esse fim, estabelece regras claras e sólidas que mitigam os riscos inerentes dos sistemas, privilegiando a transparência e informações adequadas, ao mesmo tempo que apoia e promove soluções inovadoras e explora o potencial da transformação digital, criando infinitas oportunidades, dentro de um contexto de governança e gestão de riscos, tendo em vista a devida adequação e conformidade dos sistemas de inteligência artificial.
Fonte: European Parliament