No âmbito da sua estratégia digital, a União Europeia pretende regulamentar a Inteligência Artificial para garantir melhores condições para o desenvolvimento e a utilização desta tecnologia inovadora.
A Inteligência Artificial implica o uso de tecnologia digital para criar sistemas capazes de executar tarefas que normalmente requerem inteligência humana. Algumas tecnologias de IA existem já há algumas décadas, mas o desenvolvimento tecnológico dos computadores, a disponibilidade de grandes quantidades de dados e a proliferação de novo software levaram a avanços notáveis num curto espaço de tempo.
Neste sentido a IA pode trazer muitos benefícios, como melhores cuidados de saúde, transportes mais seguros e mais limpos, produções mais eficientes e energia mais barata e mais sustentável. Aliás a IA já se encontra em uso em diversos aspetos da vida diária como na previsão de desastres naturais, na assistência virtual, em traduções automáticas, no controle de qualidade da fabricação de bens, em diagnósticos médicos, em ferramentas de navegação de veículos, entre outros, isso sem falar das ferramentas mais recentes que começam a proliferar como ChatGPT, Copilot, Gemini, Claude, etc…
Em abril de 2021, a Comissão Europeia propôs o primeiro quadro regulamentar da União Europeia para a Inteligência Artificial. A prioridade do Parlamento Europeu consistiu em garantir que os sistemas de IA utilizados são seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Os sistemas de Inteligência Artificial devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais.
O objetivo é que os sistemas de IA, que podem ser utilizados em diferentes setores, sejam analisados e classificados de acordo com o risco que representam para os utilizadores. Será o nível de risco a definir um grau de regulamentação mais ou menos específico. Neste sentido, e embora muitos sistemas de IA representem um risco mínimo, é necessário avaliar e classificar esses riscos em diferentes graus.
Os riscos dos sistemas de Inteligência Artificial
São quatro os níveis de risco dos sistemas de IA, a saber:
1. Risco inaceitável: os sistemas de Inteligência Artificial de risco inaceitável são sistemas considerados como uma ameaça para as pessoas e devem ser proibidos. Estes sistemas incluem manipulação cognitivo-comportamental de pessoas ou de grupos vulneráveis específicos – por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças – sistemas de pontuação social, de classificação de pessoas com base no comportamento, de estatuto socioeconómico ou de caraterísticas pessoais, de identificação biométrica e de categorização de pessoas singulares, de sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial.
Um dos aspetos mais controversos desta lei foi a questão da utilização de sistemas de identificação biométrica, mas foram estabelecidos rigorosos limites para a sua utilização especialmente em contextos de vigilância policial. Assim, serão permitidas algumas exceções para fins de aplicação da lei. Os sistemas de identificação biométrica remota "em tempo real" serão permitidos num número limitado de casos considerados graves, enquanto os sistemas de “pós-identificação” biométrica à distância – em que a identificação ocorre após um atraso significativo – só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.
2. Risco elevado: os sistemas de Inteligência Artificial que afetem negativamente a segurança ou os direitos fundamentais serão considerados de elevado risco e serão divididos em duas categorias - sistemas de IA que são utilizados em produtos abrangidos pela legislação da União Europeia em matéria de segurança dos produtos, o que inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores; sistemas de IA que se enquadram em áreas específicas e que terão de ser registados numa base de dados da União Europeia como os que se referem à gestão e funcionamento de infraestruturas essenciais, à educação e formação profissional, ao emprego, à gestão dos trabalhadores e ao acesso ao trabalho por conta própria, ao acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos, à aplicação da lei, à gestão da migração, do asilo e do controlo das fronteiras e à assistência na interpretação jurídica e na aplicação da lei.
Todos os sistemas de IA de risco elevado terão de ser avaliados antes de serem colocados no mercado e durante todo o seu ciclo de vida. Para isso a Lei da Inteligência Artificial cria oportunidades para que as PME e start-ups possam desenvolver e treinar modelos de IA antes da sua apresentação perante o público em geral. As autoridades nacionais devem fornecer às empresas a possibilidade de efetuar testes de simulação com condições aproximadas às do mundo real.
3. Risco médio: inclui assistentes virtuais, por exemplo.
Os sistemas de IA que comportem apenas um risco limitado estarão sujeitos a obrigações de transparência muito ligeiras, como a de divulgar que os seus conteúdos foram gerados por Inteligência Artificial, para que os utilizadores possam tomar decisões informadas em relação à sua utilização posterior.
4. Risco baixo ou nulo: Categoria na qual se inserem os jogos e filtros anti-spam, por exemplo.
Na sua grande maioria, estes sistemas de IA não apresentam risco e podem, portanto, continuar a ser utilizados sem serem regulamentados ou afetados por esta lei.
Os cidadãos terão o direito de apresentar queixas contra os sistemas de IA junto das autoridades nacionais competentes.
Requisitos de transparência
A inteligência artificial generativa, tal como o ChatGPT, não será classificada como sendo de risco elevado mas terá de cumprir os requisitos de transparência e estar de acordo com a legislação da União Europeia em matéria de direitos de autor, ou seja:
- divulgar que o conteúdo foi gerado pela IA;
- conceber o modelo para evitar que este gere conteúdos ilegais;
- publicar resumos dos dados protegidos por direitos de autor utilizados para a formação.
O conteúdo que é gerado ou modificado com recurso à Inteligência Artificial como, por exemplo as imagens, os arquivos de áudio ou vídeos (como é o caso dos deepfakes), precisa de ser claramente rotulado como sendo gerado através de IA para que os utilizadores tenham consciência disso quando interagem com conteúdos desse género.
Sanções por violações da Lei da Inteligência Artificial
A plena aplicação desta lei está prevista para o final de 2026. As multas por infrações à Lei da Inteligência Artificial serão fixadas em até 7% do volume de negócios anual global da empresa infratora no exercício anterior ou em um montante pré-determinado de 35 milhões de euros, o que for maior. As pequenas e médias empresas (PME) e as Start-ups estarão sujeitas a multas administrativas proporcionais ou ao montante pré-determinado, mas, ao contrário, sempre o que for menor.
Para consulta
https://www.europarl.europa.eu/topics/pt/article/20230601STO93804/lei-da-ue-sobre-ia-primeira-regulamentacao-de-inteligencia-artificial
https://www.europarl.europa.eu/topics/pt/article/20230601STO93804/lei-da-ue-sobre-ia-primeira-regulamentacao-de-inteligencia-artificial