Blog
RH e Conformidade
RH e Conformidade
.

O que é a Lei de IA da UE? [Guia para líderes de RH]

Alyson Hunter
Data de atualização
6 de março de 2025

A ampla adoção global da IA está transformando os setores e aumentando a eficiência, a produtividade e o crescimento dos negócios.  

De fato, 49% dos líderes de tecnologia na Pesquisa de Pulso de Outubro de 2024 da PwC disseram que a IA estava "totalmente integrada" à estratégia de negócios principais de suas empresas, e um terço disse que a IA estava totalmente integrada a seus produtos e serviços.

Mas, à medida que o uso da inteligência artificial cresce, também aumentam as preocupações com os possíveis riscos.

A União Europeia (UE) abordou essa questão de frente em 2024, introduzindo a Lei de Inteligência Artificial da União Europeia, também conhecida como Lei de IA da UE ou Lei de IA. 

Independentemente de sua empresa estar sediada dentro ou fora da UE, é fundamental entender como a Lei de IA afeta sua empresa e tomar medidas proativas para cumprir a lei. 

Principais conclusões:

  • A Lei de IA da UE é a primeira estrutura jurídica abrangente do mundo a governar e regulamentar o desenvolvimento e o uso da IA na UE. 
  • Todas as empresas devem estar em conformidade se sua tecnologia de IA afetar os cidadãos da UE, de modo semelhante ao funcionamento do Regulamento Geral de Proteção de Dados (GDPR).
  • As equipes de RH são diretamente afetadas pela Lei de IA da UE e devem tomar medidas proativas para garantir a conformidade, pois muitos sistemas e práticas essenciais de RH são classificados como de alto risco de acordo com a regulamentação. 

O que é a Lei de IA da UE e por que ela foi criada?

A Comissão Europeia e o Parlamento Europeu adotaram a Lei de IA para promover o desenvolvimento e o uso responsáveis e transparentes da IA por meio de uma legislação definida.

Ele descreve requisitos claros de governança, gerenciamento de riscos e supervisão para garantir o uso seguro e confiável da IA, estimular o investimento em IA, promover a inovação em IA e evitar casos de uso prejudiciais (especialmente aqueles que afetam a segurança, a saúde, a privacidade e os direitos fundamentais dos cidadãos). 

Ele define requisitos e obrigações de transparência para:

  • Fornecer uma definição ampla de IA, coberta pela lei 
  • Estabelecer uma estrutura legal abrangente
  • Garantir práticas de IA confiáveis na União Europeia
  • Proteger os direitos fundamentais por meio da regulamentação da IA
  • Garantir a supervisão humana e a proteção de dados pessoais, de forma semelhante ao GDPR 

Quando a Lei de IA da UE se tornará lei?

A Lei de IA da UE entrou em vigor inicialmente em agosto de 2024, com as fases subsequentes sendo implementadas até 2027. Essa abordagem em fases dá às empresas e às partes afetadas tempo para entender e cumprir a lei. 

Por exemplo:

  • As proibições de aplicações de risco inaceitável entraram em vigor em fevereiro de 2025.
  • As regras para qualquer novo modelo de IA de uso geral ou da Parceria Global em Inteligência Artificial (GPAI) entrarão em vigor em agosto de 2025.
  • As regras para sistemas de IA de alto risco entrarão em vigor em agosto de 2026.  

Essa abordagem reflete a posição da UE de que todos os sistemas e práticas de IA são desiguais, sendo que alguns apresentam riscos maiores do que outros.  

Classificação de sistemas de IA com base em riscos

A Lei de IA da UE adota uma abordagem baseada em riscos, categorizando os sistemas de IA em quatro categorias:

Risco inaceitável

Os aplicativos de IA que ameaçam a segurança, os meios de subsistência ou os direitos fundamentais das pessoas são proibidos.

Por exemplo, sistemas de pontuação social, vigilância biométrica em tempo real em espaços públicos e reconhecimento de emoções em locais de trabalho estão todos incluídos na categoria de risco inaceitável da Lei de IA da UE.  

Alto risco

Embora a IA possa beneficiar a sociedade, muitos casos de uso podem prejudicar a saúde, a segurança e os direitos fundamentais se não forem controlados.

Isso é particularmente verdadeiro em setores críticos como saúde, aplicação da lei e emprego. 

Portanto, a Lei de IA da UE estabelece obrigações de conformidade rigorosas para casos de uso de alto risco, incluindo transparência, avaliações de segurança de terceiros, conjuntos de dados de qualidade, documentação detalhada, supervisão humana e testes rigorosos - antes e continuamente após o lançamento de uma solução, produto ou componente de IA. 

Exemplos de casos de uso de IA de alto risco incluem: 

  • Componentes de segurança baseados em IA (por exemplo, aplicação de IA em cirurgia assistida por robô).
  • IA usada no emprego, no gerenciamento de trabalhadores e no acesso ao trabalho autônomo (por exemplo, IA que analisa e encaminha currículos de candidatos).
  • IA usada para verificar o acesso a serviços públicos ou privados essenciais (por exemplo, IA que determina se um candidato é aprovado para um empréstimo bancário). 

Risco limitado

A categoria de risco limitado especifica obrigações de transparência para garantir que as pessoas saibam quando estão interagindo com a IA. 

Por exemplo, quando os cidadãos interagem com um chatbot, a lei exige a divulgação de que o chatbot é uma máquina, não um ser humano, para que as pessoas possam decidir se querem ou não prosseguir.  

O mesmo se aplica às imagens deepfake geradas por IA; a lei exige uma rotulagem clara e visível para não enganar o público. 

Os sistemas e práticas de risco limitado enfrentam menos restrições regulatórias além das obrigações de divulgação. 

Risco mínimo ou nenhum risco

A lei reconhece que muitos casos de uso de IA representam pouca ou nenhuma ameaça aos usuários, como o uso de IA em videogames, filtros de spam e recomendações de conteúdo.

Atualmente, a maioria dos casos de uso da UE se enquadra nessa categoria e, em grande parte, não é regulamentada. 

O que as empresas precisam para estar em conformidade com a Lei de IA da UE?

A Lei de IA da UE se aplica a todas as empresas que operam no mercado da UE e a organizações fora da UE se sua IA, ou os resultados de sua IA, forem usados na UE.

A lei divide as partes afetadas em três categorias: 

  • Os provedores são indivíduos ou empresas que projetam, desenvolvem ou encomendam a criação de um sistema de IA ou modelo GPAI e, em seguida, introduzem-no no mercado europeu com seu próprio nome ou marca registrada. Uma empresa de software que lança uma ferramenta de IA generativa é um provedor. 
  • Os implantadores são organizações que usam IA para seus objetivos, soluções ou produtos. Uma empresa que usa um widget de recomendação de produto de IA em seu site é um implantador. 
  • Importadores/distribuidores são pessoas ou organizações na UE que revendem ou trazem sistemas de IA para o mercado da UE originários de uma pessoa ou empresa estabelecida fora da UE. 

Essas funções não são mutuamente exclusivas - você pode ser tanto um provedor (desenvolvendo a IA) quanto um implantador (usando a IA). 

Como essa estrutura legal é a primeira do gênero, espera-se que outros países sigam o exemplo com estruturas regulatórias semelhantes. 

Principais requisitos de conformidade

O AI Act da UE estabelece padrões para o desenvolvimento de sistemas de IA de alto risco e regras para modelos de IA de uso geral.

Ela proíbe totalmente os sistemas e práticas de IA na categoria de nível de risco inaceitável, como a IA usada para enganar e explorar populações idosas. 

As organizações que desenvolvem ou usam sistemas de IA de alto risco enfrentam as mais rigorosas medidas de conformidade e transparência, inclusive: 

  • Realização de avaliações de risco e implementação de um sistema de gerenciamento de risco contínuo para revelar e mitigar riscos. 
  • Empregar padrões rigorosos de governança de dados, garantindo que os dados sejam examinados, testados e de alta qualidade, e mitigando vieses conhecidos. 
  • Cumprir as obrigações de divulgação, garantindo que as pessoas saibam quando estão interagindo com a IA e que o conteúdo gerado pela IA seja claramente rotulado em formatos legíveis por máquina.
  • Garantir que a supervisão humana seja incorporada à tomada de decisões de IA de alto risco, permitindo a intervenção humana, estabelecendo protocolos claros de escalonamento, treinando o pessoal para interpretar os resultados da IA e mantendo a responsabilidade.
  • Manter a documentação técnica detalhada que especifica o projeto do sistema, os recursos e os esforços de conformidade regulamentar até o momento. 
  • Manutenção de planos de monitoramento pós-comercialização para garantir a conformidade contínua durante o ciclo de vida do sistema. 

Os modelos GPAI têm suas próprias obrigações, como a criação de políticas para se alinharem às leis de direitos autorais da UE, a disponibilização pública de resumos detalhados dos conjuntos de dados de treinamento e a garantia de que medidas adequadas de segurança cibernética estejam em vigor. 

O Escritório Europeu de IA e as autoridades dos Estados Membros são responsáveis pela aplicação da Lei de IA. A não conformidade pode resultar em multas pesadas, com penalidades que podem chegar a 35 milhões de euros ou 7% do faturamento anual mundial.

O que os líderes de RH precisam saber sobre a Lei de IA da UE

A Lei de IA da UE afeta diretamente as equipes de RH, principalmente se elas usarem ferramentas orientadas por IA para contratação, gerenciamento de desempenho, análise de desempenho ou outras decisões relacionadas ao emprego. Como muitos aplicativos de RH se enquadram na categoria de alto risco, as organizações devem tomar medidas proativas para garantir a conformidade.

Regulamentação da IA na contratação e no recrutamento

As ferramentas baseadas em IA usadas para triagem de currículos, seleção de candidatos e análise de entrevistas se enquadram na categoria de "alto risco". Isso significa que as equipes de RH devem:

  • Garantir que as ferramentas de recrutamento de IA sejam auditáveis, imparciais e explicáveis.
  • Evite a discriminação revisando regularmente os algoritmos quanto à parcialidade.
  • Mantenha a transparência informando aos candidatos quando a IA for usada em todo o processo de contratação. 

Por exemplo, se você usar IA generativa para escrever a descrição do seu cargo, ela deverá indicar claramente que a IA a gerou. 

Você também pode criar uma página da Web que divulgue as ferramentas de IA usadas em todo o processo de contratação e como elas afetam a experiência do candidato ou do funcionário. Essa transparência não apenas apoia a conformidade, mas também gera confiança entre os candidatos a emprego.  

IA no monitoramento de funcionários e gerenciamento de desempenho

As ferramentas orientadas por IA que rastreiam a produtividade dos funcionários, analisam e-mails, avaliam o desempenho ou tomam decisões de promoção também podem ser classificadas como de alto risco. 

Como resultado, os líderes de RH devem:

  • Use as ferramentas de monitoramento de IA de forma responsável para evitar o excesso de vigilância e respeitar a privacidade dos funcionários.
  • Comunique como os dados dos funcionários são coletados e usados.
  • Crie uma supervisão humana em qualquer avaliação de desempenho orientada por IA.
  • Permita que os funcionários contestem os insights gerados pela IA antes de tomar qualquer medida de RH. 

Por exemplo, se você usar a IA para monitorar o tom de voz nas chamadas de atendimento ao cliente, deverá combinar a análise da IA com a revisão e o feedback humano direto. 

Privacidade de dados e obrigações de conformidade

A Lei de IA reforça o Regulamento Geral de Proteção de Dados (GDPR) da UE, o que significa que as equipes de RH devem:

  • Proteja os dados de funcionários e candidatos e limite o acesso da IA a informações confidenciais.
  • Garantir a conformidade com os requisitos de processamento e armazenamento de dados.
  • Trabalhe com as equipes jurídica e de TI para avaliar a conformidade dos fornecedores de IA com a lei e solicite atualizações contínuas. 

Por exemplo, se você usa plataformas de folha de pagamento com IA, sua ferramenta deve estar em conformidade com a localização de dados, a criptografia e os controles de acesso. 

O que os líderes de RH precisam fazer agora

Com a entrada em vigor da Lei de IA da UE, os líderes de RH devem garantir a conformidade e planejar as obrigações futuras. 

Os líderes de RH devem: 

  • Auditar e inventariar as ferramentas de IA existentes: Documente onde a IA é usada nos processos de RH e em toda a sua organização, categorizando os níveis de risco. 
  • Trabalhe com os fornecedores: Converse com os fornecedores para entender seus esforços de conformidade e garantir que o software de RH com IA esteja em conformidade.
  • Atualizar os contratos de uso de IA: Exija que os fornecedores forneçam documentação de conformidade, relatórios de transparência e mecanismos integrados de supervisão humana.
  • Implementar medidas de transparência: Informe os funcionários e candidatos sobre o uso de IA (especialmente em contratações, promoções e acompanhamento de desempenho) e comunique o direito de contestar decisões automatizadas.
  • Treine as equipes: Eduque os profissionais de RH sobre os riscos da IA e as novas obrigações legais e invista em programas de alfabetização em IA para todos os funcionários que supervisionam ou usam sistemas de IA de alto risco.
  • Fale com o setor jurídico: Revise as políticas com suas equipes jurídicas para garantir a conformidade e manter-se atualizado sobre os regulamentos de IA à medida que a Lei de IA da UE evolui. 
  • Encontre um parceiro: Um consultor de governança de IA ou um especialista em direito trabalhista pode ajudar as equipes de RH a navegar pelas normas de conformidade à medida que elas são implementadas.   

Garanta a conformidade empregatícia com o RemoFirst

Navegar pela Lei de IA da UE é complexo e pode exigir um investimento de tempo significativo da sua equipe de RH para estar em conformidade. Ao fazer uma parceria com o RemoFirst como seu Employer of Record, você pode descarregar outras tarefas de RH, permitindo que sua equipe se concentre nos requisitos regulatórios de IA da UE com mais facilidade.

Como EOR, assumimos as tarefas administrativas de RH para seus funcionários internacionais, como integração, folha de pagamento global, administração dos benefícios dos funcionários (como seguro de saúde) e garantia de conformidade com as leis trabalhistas locais, incluindo o GDPR, quando aplicável.

Agende uma demonstração para saber mais sobre como o RemoFirst pode ajudar sua empresa a empregar trabalhadores em conformidade em mais de 185 países.

Sobre o autor

Alyson Hunter é a fundadora da The Content Cellar, um serviço de redação de conteúdo e marketing no LinkedIn para agências digitais, empresas B2B e executivos ocupados. Ela vê o trabalho remoto como uma tremenda oportunidade de expandir as oportunidades profissionais e pessoais.