Regulação da inteligência artificial no trabalho entra no centro das políticas públicas globais  

Regulação da inteligência artificial no trabalho entra no centro das políticas públicas globais

Avanço acelerado da IA pressiona governos a criar regras para proteger direitos sem comprometer a inovação

O uso crescente da inteligência artificial no ambiente de trabalho e em decisões que afetam a sociedade tem obrigado governos de diferentes países a priorizarem a criação de marcos regulatórios para a tecnologia. O debate envolve riscos, oportunidades e o equilíbrio entre inovação, segurança jurídica e proteção de direitos. Inicialmente restrita a ambientes experimentais, a IA passou a influenciar processos decisórios em áreas como contratação, crédito, saúde, logística e atendimento ao consumidor, ampliando seu impacto direto sobre pessoas e organizações.

Segundo Fabio Tiepolo, fundador da StaryaAI, empresa que tem como objetivo capacitar organizações e auxiliá-las a transformar operações e decisões com agentes de IA orquestrados com governança, do dado à decisão, a urgência da regulação está relacionada à maturidade da tecnologia. “A IA deixou de ser experimental e passou a impactar decisões reais sobre pessoas, trabalho e direitos. Quando uma tecnologia ganha escala antes das regras, o risco sistêmico cresce. Com isso, entidades governamentais entenderam que precisam agir agora para evitar danos difíceis de reverter no futuro”, afirma.

A ausência de regras claras, especialmente no ambiente de trabalho, pode gerar efeitos negativos relevantes. Entre os principais riscos estão a discriminação algorítmica, a opacidade nas decisões automatizadas, a precarização das relações laborais e a perda de confiança entre trabalhadores e empresas. “Sem regras, a IA pode reforçar vieses, automatizar injustiças e gerar insegurança jurídica tanto para trabalhadores quanto para empresas”, diz Tiepolo.

Dados de mercado reforçam a dimensão do tema. De acordo com relatório do Fórum Econômico Mundial, cerca de 23% dos empregos globais devem sofrer transformações significativas até 2027 em função da automação e da IA, enquanto a McKinsey estima que até 70% das empresas no mundo já utilizam algum tipo de inteligência artificial em suas operações. Esses números ampliam a pressão por políticas públicas que orientem o uso responsável da tecnologia.

Para Tiepolo, o caminho passa por regulações baseadas em risco. “Nem toda IA precisa do mesmo nível de controle. Sistemas de alto impacto, como os que afetam emprego, renda ou acesso a benefícios, devem ter exigências mais rígidas de transparência, auditoria e responsabilização, sem travar a inovação de baixo risco”, explica. Ele destaca ainda que a automação tende a substituir tarefas, e não profissões inteiras, desde que acompanhada de políticas de requalificação profissional.

Os primeiros impactos das novas legislações devem ser sentidos por setores intensivos em dados e decisões automatizadas, como tecnologia, serviços financeiros, saúde, recursos humanos, call centers, logística e seguros. Nesses segmentos, a IA já influencia processos críticos e decisões que afetam diretamente indivíduos e consumidores.

No contexto brasileiro, Tiepolo avalia que o país avançou no debate, mas ainda enfrenta desafios. “O Brasil precisa evoluir na capacitação técnica do setor público, na clareza de papéis regulatórios e na integração com a LGPD. A boa notícia é que podemos aprender com os erros e os acertos de outros países”, afirma. “A construção de uma regulação eficaz depende do equilíbrio entre sociedade civil, empresas e academia, com diálogo contínuo e base técnica sólida”, completa o especialista.

Sobre a StaryaAI

Fundada em 2024, a StaryaAI tem como objetivo capacitar organizações e auxiliá-las a transformar operações e decisões com agentes de IA orquestrados com governança, do dado à decisão, proporcionando eficiência, personalização e impacto humano em cada interação. Para mais informações acesse: https://starya.ai/.