por Henrique Perez da Silva Carneiro
Ilustração por Alghozy em UnsplashIA: Termo Guarda-Chuva e Conceito Sociotécnico
"Inteligência Artificial" é um termo com inúmeras definições (legais, técnicas, acadêmicas), abrangendo inclusive a visão daqueles que preferem não utilizar essa nomenclatura para se referir a tais ferramentas. É possível considerá-la um termo guarda-chuva e sociotécnico, enquanto uma área que contém demais subáreas, a exemplo da aprendizagem de máquina (machine learning) e da aprendizagem profunda (deep learning).
Compreender a IA como fenômeno sociotécnico significa reconhecer que esses sistemas não existem de forma isolada no domínio matemático: eles emergem de escolhas humanas sobre arquitetura, dados, objetivos e contexto de implantação. Esse cenário é decisivo para o Direito do Trabalho: o mesmo algoritmo pode ser considerado neutro em um determinado contexto e discriminatório em outro, a depender dos dados com os quais foi treinado e dos fins para os quais é utilizado, por exemplo.
Definições de IA
Russell e Norvig — autores do principal manual da área, Artificial Intelligence: A Modern Approach — definem sistemas de IA como agentes que recebem percepções do ambiente e executam ações com o objetivo de agir racionalmente: maximizar a utilidade esperada de acordo com uma medida de desempenho definida previamente.
Outras definições reconhecidas complementam esse quadro:
John McCarthy (1956), a quem se atribui a cunhagem do termo “inteligência artificial”, definia IA como "a ciência e engenharia de construir máquinas inteligentes", com foco na simulação de capacidades cognitivas humanas.
O Teste de Turing (1950) propôs uma definição operacional: um sistema exibe inteligência quando, numa conversa escrita, é indistinguível de um ser humano.
O Regulamento Europeu de IA (AI Act, 2024) e o PL 2338/2023 (aprovado pelo Senado em dezembro de 2024 e atualmente em tramitação na Câmara dos Deputados) adotam uma abordagem regulatória baseada em risco, fundamentada em uma definição funcional (inspirada na OCDE): sistema de IA é aquele que, operando com graus variados de autonomia, infere, a partir de entradas, como gerar resultados (previsões, conteúdos ou decisões) que influenciam ambientes reais.
Dados e Algoritmos: os Dois Pilares
Para o funcionamento de qualquer sistema de IA, são necessários principalmente dados e algoritmos.
Algoritmos
A palavra "algoritmo" deriva do nome do matemático persa Al-Khwarizmi (séc. IX). Donald Knuth, em sua obra seminal The Art of Computer Programming (1968), define algoritmo como "uma sequência finita de passos lógicos e não ambíguos, elaborada para solucionar um problema específico". Dasgupta, Papadimitriou e Vazirani acrescentam que algoritmos devem ser precisos, padronizados, eficientes e corretos.
Dados
A palavra "dado" origina-se do latim datum, particípio passado de dare ("dar"), significando literalmente "algo dado" ou "algo pressuposto como ponto de partida". No contexto de sistemas de IA, dados são os registros brutos (textos, imagens, áudios, sequências numéricas, etc.) que alimentam os algoritmos de treinamento. A qualidade, quantidade e diversidade desses dados condicionam diretamente o desempenho e as limitações do modelo resultante. A coleta de dados dos usuários tornou-se, por isso, um dos pilares estratégicos das empresas de tecnologia. Em alguns sistemas, o uso cotidiano pode contribuir para ciclos futuros de treinamento ou refinamento, embora isso varie conforme a política de cada empresa e o tipo de modelo envolvido.
Classificação dos Sistemas de IA
Por Finalidade
| Tipo | Lógica | Exemplos no trabalho |
|---|---|---|
| IA Generativa | Gera conteúdo novo (texto, imagem, vídeo, áudio, código) a partir dos padrões do treinamento | Redação de minutas, apoio à triagem jurídica, geração de relatórios |
| IA Analítica (também referenciada como IA preditiva na literatura aplicada) | Classifica, prediz ou decide com base em padrões identificados | Scoring de produtividade, triagem de currículos, recomendações de plataformas |
Por Tipo de Treinamento
- Supervisionada: dados previamente rotulados e categorizados (historicamente por humanos, mas hoje também por processos automatizados); o modelo aprende a identificar elementos semelhantes aos gabaritos fornecidos.
- Semi-supervisionada: apenas uma pequena parte da base é rotulada; o modelo utiliza o grande volume de dados não rotulados para compreender a estrutura das informações e aprimorar o aprendizado.
- Não supervisionada: o modelo identifica padrões e agrupamentos sem nenhum rótulo prévio.
- Por reforço: o modelo aprende por tentativa e erro, recebendo recompensas ou penalidades por suas ações.
- Por reforço com feedback humano (RLHF): avaliadores humanos comparam e classificam os outputs gerados pelo modelo, orientando o ajuste fino, o que torna a avaliação humana parte indispensável do processo.
Trabalho Humano e IA
A pandemia de COVID-19 acelerou a transição digital no trabalho, intensificando os desafios impostos pela IA nas relações laborais.
Segundo relatório conjunto da OIT e do Banco Mundial (2024), entre 26% e 38% dos empregos na América Latina e Caribe estão expostos à IA Generativa de alguma forma, sendo que apenas 2% a 5% enfrentam risco de automatização total, enquanto a maioria tende a ser transformada, e não substituída.
Algoritmos e ferramentas de IA Analítica já estão presentes em vários domínios da relação de emprego: no recrutamento e seleção, no monitoramento da atividade laboral e na avaliação de desempenho. Esse fenômeno é denominado gestão algorítmica. No campo jurídico, essa delegação de decisões a sistemas automatizados consolida o que a doutrina tem denominado subordinação algorítmica, na qual o trabalhador é dirigido e avaliado por indicadores de desempenho definidos algoritmicamente. Isso se enquadra na hipótese do parágrafo único do art. 6º da CLT, que equipara os meios telemáticos e informatizados de comando, controle e supervisão aos meios pessoais e diretos, para fins de reconhecimento da subordinação jurídica.
Um dos principais problemas jurídicos é a opacidade: diferentemente de decisões humanas, que podem ser questionadas sobre os critérios de uma avaliação, um modelo de machine learning, por exemplo, frequentemente não permite identificar quais variáveis determinaram a decisão, o que dificulta o contraditório e frequentemente atrai o debate sobre a necessidade de inversão do ônus da prova para fins de responsabilização.
Em evento realizado no âmbito do TST em março de 2026, foi ressaltado que a gestão por algoritmo impõe desafios inéditos ao Direito do Trabalho e que, para além da proteção individual, são necessárias respostas coletivas.
Saiba mais em: https://www.tst.jus.br/-/dialogos-internacionais-abertura-de-evento-traz-alertas-sobre-precarizacao-do-trabalho
