Trending

A máquina auxilia, mas é o humano quem decide: TRF1 publica Nota Técnica sobre o uso de IA Generativa

Blog Post
Visual representation of data feeding generative artificial intelligence models

Representação visual dos dados que alimentam os modelos de inteligência artificial generativa

O Poder Judiciário brasileiro busca adaptar-se para acompanhar o cenário de constante evolução tecnológica que vem impactando diversos setores da sociedade. Nesse contexto, a Rede de Inteligência e Inovação da 1ª Região (Reint-1) publicou a Nota Técnica n. 02/2025, com diretrizes para o uso de ferramentas de Inteligência Artificial Generativa por magistrados e servidores do Tribunal Regional Federal da 1ª Região (TRF1).

A Nota Técnica visa garantir a aplicação segura, ética, eficiente e em consonância com a Resolução n. 615/2025 do Conselho Nacional de Justiça (CNJ). A Nota destaca a capacitação contínua, a supervisão humana em todas as etapas e a responsabilidade no uso dessas ferramentas, vistas como oportunidade para otimizar tarefas e aprimorar a eficiência, desde que manuseadas de forma responsável e informada.

Tendo como base as diretrizes nacionais determinadas pelo CNJ, são estabelecidas orientações práticas, dentre as quais destacam-se a necessidade da formulação de prompts eficazes, seguros e precisos, a proteção de dados e a proibição do uso para finalidades de alto risco.

Além disso, estão presentes alertas sobre a existência de riscos e limitações inerentes aos modelos de inteligência artificial. Entre os principais pontos de atenção, destacam-se:

  • "Alucinações": Na saída, isto é, no resultado apresentado, informações aparentemente plausíveis, mas factualmente incorretas e que não correspondem à realidade podem ser expostas, a exemplo de leis ou julgados inexistentes.
  • Vieses algorítmicos: Os modelos são treinados com grandes volumes de dados, incluindo o conteúdo de sites e redes sociais diversas, que podem apresentar viés, incluindo viés social, cultural ou de gênero.
  • Desatualização: A base de dados de muitos modelos tem uma "data de corte", e, por isso, reflete cenários anteriores a esta data, o que pode impactar as respostas fornecidas caso mudanças legislativas e jurisprudenciais posteriores tenham ocorrido.
  • Segurança e proteção de dados: A Nota Técnica permite o uso de plataformas de IA generativa disponíveis no mercado (a exemplo de ChatGPT, Google Gemini, Microsoft Copilot, etc.) como estratégia baseada em critérios de eficiência, economicidade e acesso ao que há de mais avançado em tecnologia. Porém veda expressamente a inserção de dados processuais sigilosos nessas ferramentas, a menos que tenham sido previamente anonimizados, uma vez que esses dados podem ser utilizados para fins diversos, como a geração de respostas. Seguindo a orientação da Resolução n. 615/2025 do CNJ, ressalta-se que a responsabilidade pela anonimização e verificação de sua eficácia é do próprio usuário.

As principais recomendações são checar as informações em fontes confiáveis e analisá-las criticamente, confirmando dados que dependem de atualidade em fontes oficiais para corrigir possíveis distorções.

A Nota do TRF1 reforça que a dependência excessiva da IA pode levar à diminuição de habilidades essenciais de pesquisa, redação e análise crítica. Portanto, é crucial equilibrar o uso da tecnologia com o desenvolvimento e a manutenção das atividades intelectuais próprias de cada profissional.

A delegação de tarefas sem a verificação criteriosa do conteúdo gerado é uma prática a ser evitada, uma vez que a maioria dos modelos disponíveis ao usuário para tarefas como geração de texto são probabilísticos, isto é, a partir de uma mesma entrada, há uma janela de resultados possíveis.

Postar um comentário

Postagem Anterior Próxima Postagem