A carta ética, hoje publicada na página oficial do Conselho Superior dos Tribunais Administrativos e Fiscais (CSTAF), constata o potencial de criação de uma “nova normatividade” pelo uso de IA, “suscetível de, a longo prazo, levar a uma uniformização das decisões judiciais, assente não numa análise caso a caso da aplicação da lei, mas em estatísticas, análise de dados e ponderações.

“Nessa medida, a utilização da IA deve acautelar o direito a que ninguém seja submetido a uma decisão baseada apenas em processamento automatizado, a qual colide, desde logo, com o princípio do Estado de Direito”, acrescentando a carta que “a utilização da IA pode constituir um fator de discriminação, por via da denominada discriminação por algoritmos”, sobretudo “quando os fatores de discriminação introduzidos são repetidos e resultam, posteriormente, em padrão matemático”.

A carta aponta a necessidade de treinar as ferramentas de IA com informação verificada e representativa, para evitar vieses e discriminações.

“O juiz não deverá conformar-se com a proposta do algoritmo e descuidar a responsabilidade pela sentença que profere. A interpretação, verificação e revisão dos conteúdos gerados é imprescindível para a utilização ética da IA no ambiente judicial”, lê-se no documento.

A carta ética sublinha que o uso de IA “não desonera o juiz da sua intervenção qualificada”, que permanece “responsável pelas decisões judiciais proferidas e pelo seu conteúdo”, consagrando que operações como seleção de fatos, avaliação do caso concreto, interpretação e aplicação da lei “constituem tarefas que não dispensam a exclusividade da abordagem e intervenção humana multinível”.

Por outro lado, alerta-se para uma “confiança excessiva no sistema” de IA, e para o “risco potencial para a perda de competências humanas a prazo”.

O documento define ainda que o uso de IA “é incompatível” com “justiça preditiva”, estando proibido o seu uso para antever resultados ou estabelecer padrões.

“A utilização de IA por forma a antever resultados com base em padrões históricos (como sejam, por exemplo, a utilização de jurisprudência anterior sobre uma base factual semelhante), tem o potencial de fazer prevalecer desigualdades, de violar as regras do processo equitativo, de comprometer a imparcialidade e de denegar a justiça no caso concreto”, determina a carta ética.

Sobre proteção de dados, a carta alerta para a necessidade de proteção de dados em respeito das normais nacionais e internacionais, definindo que o uso de ferramentas de IA não pode expor informações sensíveis nem violar a proteção legalmente consagrada.