Advogadas são suspensas no Pará por tentar enganar IA em processo judicial

Duas advogadas foram suspensas cautelarmente pela Ordem dos Advogados do Brasil (OAB) no Pará após tentarem manipular um sistema de inteligência artificial (IA) em um processo judicial na Justiça do Trabalho. O caso, que ocorreu em Parauapebas, sudeste paraense, resultou também em uma multa de mais de R$ 84 mil imposta pelo juiz responsável, gerando grande repercussão e acendendo um alerta sobre os desafios éticos e regulatórios da IA no sistema jurídico brasileiro.
Tentativa de Manipulação da IA: A Técnica de “Prompt Injection”
As advogadas Alcina Medeiros e Luanna Alves são acusadas de utilizar uma técnica conhecida como “prompt injection” para influenciar o sistema de inteligência artificial “Galileu”, utilizado pelo Tribunal Regional do Trabalho da 8ª Região (TRT-8) para triagem e análise de documentos judiciais.
A fraude consistiu na inserção de um comando oculto dentro de uma petição judicial. O texto, escrito em letras brancas sobre um fundo branco, tornava-o invisível a olho nu, mas detectável pelo algoritmo. A instrução escondida orientava o sistema a realizar uma análise superficial do documento e a não contestar as provas apresentadas, independentemente de outras diretrizes.
Veja também:
Detecção e Consequências Judiciais
O ardil foi descoberto pelo juiz do trabalho Luís Carlos de Araújo Santos Júnior, que classificou a conduta das profissionais como um “ato atentatório à dignidade da Justiça”. Em resposta à tentativa de manipulação, o magistrado aplicou uma multa de 10% sobre o valor da causa, que era de R$ 842,5 mil, totalizando R$ 84.250,08.
Além da penalidade financeira, o tribunal encaminhou um ofício à Ordem dos Advogados do Brasil no Pará (OAB-PA) para ciência do caso e providências cabíveis.
Suspensão Cautelar pela OAB-PA e Repercussão
Diante da gravidade dos fatos, a OAB-PA agiu rapidamente, suspendendo cautelarmente as advogadas por 30 dias. A entidade ressaltou que a medida é provisória e não representa uma punição definitiva, garantindo às profissionais o direito à ampla defesa e ao contraditório durante o processo disciplinar.
O caso ganhou destaque nacional, sendo divulgado por veículos como a CNN Brasil e BPMoney. O procurador da República Vladimir Aras, por exemplo, classificou a conduta como mais grave do que o simples uso de IA sem revisão humana, alertando para os perigos do uso indevido da tecnologia no sistema de Justiça.
O Contexto da IA no Direito e a Urgência Regulatória
A utilização de inteligência artificial no setor jurídico tem crescido exponencialmente no Brasil, com ferramentas que auxiliam desde a automação de tarefas rotineiras e revisão de contratos até a análise preditiva de litígios. No entanto, incidentes como o ocorrido no Pará sublinham os desafios éticos e a necessidade de um arcabouço regulatório robusto para a tecnologia.
O Projeto de Lei n.º 2.338/2023, conhecido como o marco legal da IA, está em tramitação no Congresso Nacional desde março de 2025, após aprovação no Senado em dezembro de 2024. O projeto busca estabelecer diretrizes para o desenvolvimento e uso ético e responsável da IA, abordando princípios como transparência, explicabilidade, não discriminação e responsabilidade.
Enquanto a legislação específica não é finalizada, a Lei Geral de Proteção de Dados (LGPD) já oferece algumas balizas para o tratamento de dados pessoais por sistemas de IA, o que abrange a maioria das aplicações comerciais. Contudo, a ausência de normas detalhadas sobre a responsabilidade civil e criminal em casos de falhas ou manipulações de IA ainda gera vácuos jurídicos.
Desdobramentos e o Futuro da IA na Justiça
O episódio no Pará serve como um marco no debate sobre a integridade e a confiabilidade dos sistemas de IA no Judiciário. A metáfora do “trapezista de IA que voa e se esborracha”, utilizada pelo Consultor Jurídico para descrever a disfuncionalidade de modelos de inteligência artificial, reflete a percepção de que, apesar do potencial inovador, a tecnologia ainda apresenta vulnerabilidades e exige supervisão humana rigorosa.
Especialistas alertam que a regulamentação precisa ser flexível para acompanhar a rápida evolução tecnológica, mas também firme o suficiente para garantir a segurança jurídica e proteger os direitos fundamentais dos cidadãos. A fiscalização de práticas como a “prompt injection” será crucial para manter a confiança na justiça e no avanço responsável da inteligência artificial.
