Precedentes jurídicos inexistentes, referências a leis que não existem e menções a doutrinas inventadas. Desde 2023, foram registrados ao menos 255 casos em que as chamadas "alucinações de IA" foram parar em petições, recursos e outras peças jurídicas em tribunais ao redor do mundo.
Em boa parte dos casos, os autores das peças foram punidos com sanções monetárias (multas) ou profissionais (advertências e outras medidas disciplinares).
O número vem de um levantamento independente realizado pelo pesquisador e cientista de dados francês Damien Charlotin, especializado no uso de modelos de inteligência artificial do tipo LLM (Large Language Model) no judiciário. Os resultados do levantamento estão disponíveis online e qualquer um pode enviar novos casos para serem incluídos na base de dados mediante análise.
É ✷ importante ✷ porque...
O uso de inteligência artificial no poder judiciário ainda é pouco regulamentado pelo mundo
Modelos de inteligência artificial frequentemente produzem informações inventadas
Decisões baseadas em referenciais legais fictícios minam a credibilidade do judiciário e abrem caminho para injustiças no processo decisório legal
O levantamento documenta todos os casos sabidos em que o uso de inteligência artificial – comprovado ou alegado – é explicitamente mencionado pela corte ou tribunal responsável pela decisão. Isso significa que a listagem não representa todos os casos de uso de IA em processos jurídicos. Outros usos podem (e certamente devem) ter passado despercebidos pelas partes e não ter sido mencionados nos autos ou escapado ao levantamento do pesquisador.
Os casos documentados nessa base de dados são uma tentativa de registrar o uso não sinalizado de IA no processo legal. Apesar de incipiente, o uso é pouco regulado e já vem criando problemas por aí. O Tribunal Superior do Reino Unido, por exemplo, já advertiu advogados sêniores para que ajam com urgência para impedir o uso indevido de IA depois que dezenas de peças foram apresentadas ao juízo com citações a casos completamente inventados – em um deles, a IA inventou 18 de 45 citações em um caso de 89 milhões de libras contra o Banco Nacional do Catar.
No Brasil, segundo o levantamento de Charlotin, há 6 casos brasileiros emblemáticos (e muitos outros potencialmente não identificados):
- Em Santa Catarina, em fev.2025, um advogado usando ChatGPT citou casos fabricados e referências inexistentes na doutrina jurídica em um caso de reintegração de posse. O advogado recebeu uma sanção de 10% do valor da causa e o caso foi submetido à OAB/SC.
- No Paraná, em abr.2025, um advogado usou algum tipo de IA para escrever todo o conteúdo de um recurso apresentado ao juiz (cujo nome também foi citado erroneamente). O recurso foi negado e o advogado foi advertido.
- No Paraná, em abr.2025, um advogado usando ChatGPT citou múltiplas decisões legais fictícias como precedente. O advogado recebeu uma sanção disciplinar e 1% do total do valor da ação como multa.
- Na Bahia, em mai.2025, um advogado usando o assistente de IA do editor de texto MobiOffice citou diversos precedentes constitucionais não-existentes em um caso do Supremo Tribunal Federal. O Supremo arquivou o caso, notificou a OAB/BA e o Conselho Federal da OAB, e obrigou o pagamento de duas vezes o valor dos custos advocatícios.
- No Paraná, em jun.2025, um advogado usando algum tipo de IA citou uma jurisprudência que chamou a atenção do juiz por se aplicar perfeitamente ao caso em questão. Ao investigar mais a fundo, o juiz descobriu que o número do processo era real, mas não tinha nenhuma relação com o caso julgado, levando-o a crer que se tratava de uma alucinação de IA. O juiz condenou o advogado por litigância de má-fé e ordenou o pagamento de multa de 1% do total do valor da ação.
- Em Minas Gerais, em jul.25, um advogado usando algum tipo de IA citou precedentes jurídicos inventados. O juiz o puniu por litigância de má-fé e aplicou uma multa de 5% do valor total da ação.
Em alguns casos, não se trata de um advogado que apresenta uma peça jurídica contendo alucinações em nome de um cliente, mas sim da própria parte atuando em defesa de si mesma, sem a assistência de um advogado.
O levantamento completo, com descrições detalhadas de cada caso, pode ser conferido no site original (em inglês).