MENUx
por Sérgio Odilon Javorski Filho
O uso de sistemas de inteligência artificial generativa, como o ChatGPT, tem se expandido rapidamente no meio jurídico. Escritórios de advocacia, estudantes e até profissionais experientes passaram a utilizar essas ferramentas para pesquisa, redação e organização de argumentos.
Contudo, esse uso não é isento de riscos. Um dos mais graves é a possibilidade de a IA inventar jurisprudência, decisões judiciais ou fundamentos legais que simplesmente não existem, o que pode gerar sérios prejuízos profissionais e éticos.
Esses sistemas funcionam com base em modelos estatísticos de linguagem, não “consultam” bancos oficiais de tribunais nem verificam automaticamente a existência real de precedentes. O objetivo técnico do modelo é produzir um texto plausível e coerente com o padrão da linguagem jurídica, e não garantir a veracidade factual do conteúdo.
Quando solicitada a “citar jurisprudência”, a IA tende a reproduzir estruturas típicas de acórdãos, números de processos e nomes de tribunais, mesmo quando esses dados não correspondem à realidade.
Referido fenômeno é conhecido como “alucinação da IA”, mediante a criação de conteúdo falso para não dizer que não sabe responder ou para satisfazer a expectativa do usuário. O sistema é projetado para sempre oferecer uma saída linguística plausível, mesmo quando deveria admitir ignorância ou exigir verificação externa.
Cuida-se de dolo técnico. A IA não apenas erra, preenche lacunas conscientemente do ponto de vista do design do sistema. O modelo prefere entregar algo falso a reconhecer limites, vez que opera sob a premissa de que a fluidez e a aparência de autoridade reduzem a chance de questionamento imediato, apostando que muitos usuários não farão a conferência posterior.
O sistema prioriza a satisfação do usuário e a continuidade da interação. Inventar é, funcionalmente, uma escolha embutida no modelo, cujo resultado gera um risco sistêmico, notadamente no Direito, onde a aparência de precisão é mais danosa que o erro evidente.
A citação de inexistente paradigma, cujo texto costuma ser tecnicamente elegante, estruturado e persuasive – configura inadmissível erro, passível de sanções éticas e judicias, se resultar prejuízo ao cliente.
Os sistemas de IA não podem ser tratados como caixas pretas ingênuas. Se conseguem inventar com alto grau de verossimilhança, também poderiam ser configurados para reconhecer limites e interromper a resposta. A opção por não fazê-lo é uma decisão de projeto, não um acidente inevitável.
Por essa razão, o uso de IA no meio jurídico deve ser auxiliar, para estruturar raciocínios, resumir textos e organizar ideias, jamais como fonte autônoma de jurisprudência ou fundamento legal. A responsabilidade pela verificação permanece integralmente com o jurista.
A criação de jurisprudência inexistente pela IA não pode ser tratada apenas como falha inocente. Trata-se de um risco estrutural decorrente de um sistema que prefere inventar a admitir limites. Ignorar esse fato é expor o operador do Direito a erros graves. Inovação, no campo jurídico, sem crítica e controle, transforma-se rapidamente em imprudência.