Marcel Kroetz

Cobranças – Impostos – Defesa do Homem Vítima de Violência Doméstica

Inteligência Artificial

  • Cuidado! Você pode ser enganado por uma inteligência artificial

    É cada vez mais comum que pessoas recorram a inteligências artificiais para tirar dúvidas jurídicas rápidas, seja por curiosidade, economia ou facilidade de acesso. O problema surge quando essas respostas passam a ser usadas como base para decisões relevantes — ajuizar ou não uma ação, deixar de cumprir uma obrigação, adotar determinada estratégia processual — sem a mediação de um profissional habilitado. O risco não está apenas em eventuais erros factuais, mas na própria forma como essas ferramentas funcionam.

    Modelos de linguagem não “sabem” Direito no sentido humano da palavra. Eles não compreendem normas, princípios ou precedentes; operam a partir de estatística. Em termos simples, são treinados para prever qual é a próxima palavra mais provável em uma sequência, com base em enormes volumes de textos previamente analisados. Quando respondem a uma pergunta jurídica, não estão interpretando a lei ou aplicando um raciocínio jurídico, mas produzindo um texto que “se parece” com uma resposta jurídica plausível, porque estatisticamente se assemelha a respostas vistas durante o treinamento.

    Nesse processo entra um conceito importante: o sampling. Para evitar respostas sempre idênticas e excessivamente mecânicas, esses sistemas utilizam mecanismos de amostragem probabilística. Isso significa que, diante de várias palavras possíveis para continuar uma frase, o modelo escolhe uma delas com base em probabilidades, e não de forma determinística. O resultado prático é que a mesma pergunta, feita duas ou três vezes, pode gerar respostas diferentes — às vezes apenas na forma, mas em certas situações também no conteúdo e nas conclusões. Em temas jurídicos sensíveis, essa variabilidade pode ser decisiva.

    Outro ponto crítico é que essas ferramentas não têm compromisso com a verdade jurídica ou com a melhor interpretação possível, mas com a coerência textual. Se uma resposta “soa bem”, é clara e organizada, tende a inspirar confiança, mesmo quando está incompleta, desatualizada ou simplesmente errada. O risco aumenta porque o usuário, em regra, não tem como perceber com facilidade onde está o erro ou a omissão, especialmente quando a resposta utiliza linguagem técnica e aparenta segurança.

    Há ainda um fenômeno psicológico relevante que potencializa esse problema: o viés de confirmação. Pessoas tendem a buscar, interpretar e valorizar informações que confirmem aquilo que já acreditam ou desejam acreditar. Quando alguém formula uma pergunta jurídica de forma enviesada — por exemplo, já pressupondo que tem razão — a inteligência artificial tende a acompanhar esse enquadramento. Como o modelo busca ser útil, cordial e coerente com o contexto fornecido, frequentemente constrói respostas que parecem concordar com o usuário, reforçando sua convicção inicial, mesmo quando ela é juridicamente frágil ou incorreta.

    Isso cria uma falsa sensação de validação. O usuário não apenas recebe uma resposta, mas uma resposta que confirma sua expectativa. O texto é fluido, lógico, aparentemente fundamentado, e isso pode levar à impressão de que houve uma “análise jurídica”, quando na realidade houve apenas uma reprodução estatística de argumentos que costumam aparecer em situações semelhantes. A inteligência artificial não questiona premissas, não identifica interesses ocultos, não avalia provas concretas e não assume responsabilidade pelas consequências da decisão tomada.

    Nada disso significa que inteligências artificiais sejam inúteis no campo jurídico. Elas podem ser ferramentas valiosas para estudo, organização de ideias, compreensão inicial de temas complexos ou elaboração de rascunhos. O perigo está em substituí-las pela atuação profissional ou tratá-las como fonte decisória final. No Direito, detalhes importam: um prazo, uma exceção legal, um entendimento jurisprudencial local ou uma circunstância fática específica podem alterar completamente o resultado.

    Decisões jurídicas relevantes impactam patrimônio, liberdade, relações familiares e a própria segurança das pessoas. Transferir essas escolhas para respostas automáticas, probabilísticas e não responsáveis é assumir um risco que muitas vezes só se revela quando já é tarde demais. A tecnologia pode auxiliar, mas não substitui o juízo crítico, a experiência e a responsabilidade de um profissional que responde eticamente pelo que orienta.

    Por isso, mesmo que você tenha obtido uma resposta satisfatória utilizando uma ferramenta de inteligência artificial, sempre revise a resposta obtida e confronte com outras fontes antes de tomar uma decisão.