A cláusula que ninguém leu
Você contratou uma IA jurídica para aumentar sua produtividade. Redigiu petições, analisou contratos, pesquisou jurisprudência. Confiou documentos sigilosos dos seus clientes à plataforma.
Mas você leu os termos de uso?
Em uma ferramenta de IA jurídica brasileira, encontramos a seguinte cláusula:
"Em razão da fase atual da Plataforma, poderá ocorrer o armazenamento de informações para aprimoramento da ferramenta."
Parece inofensivo. "Aprimoramento" soa como melhoria técnica, correção de bugs, ajustes de interface.
Não é.
"Aprimoramento da ferramenta" é linguagem corporativa para treinamento do modelo de IA.
O que isso significa na prática
Quando uma IA "aprende" com suas interações, ela está processando seus dados para ajustar os pesos do modelo. Suas petições, seus contratos, os documentos dos seus clientes — tudo isso pode virar insumo para treinar a inteligência artificial.
O fluxo dos seus dados
O modelo treinado vira produto da empresa. Esse produto é vendido para outros usuários. Fecha convênios com seccionais da OAB. Atende defensorias públicas.
Seus dados. Treinando o modelo deles. Que vira receita deles. E você provavelmente nem sabia.
Por que isso é um problema jurídico
A Lei Geral de Proteção de Dados estabelece princípios claros sobre o tratamento de dados pessoais. O primeiro deles é a finalidade.
"Realização do tratamento para propósitos legítimos, específicos, explícitos e informados ao titular."
Quando você contrata uma IA jurídica, a finalidade esperada é clara: te ajudar no trabalho. Pesquisar, redigir, analisar.
Treinar o modelo da empresa é outra finalidade. Uma finalidade que beneficia a empresa, não você. E que não foi informada de forma explícita.
"Poderá ocorrer" não é específico. "Aprimoramento da ferramenta" não é explícito. A cláusula esconde a finalidade real em linguagem vaga.
Isso contraria o princípio da finalidade da LGPD.
O que dizem as resoluções
As entidades reguladoras do sistema de justiça já se posicionaram sobre o tema:
Resolução CNJ 615/2025
Art. 19, §3º, III"Veda-se o uso de dados inseridos pelos usuários para treinamento de modelos de inteligência artificial."
Ferramentas que treinam com dados de usuários estão em desconformidade com a norma do CNJ.
Recomendação OAB 001/2024
Capítulo II, Item 2.2"É necessária diligência na escolha do sistema de IA para garantir que o fornecedor irá (...) possibilitar a não utilização dos dados fornecidos para treinamento dos sistemas."
O advogado tem o dever de verificar se a ferramenta usa dados para treinamento. Não verificar é falha de diligência.
Política CONDEGE 2025
Política Nacional"A Política Nacional de Uso de IA nas Defensorias Públicas veda o uso de dados para treinamento."
O padrão regulatório é consistente: treinar com dados de usuários não é aceitável.
Como verificar se seus dados treinam a IA
Antes de continuar usando qualquer ferramenta de IA jurídica, faça esta verificação:
Abra os Termos de Uso
Procure o documento completo. Não o resumo, não a página de marketing. O termo jurídico.
Busque estas palavras
Use Ctrl+F e procure por: "treinamento", "treinar", "aprimoramento", "melhoria", "aprendizado", "machine learning".
Analise o contexto
Se a palavra aparece, leia o contexto. A ferramenta veda expressamente o treinamento? Ou usa linguagem vaga como "poderá ocorrer"?
Verifique se há vedação expressa
O padrão correto é uma afirmação clara e negativa. Se não há vedação expressa, presuma que o treinamento acontece.
Procure o contrato com o provedor
Ferramentas que usam provedores de IA devem ter contratos de proteção de dados (CDPA/DPA) com cláusulas de "Training Restriction".
Se não há vedação expressa, presuma que o treinamento acontece. Quem cala, consente.
Quer uma ferramenta que documenta exatamente o que faz e o que não faz com seus dados? Conheça o ChatRJE →
O que exigir da sua ferramenta de IA
Para usar uma IA jurídica com segurança, verifique se ela oferece:
Vedação expressa de treinamento
Não basta não mencionar. Precisa vedar explicitamente, em linguagem clara.
Contrato com o provedor (CDPA/DPA)
Se a ferramenta usa infraestrutura de terceiros, deve ter contrato de proteção de dados com o provedor.
Conformidade com resoluções
CNJ 615/2025, OAB 001/2024, CONDEGE 2025. A ferramenta mapeia conformidade com essas normas?
DPO designado publicamente
Quem é o encarregado de proteção de dados? Tem nome, tem contato? Accountability real ou só um email genérico?
A diferença entre silêncio e transparência
Pesquisamos os termos de uso de ferramentas de IA jurídica no mercado brasileiro. Na maioria, a palavra "treinamento" não aparece nenhuma vez.
Isso não significa que não treinam. Significa que não falam sobre o assunto.
Silêncio
A palavra "treinamento" não aparece nos termos de uso.
Presuma o piorTransparência
- "Seus dados NÃO são utilizados para treinar modelos de IA"
- "Vedação contratual de treinamento (CDPA Seção 17)"
- "O que NÃO fazemos: não usamos dados para treinar modelos"
Quem não treina, faz questão de deixar claro. Quem treina, prefere o silêncio.
Uma questão de confiança profissional
Advogados lidam com informações sensíveis. Contratos de M&A. Dados de processos criminais. Informações patrimoniais. Segredos industriais.
Quando você usa uma IA jurídica, está confiando esses dados a uma plataforma. A pergunta é simples: você sabe o que acontece com eles?
Se a resposta não está clara nos termos de uso, você está assumindo um risco que não consegue medir. E está potencialmente em desconformidade com as recomendações da própria OAB.
Antes de usar qualquer ferramenta de IA, pergunte:
"Meus dados treinam o modelo?"
Se não houver um NÃO claro, documentado e verificável — a resposta é SIM.
Transparência na prática
A Apolus publica termos de uso com vedação expressa de treinamento, contrato CDPA documentado e conformidade artigo por artigo com CNJ, OAB e CONDEGE.
- Vedação expressa de treinamento nos termos de uso
- Contrato CDPA documentado com provedores
- Conformidade mapeada: CNJ 615/2025, OAB 001/2024, CONDEGE 2025
- DPO designado publicamente
Ou conheça nossa ferramenta: ChatRJE →