O ChatGPT Aberto na Aba ao Lado
Cenário 1: O Advogado
São 23h. Um advogado associado precisa entregar uma petição amanhã cedo. O prazo está estourando. Ele abre o ChatGPT, cola a minuta do contrato do cliente e pede sugestões de cláusulas. O sócio não sabe.
Cenário 2: O Assessor
Um assessor de gabinete precisa minutar uma decisão urgente. São dezenas de páginas de processo para analisar. Ele cola trechos no ChatGPT para resumir. O magistrado não sabe.
Os dois cenários têm algo em comum: dados sensíveis saindo do perímetro de segurança da organização. Contratos sigilosos. Peças processuais. Dados de partes. Tudo indo para servidores de terceiros, sem controle, sem verificação.
Isso acontece todos os dias. Em escritórios de todos os tamanhos. Em gabinetes de todas as instâncias. E a maioria dos gestores não faz ideia.
O Que É Shadow AI
Shadow AI é o uso de ferramentas de inteligência artificial não homologadas pela organização.
O termo vem de "Shadow IT" — prática conhecida há décadas em TI corporativa, quando funcionários usam software não autorizado para contornar processos internos. Com IA generativa, o problema ganhou escala. Basta abrir uma aba e colar o documento.
Em Escritórios
- Advogados usando IA gratuita para redigir petições
- Estagiários pesquisando jurisprudência em plataformas não verificadas
- Associados analisando contratos em ferramentas sem proteção de dados
- Paralegais resumindo documentos sigilosos em chatbots genéricos
Em Gabinetes e Tribunais
- Assessores minutando decisões com ChatGPT
- Servidores resumindo processos em IA gratuita
- Analistas pesquisando jurisprudência em ferramentas não homologadas
- Equipes de gabinete usando IA sem política definida pelo magistrado
Tudo isso sem conhecimento ou autorização de quem deveria estar supervisionando — o sócio, o magistrado, o gestor.
Por Que Isso Acontece
Três fatores explicam a explosão de Shadow AI no jurídico:
Pressão por produtividade
O mercado jurídico está cada vez mais competitivo. Clientes exigem entregas rápidas e custos controlados. IA generativa promete exatamente isso: acelerar tarefas que antes levavam horas.
Acessibilidade das ferramentas
ChatGPT, Claude, Gemini — todas têm versões gratuitas. Não precisam de aprovação de TI. Não precisam de orçamento. Basta criar uma conta.
Desconhecimento dos riscos
A maioria dos profissionais não sabe o que acontece com os dados inseridos em IAs gratuitas. Não leram os termos de uso. Não sabem que seus dados podem treinar o modelo.
Os Riscos Reais do Shadow AI
O problema não é a IA. É o uso sem governança.
Vazamento de dados confidenciais
Quando um advogado cola um contrato no ChatGPT, esse conteúdo sai do perímetro de segurança do escritório. Vai para servidores de terceiros. Pode ser armazenado. Pode ser usado para treinamento.
Treinamento não autorizado
Muitas IAs gratuitas usam os dados dos usuários para treinar seus modelos. O contrato do seu cliente pode influenciar respostas para outros usuários.
Violação de compliance
A Recomendação OAB 001/2024 exige diligência na escolha da ferramenta. A Resolução CNJ 615/2025 veda expressamente o uso de dados para treinamento. Shadow AI não passa por essa verificação.
Responsabilidade institucional
Quando um associado vaza dados usando Shadow AI, o escritório responde solidariamente. Sem política de governança, a responsabilidade sobe para sócios e gestores.
O Problema Jurídico: Responsabilidade Solidária
O Código de Ética da OAB estabelece responsabilidade solidária entre advogados e sociedades de advocacia (Art. 39, §1º do Estatuto da OAB).
Se um associado comete infração usando IA não autorizada, o sócio pode ser responsabilizado por:
E no Judiciário?
A Resolução CNJ 615/2025 permite que magistrados contratem IA diretamente quando o tribunal não oferece solução (Art. 19, §2º). Isso transfere a responsabilidade para o gabinete. Se a equipe usa ChatGPT por conta própria, o problema é do magistrado.
Precisa de uma ferramenta que a equipe vai querer usar? A Apolus combina conformidade com usabilidade. Saiba mais sobre a solução Para Equipes →
Como Medir Shadow AI na Sua Equipe
Antes de resolver, você precisa saber a extensão do problema. Perguntas para fazer à equipe:
Você usa alguma ferramenta de IA no trabalho?
Qual ferramenta? (ChatGPT, Claude, Gemini, outra?)
Você já inseriu documentos de clientes ou peças processuais nessa ferramenta?
Você sabe se seus dados são usados para treinamento?
O escritório/gabinete fornece alguma IA homologada?
Se as respostas forem "sim", "ChatGPT gratuito", "sim", "não sei" e "não" — você tem Shadow AI. O risco é operacional.
Como Resolver: Governança Sem Burocracia
A solução não é proibir IA. Isso não funciona. A equipe vai usar de qualquer jeito — só que escondido.
A solução é governança: oferecer o caminho certo de forma que seja mais fácil usar a ferramenta oficial do que contorná-la.
Política de uso de IA
Documente o que pode e o que não pode. Quais ferramentas são permitidas. Quais dados podem ser inseridos. Uma política clara de 2-3 páginas já estabelece o framework.
Ferramenta homologada
Ofereça uma alternativa aprovada: sem treinamento de dados, com certificações de segurança, em conformidade com OAB/CNJ/LGPD, e fácil de usar.
Treinamento
Explique os riscos para conscientizar. Mostre exemplos reais de vazamentos. Explique a responsabilidade pessoal e institucional. Equipes informadas tomam decisões melhores.
Controle sem vigilância
Bloqueie sites de IA não autorizados na rede. Exija login corporativo para a ferramenta homologada. Gere relatórios de uso. O objetivo é governança, não vigilância.
O Custo de Não Fazer Nada
Escritórios e gabinetes que ignoram Shadow AI estão acumulando risco:
Para Escritórios
| Risco | Consequência |
|---|---|
| Vazamento de dados | Processo do cliente, dano reputacional |
| Violação OAB | Sanção ética, perda de credibilidade |
| Perda de cliente corporativo | Due diligence descobre ausência de governança |
| Responsabilidade solidária | Sócios respondem por atos de associados |
Para Magistrados e Gabinetes
| Risco | Consequência |
|---|---|
| Vazamento de dados processuais | Violação de sigilo, exposição de partes |
| Violação CNJ 615/2025 | Descumprimento de resolução vinculante |
| Dados sigilosos em IA gratuita | Processos criminais, menores, segredos de justiça |
| Responsabilidade do magistrado | Art. 19, §2º transfere responsabilidade |
O custo de uma ferramenta homologada é previsível. O custo de um vazamento é imprevisível — e potencialmente catastrófico.
Governança Como Diferencial Competitivo
Clientes corporativos estão cada vez mais exigentes. Questionários de due diligence perguntam sobre política de segurança, ferramentas de IA, práticas de proteção de dados.
Escritórios com governança de IA documentada têm vantagem competitiva. Podem responder "sim" para todas essas perguntas. Podem mostrar a política. Podem comprovar as certificações.
Shadow AI é o oposto. É risco escondido. É vulnerabilidade não mapeada. É o tipo de coisa que aparece na hora errada.
Elimine o Shadow AI do Seu Escritório ou Gabinete
Implemente governança com uma ferramenta que já passou por due diligence. Em conformidade com CNJ 615/2025 e OAB 001/2024.
A Apolus oferece IA jurídica com:
- Vedação contratual de uso para treinamento
- Certificações auditáveis (ISO 27001, SOC 2)
- Controle de uso por equipe com relatórios
- Conformidade com OAB, CNJ e LGPD
Ou fale diretamente com nosso time: Chamar no WhatsApp →
Sem burocracia, sem Shadow AI. Governança que funciona.