Perguntas Frequentes
Respostas diretas às principais dúvidas sobre privacidade, segurança e funcionamento da Plataforma.
O que você precisa saber antes de ler tudo
Treinamento de dados, documentos sigilosos, acesso, erros da IA e conformidade LGPD.
Comparação com ChatGPT, armazenamento dos dados e protocolo de incidentes.
As 4 operações, fluxo de processamento, cache de 24h e auditoria.
Dados de clientes, outputs, propriedade intelectual e direitos LGPD.
Meus dados são usados para treinar a IA?
Não. Nunca.
Esta é provavelmente a pergunta mais importante, então vamos ser claros:
• Seus documentos não treinam modelos de IA
• Suas conversas não treinam modelos de IA
• Seus dados não melhoram o Gemini ou qualquer outro modelo
• Esta garantia está formalizada em contrato (Google CDPA, Seção 17)
O Art. 6º, I da LGPD exige que dados sejam tratados apenas para a finalidade informada. Usar seus dados para treinamento seria uma finalidade diferente — e portanto ilegal sem consentimento específico. Nós nem pedimos esse consentimento porque não é algo que fazemos.
Posso confiar na Apolus.ai para trabalhar com documentos sigilosos?
Sim. A Apolus.ai foi projetada desde o início para o contexto jurídico profissional, onde sigilo não é opcional — é obrigação ética e legal.
Diferente de ferramentas de IA genéricas, nossa infraestrutura foi construída sobre três pilares:
1. Isolamento total: Seus dados são isolados dos demais usuários. Não há compartilhamento de contexto, histórico ou documentos entre contas.
2. Infraestrutura enterprise: Utilizamos Google Cloud com as mesmas certificações exigidas por bancos e governos: ISO 27001, ISO 27017, ISO 27018, SOC 2 e SOC 3.
3. Criptografia completa: Seus dados são criptografados em trânsito (TLS 1.3) e em repouso (AES-256).
Quem tem acesso aos meus documentos?
Apenas você.
• A Apolus.ai não acessa o conteúdo dos seus documentos
• O Google não acessa o conteúdo dos seus documentos (CDPA Seção 7.1.2)
• Não há moderadores humanos revisando suas conversas
O único cenário em que acessaríamos dados seria mediante ordem judicial específica — e neste caso você seria notificado, salvo se a própria ordem proibir.
A IA pode cometer erros?
Sim. Toda tecnologia de IA generativa pode produzir imprecisões.
Por isso, a supervisão humana é obrigatória. O Método RJE (Raciocínio Jurídico Estratégico) garante isso: você delibera (define objetivo, tarefa, contexto e resultado esperado), a IA executa, e você verifica o resultado. Nenhum output deve ser usado profissionalmente sem revisão.
A Apolus.ai está em conformidade com a LGPD?
Sim. Nossa conformidade é estrutural, não superficial:
• Base contratual: Google CDPA com BR SCCs aprovadas pela ANPD
• DPO designado: Emidio Trancoso Neto (privacidade@apolus.ai)
• Bases legais especificadas: Art. 7º, V (execução de contrato) para cada categoria de dado
• Direitos garantidos: Todos os direitos do Art. 18 são exercíveis
• Transferência internacional: Conforme Art. 33, II, "b" (cláusulas contratuais padrão)
Como a Apolus.ai se compara ao ChatGPT ou outras IAs públicas?
A diferença é estrutural:
IAs Públicas (ChatGPT, etc.):
• Podem usar dados para melhorar modelos
• Dados podem ser revisados por equipes
• Conformidade LGPD variável, servidores no exterior
• Foco em uso geral
• Supervisão humana opcional
Apolus.ai:
• Nunca — vedado contratualmente
• Isolamento por usuário, sem acesso humano
• Google CDPA + BR SCCs aprovadas pela ANPD
• Projetada para o contexto jurídico
• Método RJE integrado
Onde meus dados ficam armazenados?
Seus dados são processados na infraestrutura do Google Cloud, nas seguintes regiões:
• global
• us-east4 (Virgínia, EUA)
• europe-west4 (Países Baixos)
• asia-northeast (Tóquio, Japão)
Todas essas regiões são cobertas pelas garantias do Google CDPA e pelas BR SCCs (Cláusulas Contratuais Padrão Brasileiras), aprovadas pela ANPD conforme Resolução nº 19/2024.
Isso significa que, mesmo com dados fora do Brasil, o nível de proteção da LGPD é mantido contratualmente.
A Apolus.ai pode usar meu conteúdo para marketing ou exemplos?
Não. O conteúdo dos seus documentos e conversas é confidencial.
Não usamos seus dados para:
• Marketing ou publicidade
• Exemplos em documentação
• Cases de sucesso
O que podemos fazer: enviar sugestões automáticas de uso para você, baseadas nos tipos de tarefas que você desempenha (ex: "você faz muitas pesquisas de jurisprudência — conheça este recurso"). Isso usa apenas padrões de uso, nunca o conteúdo dos seus documentos.
Se algum dia quisermos usar algo como exemplo público, pediremos autorização expressa e por escrito.
O que acontece se houver um incidente de segurança?
Temos um protocolo formal de resposta:
1. Detecção: O Google nos notifica "sem demora injustificada" (CDPA Seção 7.2)
2. Análise: Avaliamos escopo, dados afetados e riscos
3. Comunicação: Notificamos a ANPD e os titulares afetados conforme Art. 48 da LGPD
4. Mitigação: Implementamos medidas corretivas imediatas
5. Documentação: Registramos o incidente e as ações tomadas
Transparência não é opcional — é obrigação legal e compromisso ético.
O que acontece quando eu peço algo para a IA?
O ChatRJE não gera a resposta de uma vez só. Ele trabalha em etapas:
Você pede → IA planeja → Executa ação → Observa resultado → Decide próximo passo → ... → Entrega
Na prática:
1. Entende o que você quer (objetivo, contexto)
2. Planeja quais passos são necessários
3. Executa uma ação por vez (pesquisar, analisar, redigir, extrair)
4. Observa o resultado de cada ação
5. Decide o próximo passo com base no que encontrou
6. Entrega o resultado final
É um fluxo estruturado — não uma caixa preta que "adivinha". Cada etapa usa ferramentas específicas e pode ser rastreada.
A Apolus.ai é só o Gemini com outro nome?
Não. O ChatRJE utiliza o Gemini (modelo de linguagem do Google) como motor — um modelo seguro hospedado no Google Cloud que não treina com seus dados.
Mas a Apolus.ai desenvolveu ergonomia para o Direito sobre esse motor:
• Bases de dados auditáveis: Fontes jurídicas com links (legislação, jurisprudência)
• Estruturação do raciocínio: Método OCTR (Objetivo, Contexto, Tarefa, Resultado)
• 4 operações especializadas: PESQUISAR, ANALISAR, REDIGIR, EXTRAIR
• Modo Tutor: Guia você com perguntas para estruturar a demanda
Em resumo: o Gemini é um modelo de linguagem seguro. A Apolus.ai construiu a ergonomia que transforma essa capacidade em ferramenta jurídica — com raciocínio estruturado e fontes verificáveis.
O que são as "4 operações" do ChatRJE?
O ChatRJE executa 4 operações jurídicas especializadas:
• PESQUISAR: Busca jurisprudência e legislação com fontes auditáveis. Ex: "Pesquise jurisprudência sobre dano moral em atraso de voo"
• ANALISAR: Examina documentos, identifica argumentos, prós e contras. Ex: "Analise este contrato e aponte riscos"
• REDIGIR: Estrutura peças com fundamentação e filtros argumentativos. Ex: "Redija contestação para este caso"
• EXTRAIR: Extrai informações estruturadas de documentos. Ex: "Extraia partes, pedidos e prazos desta petição"
Cada operação usa ferramentas específicas (não improvisa), consulta fontes auditáveis (com links para origem) e segue o Método OCTR.
Como o ChatRJE garante que não inventa informações?
Três mecanismos:
1. Fontes auditáveis: Toda fundamentação vem com link para a fonte oficial (tribunal, legislação). Você pode verificar.
2. Hierarquia de fontes: O ChatRJE navega duas hierarquias:
• Legislação: Constituição > Leis Complementares > Leis Ordinárias > Decretos
• Jurisprudência: Súmulas Vinculantes > Temas de Repercussão Geral > Temas Repetitivos > Precedentes
3. Operações especializadas: Em vez de "improvisar", o ChatRJE executa operações específicas (PESQUISAR, ANALISAR, REDIGIR, EXTRAIR) com ferramentas dedicadas.
Mesmo assim, você é o copiloto — a verificação final é sua.
Posso auditar o que a IA fez?
Sim. O ChatRJE registra:
• Qual operação foi executada (PESQUISAR, ANALISAR, etc.)
• Quais fontes foram consultadas (com links)
• Qual ferramenta foi usada (com parâmetros)
• Histórico da conversa (para reconstrução)
Esses registros ficam disponíveis durante a vigência da sua conta e por até 180 dias após o cancelamento.
O que é o cache de 24 horas? Dados pessoais ficam em cache?
O cache é um mecanismo do Vertex AI (Google) para reduzir latência. Quando você faz uma solicitação, a resposta pode ser armazenada temporariamente para acelerar solicitações similares.
O que entra em cache:
• Prompts (suas solicitações à IA)
• Respostas geradas pela IA
• Contexto da conversação ativa
O que NÃO entra em cache:
• Arquivos enviados (PDFs, documentos) — são processados e descartados imediatamente
• Histórico de conversas anteriores — armazenado separadamente com criptografia
• Dados da sua conta — armazenados em banco de dados seguro
Por que é seguro:
• Memória, não disco: Cache existe apenas em RAM, não é gravado em armazenamento persistente
• Isolado por projeto: Seu cache é separado de outros usuários
• Eliminação automática: Máximo 24h, geralmente muito menos
• Sem acesso humano: Ninguém visualiza o conteúdo em cache
• Mesmo nível de segurança: Protegido pelas mesmas certificações (ISO 27001, SOC 2/3)
Sim, dados pessoais (PII) podem estar temporariamente em cache durante o processamento. Isso é normal, seguro, temporário e não é usado para treinamento (garantia contratual via CDPA Seção 17).
Posso inserir documentos com dados de clientes?
Sim, desde que você tenha base legal para isso.
Neste cenário, a qualificação jurídica é:
• Você é o Controlador dos dados dos seus clientes (Art. 5º, VI, LGPD)
• Apolus.ai é Operadora, processando conforme suas instruções (Art. 5º, VII)
• Google é Suboperador, vinculado às mesmas obrigações
Sua responsabilidade é garantir que você tem base legal para compartilhar esses dados conosco (ex: execução de contrato com seu cliente, legítimo interesse documentado, etc.).
Nossa responsabilidade é proteger esses dados com o mesmo rigor aplicado aos seus próprios dados.
E quanto a documentos sob segredo de justiça?
Documentos sob segredo de justiça recebem a mesma proteção técnica de qualquer outro documento:
• Criptografia em trânsito e repouso
• Isolamento por usuário
• Sem acesso humano ao conteúdo
• Dados não são usados para treinar IA
A decisão de inserir ou não documentos sigilosos é sua, como profissional. A infraestrutura está preparada para protegê-los.
Quais são meus direitos sobre meus dados?
O Art. 18 da LGPD garante a você:
• Confirmação: Saber se tratamos seus dados. Canal: privacidade@apolus.ai
• Acesso: Obter cópia dos seus dados. Canal: privacidade@apolus.ai
• Correção: Corrigir dados incorretos. Diretamente na Plataforma ou por email
• Eliminação: Solicitar exclusão dos dados. Canal: privacidade@apolus.ai
• Portabilidade: Exportar seus dados. Canal: privacidade@apolus.ai
• Informação: Saber com quem compartilhamos. Descrito na Política de Privacidade
Prazo de resposta: Até 15 dias (Art. 18, §2º da LGPD).
A Apolus.ai atende às normas da OAB, CNJ e outras?
Sim. A Plataforma está em conformidade com a LGPD, Recomendação OAB 001/2024, Resolução CNJ 615/2025 e Política CONDEGE 2025. Também está alinhada com o PL 2338/2023 (Marco Legal da IA) e a Proposta de Recomendação do CNMP, ambos em tramitação.
De quem é a propriedade do que eu produzo com a Apolus.ai?
Sua.
Diferente de outras plataformas que podem reivindicar direitos sobre o conteúdo gerado, nossa posição é clara:
• Inputs (documentos, textos, comandos que você insere): 100% sua — não adquirimos nenhum direito
• Outputs (conteúdo gerado pela IA): Seu para usar, modificar, publicar e comercializar livremente
Você concede apenas uma licença limitada e temporária para processarmos seus inputs — exclusivamente para prestar o serviço. Nada mais.
Posso usar os outputs em petições, contratos e pareceres?
Sim, sem restrições.
Você pode:
• Usar em peças processuais
• Incluir em contratos
• Publicar em artigos ou livros
• Comercializar como parte do seu trabalho
• Modificar livremente
Não exigimos atribuição, não cobramos royalties, não reivindicamos coautoria.
E se o output for similar ao de outro usuário?
Outputs similares ou idênticos podem ser gerados para diferentes usuários que façam solicitações parecidas — isso é natural em sistemas de IA.
Isso significa que:
• Não garantimos exclusividade dos outputs
• A proteção por direito autoral pode depender da sua contribuição criativa humana
• O valor está na sua curadoria, revisão e aplicação ao caso concreto
Por isso o Método RJE enfatiza a supervisão humana: é a sua expertise que transforma um output genérico em trabalho profissional.
Como cancelo minha assinatura?
Através da própria Plataforma, a qualquer momento. O acesso permanece ativo até o fim do período já pago.
O que acontece com meus dados após o cancelamento?
Após o cancelamento:
1. Seu acesso é encerrado ao fim do período pago
2. Você pode solicitar exportação dos dados antes da exclusão (Art. 18, V, LGPD)
3. Seus dados são excluídos em até 180 dias
Se quiser exportar seus dados, solicite por email antes do cancelamento para garantir tempo hábil.
E se eu ficar inadimplente?
1. Você será notificado
2. Terá 5 dias úteis para regularização
3. Após esse prazo, o acesso pode ser suspenso
4. Seus dados permanecem armazenados (não são excluídos por inadimplência)
5. Ao regularizar, o acesso é restabelecido
Ainda tem dúvidas?
Entre em contato com o Encarregado de Proteção de Dados (DPO): privacidade@apolus.ai
Respondemos em até 15 dias, conforme exigido pela LGPD.