Introdução
Em fevereiro de 2026, o Conselho Federal de Medicina publicou a Resolução nº 2.454, estabelecendo normas para uso de inteligência artificial na medicina. É o primeiro marco regulatório setorial de IA no Brasil depois do Judiciário (CNJ 615/2025) e da advocacia (OAB 001/2024).
O documento tem 23 artigos e três anexos detalhados. Trata de governança, classificação de riscos, proteção de dados e supervisão humana. Mas um dispositivo específico chama atenção: o Art. 3º, V cria uma hipótese de proteção contra responsabilização que não existe nas normas jurídicas.
Para entender o que o CFM fez de diferente, vale primeiro olhar o que as três normas têm em comum.
O consenso: IA executa, humano decide
CFM, CNJ e OAB concordam nos pontos fundamentais:
| Tema | CFM 2.454/2026 | CNJ 615/2025 | OAB 001/2024 |
|---|---|---|---|
| Supervisão humana | Obrigatória (Art. 4º, I) | Obrigatória (Art. 34) | Obrigatória (Item 3.1) |
| IA como ferramenta | Apoio, não substitui (Art. 11) | Auxiliar, vedado autônomo (Art. 19) | Complementar (Item 3.3) |
| Proteção de dados | LGPD + normas de saúde (Art. 16) | LGPD + segredo de justiça (Art. 22) | LGPD (Item 2.5) |
| Classificação de riscos | Baixo, Médio, Alto, Inaceitável | Baixo, Alto, Excessivo (vedado) | Não classifica |
| Verificação de outputs | Julgamento crítico (Art. 4º, II) | Revisão detalhada (Art. 32) | Revisão integral (Item 3.7) |
Nenhuma das três normas permite decisão autônoma. Até aqui, alinhamento total. A divergência aparece quando se pergunta: e se a IA errar, quem responde?
A divergência: quem responde quando a IA erra
Neste ponto, as normas se separam.
CNJ 615/2025
Magistrado sempre responsável
"Sistema de IA não pode restringir ou substituir autoridade final do magistrado."
Não há exceção. O juiz que usa IA para redigir decisão responde integralmente pelo conteúdo.
OAB 001/2024
Advogado sempre responsável
"Revisar integralmente todas as saídas geradas pela IA antes de apresentá-las em processos judiciais."
O advogado que cita jurisprudência alucinada responde por litigância de má-fé. A OAB não criou válvula de escape.
CFM 2.454/2026
Médico pode ser "protegido"
"Ser protegido contra responsabilização indevida por falhas atribuíveis exclusivamente a sistemas de IA, desde que comprovado o uso diligente, crítico e ético dessas ferramentas."
A resolução cria uma hipótese de proteção que depende de dois requisitos:
- Falha "exclusivamente" atribuível à IA
- Uso "diligente, crítico e ético" comprovado
O problema: a resolução contradiz a si mesma
Quatro artigos depois, a mesma resolução diz outra coisa:
"No campo da responsabilidade ético-profissional, o médico permanece integralmente responsável pelos atos médicos por ele praticados mediante a utilização de modelos, sistemas e aplicações de IA."
| Art. 3º, V | Art. 7º |
|---|---|
| Médico pode ser protegido | Médico é integralmente responsável |
| Se falha for "exclusivamente" da IA | Pelos atos praticados com IA |
| Desde que prove uso diligente | Sem exceção expressa |
Como ser integralmente responsável e ao mesmo tempo protegido contra responsabilização?
A resolução tenta conciliar os dois dispositivos no Art. 7º, §1º: "A utilização da IA não exime o médico do cumprimento do Código de Ética Médica". Mas não resolve a tensão com o Art. 3º, V.
Teste prático: quando a IA "erra sozinha"?
A proteção do Art. 3º, V exige que a falha seja "exclusivamente" da IA. Mas em medicina — como em Direito — a decisão final é sempre humana.
Considere a sequência típica:
Médico escolhe usar sistema de IA
Médico insere dados do paciente
IA gera diagnóstico ou recomendação
Médico avalia o output
Médico aplica no paciente
Em qual etapa a falha seria "exclusivamente" da máquina?
Comparação com advocacia: Quando advogado cita jurisprudência falsa gerada por IA, a OAB não pergunta se o ChatGPT alucinhou. Pergunta se o advogado verificou a fonte. A responsabilidade é de quem assina a peça.
Comparação com Judiciário: Quando juiz usa sugestão de sentença da IA com erro técnico, o CNJ não pergunta se o algoritmo falhou. Pergunta se o magistrado revisou antes de assinar.
O CFM criou uma categoria intermediária — a "falha exclusiva da IA" — que será difícil de provar e mais difícil ainda de delimitar.
Três disputas que vão chegar aos tribunais
A ambiguidade do Art. 3º, V vai gerar litígio em três frentes:
Definição de "uso diligente"
O que é uso diligente de IA médica? A resolução não define. Advogados de defesa vão argumentar que seguir o Art. 4º é suficiente. Advogados de pacientes vão argumentar que diligência exige verificação independente.
Prova de "falha exclusiva"
Como provar que a falha foi da IA e não da interpretação médica? O sistema precisa ter logs? O médico precisa documentar que seguiu a recomendação sem alteração?
Inversão do ônus
O Art. 3º, V coloca no médico o ônus de "comprovar" uso diligente. O médico precisará demonstrar seu processo de verificação.
O que isso significa para juristas
A ambiguidade da resolução cria demanda imediata em três frentes:
Compliance em saúde
Hospitais e clínicas precisam adequar sistemas existentes em 180 dias. Não há expertise interna para isso.
Contratos com fornecedores de IA
A resolução exige cláusulas específicas de proteção de dados, auditoria e responsabilidade. Advogados vão redigir.
Litígios sobre responsabilidade
A brecha do Art. 3º, V vai gerar disputa judicial sobre quem responde quando a IA erra. Dos dois lados.
Detalhamento por área
Compliance preventivo
- Adequação de hospitais e clínicas aos requisitos da resolução
- Criação de Comissão de IA e Telemedicina (obrigatória conforme Art. 14)
- Políticas internas de uso de IA por médicos e equipes
- Treinamento sobre deveres do Art. 4º
Contratos
- Revisão de contratos com fornecedores de IA médica
- Cláusulas de proteção de dados conforme Art. 6º
- Definição de responsabilidades por falhas do sistema
- Auditorias e monitoramento contínuo
Contencioso
- Defesa de médicos em processos envolvendo IA (Art. 3º, V como argumento)
- Ação de pacientes por dano causado por diagnóstico assistido por IA
- Responsabilidade de hospitais por escolha de sistemas inadequados
Regulatório
- Acompanhamento de interpretações do CFM sobre a resolução
- Interface com Conselhos Regionais de Medicina (fiscalização conforme Art. 15)
- Análise de impacto algorítmico (Anexo I, XIII)
O que o CFM poderia ter aprendido com CNJ e OAB
As normas jurídicas são mais maduras em três aspectos que o CFM ignorou:
Clareza sobre responsabilidade
CNJ e OAB não deixam margem: o profissional responde. Sempre. Essa clareza protege todos — inclusive os profissionais, que sabem exatamente o que se espera deles.
Exigência de verificação
A OAB é explícita: revisar "integralmente" os outputs antes de usar. O CNJ exige "revisão detalhada". O CFM fala em "julgamento crítico", termo mais vago.
Documentação do processo
A OAB recomenda documentar a verificação de fontes. O CNJ exige registro quando IA auxilia na redação de atos judiciais. O CFM poderia adotar padrão similar.
Checklist prático: compliance de IA na saúde
Para quem vai assessorar hospitais, clínicas ou médicos na adequação à resolução:
Governança
- Verificar se instituição precisa de Comissão de IA e Telemedicina (Art. 14, Parágrafo único)
- Identificar sistemas de IA em uso e classificar por risco (Art. 12; Anexo II)
- Realizar avaliação preliminar de risco antes de implantar sistemas (Art. 12, Parágrafo único)
- Estabelecer política interna de uso conforme deveres do Art. 4º
- Definir responsável pela fiscalização — Diretor Técnico (Anexo III, III)
- Implementar mecanismos de auditoria e monitoramento contínuos (Art. 9º, §2º)
Contratos com fornecedores
- Cláusula de não uso de dados para treinamento sem base legal (Art. 6º, §2º)
- Garantia de segurança mínima compatível com dados sensíveis (Art. 6º, §3º; Art. 17)
- Exigência de validação científica e certificação regulatória (Art. 3º, III)
- Previsão de auditoria conforme Anexo III, VIII
- Garantia de interoperabilidade e APIs abertas (Anexo III, IV e VII)
- Definição de responsabilidade por falhas — atenção à tensão Art. 3º, V vs Art. 7º
Proteção do profissional
- Documentar processo de verificação de outputs (Art. 4º, II — julgamento crítico)
- Registrar uso de IA em prontuário do paciente (Art. 4º, V)
- Manter evidência de capacitação sobre limitações do sistema (Art. 4º, III)
- Usar apenas sistemas com validação científica adequada (Art. 3º, III)
- Preservar autonomia — não seguir acriticamente recomendações da IA (Art. 3º, IV; Art. 19, §1º)
- Informar paciente sobre uso de IA de forma clara e acessível (Art. 5º, §1º; Art. 11)
Conclusão
O CFM acertou na estrutura geral: classificação de riscos, governança, proteção de dados, supervisão humana obrigatória. Nestes pontos, está alinhado com CNJ e OAB.
Mas ao tentar criar uma "proteção" no Art. 3º, V, introduziu uma contradição com o próprio Art. 7º. A hipótese de "falha exclusiva da IA" é juridicamente frágil e praticamente impossível de provar. O resultado será litígio.
Para médicos, o conselho é simples: não confie na proteção do Art. 3º, V. Atue como se fosse integralmente responsável — porque, na prática, é.
Para juristas, a ambiguidade da resolução é oportunidade. Compliance de saúde, contratos com fornecedores de IA, contencioso sobre responsabilidade — são frentes que vão demandar assessoria especializada nos próximos anos.
A abordagem mais segura continua sendo a do CNJ e da OAB: quem assina, responde.
Aprenda os fundamentos de compliance em IA
Supervisão humana, proteção de dados, arquitetura auditável — os três pilares que aparecem em todas as normas setoriais de IA.
A Escola de Raciocínio Jurídico Estratégico (RJE) aprofunda cada um deles:
- Como estruturar fluxos de trabalho com supervisão efetiva
- Critérios para avaliar se uma ferramenta protege dados do cliente
- O que exigir de fornecedores em termos de auditabilidade e logs
Seja para atuar em compliance de saúde, assessorar escritórios ou proteger sua própria prática — os fundamentos são os mesmos.


