Raciocínio Jurídico Estratégico

REGULAÇÃO

Médico Pode Culpar a IA?
Guia Completo para Juristas

Análise comparativa CFM vs CNJ vs OAB, oportunidades de atuação em compliance de saúde e checklist prático para assessorar clientes médicos.

Março 2026 7 min de leitura
Balança da justiça equilibrando IA e responsabilidade médica - CFM vs CNJ vs OAB

Introdução

Em fevereiro de 2026, o Conselho Federal de Medicina publicou a Resolução nº 2.454, estabelecendo normas para uso de inteligência artificial na medicina. É o primeiro marco regulatório setorial de IA no Brasil depois do Judiciário (CNJ 615/2025) e da advocacia (OAB 001/2024).

O documento tem 23 artigos e três anexos detalhados. Trata de governança, classificação de riscos, proteção de dados e supervisão humana. Mas um dispositivo específico chama atenção: o Art. 3º, V cria uma hipótese de proteção contra responsabilização que não existe nas normas jurídicas.

Para entender o que o CFM fez de diferente, vale primeiro olhar o que as três normas têm em comum.

O consenso: IA executa, humano decide

CFM, CNJ e OAB concordam nos pontos fundamentais:

Tema CFM 2.454/2026 CNJ 615/2025 OAB 001/2024
Supervisão humana Obrigatória (Art. 4º, I) Obrigatória (Art. 34) Obrigatória (Item 3.1)
IA como ferramenta Apoio, não substitui (Art. 11) Auxiliar, vedado autônomo (Art. 19) Complementar (Item 3.3)
Proteção de dados LGPD + normas de saúde (Art. 16) LGPD + segredo de justiça (Art. 22) LGPD (Item 2.5)
Classificação de riscos Baixo, Médio, Alto, Inaceitável Baixo, Alto, Excessivo (vedado) Não classifica
Verificação de outputs Julgamento crítico (Art. 4º, II) Revisão detalhada (Art. 32) Revisão integral (Item 3.7)

Nenhuma das três normas permite decisão autônoma. Até aqui, alinhamento total. A divergência aparece quando se pergunta: e se a IA errar, quem responde?

A divergência: quem responde quando a IA erra

Neste ponto, as normas se separam.

CNJ 615/2025

Magistrado sempre responsável

"Sistema de IA não pode restringir ou substituir autoridade final do magistrado." — Art. 32

Não há exceção. O juiz que usa IA para redigir decisão responde integralmente pelo conteúdo.

OAB 001/2024

Advogado sempre responsável

"Revisar integralmente todas as saídas geradas pela IA antes de apresentá-las em processos judiciais." — Item 3.7

O advogado que cita jurisprudência alucinada responde por litigância de má-fé. A OAB não criou válvula de escape.

CFM 2.454/2026

Médico pode ser "protegido"

"Ser protegido contra responsabilização indevida por falhas atribuíveis exclusivamente a sistemas de IA, desde que comprovado o uso diligente, crítico e ético dessas ferramentas." — Art. 3º, V

A resolução cria uma hipótese de proteção que depende de dois requisitos:

  • Falha "exclusivamente" atribuível à IA
  • Uso "diligente, crítico e ético" comprovado

O problema: a resolução contradiz a si mesma

Quatro artigos depois, a mesma resolução diz outra coisa:

"No campo da responsabilidade ético-profissional, o médico permanece integralmente responsável pelos atos médicos por ele praticados mediante a utilização de modelos, sistemas e aplicações de IA." — Art. 7º
Art. 3º, V Art. 7º
Médico pode ser protegido Médico é integralmente responsável
Se falha for "exclusivamente" da IA Pelos atos praticados com IA
Desde que prove uso diligente Sem exceção expressa

Como ser integralmente responsável e ao mesmo tempo protegido contra responsabilização?

A resolução tenta conciliar os dois dispositivos no Art. 7º, §1º: "A utilização da IA não exime o médico do cumprimento do Código de Ética Médica". Mas não resolve a tensão com o Art. 3º, V.

Teste prático: quando a IA "erra sozinha"?

A proteção do Art. 3º, V exige que a falha seja "exclusivamente" da IA. Mas em medicina — como em Direito — a decisão final é sempre humana.

Considere a sequência típica:

1

Médico escolhe usar sistema de IA

2

Médico insere dados do paciente

3

IA gera diagnóstico ou recomendação

4

Médico avalia o output

5

Médico aplica no paciente

Em qual etapa a falha seria "exclusivamente" da máquina?

Comparação com advocacia: Quando advogado cita jurisprudência falsa gerada por IA, a OAB não pergunta se o ChatGPT alucinhou. Pergunta se o advogado verificou a fonte. A responsabilidade é de quem assina a peça.

Comparação com Judiciário: Quando juiz usa sugestão de sentença da IA com erro técnico, o CNJ não pergunta se o algoritmo falhou. Pergunta se o magistrado revisou antes de assinar.

O CFM criou uma categoria intermediária — a "falha exclusiva da IA" — que será difícil de provar e mais difícil ainda de delimitar.

Três disputas que vão chegar aos tribunais

A ambiguidade do Art. 3º, V vai gerar litígio em três frentes:

1

Definição de "uso diligente"

O que é uso diligente de IA médica? A resolução não define. Advogados de defesa vão argumentar que seguir o Art. 4º é suficiente. Advogados de pacientes vão argumentar que diligência exige verificação independente.

2

Prova de "falha exclusiva"

Como provar que a falha foi da IA e não da interpretação médica? O sistema precisa ter logs? O médico precisa documentar que seguiu a recomendação sem alteração?

3

Inversão do ônus

O Art. 3º, V coloca no médico o ônus de "comprovar" uso diligente. O médico precisará demonstrar seu processo de verificação.

O que isso significa para juristas

A ambiguidade da resolução cria demanda imediata em três frentes:

1

Compliance em saúde

Hospitais e clínicas precisam adequar sistemas existentes em 180 dias. Não há expertise interna para isso.

2

Contratos com fornecedores de IA

A resolução exige cláusulas específicas de proteção de dados, auditoria e responsabilidade. Advogados vão redigir.

3

Litígios sobre responsabilidade

A brecha do Art. 3º, V vai gerar disputa judicial sobre quem responde quando a IA erra. Dos dois lados.

Detalhamento por área

Compliance preventivo

  • Adequação de hospitais e clínicas aos requisitos da resolução
  • Criação de Comissão de IA e Telemedicina (obrigatória conforme Art. 14)
  • Políticas internas de uso de IA por médicos e equipes
  • Treinamento sobre deveres do Art. 4º

Contratos

  • Revisão de contratos com fornecedores de IA médica
  • Cláusulas de proteção de dados conforme Art. 6º
  • Definição de responsabilidades por falhas do sistema
  • Auditorias e monitoramento contínuo

Contencioso

  • Defesa de médicos em processos envolvendo IA (Art. 3º, V como argumento)
  • Ação de pacientes por dano causado por diagnóstico assistido por IA
  • Responsabilidade de hospitais por escolha de sistemas inadequados

Regulatório

  • Acompanhamento de interpretações do CFM sobre a resolução
  • Interface com Conselhos Regionais de Medicina (fiscalização conforme Art. 15)
  • Análise de impacto algorítmico (Anexo I, XIII)

O que o CFM poderia ter aprendido com CNJ e OAB

As normas jurídicas são mais maduras em três aspectos que o CFM ignorou:

1

Clareza sobre responsabilidade

CNJ e OAB não deixam margem: o profissional responde. Sempre. Essa clareza protege todos — inclusive os profissionais, que sabem exatamente o que se espera deles.

2

Exigência de verificação

A OAB é explícita: revisar "integralmente" os outputs antes de usar. O CNJ exige "revisão detalhada". O CFM fala em "julgamento crítico", termo mais vago.

3

Documentação do processo

A OAB recomenda documentar a verificação de fontes. O CNJ exige registro quando IA auxilia na redação de atos judiciais. O CFM poderia adotar padrão similar.

Checklist prático: compliance de IA na saúde

Para quem vai assessorar hospitais, clínicas ou médicos na adequação à resolução:

Governança

  • Verificar se instituição precisa de Comissão de IA e Telemedicina (Art. 14, Parágrafo único)
  • Identificar sistemas de IA em uso e classificar por risco (Art. 12; Anexo II)
  • Realizar avaliação preliminar de risco antes de implantar sistemas (Art. 12, Parágrafo único)
  • Estabelecer política interna de uso conforme deveres do Art. 4º
  • Definir responsável pela fiscalização — Diretor Técnico (Anexo III, III)
  • Implementar mecanismos de auditoria e monitoramento contínuos (Art. 9º, §2º)

Contratos com fornecedores

  • Cláusula de não uso de dados para treinamento sem base legal (Art. 6º, §2º)
  • Garantia de segurança mínima compatível com dados sensíveis (Art. 6º, §3º; Art. 17)
  • Exigência de validação científica e certificação regulatória (Art. 3º, III)
  • Previsão de auditoria conforme Anexo III, VIII
  • Garantia de interoperabilidade e APIs abertas (Anexo III, IV e VII)
  • Definição de responsabilidade por falhas — atenção à tensão Art. 3º, V vs Art. 7º

Proteção do profissional

  • Documentar processo de verificação de outputs (Art. 4º, II — julgamento crítico)
  • Registrar uso de IA em prontuário do paciente (Art. 4º, V)
  • Manter evidência de capacitação sobre limitações do sistema (Art. 4º, III)
  • Usar apenas sistemas com validação científica adequada (Art. 3º, III)
  • Preservar autonomia — não seguir acriticamente recomendações da IA (Art. 3º, IV; Art. 19, §1º)
  • Informar paciente sobre uso de IA de forma clara e acessível (Art. 5º, §1º; Art. 11)

Conclusão

O CFM acertou na estrutura geral: classificação de riscos, governança, proteção de dados, supervisão humana obrigatória. Nestes pontos, está alinhado com CNJ e OAB.

Mas ao tentar criar uma "proteção" no Art. 3º, V, introduziu uma contradição com o próprio Art. 7º. A hipótese de "falha exclusiva da IA" é juridicamente frágil e praticamente impossível de provar. O resultado será litígio.

Para médicos, o conselho é simples: não confie na proteção do Art. 3º, V. Atue como se fosse integralmente responsável — porque, na prática, é.

Para juristas, a ambiguidade da resolução é oportunidade. Compliance de saúde, contratos com fornecedores de IA, contencioso sobre responsabilidade — são frentes que vão demandar assessoria especializada nos próximos anos.

A abordagem mais segura continua sendo a do CNJ e da OAB: quem assina, responde.

Aprenda os fundamentos de compliance em IA

Supervisão humana, proteção de dados, arquitetura auditável — os três pilares que aparecem em todas as normas setoriais de IA.

A Escola de Raciocínio Jurídico Estratégico (RJE) aprofunda cada um deles:

  • Como estruturar fluxos de trabalho com supervisão efetiva
  • Critérios para avaliar se uma ferramenta protege dados do cliente
  • O que exigir de fornecedores em termos de auditabilidade e logs

Seja para atuar em compliance de saúde, assessorar escritórios ou proteger sua própria prática — os fundamentos são os mesmos.

Fontes