A incorporação de tecnologias baseadas em inteligência artificial no setor da saúde representa uma importante transformação da prática médica contemporânea. Sistemas de aprendizado de máquina passaram a ser utilizados para análise de imagens médicas, predição de riscos clínicos, suporte a decisões terapêuticas e gestão de grandes volumes de dados clínicos.

Essa transformação tecnológica impõe novos desafios ao direito médico e à regulação profissional, sobretudo no que diz respeito à responsabilidade profissional, à proteção do paciente e à governança ética das tecnologias. Nesse contexto, o Conselho Federal de Medicina editou a Resolução CFM nº 2.454/2026, estabelecendo o primeiro marco regulatório brasileiro específico para o uso da inteligência artificial na prática médica.

A norma surge em um cenário no qual a tecnologia já vinha sendo amplamente utilizada, porém sem parâmetros normativos claros quanto à sua utilização, limites éticos e responsabilidade profissional. A resolução parte de uma premissa fundamental: a inteligência artificial deve ser compreendida como instrumento de apoio à atividade médica, e não como substituta da atuação profissional.

O médico permanece como o agente responsável pela tomada de decisões clínicas e pela relação médico-paciente, preservando-se, assim, os princípios clássicos da ética médica, especialmente:

 – Autonomia profissional
 – Beneficência
 – Segurança do paciente

Do ponto de vista jurídico, a norma inaugura um novo campo de discussão dentro do direito médico brasileiro, envolvendo temas como:

 – Responsabilidade civil em sistemas automatizados
 – Transparência algorítmica
 – Governança tecnológica em saúde
 – Direitos informacionais do paciente

Além disso, a resolução dialoga diretamente com outros marcos normativos relevantes, como:

 – Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018)
 – Código de Ética Médica
 – Regulação sanitária aplicável a tecnologias em saúde

O presente artigo tem como objetivo analisar de forma crítica os principais dispositivos da Resolução CFM nº 2.454/2026, examinando seus impactos jurídicos, éticos e institucionais.

Busca-se ainda identificar os principais desafios interpretativos decorrentes da norma, especialmente no campo da responsabilidade médica e da proteção dos direitos dos pacientes diante do avanço das tecnologias de inteligência artificial.

Inteligência Artificial e Transformação da Prática Médica

A inteligência artificial aplicada à medicina tem se desenvolvido a partir da capacidade de processamento massivo de dados clínicos e da utilização de algoritmos capazes de identificar padrões complexos em bases de dados.

Sistemas de IA são hoje utilizados em diversas áreas médicas, como:

 – Radiologia
 – Dermatologia
 – Oncologia
 – Cardiologia
 – Medicina Preventiva

Esses sistemas operam a partir de modelos matemáticos treinados com grandes volumes de dados clínicos, permitindo identificar padrões diagnósticos ou prever desfechos clínicos com alto grau de precisão estatística.

Em determinadas áreas, como a interpretação de exames de imagem, estudos indicam que determinados sistemas de IA podem alcançar níveis de desempenho comparáveis ou até superiores aos de especialistas humanos.

Entretanto, o avanço tecnológico também traz consigo importantes desafios éticos e jurídicos.

Entre os principais riscos associados à utilização de inteligência artificial na medicina destacam-se:

 – Possibilidade de vieses algorítmicos
 – Opacidade dos sistemas decisórios automatizados
 – Dependência tecnológica excessiva
 – Dificuldade de atribuição de responsabilidade em caso de falhas

Diante desse cenário, torna-se indispensável a existência de marcos regulatórios capazes de equilibrar dois objetivos fundamentais:

1. Permitir a inovação tecnológica e o desenvolvimento científico
2. Assegurar a proteção do paciente e a integridade da prática médica

É nesse contexto que se insere a Resolução CFM nº 2.454/2026, que busca estabelecer parâmetros para a utilização segura e ética da inteligência artificial no exercício da medicina.

17

Um dos pilares estruturantes da resolução é o reconhecimento de que a inteligência artificial deve ser utilizada exclusivamente como ferramenta de apoio à decisão clínica.

Essa diretriz possui grande relevância jurídica, pois reafirma que a responsabilidade pela condução do ato médico permanece vinculada ao profissional.

Ainda que sistemas de IA possam fornecer recomendações diagnósticas ou terapêuticas, a decisão final cabe sempre ao médico.

Essa abordagem busca evitar a chamada delegação algorítmica da decisão clínica, fenômeno que poderia comprometer a autonomia profissional e fragilizar a relação médico-paciente.

Do ponto de vista ético, a norma preserva um princípio clássico da medicina:

O médico não pode abdicar de sua responsabilidade intelectual na tomada de decisões clínicas.

A utilização de ferramentas tecnológicas não dispensa o julgamento crítico e a avaliação contextualizada do caso concreto.

Assim, a resolução estabelece que o médico deve analisar criticamente as recomendações fornecidas por sistemas de inteligência artificial, considerando:

 – As particularidades clínicas do paciente
 – O histórico médico
 – Elementos contextuais que muitas vezes não são plenamente capturados pelos sistemas automatizados

Essa diretriz também possui reflexos importantes no campo da responsabilidade civil.

Ao afirmar que a decisão final cabe ao médico, a resolução delimita a responsabilidade profissional e evita que a utilização da tecnologia seja utilizada como mecanismo de transferência de responsabilidade.

Responsabilidade Profissional no Uso da Inteligência Artificial

A utilização de inteligência artificial na medicina suscita uma questão central: Quem responde por eventuais danos decorrentes de falhas tecnológicas?

A Resolução CFM nº 2.454/2026 busca enfrentar esse problema ao estabelecer parâmetros de responsabilidade profissional.

O médico que utiliza sistemas de IA deve fazê-lo com diligência, conhecendo suas limitações e utilizando ferramentas devidamente validadas.
Isso significa que o profissional não pode utilizar sistemas desconhecidos, experimentais ou sem validação científica adequada.
A adoção indiscriminada de tecnologias sem respaldo técnico pode caracterizar imprudência profissional.
Ao mesmo tempo, a norma reconhece que falhas exclusivamente decorrentes do funcionamento do sistema tecnológico não podem ser automaticamente imputadas ao médico, desde que o profissional tenha utilizado a ferramenta de forma diligente e em conformidade com as boas práticas médicas.

Essa distinção inaugura uma nova dimensão de análise da responsabilidade civil na prática médica contemporânea.

Em situações envolvendo sistemas de inteligência artificial, a análise da responsabilidade poderá envolver múltiplos agentes, incluindo:

 – O médico
 – A instituição de saúde
 – Os desenvolvedores da tecnologia

Proibição de Comunicação Autônoma de Diagnósticos por Sistemas de IA

Outro ponto relevante da resolução é a vedação à comunicação direta de diagnósticos ou prognósticos ao paciente por sistemas de inteligência artificial.

Essa proibição decorre da compreensão de que a comunicação de informações médicas relevantes exige:

 – Sensibilidade
 – Contextualização clínica
 – Capacidade de diálogo

Elementos que ainda não podem ser plenamente reproduzidos por sistemas automatizados.

A relação médico-paciente constitui um dos pilares da prática médica e envolve não apenas a transmissão de informações técnicas, mas também a construção de confiança, empatia e suporte emocional.
A comunicação de diagnósticos complexos ou potencialmente graves exige habilidade comunicacional e responsabilidade ética.

Por essa razão, a resolução preserva essa atribuição como atividade exclusiva do médico.
Essa diretriz também possui implicações jurídicas importantes, pois reforça o dever de informação e o direito do paciente de receber esclarecimentos adequados sobre sua condição de saúde.

Direitos do Paciente diante do Uso de Inteligência Artificial

A resolução estabelece garantias importantes para os pacientes submetidos a sistemas de inteligência artificial. Entre essas garantias destaca-se o direito à transparência quanto à utilização da tecnologia.

O paciente deve ser informado quando ferramentas de inteligência artificial forem utilizadas como parte do processo diagnóstico ou terapêutico.
Além disso, o paciente pode recusar o uso da inteligência artificial.
Esse direito decorre diretamente do princípio da autonomia do paciente e do dever de informação previsto no:

 – Código de Ética Médica
 – Código de Defesa do Consumidor

A norma também reforça a necessidade de proteção dos dados pessoais utilizados pelos sistemas de inteligência artificial, em consonância com a Lei Geral de Proteção de Dados Pessoais (LGPD).
Sistemas de IA frequentemente operam com grandes volumes de dados clínicos sensíveis, o que exige medidas rigorosas de segurança da informação e governança de dados.

Classificação de Risco dos Sistemas de Inteligência Artificial

A resolução introduz um modelo de classificação de risco das tecnologias de inteligência artificial, inspirado em iniciativas regulatórias internacionais.
Essa classificação reconhece que diferentes aplicações de IA apresentam níveis distintos de risco para a segurança do paciente.

Sistemas utilizados em funções administrativas apresentam riscos significativamente menores do que aqueles empregados diretamente em decisões clínicas críticas.
Ao estabelecer categorias de risco, a norma permite que as exigências regulatórias sejam proporcionais ao potencial impacto da tecnologia.
Essa abordagem representa um avanço regulatório importante, pois equilibra inovação tecnológica e segurança clínica.

41
42
43

Governança Institucional e Compliance Tecnológico em Saúde

A resolução enfatiza a necessidade de governança institucional no uso de inteligência artificial.

Instituições de saúde que adotem sistemas de IA devem implementar mecanismos de:

 – Supervisão
 – Auditoria
 – Avaliação contínua

Essa exigência reflete uma tendência crescente na regulação de tecnologias emergentes.
No contexto hospitalar, isso pode envolver:

 – Criação de comitês de tecnologia em saúde
 – Protocolos de validação de sistemas
 – Mecanismos de auditoria algorítmica

Supervisão Humana e Limites da Automação Médica

Um dos princípios centrais da resolução é a exigência de supervisão humana contínua sobre sistemas de inteligência artificial.

Mesmo em cenários de alta automação tecnológica, a presença do médico como agente decisório permanece indispensável.

Essa exigência busca evitar o fenômeno conhecido como automação cega, no qual profissionais passam a confiar excessivamente em recomendações automatizadas sem avaliação crítica.

A supervisão humana constitui, portanto, uma salvaguarda essencial para a segurança do paciente.

Responsabilidade Civil Médica diante da Utilização de Inteligência Artificial

A incorporação de sistemas de inteligência artificial na prática clínica suscita uma das questões mais complexas do direito médico contemporâneo: a delimitação da responsabilidade civil em situações nas quais decisões clínicas são influenciadas por sistemas automatizados.

Tradicionalmente, a responsabilidade civil médica no direito brasileiro é analisada à luz do artigo 186 do Código Civil, sendo caracterizada pela presença de:

 – Conduta
 – Dano
 – Nexo causal
 – Culpa

A jurisprudência consolidou o entendimento de que a obrigação do médico é, em regra, obrigação de meio, e não de resultado.
A introdução da inteligência artificial no processo decisório clínico introduz novos elementos nessa equação jurídica.
Quando o médico utiliza sistemas de apoio à decisão clínica baseados em IA, surge a possibilidade de que eventuais falhas decorram não da conduta do profissional, mas do funcionamento do sistema tecnológico.

A Resolução CFM nº 2.454/2026 estabelece que a decisão final permanece sob responsabilidade do médico.

Esse posicionamento busca evitar o fenômeno conhecido como automation bias, no qual profissionais passam a confiar excessivamente em recomendações automatizadas.
Caso o profissional aceite recomendações automatizadas sem análise clínica adequada, poderá ser caracterizada negligência profissional.
Por outro lado, quando o médico atua com diligência e julgamento clínico independente, eventuais falhas tecnológicas podem deslocar a análise da responsabilidade para outros agentes envolvidos na cadeia tecnológica.

capa carol duarte

Responsabilidade Institucional e dos Desenvolvedores de Tecnologia

A utilização de inteligência artificial em ambientes hospitalares raramente ocorre de forma isolada.

Em geral, essas tecnologias estão integradas a:

 – Sistemas hospitalares
 – Prontuários eletrônicos
 – Plataformas de análise clínica

Nesse contexto, a responsabilidade jurídica pode assumir natureza multilateral, envolvendo

 – Médico
 – Instituição de saúde
 – Desenvolvedores da tecnologia

Instituições de saúde possuem deveres relacionados à governança tecnológica e segurança do paciente. Isso inclui:

 – Seleção adequada de tecnologias
 – Validação científica
 – Supervisão contínua

A ausência dessas medidas pode caracterizar falha institucional na prestação de serviços de saúdeAlém disso, desenvolvedores de sistemas de inteligência artificial podem ser responsabilizados quando falhas tecnológicas gerarem danos aos pacientes.
Sob a perspectiva do Código de Defesa do Consumidor, sistemas tecnológicos podem ser considerados produtos defeituosos, gerando responsabilidade do fornecedor.

Judicialização da Saúde e Inteligência Artificial

A crescente utilização de inteligência artificial tende a impactar o fenômeno da judicialização da saúde.
No Brasil, a judicialização médica já constitui fenômeno consolidado, especialmente no campo da saúde suplementar e da responsabilidade civil médica.

A incorporação de IA pode ampliar a complexidade dessas demandas. Em ações judiciais envolvendo erros diagnósticos, será cada vez mais comum analisar se sistemas de inteligência artificial foram utilizados.

Isso poderá exigir novas formas de prova pericial, incluindo:

 – Análise de algoritmos
 – Bases de dados de treinamento
 – Registros de interação entre médico e sistema

Além disso, surgem desafios relacionados à transparência algorítmica, pois muitos sistemas operam como caixas-pretas tecnológicasNesse contexto, peritos especializados em tecnologia médica poderão desempenhar papel crescente em litígios envolvendo responsabilidade médica.

Inteligência Artificial, Transparência Algorítmica e Direitos do Paciente

A resolução também reforça o direito do paciente de ser informado quando sistemas de inteligência artificial forem utilizados no processo diagnóstico ou terapêutico.

Esse direito está diretamente ligado ao princípio da autonomia do paciente, pilar fundamental da bioética contemporânea. A utilização de IA envolve o tratamento de dados sensíveis relacionados à saúde. 
A Lei Geral de Proteção de Dados estabelece que dados de saúde exigem proteção reforçada.

Assim, a utilização de algoritmos treinados com dados clínicos exige:

 – Segurança da informação
 – Governança de dados
 – Transparência sobre o uso das informações

A transparência algorítmica torna-se elemento essencial para garantir confiança na utilização dessas tecnologias.

Desafios Regulatórios Futuros

Embora a Resolução CFM nº 2.454/2026 represente avanço regulatório importante, diversos desafios permanecem. A evolução tecnológica ocorre em ritmo acelerado, muitas vezes superando a capacidade de adaptação das normas jurídicas.
Sistemas baseados em aprendizado profundo e modelos generativos apresentam níveis de complexidade que ainda desafiam a regulação tradicional.

Além disso, a integração crescente entre:

 – Inteligência artificial
 – Telemedicina
 – Medicina personalizada

Tende a ampliar os desafios regulatórios.
Será necessário desenvolver estruturas regulatórias flexíveis, capazes de acompanhar a evolução tecnológica sem comprometer a segurança dos pacientes.

A cooperação entre:

 – Autoridades sanitárias
 – Conselhos profissionais
 – Instituições acadêmicas
 – Desenvolvedores de tecnologia

Será essencial para construir um ambiente regulatório equilibrado.

Conclusão

A Resolução CFM nº 2.454/2026 inaugura uma nova fase na regulação da prática médica no Brasil ao estabelecer parâmetros para o uso da inteligência artificial. 
A norma reafirma princípios fundamentais da ética médica, especialmente a centralidade da decisão clínica humana e a responsabilidade profissional do médico.

Ao mesmo tempo, reconhece a importância da inovação tecnológica e estabelece mecanismos para que o avanço da inteligência artificial ocorra de forma segura e ética.
Do ponto de vista jurídico, a resolução inaugura novos debates sobre:

 – Responsabilidade civil médica
 – Governança tecnológica
 – Proteção dos direitos dos pacientes

À medida que a inteligência artificial se torna cada vez mais presente na prática médica, o direito médico será chamado a desenvolver novas ferramentas conceituais e regulatórias para lidar com os desafios decorrentes dessa transformação tecnológica.

banners

Referências Bibliográficas

BRASIL. Conselho Federal de Medicina. Resolução CFM nº 2.454/2026. Dispõe sobre o uso da inteligência artificial na prática médica. Brasília: CFM, 2026.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais.
BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Código de Defesa do Consumidor.
TOPOL, Eric. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. New York: Basic Books, 2019.
FLORIDI, Luciano et al. AI4People — An Ethical Framework for a Good AI Society. Minds and Machines, 2018.
PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, 2015.