CFM Regulamenta IA na Medicina: Médicos Têm Autonomia, Mas Implementação É Desafio

O Conselho Federal de Medicina (CFM) estabeleceu um marco regulatório fundamental para o uso da Inteligência Artificial (IA) na prática médica brasileira, por meio da Resolução CFM nº 2.454/2026, publicada em 27 de fevereiro de 2026 e com vigência a partir de 180 dias. A norma visa promover o avanço tecnológico de forma segura, ética e transparente, mas sua implementação prática já impõe desafios significativos para hospitais e clínicas em todo o país, que precisam se adaptar à nova governança e infraestrutura exigidas.
Diretrizes Éticas e Autonomia Médica na Era da IA
O cerne da nova regulamentação do CFM reside na reafirmação da responsabilidade integral do médico sobre os atos clínicos, mesmo quando assistido por sistemas algorítmicos. A resolução define que a IA deve ser utilizada exclusivamente como ferramenta de apoio à decisão clínica, gestão em saúde, pesquisa científica e educação médica continuada, não podendo em hipótese alguma substituir a autoridade e o julgamento final do profissional de saúde.
A norma assegura direitos cruciais aos médicos, como:
- O direito de utilizar ferramentas de IA em diversas frentes da prática médica.
- O direito de exercer julgamento crítico sobre as recomendações da IA, podendo acolher ou rejeitar sugestões com base em sua avaliação ética e técnica.
- O direito de recusar o uso de sistemas de IA que não possuam validação científica adequada, certificação regulatória pertinente ou que contrariem princípios éticos e legais vigentes.
Em contrapartida, a resolução impõe deveres rigorosos, como o registro obrigatório no prontuário do paciente sobre o uso de sistemas de IA como apoio à decisão. É expressamente vedado ao médico delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem a devida mediação humana, preservando a escuta qualificada, a empatia e a relação médico-paciente.
Transparência e Proteção de Dados
A transparência é outro pilar da Resolução CFM nº 2.454/2026. Sempre que a IA for usada como apoio relevante no cuidado, o paciente deve ser informado de forma clara e acessível sobre seu uso. Além disso, os sistemas algorítmicos devem garantir padrões mínimos de segurança da informação compatíveis com dados pessoais sensíveis, em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD). O médico deve zelar pela confidencialidade, integridade e segurança dessas informações.
Adicionalmente, a norma estabelece que os sistemas de IA utilizados em âmbito assistencial devem ser submetidos a uma avaliação preliminar para identificação do grau de risco algorítmico, uma abordagem que ecoa discussões legislativas em andamento no Congresso Nacional.
Veja também:
Desafios de Implementação para Instituições de Saúde
Embora a regulamentação traga segurança jurídica e ética, a sua aplicação prática revela grandes obstáculos para hospitais e clínicas. Pesquisas recentes indicam que, apesar do interesse crescente, a maturidade digital de muitas instituições brasileiras ainda é baixa, o que compromete a absorção plena das transformações organizacionais exigidas pela IA.
Os principais desafios na implementação da inteligência artificial no cenário de saúde brasileiro incluem:
- Infraestrutura e Maturidade de Dados: O sucesso da IA depende criticamente da qualidade, consistência e integração dos dados. Muitas instituições operam com sistemas legados que dificultam a interoperabilidade e a alimentação de algoritmos com dados de alta qualidade, o que pode levar a diagnósticos incorretos.
- Custo e Acessibilidade: O elevado custo financeiro de soluções robustas de IA representa uma barreira, especialmente para o Sistema Único de Saúde (SUS), que atende a maior parte da população e enfrenta restrições orçamentárias históricas. Isso pode acentuar disparidades regionais e entre o setor público e privado.
- Capacitação de Pessoal: Há uma falta de recursos humanos adequadamente treinados. Profissionais de saúde precisam de capacitação para usar as ferramentas de forma crítica, e há também a dificuldade em atrair cientistas de dados especializados no domínio da saúde.
- Governança Interna: Hospitais e clínicas que desenvolvem ou operam sistemas próprios de IA são obrigados a estabelecer processos internos de governança. Isso inclui, quando pertinente, a constituição de Comissões de IA e Telemedicina, coordenadas por médicos e vinculadas à diretoria técnica, para supervisionar a ética e a validação clínica.
Estudos prévios já apontavam que, embora uma parcela significativa dos hospitais privados já utilize alguma solução de IA, muitos se sentem despreparados para as mudanças organizacionais que a tecnologia impõe. A ausência de uma trilha de auditoria clara e a necessidade de validação rigorosa dos modelos com dados locais são etapas cruciais que exigem planejamento institucional.
Perspectivas Futuras
A Resolução CFM nº 2.454/2026, que entrará em vigor em agosto de 2026, marca um ponto de inflexão, buscando equilibrar a inovação tecnológica com a segurança e a ética médica. O sucesso da integração da IA no futuro da saúde brasileira dependerá da capacidade dos gestores e dos profissionais de superarem os gargalos de infraestrutura e governança, garantindo que a tecnologia, de fato, amplie a qualidade do cuidado sem desumanizar a prática médica.
