Em julho de 2025, publiquei neste espaço o artigo “IA na medicina e a resolução do Cremers: avanço ou retrocesso?”, no qual critiquei a Resolução 6/25 do Conselho Regional de Medicina do Rio Grande do Sul (CREMERS), apontando riscos de fragmentação normativa, possível sobreposição com competências da Anvisa e a atribuição de responsabilidades técnicas excessivas ao médico[1].
À época, a preocupação era: ao tentar disciplinar um fenômeno complexo como a inteligência artificial na medicina, estaria um conselho regional criando um ambiente de insegurança jurídica e desalinhamento institucional?
A publicação, agora, da Resolução 2.454/26 pelo Conselho Federal de Medicina (CFM) desloca o debate para outro patamar. Não se trata de uma iniciativa regional, com alcance territorial limitado e vocação experimental, mas de uma norma nacional que pretende estabelecer diretrizes uniformes para o uso de IA na prática médica em todo o país. A mudança de escala altera também o grau de responsabilidade e o impacto sistêmico da regulação.
Há diferenças objetivas e relevantes entre as duas normas. A resolução CREMERS possui foco eminentemente clínico e concentra-se na conduta individual do médico diante da tecnologia. Reafirma que a IA deveria apenas atuar como ferramenta auxiliar, veda a substituição da anamnese e do julgamento clínico e impõe ao profissional a obrigação de “validar previamente” os sistemas utilizados, além de exigir transparência quanto a dados de treinamento e algoritmos.
Embora bem-intencionada, a norma acabava por aproximar o médico de um papel técnico-regulatório que tradicionalmente pertence à autoridade sanitária, especialmente no contexto de softwares como dispositivos médicos já submetidos ao crivo da Anvisa.
Por sua vez, a resolução CFM mantém a premissa de que a decisão clínica permanece humana, mas amplia significativamente o escopo regulatório. A norma não se limita à conduta individual do profissional e passa a tratar de governança institucional, classificação de risco das aplicações de IA, monitoramento, rastreabilidade e deveres de supervisão crítica.
A abordagem deixa de ser apenas reativa, centrada na relação médico-paciente, e passa a incorporar uma dimensão estrutural, reconhecendo que a IA não é instrumento acessório, mas elemento que pode influenciar fluxos decisórios, organização de serviços e padrões assistenciais.
O deslocamento é relevante. Ao introduzir mecanismos de classificação de risco e exigir medidas proporcionais de controle, a resolução CFM sinaliza alinhamento com tendências regulatórias internacionais e com a necessidade de tratar a IA como tecnologia que exige gestão contínua, e não apenas consentimento pontual.
A preocupação com transparência, explicabilidade, proteção de dados e auditoria ganha contornos mais técnicos e menos retóricos do que na norma regional. Ainda assim, permanece uma questão delicada: até que ponto o CFM consegue avançar nessa arquitetura sem incorrer em sobreposição com competências exercidas pela Anvisa?
A regulação da inteligência artificial em saúde é, por natureza, compartilhada. A Anvisa avalia segurança e desempenho clínico de softwares classificados como dispositivos médicos (SaMD); a Autoridade Nacional de Proteção de Dados (ANPD) zela pelo tratamento adequado de dados pessoais; os conselhos profissionais disciplinam condutas éticas e responsabilidades individuais. O desafio está em evitar que cada ator, ao tentar preencher lacunas, produza camadas normativas redundantes ou conflitantes. A resolução CFM reduz o risco de fragmentação regional, mas não elimina a necessidade de coordenação interinstitucional.
Outro ponto que merece reflexão é o tratamento da responsabilidade médica. A resolução CFM reafirma que a decisão final cabe ao profissional e que a IA atua como apoio. Ao mesmo tempo, procura delimitar situações em que falhas sistêmicas não podem ser automaticamente imputadas ao médico. A calibragem é importante, sobretudo em um cenário em que algoritmos podem apresentar vieses ou limitações não perceptíveis a olho nu.
A autonomia profissional não pode ser confundida com responsabilidade ilimitada. Preservar a centralidade do médico não significa transformá-lo em garantidor absoluto do funcionamento tecnológico.
A resolução CFM também avança ao tratar de governança e monitoramento contínuo, deslocando o foco do momento da implementação para o ciclo de vida da tecnologia. A ideia de que sistemas de IA exigem acompanhamento, revisão e atualização constantes é coerente com a natureza dinâmica desses modelos.
Ainda assim, a operacionalização prática desses deveres suscita dúvidas legítimas. Como garantir explicabilidade adequada em modelos de alta complexidade técnica? Como compatibilizar transparência com proteção de propriedade intelectual? Como distribuir responsabilidades entre hospitais, desenvolvedores e profissionais de saúde?
Essas perguntas não encontram respostas completas na resolução CFM, e talvez não pudessem encontrá-las. A função de uma resolução não é esgotar a complexidade tecnológica, mas oferecer balizas éticas e organizacionais. O risco, entretanto, é que interpretações excessivamente restritivas ou maximalistas transformem um marco regulatório sofisticado em obstáculo à inovação.
A experiência recente mostra que a reação institucional à IA na medicina oscila entre entusiasmo acrítico e desconfiança defensiva. Nenhum dos extremos é desejável. A tecnologia pode ampliar acesso, reduzir erros e apoiar decisões clínicas, mas também pode reproduzir desigualdades e introduzir novas formas de opacidade decisória. A regulação precisa reconhecer simultaneamente esses potenciais e esses riscos.
Ao editar a Resolução 2.454/26, o CFM optou por enfrentar o tema de forma abrangente, assumindo protagonismo nacional no debate. A norma representa avanço em termos de sistematização e maturidade institucional quando comparada à iniciativa regional anteriormente analisada. Ainda assim, sua eficácia dependerá menos da densidade do texto e mais da forma como será interpretada e aplicada na prática.
Regular IA na medicina não é simplesmente impor limites à tecnologia. É construir um ambiente previsível, no qual médicos saibam quais são suas responsabilidades, desenvolvedores compreendam os parâmetros éticos de atuação e pacientes tenham garantias claras de segurança e transparência. O equilíbrio exige diálogo constante entre conselhos profissionais, autoridades sanitárias, especialistas em tecnologia e sociedade civil.
A consolidação normativa promovida pelo CFM não encerra o debate. Ao contrário, inaugura uma fase em que a coordenação institucional se torna ainda mais necessária. A pergunta central permanece: conseguiremos estruturar um modelo regulatório que proteja o paciente sem sufocar a inovação? A resposta não estará apenas na letra da resolução, mas na capacidade das instituições brasileiras de dialogar e ajustar, com prudência e abertura, os contornos dessa nova fronteira da medicina.
[1] Disponível em: https://www.jota.info/opiniao-e-analise/artigos/ia-na-medicina-e-a-resolucao-do-cremers-avanco-ou-retrocesso.

