Autor(a) Convidado(a)
É presidente da Comissão Especial de Direito Médico do Conselho Federal da OAB e conselheiro estadual da OAB/ES

Inteligência Artificial na medicina: como equilibrar inovação e segurança

No campo jurídico, a responsabilidade civil é compartilhada. Em eventuais danos, avalia-se tanto a conduta do médico quanto a qualidade da ferramenta utilizada

  • Eduardo Amorim É presidente da Comissão Especial de Direito Médico do Conselho Federal da OAB e conselheiro estadual da OAB/ES
Publicado em 10/12/2025 às 14h05

A inteligência artificial (IA) já faz parte da rotina médica: auxilia na análise de exames, sugere diagnósticos, identifica padrões invisíveis ao olhar humano e contribui para decisões terapêuticas mais precisas. Esses avanços representam ganhos significativos de eficiência e segurança, mas também trazem desafios éticos e jurídicos que exigem atenção redobrada dos profissionais de saúde.

Do ponto de vista ético, a IA não substitui o julgamento clínico. O Código de Ética Médica impõe ao profissional o dever indelegável de avaliar cada caso de forma individualizada. Portanto, recomenda-se que algoritmos e ferramentas digitais sejam tratados como instrumentos de apoio, e não como decisão final. O uso inadequado, acrítico ou sem verificação pode caracterizar imprudência ou negligência.

A transparência também se tornou um ponto central. Muitas tecnologias operam como “caixas-pretas”, dificultando compreender como chegaram a determinada conclusão. Assim, o médico deve conhecer as limitações do sistema, advertir o paciente sobre riscos e evitar dependência excessiva. A autonomia do paciente exige consentimento informado específico quando a IA influenciar condutas diagnósticas ou terapêuticas.

No campo jurídico, a responsabilidade civil é compartilhada. Em eventuais danos, avalia-se tanto a conduta do médico quanto a qualidade da ferramenta utilizada. Empresas desenvolvedoras podem responder por falhas do sistema, enquanto o médico pode ser responsabilizado se agir sem a cautela esperada, se confiar cegamente no algoritmo ou se deixar de revisar informações essenciais. A documentação no prontuário sobre como a IA foi utilizada é cada vez mais relevante.

Outro reflexo importante decorre da proteção de dados. A Lei Geral de Proteção de Dados (LGPD) classifica informações de saúde como sensíveis, exigindo bases legais adequadas, segurança reforçada e mínima coleta possível. Sistemas de IA devem garantir anonimização, governança e rastreabilidade, evitando exposição indevida do paciente.

Por fim, a incorporação da IA deve ser acompanhada de políticas públicas que priorizem qualidade, interoperabilidade e critérios técnicos transparentes. O desafio contemporâneo é equilibrar inovação e segurança: colher os benefícios da tecnologia sem renunciar à ética, ao dever de cuidado e ao protagonismo clínico que continua – e continuará sendo – humano.

Este texto não traduz, necessariamente, a opinião de A Gazeta.

A Gazeta integra o

Saiba mais
medicina Inteligência Artificial

Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.

Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta.