Uso de inteligência artificial no diagnóstico médico cresce e ganha regras no Brasil

PUBLICIDADE

Uso de inteligência artificial no diagnóstico médico cresce e ganha regras no Brasil

Depois de receber vários diagnósticos errados, a jovem galesa Phoebe Tesoriere teve uma convulsão e passou três dias em coma no hospital. Sem respostas, ela resolveu colocar os seus sintomas no ChatGPT. A ferramenta sugeriu que ela pudesse ter paraplegia espástica hereditária, uma doença neurológica rara. O médico realizou alguns testes e o diagnóstico se confirmou.

Casos em que a inteligência artificial influencia a descoberta de doenças têm se tornado cada vez mais comuns. No Brasil, um estudo da plataforma Olá Doutor revelou que 7 em cada 10 brasileiros recorreram à IA no último ano para tirar dúvidas sobre sintomas ou possíveis doenças.

No consultório, porém, esse uso foi regulamentado pelo Conselho Federal de Medicina (CFM). Em 27 de março, a entidade definiu a primeira resolução sobre o uso de inteligência artificial na prática médica no Brasil.

O que muda?

A norma do CFM define que a tecnologia deve servir como ferramenta de apoio, sem nunca substituir a decisão clínica do médico. Para isso, algumas medidas devem ser adotadas: 

  • A decisão final no diagnóstico ou tratamento do paciente continua sendo exclusiva do profissional de saúde;
  • O médico não pode ser obrigado a seguir as recomendações da IA;
  • Os sistemas de IA não podem nunca comunicar diagnósticos ou decisões terapêuticas diretamente ao paciente sem mediação humana;
  • O uso de IA como apoio à decisão médica deve sempre ser registrada em prontuário;
  • O risco das tecnologias de IA em relação ao impacto nos direitos fundamentais, sensibilidade dos dados utilizados, grau de autonomia do sistema e criticidade do contexto clínico deve ser avaliado antes que elas sejam adotadas para uso;
  • Instituições de saúde que desenvolverem sistemas de IA próprios deverão criar uma Comissão de IA e Telemedicina;
  • E modelos de IA que não respeitam a Lei Geral de Proteção de Dados (LGPD) não poderão ser utilizados.

“Eu acho que o CFM foi muito feliz em publicar essa resolução, porque ela trouxe segurança para o uso de forma ética. Por exemplo, se eu estou estudando um caso utilizando uma inteligência artificial, eu perguntei para ela qual é o diagnóstico mais provável e a resposta mudou a minha conduta, eu devo registrar isso. Eu devo informar o paciente: ‘Olha, eu estou utilizando inteligência artificial para me apoiar aqui no raciocínio clínico, tá?’”, explica Filipe Loures, médico de família e comunidade e co-fundador da Voa Health. 

E quando é o paciente quem faz a pesquisa na IA?

Por outro lado, quando o próprio paciente traz para o médico possíveis diagnósticos ou tratamentos sugeridos por ferramentas de IA, a conduta do profissional exige bom senso.

“Quem tem o conhecimento, a responsabilidade e, principalmente, a prerrogativa de dar a última palavra é o médico. Ele tem a responsabilidade de conferir todas as respostas da IA. Ele continua sendo a figura responsável por tomar as decisões e tirar as conclusões. Sempre que o que o paciente pesquisou no ChatGPT faz sentido e muda a conduta, o médico pode virar para o paciente e falar: ‘Poxa, realmente o ChatGPT te trouxe um detalhe que eu estava esquecendo’. E isso tem fundamento”, afirma Loures.

Segundo o especialista, para isso, o médico precisa estar em constante atualização. Ferramentas de inteligência artificial são treinadas com base em padrões de linguagem, e não dados clínicos reais dos pacientes. Por isso, podem apresentar respostas erradas de forma muito confiante, omitir contraindicações importantes e deixar de identificar situações que exigem atendimento imediato. Quanto mais conhecimento técnico por parte do profissional, mais eficiente e seguro é o uso da IA.

“Médicos bons, super bem informados, vão saber fazer perguntas melhores e criticar as respostas da IA. Um médico que não estuda, que não está atualizado, vai ficar rendido. Por isso a IA não substitui a formação médica. Pelo contrário, ela potencializa a formação”, destaca Loures.

Por parte do paciente, vale checar se as informações da IA apresentam fontes confiáveis, se mencionam estudos e se estão atualizadas. Além disso, é importante estar aberto para ouvir outros diagnósticos, que podem ser confirmados após a avaliação clínica do médico.

Veja também: Inteligência artificial: amiga ou inimiga da saúde?



Fonte: Minha vida, Dr. Drauzio Varella

Mais recentes

PUBLICIDADE

WP Twitter Auto Publish Powered By : XYZScripts.com