Indiscutivelmente, o bom uso da tecnologia na saúde tem a capacidade de agilizar e melhorar a qualidade do atendimento, além de aumentar a precisão dos diagnósticos e procedimentos. Mas, conforme observa a médica reumatologista Eloisa Bonfá, diretora da Faculdade de Medicina da Universidade de São Paulo (FMUSP), é preciso ter em mente que a soluções tecnológicas são instrumentos que ajudam o profissional de saúde, e não o substitui.
Esse é o caso, segundo ela, em relação à rápida evolução da inteligência artificial (IA). “Cabe a nós nos prepararmos para conhecer e fazer uma análise crítica das vantagens e desvantagens dos dispositivos de saúde disponíveis”, observa ela, ao fazer referência ao ChatGPT, ferramenta desenvolvida pela OpenAI que utiliza o processamento de linguagem natural, com base em algoritmos de IA, e funciona como uma espécie de bate-papo no qual o usuário pode fazer perguntas e solicitar textos e respostas em diferentes formatos e idiomas.
“O ChatGPT é uma IA que pode ter muitos usos na saúde pelos médicos. Essa ferramenta pode auxiliar como suporte na decisão e atuação do profissional de saúde, por exemplo, na orientação de protocolos, sugestão de diagnóstico e conduta, alerta de interação de medicamentos, organização de prontuários, resumo e tradução de artigos científicos; automatizar funções administrativas (agendamento, autorizações e contratos); e auxiliar na educação dos pacientes (informações personalizadas em linguagem leiga)”, explica Eloisa.
Porém, é importante entender, segundo ela, que essa tecnologia de IA tem algumas limitações. “Primeiro, ela depende de uma base de dados aberta e, na área da saúde, muitas informações de qualidade estão em rede fechada. Além disso, os dados são limitados até o ano de 2021. Depois, ela não fornece fonte confiável, pois elabora textos a partir de uma base de bilhões de dados. As referências oferecidas são genéricas, imprecisas e não específicas. Por fim, ela pode ‘alucinar’, isto é, fornece dados que não são corretos, pois quando não encontra respostas, algumas vezes fornece dados aproximados”, elenca a diretora da FMUSP.
Devido a esses aspectos, é fundamental a revisão do texto, alerta Eloisa, que reafirma que o ChatGPT não é uma solução mágica que substitui o trabalho humano. É fundamental que os médicos e profissionais de saúde tenham o discernimento de separar as informações relevantes e verdadeiras das não verdadeiras. A médica defende que, para ser usado de maneira mais segura pela medicina, o ChatGPT precisaria de regulamentação. “A nova ferramenta tem como fragilidade a questão do respeito à privacidade de dados e necessita de uma regulamentação governamental. Por isso, é importante que os profissionais de Saúde a usem com cautela e sempre aliada ao conhecimento e experiência humana”, ressalta Eloisa.
Ela enfatiza ainda que a nova tecnologia pode influenciar positivamente a relação médico-paciente. “Tenho a esperança de que o bom uso aumentará o tempo disponível para a relação médico-paciente. E teremos um parceiro poderoso, e não um concorrente, nas nossas atividades”, destaca.
Segundo Eloisa, a ferramenta pode contribuir na evolução da saúde digital na assistência médica à população, pois é capaz de contribuir com o compartilhamento de protocolos de tratamento, ser referência para algoritmos de atendimento, orientação para pacientes e alerta para interação de medicamentos, entre outras possibilidades. “Vamos aprender a usar o ChatGPT, é a melhor forma de assegurarmos o bom uso”, diz ela.
O tema será debatido durante o Global Summit APM 2023, que ocorrerá entre os dias 20 e 22 de novembro, no Centro de Convenções Frei Caneca, em São Paulo. Para mais informações acesse aqui.