A Faculdade de Ciências Médicas da Santa Casa de São Paulo (FCMSCSP) iniciou novas etapas em pesquisas que aplicam inteligência artificial (IA) à saúde mental, um campo que vem transformando o diagnóstico, a triagem e a personalização do cuidado em todo o mundo. Os projetos desenvolvidos na Instituição estão entre os pioneiros no Brasil e buscam oferecer soluções que ampliem o acesso ao atendimento e contribuam para diagnósticos mais precisos.
Entre as iniciativas em andamento está o estudo “Avaliação acústica da voz e ansiedade de estudantes universitários em período de provas”, coordenado pelo Prof. Dr. Ricardo Riyoti Uchida, que utiliza algoritmos de IA para identificar sinais de sofrimento psíquico a partir de padrões vocais. Outro destaque é o Projeto APOENA, coordenado pelo Prof. Dr. Lucas Murrins Marques, que investiga o uso de chatbots para mapear sentimentos relacionados à ecoansiedade, depressão e solastalgia em diferentes públicos.
“A inteligência artificial abre a possibilidade de identificar precocemente sinais de ansiedade e sofrimento psíquico, ampliando o alcance da atenção primária em saúde mental, além de apoiar decisões personalizadas”, explica o Prof. Dr. Victor Otani, docente do Departamento de Saúde Mental da Faculdade.
“O avanço deve ser baseado em princípios éticos, supervisão humana contínua e marcos regulatórios sólidos”, diz.
Segundo a Organização Mundial da Saúde (OMS), o Brasil lidera o ranking global de transtornos de ansiedade. Nesse cenário, iniciativas que utilizam tecnologia de ponta podem contribuir para ampliar o acesso aos serviços de saúde para o paciente, gerar uma maior precisão diagnóstica e reduzir os processos burocráticos aos profissionais da saúde.
Além do impacto assistencial, os projetos também buscam discutir desafios éticos e sociais relacionados ao uso de IA na saúde mental, como privacidade de dados sensíveis, vieses algorítmicos e a necessidade de maior transparência nos processos de tomada de decisão.
Entre os principais referenciais para utilizar a inteligência artificial na saúde de forma ética estão:
– O Artificial Intelligence Act, da União Europeia, que estabelece uma abordagem baseada em risco e exige uma avaliação contínua de impacto sobre direitos fundamentais; supervisão humana obrigatória; requisitos formais de transparência, documentação e rastreamento; e proibição explícita para sistemas que infiram emoções ou classifiquem pacientes com base em traços sociais ou comportamentais quando isso representar risco discriminatório;
– O FDA Guidance on AI-Enabled Devices, dos Estados Unidos, que estabelece diretrizes específicas para softwares de decisão clínica baseados em IA. As orientações incluem: Adoção de “Boas Práticas de Aprendizado de Máquina”; avaliação contínua do desempenho do algoritmo, especialmente após atualizações; garantias de transparência sobre os riscos algorítmicos e vieses potenciais; exigência de validações clínicas contextualizadas e relatórios acessíveis a pacientes e profissionais.
“Essas práticas refletem o compromisso regulatório com sistemas que sejam, ao mesmo tempo, eficazes e responsavelmente integrados aos cuidados de saúde”, diz o professor Victor Otani.