IA na medicina representa uma nova era de cuidados e responsabilidades

Nos últimos anos, vimos o nascimento e o desenvolvimento de tecnologias inovadoras e relevantes, a exemplo da Inteligência Artificial (IA), e suas aplicações nas mais variadas esferas, como na saúde. Dentre essas inovações, está, por exemplo, o ChatGPT, uma IA generativa avançada, criada pela OpenAI. Ele não apenas “entende” e gera texto, mas pode ser treinado para realizar uma série de tarefas complexas e especializadas. Porém, embora o uso da IA no ambiente médico traga inúmeros benefícios, também enfrenta desafios e levanta questões éticas.

No Brasil, aliás, o assunto está em pauta atualmente no Senado, com a regulamentação da IA, por meio do projeto de lei (PL) 2.338/2023, que está para ser votado e estabelece princípios, direitos e regras para uso da ferramenta. O tema vem sendo alvo de divergências e controvérsias entre os diversos setores e categorias, abrangendo tanto aqueles que oferecem como os que utilizam a inteligência artificial no cotidiano.

Conforme explicou o professor da Universidade de Brasília (UnB) e pesquisador na área de inovação tecnológica aplicada à saúde, Dr. Paulo Henrique de Souza Bermejo, o uso da IA requer o acesso a grandes quantidades de dados de saúde, o que pode comprometer a privacidade e a segurança dos pacientes, entre outros fatores. Então quem é responsável se um algoritmo de inteligência artificial vazar dados de um paciente, por exemplo? Como se pode assegurar que as informações coletadas não sejam usadas para fins criminosos? Essas são perguntas que as instituições precisam considerar ao implementar tecnologias de IA, como enfatizou o especialista.

“Com o potencial para transformar o acesso à informação, a tomada de decisões baseadas em dados e a interação com os pacientes, o uso do ChatGPT na saúde, junto com outras tecnologias de IA, está se tornando mais evidente e necessário. Por isso, é essencial garantir que esse material seja adequadamente protegido e utilizado de forma ética, seguindo as diretrizes de consentimento informado e anonimização dos dados”, afirmou o especialista.

Noutra perspectiva, o professor Bermejo explanou que os algoritmos de IA são tão bons quanto os dados que os alimentam, de modo que se as informações utilizadas para treinar esses sistemas forem tendenciosas ou não representativas da diversidade da população, por exemplo, isso pode resultar em decisões discriminatórias ou desigualdades na prestação de cuidados de saúde. “Para não gerar danos, é fundamental garantir que os sistemas de IA sejam desenvolvidos e testados levando em consideração a equidade e a inclusão”, apontou o professor.

Outro ponto observado pelo especialista diz respeito à transparência. Para ele, os sistemas de IA devem ser claros e honestos em relação a como funcionam e as decisões tomadas. “O ideal é que os profissionais de saúde e os pacientes possam não apenas compreender os mecanismos, mas também questionar as recomendações e resultados fornecidos pelos algoritmos. A responsabilidade pelos erros e decisões, realizados com base nas informações trazidas pela IA, é um aspecto igualmente importante a se ter em conta”, disse.

Momento de transição

Paulo Bermejo pontuou que vivemos um momento de transição para a utilização da inteligência artificial na saúde, sendo que não é somente uma questão de adotar a nova tecnologia, mas de promover adaptações e ajustes para esta nova cultura de cuidados. “Tal contexto requer a colaboração entre profissionais da área, pesquisadores, desenvolvedores de IA e reguladores”, disse.

E, para isso, alguns elementos devem ser levados em consideração. As instituições de saúde necessitam de políticas de privacidade bem definidas e atualizadas periodicamente para se adequarem às novas tecnologias e regulamentações. Tais políticas devem abordar não apenas o armazenamento de dados, mas também a coleta, uso e compartilhamento de informações médicas e de identificação, como destacou o docente.

“Uma forma eficaz de proteger a privacidade dos pacientes é a anonimização de dados. Desse modo, ao remover ou modificar as informações que possam identificar a pessoa, a IA pode se valer dos dados para alimentar o modelo, sem que seja comprometida a privacidade do paciente”, revelou.

Noutra frente do problema, as ameaças cibernéticas são uma preocupação constante, portanto é crucial garantir que os sistemas de IA estejam protegidos contra possíveis ataques. “Isso inclui, por exemplo, o uso de firewalls, o uso de criptografia para a proteção de dados e que se façam auditorias de segurança frequentemente. Além disso, apenas indivíduos autorizados devem ter acesso aos dados de saúde e este acesso precisa ser limitado no que se refere às informações sensíveis, como apontou o professor.

Educação e treinamento também são uma parte muito importante no processo. Desse modo, tanto os profissionais como pacientes devem ser educados sobre quão essencial é a privacidade de dados na saúde e como a IA está sendo usada. “Isso não apenas impacta positivamente em relação à transparência, como permite que os usuários tomem decisões sobre seus próprios dados”, revelou. O professor acrescentou que deve haver mecanismos para rastrear e auditar o uso da IA na saúde, para que caso ocorram erros ou problemas, se possa identificar rapidamente o que aconteceu e de quem é a responsabilidade.

À medida que a IA segue em franca evolução e expansão, novas oportunidades e obstáculos inevitavelmente surgirão. “Precisamos de um acompanhamento contínuo e uma abordagem cuidadosa para ampliar os benefícios e diminuir os riscos, tendo em vista a melhoria na vida e no bem-estar dos pacientes e os avanços na medicina”, concluiu o especialista.

Related posts

Monitorização contínua por eletroencefalograma em pacientes críticos na UTI é urgente na medicina moderna

Como as healthtechs estão usando a IA para fortalecer a relação médico-paciente

Acessibilidade e segurança: interação de pessoas com deficiência visual com a tecnologia de biometria facial