Estudos abordam os prós e contras do emprego da IA na área da saúde

O emprego da inteligência artificial (IA) na área da saúde tem provocado debates contínuos sobre os prós e contras éticos, clínicos e financeiros de confiar em algoritmos para atendimento ao paciente.

De algoritmos de aprendizado profundo, que podem ler tomografias mais rapidamente do que humanos, a processamento de linguagem natural (NLP), que pode vasculhar dados não estruturados em registros eletrônicos de saúde (EHRs), as aplicações para IA se tornaram onipresentes hoje no setor de saúde e parecem ser infinitas. Mas, como qualquer tecnologia no auge de sua curva como hype, a IA enfrenta críticas de seus céticos, juntamente com o entusiasmo de evangelistas obstinados.

Apesar de seu potencial para revelar novos insights e simplificar a maneira como provedores e pacientes interagem com dados de saúde, a IA pode trazer ameaças consideráveis de problemas de privacidade, preocupações éticas e erros médicos. Equilibrar os riscos e recompensas da IA na área da saúde exigirá um esforço colaborativo de desenvolvedores de tecnologia, reguladores, usuários finais e consumidores.

Além disso, o emprego da IA na área da saúde desafiará o status quo à medida que o setor se adapta às novas tecnologias. Como resultado, as relações paciente-profissional serão mudadas para sempre. Também é preciso considerar a ideia corrente de que a inteligência artificial substituirá os trabalhadores na saúde.

Uma amostra dessa preocupação é que 71% dos americanos entrevistados pelo instituto Gallup em 2018 — os dados mais recentes disponíveis — acreditam que a IA eliminará mais empregos na área de saúde do que criará. Pouco menos de um quarto relatou acreditar que o setor de saúde estará entre os primeiros a ver cartas de demissão devido ao surgimento de ferramentas de aprendizado de máquina. Os mais vulneráveis são os radiologistas e patologistas, já que muitos dos avanços mais impressionantes da IA estão acontecendo na área de análise e diagnóstico por imagem.

Em um relatório de 2021, pesquisadores da Universidade de Stanford avaliaram os avanços em IA nos últimos cinco anos para ver como as percepções e tecnologias mudaram. Eles encontraram evidências do uso crescente de IA nas áreas de robótica, games e finanças.

As tecnologias que suportam esses recursos inovadores também estão “encontrando um lar” na área da saúde, e os médicos estão começando a se preocupar com o fato de a IA estar prestes a expulsá-los de seus consultórios e clínicas. “Nos últimos anos, as tecnologias de imagem baseadas em IA passaram de uma atividade acadêmica para projetos comerciais. Agora existem ferramentas para identificar uma variedade de distúrbios oculares e cutâneos, detectar cânceres e apoiar as medições necessárias para o diagnóstico clínico”, afirma o relatório.

Segundo o documento, alguns desses sistemas rivalizam com as habilidades diagnósticas de patologistas e radiologistas especializados e podem ajudar a aliviar tarefas tediosas como, por exemplo, contar o número de células que se dividem no tecido canceroso. Em outros domínios, no entanto, o uso de sistemas automatizados levanta preocupações éticas significativas.

Ao mesmo tempo, no entanto, pode-se argumentar que simplesmente não há radiologistas e patologistas suficientes — ou cirurgiões, ou prestadores de cuidados primários, ou intensivistas — para começar.

Os EUA estão enfrentando uma perigosa escassez de médicos, especialmente nas regiões rurais, e a seca é ainda pior nos países em desenvolvimento em todo o mundo. Portanto, uma pequena ajuda de ferramentas de IA, que não precisam de uma xícara de café durante o turno da noite, pode não ser uma má ideia para os médicos que lutam para atender às demandas de muitos casos e pacientes complexos, que requerem investimentos significativos em cuidados.

A IA também pode ajudar a aliviar o estresse e o esgotamento que afasta os médicos da prática. A epidemia afetou a maioria dos médicos, para não mencionar enfermeiros e outros prestadores de cuidados, que provavelmente reduzirão suas horas ou se aposentarão mais cedo. Portanto, automatizar algumas das tarefas de rotina que ocupam o tempo de um médico, como documentação de EHR  (Electronic Health Record, ou registro eletrônico de saúde), relatórios administrativos ou até triagem de tomografias computadorizadas, pode liberá-lo para se concentrar nos complicados desafios de pacientes com condições raras ou graves.

A maioria dos especialistas em IA acredita que essa mistura de experiência humana e aumento digital será o ponto de equilíbrio natural para a IA na área da saúde. Cada tipo de inteligência trará algo para a mesa e ambos trabalharão juntos para melhorar a prestação de cuidados.  Por exemplo, a inteligência artificial está idealmente equipada para lidar com desafios que os humanos naturalmente não são capazes de enfrentar, como sintetizar gigabytes de dados brutos de várias fontes em uma única pontuação de risco codificada por cores para um paciente hospitalizado com sepse. Mas ninguém espera que um robô converse com a família do paciente sobre as opções de tratamento ou os console se a doença tirar a vida do paciente.

Outro aspecto é que a IA apresenta um novo conjunto de desafios em relação à privacidade e segurança dos dados — desafios que são agravados pelo fato de que a maioria dos algoritmos precisa de acesso a enormes conjuntos de dados para treinamento e validação. Embaralhar gigabytes de dados entre sistemas diferentes é um território desconhecido para a maioria das instituições de saúde, e as partes interessadas não estão mais subestimando os perigos financeiros e de reputação de uma violação de dados de alto perfil.

A maioria das instituições é aconselhada a manter seus ativos de dados bem protegidos em sistemas altamente seguros e compatíveis com HIPAA (Health Insurance Portability and Accountability Act), conjunto de normas que as instituições de saúde norte-americanas devem cumprir para proteger as informações.

À luz de uma epidemia de ransomware e ataques cibernéticos de todos os tipos, os CISOs têm todo o direito de relutar em reduzir suas pontes e permitir que os dados entrem e saiam livremente de suas empresas. Armazenar grandes conjuntos de dados em um único local torna esse repositório um alvo muito atraente para hackers. Além da posição da IA como um alvo atraente para os operadores de ameaças, há uma grande necessidade de regulamentações em torno da IA e como proteger os dados do paciente usando essas tecnologias.

“Garantir a privacidade de todos os dados exigirá que as leis e regulamentos de privacidade de dados sejam atualizados para incluir dados usados em sistemas de IA e machine learning”, afirmou a Cloud Security Alliance (CSA). “As leis de privacidade precisam ser consistentes e flexíveis para levar em conta as inovações em IA e machine learning. Os regulamentos atuais não acompanharam as mudanças na tecnologia. A HIPAA exige a desidentificação de dados; no entanto, a tecnologia hoje pode vincular dados não identificados, resultando em identificação.” Isso faz com que a IA caia em uma área cinzenta regulatória, tornando difícil garantir que cada usuário seja obrigado a proteger a privacidade do paciente e enfrentará consequências por não o fazer.

Além de ataques cibernéticos mais tradicionais e preocupações com a privacidade do paciente, um estudo de 2021 de pesquisadores da Universidade de Pittsburgh publicado na Nature Communications descobriu que ataques cibernéticos usando imagens médicas falsificadas podem enganar modelos de IA.

O estudo lança luz sobre o conceito de “ataques adversários”, nos quais os malfeitores visam alterar imagens ou outros pontos de dados para fazer com que os modelos de IA tirem conclusões incorretas. Os pesquisadores começaram treinando um algoritmo de aprendizado profundo para identificar casos cancerígenos e benignos com mais de 80% de precisão. Em seguida, desenvolveram uma “rede adversária generativa” (GAN), um programa de computador que gera imagens falsas deslocando regiões cancerígenas de imagens negativas ou positivas para confundir o modelo.

O modelo de IA foi enganado por 69,1% das imagens falsificadas. Das 44 imagens positivas feitas para parecerem negativas, o modelo identificou 42 como negativas. Das 319 imagens negativas adulteradas para parecerem positivas, o modelo AI classificou 209 como positivas.

“O que queremos mostrar com este estudo é que esse tipo de ataque é possível e pode levar os modelos de IA a fazer o diagnóstico errado – o que é um grande problema de segurança do paciente”, Shandong Wu, PhD, autor sênior e professor de radiologia, informática biomédica e bioengenharia da Universidade de Pittsburgh. “Ao entender como os modelos de IA se comportam sob ataques em contextos médicos, podemos começar a pensar em maneiras de tornar esses modelos mais seguros e robustos”, completou.

Segundo o estudo, segurança e privacidade sempre serão primordiais, mas essa mudança contínua de perspectiva, à medida que as partes interessadas se familiarizam com os desafios e oportunidades do compartilhamento de dados, é vital para permitir que a IA floresça em um ecossistema de TI de saúde em que os dados são isolados e o acesso a informações de qualidade é um deles. dos maiores obstáculos da indústria.

Ética, responsabilidade e supervisão

As questões mais espinhosas no debate sobre inteligência artificial são as filosóficas. Além dos dilemas teóricos sobre quem leva a culpa final por um erro com risco de vida, há consequências jurídicas e financeiras tangíveis quando a palavra “malversação” entra na equação.

Os algoritmos de IA são complexos por sua própria natureza. Quanto mais avançada for a tecnologia, mais difícil será para o ser humano médio dissecar os processos de tomada de decisão dessas ferramentas.
As instituições já estão lutando com a questão da confiança quando se trata de seguir as recomendações que piscam na tela do computador, e os provedores são pegos na difícil situação de ter acesso a grandes volumes de dados, mas não se sentirem confiantes nas ferramentas disponíveis para ajudá-los analisar através dele.

Embora se presuma que a inteligência artificial esteja completamente livre dos vieses sociais e baseados na experiência arraigados no cérebro humano, esses algoritmos talvez sejam ainda mais suscetíveis do que as pessoas a fazer suposições se os dados em que são treinados forem distorcidos em uma perspectiva ou outra.

Atualmente, existem poucos mecanismos confiáveis para sinalizar tais vieses. Ferramentas de IA de “caixa preta” que fornecem pouca justificativa para suas decisões apenas complicam o problema – e tornam mais difícil atribuir responsabilidade a um indivíduo quando algo dá errado.

Quando os provedores são legalmente responsáveis por quaisquer consequências negativas que possam ter sido identificadas a partir dos dados que possuem, eles precisam ter certeza absoluta de que os algoritmos que usam estão apresentando todas as informações relevantes de forma a permitir a tomada de decisão ideal.

Risco de viés cognitivo

Um algoritmo de inteligência artificial usado para diagnóstico e análise preditiva deve ter a capacidade de ser mais equitativo e objetivo do que suas contrapartes humanas. Infelizmente, o viés cognitivo e a falta de dados abrangentes podem se infiltrar nos algoritmos de IA e aprendizado de máquina.

Em um relatório de 2021, a CSA sugeriu que a regra geral deveria ser presumir que os algoritmos de IA contêm viés e trabalham para identificar e mitigar esses vieses. “A proliferação de abordagens preditivas e de modelagem baseadas em técnicas baseadas em dados e machine learning ajudou a expor vários vieses sociais inseridos em sistemas do mundo real, e há evidências crescentes de que o público em geral se preocupa com os riscos sociais da IA”, disse o relatório. “Identificar e abordar vieses no início do processo de formulação do problema é um passo importante para melhorar o processo.”

Os desenvolvedores podem, sem saber, introduzir vieses nos algoritmos de IA ou treinar os algoritmos usando conjuntos de dados incompletos. Independentemente de como isso aconteça, os usuários devem estar cientes dos possíveis vieses e trabalhar para gerenciá-los.

Em 2021, a Organização Mundial da Saúde (OMS) divulgou o primeiro relatório global sobre ética e governança da IA na área da saúde. A OMS enfatizou as possíveis disparidades de saúde que podem surgir como resultado da IA, principalmente porque muitos sistemas de IA são treinados com dados coletados de pacientes em ambientes de cuidados de alta renda.
A OMS sugeriu que considerações éticas devem ser levadas em consideração durante o projeto, desenvolvimento e implantação da tecnologia de IA. Especificamente, recomendou que as pessoas que trabalham com IA operem de acordo com os seguintes princípios éticos:

·      Protegendo a autonomia humana
·      Promovendo o bem-estar e a segurança humana e o interesse público
·      Garantindo transparência, explicabilidade e inteligibilidade
·      Promovendo responsabilidade
·      Garantindo a inclusão e a equidade
·      Promovendo uma IA responsiva e sustentável

O viés na IA é um negativo significativo, mas que desenvolvedores, médicos e reguladores estão tentando mudar ativamente. Garantir que a inteligência artificial se desenvolva de forma ética, segura e significativa na área da saúde será responsabilidade de todas as partes interessadas: provedores, pacientes, pagadores de impostos, desenvolvedores e todos os demais.

Há mais perguntas para responder do que qualquer um pode imaginar. Mas as perguntas não respondidas são a razão para continuar explorando — não para ficar para trás. Definir as abordagens do setor para IA é uma responsabilidade insondável e uma oportunidade de ouro para evitar alguns dos erros do passado e traçar um caminho melhor para o futuro, diz o relatório.

Related posts

Movimento em prol de saúde mais inclusiva tem apoio da ANS

Minsait desenvolve sistema que agiliza doação e transplante de órgãos, em parceria com a Secretaria de Estado da Saúde de Goiás

Devices: a integração do mundo digital e físico no atendimento ao paciente