terça-feira, julho 23, 2024
Home Artigos IA na saúde exige parâmetros e responsabilidade ética

IA na saúde exige parâmetros e responsabilidade ética

por Marcos Tadeu Machado
0 comentário

A inteligência artificial (IA) não é mais novidade e tem um papel cada vez mais importante no futuro da saúde, podendo ter um impacto significativo na melhoria do atendimento ao paciente, eficiência operacional e redução de custos.

Mas, à medida que os temores sobre o potencial disruptivo da IA aumentam, a ética ganha destaque. Preocupações com privacidade, transparência e capacidade dos algoritmos de distorcer o discurso social e político de maneiras inesperadas resultaram em uma enxurrada de pronunciamentos de governos e organizações e instituições internacionais sobre como conduzir o desenvolvimento ético de tecnologias disruptivas na saúde. No Brasil, o Instituto Ética Saúde é uma delas.

A IA pode ser usada em diagnósticos médicos e tratamentos, em que sistemas usam dados de pacientes para ajudar a identificar sintomas e doenças que podem ser difíceis de detectar pelos médicos; ajudar a desenvolver drogas potenciais mais rapidamente e com maior precisão; realizar monitoramento de sinais vitais em tempo real; assistência robótica em cirurgias; triagem de pacientes em tempo real e atendimento ao cliente por meio de chatbots — software capaz de manter uma conversa com um usuário humano em linguagem natural. E essas tecnologias devem continuar a evoluir e encontrar novas aplicações, proporcionando resultados melhores para pacientes e profissionais de saúde.

A ética no uso da inteligência artificial na saúde é fundamental para garantir que a tecnologia seja utilizada de forma justa, transparente e respeitosa com as pessoas envolvidas. Neste sentido, é preciso criar parâmetros e responsabilidades.

A seguir, são abordadas algumas questões que deve ser consideradas:

1) Privacidade e proteção de dados: é importante garantir que os dados dos pacientes sejam processados e armazenados de forma segura e de acordo com as regulamentações aplicáveis para proteger a privacidade dos pacientes;

2) Viés algorítmico: os algoritmos de IA são treinados com base em dados. Se esses dados forem tendenciosos, o algoritmo também será tendencioso. É crucial garantir que os dados utilizados sejam representativos da diversidade da população e que os algoritmos sejam monitorados quanto a possíveis vieses;

3) Responsabilidade e tomada de decisão: os sistemas de IA devem ser transparentes e responsáveis em suas decisões, especialmente quando se trata de diagnósticos e tratamentos de saúde. É importante que os profissionais de saúde que usam esses sistemas entendam como eles funcionam e devem ser responsáveis por suas decisões finais;

4) Consentimento dos pacientes: os pacientes devem ser informados de como seus dados serão usados e terem a opção de optar por não participar de serviços que usam inteligência artificial.

Em resumo, a ética deve ser considerada em todas as fases do desenvolvimento e implantação da IA na saúde, garantindo que a tecnologia seja usada de forma responsável, transparente e não discriminatória. Dessa maneira, todos sairão ganhando.

*Marcos Tadeu Machado é membro do conselho de administração do Instituto Ética Saúde e um dos seus fundadores.

Notícias relacionadas

Deixe um comentário

* Ao utilizar este formulário concorda com o armazenamento e tratamento dos seus dados por este website.

SAÚDE DIGITAL NEWS é um portal de conteúdo jornalísticos para quem quer saber mais sobre tendências, inovações e negócios do mundo da tecnologia aplicada à cadeia de saúde.

Artigos

Últimas notícias

© Copyright 2022 by TI Inside