Podemos definir inteligência artificial como um dispositivo que executa tarefas em circunstâncias variadas e imprevisíveis, sem supervisão humana significativa, ou que pode aprender com a experiência e melhorar o desempenho quando exposto a conjuntos de dados. Isso segundo a NASA. O novo texto da NR-1 estabelece responsabilidades a trabalhadores e empregadores em relação às questões relacionadas às falhas na organização do trabalho – que podem desencadear doenças ocupacionais, tanto de ordem mental ou oriunda do mal gerenciamento do planejamento das tarefas em uma empresa.
A norma pede, ainda, que estes riscos sejam mapeados, gerenciados e reportados ao Governo, garantindo um ambiente mais saudável ao trabalhador. Mas, a pergunta é: como a IA poderia ajudar neste tema especificamente? Antes de iniciarmos o raciocínio, gostaria de apresentar a discussão ética que embasa a criação de um movimento chamado “Inteligência Artificial Constitucional”. Este movimento define que a base da construção de novas AI sigam quatro preceitos: alinhamento com os valores humanos, transparência, segurança e aprendizado ético.
Alinhamento com valores humanos. A NR-1 está focada na preservação da saúde e do bem-estar dos trabalhadores, ou seja, qualquer inteligência desenvolvida para endereçar este modelo de gestão deve seguir a sua constituição baseada nas três leis da robótica estabelecidas por Isaac Azimov, considerado um dos mestres da ficção científica. Pois bem, a primeira lei: um robô não pode ferir um ser humano ou, por inação, permitir que esse sofra algum mal. Nesta linha, qualquer sistema de saúde ocupacional deve ter um sua lógica de programação com a firme determinação de atuar para identificar agravos à saúde, e se possível, atuar na prevenção de acidentes.
O sistema deve ser criado puramente para isto, e não para atender outras saídas, como aumentar a venda de consultas médicas ou de psicologia. Ou ainda, fornecer dados para novo cálculo de planos de saúde que podem, em última instância, dificultar o acesso dos trabalhadores aos convênios, ocasionado pelo aumento de mensalidade impossíveis de pagar, ou mesmo pela expulsão de famílias e empresas dos planos de saúde.
Transparência e responsabilidade na utilização de dados
Pesquisa publicada no Journal of Health Economics and Outcomes Research apontou que, algoritmos treinados com base em dados antigos de saúde pública em uma determinada região dos EUA – em que populações negras tinham menos acesso a cuidados mais especializados em saúde -, concluiu que populações negras não precisavam de cuidados terciários. Logo, o algoritmo não encaminhou essas pessoas para aquele determinado hospital para realização de exames preventivos.
Ao verificar o que estava ocorrendo, os pesquisadores descobriram que havia um BIA ou viés de IA. Isto ocorre quando estereótipos e suposições sociais errôneas entram no conjunto de dados do algoritmo, o que inevitavelmente leva a resultados enviesados.
Já o quesito segurança, qualquer sistema de IA desenvolvido deveria atender ao princípio básico da segurança. No caso da NR-1, o foco é a segurança dos trabalhadores. Ao identificarmos no início, e por meio do aprendizado de máquina os sinais iniciais de sofrimento psíquico, já é possível com certa confiabilidade prever o desenvolvimento de uma doença como o Burnout, e identificar suas causas raízes como mandatório no novo texto da NR-1.
Neste sentido, os avanços na IA permitem que as áreas de saúde das empresas ajam, preventivamente, antes que doenças ocupacionais se tornem mais sérias. Com a adoção do novo texto, sistemas de gestão para o controle da organização do trabalho devem ser adotados, bem como os agravos à saúde mental dos trabalhadores devem ser evitados.
Se uma empresa fornece um sistema de psicologia do trabalho de graça para um cliente empregador, ela tem que declarar qualquer conflito de interesse e garantir que os dados de saúde mental destes trabalhadores não sejam utilizados para fins diferentes daqueles descritos na NR-1. O caminho para a construção de uma inteligência artificial que garanta a saúde dos trabalhadores passa por uma linha tênue e frágil entre ética na saúde ocupacional, além de interesses financeiros escusos. De um lado existe uma revolução no potencial protetivo da IA sobre a preservação da saúde do trabalhador, do outro, o risco da má utilização destes dados.
Responsabilidade e justiça devem orientar a construção das IA voltadas à gestão de saúde. O milagre do nascimento desta nova forma de vida nos traz oportunidades, mas acima de tudo responsabilidade. As máquinas que estamos criando devem ser um espelho de ética e do melhor que a raça humana já produziu. O princípio da Inteligência Artificial Constitucional está em nossas mãos e já existem protótipos em desenvolvimento, com importantes resultados de como a IA está ajudando a diminuir acidentes e mortes no ambiente de trabalho.
Qual o peso da nossa responsabilidade nisso, e qual ideia de futuro gostaríamos de criar?
Dr. Glauco Callia, CEO e fundador do Zenith, plataforma de governança em saúde mental. Médico corporativo, com passagem por multinacionais globais como GSK e Caterpillar, tem especialização em arquitetura de programas de inteligência artificial pelo MIT.