No final do Século XX, Hans Jonas, filósofo alemão, enunciou algo que ecoaria como um aviso: nossa imaginação moral não acompanha a evolução tecnológica, e esse descompasso pode ser responsável pelo sofrimento tanto das gerações atuais quanto das futuras. Dedicado a pensar a relação da ética com a tecnologia da modernidade, em especial aquela do pós-guerra, Jonas percebeu que nossa forma de pensar sobre ações e consequências, essencialmente pré-moderna e de proximidade, não acompanhava a rápida evolução técnica e tecnológica que as novas décadas anunciavam, uma vez que os novos dispositivos, a virtualização das relações sociais e a globalização pulverizavam os resultados dos nossos atos e os extrapolavam para além dos nossos laços de família, vizinhança e afeto. Assim é que, para o filósofo, “A técnica moderna introduziu ações de tal ordem inédita de grandeza, com tais novos objetos e consequências que a moldura da ética antiga não consegue mais enquadrá-las”. Nossas ações pré-modernas, e mesmo as ações pré-internet, não demandavam um planejamento remoto, pois se desdobravam em consequências temporal e fisicamente imediatas – ou ao menos previsíveis. Outros, como Zygmunt Bauman, farão coro à sua preocupação.
A modernidade não via com doçura o desenvolvimento de uma ética do progresso a partir das novas descobertas científicas e revoluções produtivas. O protagonismo da razão e o dogma da neutralidade que a acompanha denegaram as questões importantes sobre consequências no mundo que se anunciava. Parafraseando o filósofo do caos Ian Malcolm em Jurassic Park, “nossos cientistas estavam tão preocupados em descobrir se poderiam ou não que não pararam para pensar se deveriam”. As tentativas de distanciamento entre ação e análise valorativa das consequências acabaram por criar um mito do progresso necessariamente virtuoso, e a evolução tecnológica se tornou simples sinônimo de evolução geral. Mas o avanço da internet e o tráfego quase irrestrito de dados nos obrigou a repensar esse paradigma: vimos o alcance de nossas palavras e das informações que compartilhamos aumentar exponencialmente, e a verdade é que não sabemos bem o que fazer sobre isso. Como trabalhar essa expansão abrupta do nosso campo de influência? Quais ferramentas podem ser utilizadas para auxiliar a nossa imaginação moral em direção a uma ética das consequências remotas?
No caso do compartilhamento descontrolado de dados individuais sensíveis, cabe primeiro compreender quais são as consequências da ação, tanto para os indivíduos diretamente afetados quanto para a coletividade. Em primeiro lugar, há uma coisificação da própria identidade individual, que se torna mercadoria. Dados pessoais são compilados e mercantilizados, adquiridos lícita ou ilicitamente por empresas que realizarão um tratamento específico para essas informações. A partir daí, conseguem traçar perfis de consumo, padrões de utilização das redes sociais, histórico de problemas de saúde… As pessoas, suas histórias, são quantificadas em números e indexadas. E esse conhecimento produzido não necessariamente será benéfico a elas. E se assim o for, será apenas incidentalmente: o objetivo da coleta de dados é, geralmente, aprimorar as práticas competitivas da própria empresa que os adquire.
Do ponto de vista coletivo, a utilização destes dados para o desenvolvimento e atualização de algoritmos reduz os espaços de dissenso saudável no campo da comunicação virtual. Voltados para o aperfeiçoamento do perfil de consumo das mesmas pessoas das quais são extraídos os dados crus, esses instrumentos têm como consequência prevista a redução dos ruídos e o aumento da redundância sobre determinada prática, objeto, hábito ou conjunto de ideias. Assim, um algoritmo usa os próprios dados produzidos por um determinado estilo de vida para reforçar esse estilo de vida e isolar o sujeito das pessoas que vivem de forma diferente. As informações tratadas e aplicadas, portanto, servem a um mascaramento da realidade e dão origem às hoje famosas bolhas informacionais. No limite, pode-se dizer que o compartilhamento e tratamento irrestrito de dados tem como consequência a redução drástica da capacidade de autodeterminação individual, bem como a desestruturação do raciocínio crítico necessário à nossa vida política.
Nenhuma dessas ações, sozinha, possibilita o desenvolvimento de um quadro de isolamento algorítmico ou a manutenção de um estado de mercantilização da vida, mas certamente auxilia no desenvolvimento desse contexto, especialmente quando recorrente. E o acúmulo de situações semelhantes tornou necessário se pensar em formas de orientar nosso raciocínio moral às questões postas pela novidade do compartilhamento de dados. A elaboração de uma norma como a Lei Geral de Proteção de Dados faz sentido nesse contexto. Ela não existe para impedir o compartilhamento de informações, mas para estruturar um sistema jurídico-político de responsabilidade e responsabilização sobre essas ações. Segundo a própria lei, seu objetivo é o de “proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural” (art. 1º), e faz exatamente isso ao qualificar dados pessoais como elementos fundamentais da personalidade natural, eleger alguns deles como sensíveis e regular grande parte de sua vida útil: gênese, tratamento e descarte.
O detalhamento da Lei oferece instruções e consequentemente reduz o campo de indeterminação sobre o que pode/deve ou não ser feito. Por isso foi possível aproximar a LGPD de normas de certificação relevantes, como a ISO 27701, voltada para o tratamento de dados pessoais e, no Brasil, para o cumprimento dos requisitos contidos no texto legal ora analisado. Ela confere, ainda, especial importância aos dados relacionados à saúde e busca reforçar a sua utilização responsável ao considerá-los sensíveis (art. 5º, II): aqueles cuja exposição sem o consentimento do titular poderia trazer danos irreversíveis à sua personalidade. Essa classificação cria uma camada extraordinária de proteção às informações, que só poderão ser tratadas nas hipóteses elencadas no art. 11 do texto. No caso de dados médicos, o tratamento depende do consentimento, salvo para a realização de pesquisas, cumprimento de obrigação legal ou regulatória pelo controlador, execução de políticas públicas pela Administração Pública, exercício regular de direitos, tutela da saúde em procedimentos realizados por profissionais e serviços de saúde ou autoridade sanitária, proteção da vida ou incolumidade física do titular ou de terceiro e prevenção à fraude e garantia à segurança do titular, nos moldes do art. 11, II, g).
Há, ainda, vedação expressa ao uso desses dados com o objetivo de obter vantagem econômica, excetuando situações em que sejam indispensáveis para a prestação de serviços relacionados à saúde (art. 11, §4º). Destaque deve ser dado ao art. 11, §5º, que veta a prática de seleção de riscos na contratação de qualquer modalidade de planos de saúde, assim como na contratação e exclusão de beneficiários por parte das operadoras. Esse é um bom exemplo de conformação ética sobre a tecnologia, pois nada impede que, em tese, façamos uma seleção de segurados a partir da interpretação de dados como i) o registro de doenças preexistentes, ii) a lista de últimas internações ou iii) a utilização contínua de medicamentos. Mas a opção legislativa, alinhada a precedentes da própria Agência Nacional de Saúde como a Súmula Normativa 27/2015, foi pela limitação ao poder dessas operadoras. A lei, portanto, protege os direitos da personalidade dos titulares de dados médicos contra ações mercadológicas predatórias, uma vez que a pessoa não verá negado seu direito de ingresso em um plano de assistência em saúde por conta de características suas, tais como idade ou doenças pretéritas. Podemos ainda falar de uma dimensão informativa da LGPD, uma vez que o consentimento pressupõe escolha, e escolha pressupõe conhecimento. Tornar necessário o consentimento do titular – salvo nas exceções já tratadas – é levá-lo a se posicionar e assumir protagonismo sobre o uso de seus próprios dados, possibilitando uma escolha informada.
Ao mesmo tempo, a lei permite a utilização de dados sem consentimento no caso de pesquisas em saúde, bem como o faz para o desenvolvimento de diagnósticos sobre doenças que possam acometer seus titulares. Essas situações excepcionais levam a uma maior efetividade de tratamentos médicos – coletivamente e a longo prazo na primeira hipótese, e individualmente e a curto prazo, na segunda – ao mesmo tempo em que ainda os conforma a limites éticos mínimos. Isso porque a dispensa de consentimento não afasta a incidência do restante da norma. É por isso que a discussão sobre dados médicos não deve focar em se devemos ou não compartilhá-los com instituições de saúde, mas sobre quais dados são relevantes para a promoção de nosso bem estar e para o progresso ético da medicina, bem como quais são as condições de guarda que essas instituições oferecem. Mesmo nas situações em que o consentimento do titular não é necessário, ações de anonimização ou guarda responsável dos dados ainda são obrigatórias (art. 11, II, c), por exemplo). Logo, mesmo nos casos excepcionais do art. 11, II, ainda há responsabilização por mau uso ou vazamento de informações.
A medicina contemporânea é preocupada com a segurança dos dados pessoais e a privacidade de pacientes, de forma que normativas sobre o assunto existem desde antes da LGPD. É o caso do tratamento dado a prontuários pela Resolução CFM nº 1.821/2007. Sua evolução como ciência e prática depende da relação de confiança que se estabelece entre profissionais de saúde e pacientes/sociedade, o que necessariamente passa pelo manuseio ético de dados sensíveis. Sem isso, pesquisas tornam-se metodologicamente falhas e a própria dignidade das pessoas submetidas a tratamentos médicos é atingida. A lei cumpre o papel de formalizar o que esperamos de um agir eticamente orientado, criando uma ponte estável entre quem trata dados e quem tem direito sobre eles, mesmo que essas pessoas sejam absolutamente alheias à existência uma da outra, e mesmo que se esteja lidando com uma quantidade maciça de titulares das informações cruas – o que seria problemático para uma ética orientada pela proximidade. O trunfo desta norma e de outras semelhantes – no âmbito da União Europeia há o Regulamento Geral de Proteção de Dados (GDPR), por exemplo – reside, portanto, em materializar um sentimento coletivo sobre privacidade e liberdade de escolha na internet e reconduzir o agir individual ao seu lugar na coletividade, auxiliando-nos em um agir ético voltado às consequências distantes: dados podem ser tratados contanto que essas ações obedeçam a critérios de utilização responsável cristalizados pelo debate público.
Pedro Amorim de Souza, Mestre e Doutorando em Teorias Jurídicas Contemporâneas pela UFRJ e coordenador da área consultiva do Martins Cardozo Advogados Associados