Algoritmos e Vacinação: uma solução viável?

Os algoritmos podem ser utilizados como ferramenta para agilizar o processo de testagem ou para modelar a configuração do plano de vacinação, definindo os grupos prioritários?

Este artigo foi escrito em co-autoria por Marco Caldeira, Associado Coordenador na Vieira de Almeida, e por Pedro Fontes, Associado Coordenador na Vieira de Almeida.


No contexto das múltiplas discussões mantidas sobre o papel da Inteligência Artificial (“IA”) na tomada das decisões administrativas, tem vindo a ganhar especial importância o debate relativo ao uso da IA para conduzir os planos de vacinação contra a “Covid-19”.

Entre tantos outros desafios colocados pela pandemia, surgiu o de saber como proceder à vacinação da população em larga escala, com vista a atingir tão rapidamente quanto possível a almejada imunidade de grupo.

A este respeito, importa ter presente que um plano de vacinação é um desígnio complexo. Além do desafio logístico de reduzir o tempo necessário para a distribuição e administração das vacinas, as vacinas devem ser administradas de forma racional, privilegiando os setores da população em maior risco de contrair casos graves de Covid-19. Se estes objetivos são compatíveis e coerentes em abstrato, podem na prática ser conflituantes. Como afirmou o Almirante Gouveia e Melo, responsável pelo plano de vacinação português: “se continuamos a vacinar por grupinhos, vamos acumular doses em armazém”.

Esta complexidade tem também uma dimensão jurídica. Tratando-se as vacinas de um recurso escasso e valioso, o Direito impõe que sejam alocadas de forma determinável, e resiste a que a decisão de as administrar seja tomada ao sabor de padrões flutuantes ou dependentes da discricionariedade do decisor (risco que é particularmente acentuado em Estados com maior grau de descentralização, com regiões dotadas de grande autonomia). Por outro lado, essas discricionariedade e flexibilidade afiguram-se imperiosas para responder a uma paisagem pandémica e até regulatória em permanente mutação, sobretudo por força dos ajustes nas indicações terapêuticas e contraindicações, e até às ocasionais suspensões de administração que as vacinas vêm sofrendo.

Em Portugal, tais propósitos foram prosseguidos da forma mais convencional – ou tanto quanto se consegue ser convencional por estes dias. O Despacho n.º 11737/2020, de 23 de novembro, constituiu uma task force para a elaboração do «Plano de vacinação contra a COVID-19». Aí, atribuiu-se aos membros do núcleo de coordenação um mandato para levar a cabo o plano, incluindo a atribuição de definir as populações-alvo prioritárias, os termos de administração da vacina e a identificação dos parâmetros para o seu seguimento clínico.

Tinha de ser assim? Nem por isso. Vários países recorreram a algoritmos, fosse para agilizar o processo de testagem, fosse para modelar a configuração do plano de vacinação, definindo os grupos prioritários.

Assim, por exemplo, a região da Lombardia, em Itália, aprovou a adoção de um algoritmo que, com base numa combinação entre 34 doenças ou fatores de risco, o género e a idade de cada pessoa, determina os grupos prioritários para a vacinação; na Dinamarca, desenvolveu-se um sistema de IA que consegue determinar se um paciente internado com Covid-19 vai morrer ou precisar de um ventilador, ajudando a compreender quem deve ser vacinado primeiro; do mesmo modo, em Israel, recorreu-se a um sistema de IA que, através da resposta a 8 questões, permite prever o diagnóstico de Covid-19, o que é útil para definir prioridades na política de testagem; no estado norte-americano do Tennessee, foi criado um algoritmo baseado num Índice de Vulnerabilidade Social, de forma a identificar populações prioritárias; e outros casos poderiam ainda apontar-se.

Os exemplos que, a título meramente ilustrativo, acima se apresentaram evidenciam claramente que, numa situação de crise que obrigou à tomada de decisões urgentes e num contexto de enorme incerteza, a IA constituiu uma ferramenta incontornável para a obtenção e processamento de dados indispensáveis para o combate a um vírus com características desconhecidas.

Por conseguinte, independentemente das reservas que a IA pudesse suscitar e da necessidade de uma discussão mais ponderada sobre os casos e as condições em que pode ou dever ser utilizada, a necessidade ditou que o recurso à IA se convertesse em facto consumado.

Apesar disso, e de os resultados parecerem conclusivos, tal não significa que os algoritmos constituam uma solução isenta de inconvenientes, ou que se tenha esgotado a margem para discutir a sua utilização.

Com efeito, por um lado, os algoritmos não são infalíveis e a sua utilização pode conduzir a resultados controversos, que convidam a uma decisão de um órgão eleito ou com base democrática: por exemplo, nos Estados Unidos, o funcionamento do algoritmo destinado à distribuição de vacinas no Stanford Medical Center determinou que apenas de 7 dos mais de 1.300 profissionais de saúde naquele hospital fossem considerados prioritários.

A recolha massiva e a centralização de dados da maior parte (ou da quase totalidade) da população – e, para mais, dados pessoais tão sensíveis como os de saúde – suscita também temas delicados no que respeita à garantia da privacidade individual e à defesa contra a partilha indevida desses dados com terceiros (i.e., sem autorização dos próprios ou para fins distintos daqueles que presidiram à sua recolha). Preocupações que assumem na Europa maior preponderância, por força do Regulamento Geral de Proteção de Dados, cuja aplicação não só não é afastada pela pandemia como, pelo contrário, se torna mais importante precisamente em função dela.

Por fim, numa democracia representativa, a tecnologia e a ciência podem constituir auxiliares à tomada da decisão pelos titulares dos órgãos eleitos, mas não podem substituir-se ao próprio decisor, pelo que o uso irrestrito de algoritmos pela Administração coloca problemas no que se refere à legitimação democrática das decisões públicas e à accountability dos respetivos autores.

Assim, mesmo sabendo que, enquanto a pandemia não estiver controlada, dificilmente estarão reunidas as condições para uma avaliação serena e ponderada, vale a pena olhar desde já para o modo como a IA se impôs nas nossas vidas no último ano.

A IA, quando bem utilizada, é um auxílio proveitoso e até inevitável no aprimoramento de processos – falíveis – de decisão. Mas as funções políticas e administrativas são desempenhadas por pessoas: titulares de cargos eleitos ou democraticamente legitimados. A efemeridade do seu mandato, o recurso contra as suas decisões, a responsabilidade jurídica e política pela sua atuação são garantias dos particulares, fundadas na ideia da imperfeição do homem e consagradas em função dela.

Resista-se, pois, à tentação de admitir que a máquina é perfeita, só porque será presumivelmente melhor. A imperfeição é possível e previsível.

Recorrer à IA para desempenhar funções do Estado não pode, por isso, confundir-se com uma renúncia dos órgãos administrativos às suas competências, e muito menos com a alienação do fundamento democrático, entregue a um robô anónimo, ininteligível e opaco.

Por vezes, parecerá irrazoável. Porque não substituir o homem pela máquina, se a máquina é imune a falhas e a tentações?

O motivo é tão simples quanto categórico: a fonte do poder democrático é o voto, e não a inteligência. O Governo pela inteligência redunda, fatalmente, no Governo por aqueles que ocultamente definem o que é a inteligência, e se encarregam de a distribuir e manobrar. Um truque com o perigoso dividendo de imunizar os responsáveis políticos pela decisão pública, numa tendência que vai fazendo o seu caminho nas áreas da Administração com meios tecnologicamente mais avançados. Afinal, quem de nós não deixou dinheiro empatado na Autoridade Tributária por erro informático ou por outro impenetrável capricho do “sistema”?

Cada ferramenta precisa de uma mão. E a do Estado não pode ser invisível.

Share on print
Share on email
Share on pocket
Share on linkedin
Share on facebook
Share on whatsapp
A responsabilidade pelas opiniões expressas no artigo são exclusiva do seu autor pelo que a sua publicação não constitui uma aprovação por parte do WhatNext.Law ou das entidades afiliadas. Consulte os nossos Termos de Utilização para mais informação.

Deixe um Comentário

Gostaríamos muito de ouvir a tua opinião!

Estamos abertos a novas ideias e sugestões. Se tens uma ideia que gostarias de partilhar connosco, usa o botão abaixo.