Discriminação algorítmica: os enviesamentos em sistemas Inteligência Artificial e o papel dos Direitos Fundamentais

Sistemas de inteligência artificial enviesados em função do género ou etnia desencadearam um movimento global de combate à discriminação algorítmica.

Introdução:

Notícias sobre algoritmos de recrutamento que automaticamente penalizaram currículos de mulheres e de programas de reconhecimento facial que não identificaram pessoas negras desencadearam um movimento global de investigação e combate aos enviesamentos presentes nos sistemas de inteligência artificial (“IA”). Agora que a União Europeia se prepara para regular a IA, é fulcral que os direitos fundamentais dos cidadãos sejam não apenas alicerce regulatório, mas também, efetivamente concretizados através de mecanismos de combate à discriminação algorítmica.

1. Casos de enviesamento em sistemas de IA

No final de 2018, foi noticiado que uma gigante do tech desenvolvera um programa de recrutamento computorizado que avaliava candidaturas com base nos currículos selecionados pela empresa ao longo de 10 anos. Alegadamente, o programa utilizava IA para pontuar centenas de currículos de 0 a 5 num espaço de segundos, prometendo revolucionar o processo de recrutamento interno. Mas à medida que os resultados eram obtidos, ficou claro que o sistema de IA não estava a avaliar os currículos de uma forma neutra de um ponto de vista de género. O enviesamento deveu-se à programação do algoritmo para reconhecer os padrões de contratação prévios na empresa que (refletindo o gender gap na indústria tech) tendencialmente culminavam no recrutamento de homens. Assim, o programa aprendeu que os candidatos masculinos eram preferíveis e penalizou os currículos que incluíssem expressões referentes ao sexo feminino (como “membro do clube de xadrez feminino da universidade” ou estudantes de escolas só para mulheres).

Para além do género, os casos de resultados enviesados estendem-se à etnia  – estes estão bem documentados no trabalho de Joy Buolamwini, investigadora do MIT Media Lab que fundou a Algorithmic Justice League na sequência da sua investigação sobre enviesamentos raciais em algoritmos de reconhecimento facial. Numa experiência que ganhou projeção mundial (recentemente descrita no documentário da Netflix Preconceito Codificado), a investigadora negra expôs a sua cara a um programa de reconhecimento facial que não detetou plenamente as suas feições. De seguida, colocou uma máscara branca e o algoritmo reconheceu automaticamente um rosto humano. Depois de ter validado que o algoritmo apresentava problemas de reconhecimento facial de pessoas negras através de um segundo teste com uma colega caucasiana, Joy Buolamwini avançou que o sistema de IA integrado no programa de reconhecimento facial teria sido “alimentado” maioritariamente através de fotografias de pessoas caucasianas, não tendo, assim, dados suficientes para reconhecer a cor de pele e as feições de outras etnias.

Em suma, os exemplos sugerem que os sistemas de IA utilizaram a informação com a qual foram humanamente informados e replicaram os padrões discriminatórios, reproduzindo (perigosamente) o défice de diversidade.

2.  A Proposta de Regulamento sobre a Abordagem Europeia para a Inteligência Artificial

As situações de enviesamento supra descritas parecem não ter passadas despercebidas à Comissão Europeia (“CE”) que, no passado dia 21 de Abril de 2021, apresentou a tão esperada Proposta de Regulamento sobre a Abordagem Europeia para a Inteligência Artificial,[1] propondo um conjunto único de regras para regular a Inteligência Artificial na União Europeia (“UE”), fortemente alicerçadas nos Direitos Fundamentais e na mitigação do risco de discriminação algorítmica.

Parecendo comprovar que a UE está atenta aos casos de utilização negligente ou maliciosa de sistemas de IA, o risco para a discriminação algorítmica é transversal aos considerandos do diploma, sendo assinalado em referência a diferentes utilizações destes sistemas. Designadamente, e talvez inspirado pelos movimentos modernos de justiça social que reagiram aos casos mais polémicos de enviesamento, a Proposta faz referência expressa aos sistemas utilizados para o recrutamento e seleção de pessoas, alertando que a sua programação ou utilização inadequada pode perpetuar padrões históricos de discriminação contra mulheres, pessoas portadoras de deficiência e pessoas de determinada origem étnica ou orientação sexual (vide Considerando N.º 36 da Proposta).

Mais ainda, a Proposta nota que possíveis irregularidades técnicas em sistemas de IA desenvolvidos para a identificação biométrica (que inclui o reconhecimento facial de pessoas) podem implicar efeitos discriminatórios com base na etnia. Em parte, devido ao risco de discriminação, os processos de identificação biométrica, tanto em “tempo real” como aqueles posteriores à recolha dos dados, são classificados como usos de IA de elevado risco. Mais ainda, o uso remoto e em “tempo real” destes sistemas em espaços públicos para efeitos de exercício da autoridade pública é expressamente proibido (com as exceções delimitadas no Artigo 5.º da Proposta).

Em relação os sistemas de IA de elevado risco, o Considerando n.º 50 da Proposta, indicia a robustez técnica dos mesmos como um requisito-chave. Este considerando demonstra a relação direta entre a proteção dos direitos fundamentais e a mitigação do risco de discriminação algorítmica ao alertar que tanto as limitações dos sistemas de IA (no sentido técnico de erros ou inconsistências), como as ações maliciosas que possam comprometer a sua segurança, podem resultar em comportamentos nocivos para os direitos fundamentais, nomeadamente, os resultados enviesados.

3. O papel dos Direitos Fundamentais

A relação umbilical do diploma com a mitigação do risco de discriminação algorítmica decorre, desde logo, de uma exigência de consistência com a Carta dos Direitos Fundamentais da União Europeia (doravante, a “Carta”). Sendo parte integrante do estatuto jurídico fundamental a União Europeia, a Carta goza de valor jurídico idêntico ao dos tratados (concretamente, ao do Tratado sobre o Funcionamento da União Europeia e ao do Tratado da União Europeia) e afirma, com certeza e segurança jurídica, os direitos fundamentais aplicáveis aos Estados-Membros e às instituições europeias (com respeito, entre outros, pelo princípio da subsidiariedade).

Nos termos do Artigo 21.º da Carta, é proibida a discriminação em razão do sexo, cor ou origem étnica, deficiência ou orientação sexual (entre outras). Mais ainda, é especialmente garantida a igualdade entre homens e mulheres “em todos os domínios, incluindo em matéria de emprego” através do Artigo 23.º (assim, a igualdade de género é duplamente concretizada, numa vertente negativa, através da proibição de discriminação e, numa vertente positiva, através da garantia de tratamento igual).

Neste sentido, o muito bem-vindo esforço da Comissão Europeia em avançar regras de mitigação do risco de discriminação algorítmica, quer por base em sexo, etnia, ou qualquer outro fator de discriminação, traduz uma concretização do direito fundamental à não discriminação, definido pela Carta, assegurando assim a conformidade jurídica com o diploma fundamental. A Proposta reconhece ainda que a utilização de IA pode afetar adversamente outros direitos estabelecidos na Carta, tais como a dignidade do ser humano (Artigo 1º), o respeito pela vida privada e familiar (Artigo 7ª) e a proteção dos dados pessoais (Artigo 8º).

Desta forma, os direitos fundamentais estabelecidos na Carta têm um papel de peso e medida no quadro regulatório avançado na Proposta funcionando, simultaneamente, como objeto de proteção e limite à utilização de sistemas de IA.

4. Conclusão

A Proposta de Regulamento sobre a Abordagem Europeia para a Inteligência Artificial apresenta um quadro normativo diligente em matéria de direitos fundamentais, sendo seguro concluir que o respeito e a proteção dos mesmos é, de facto, parte dominante da sua índole jurídica. Mais ainda, a ampla e explícita referência à discriminação algorítmica demonstra um cuidado sério com os desafios modernos aos direitos fundamentais e valores europeus, bem como uma auscultação pragmática às situações de resultados discriminatórios produzidos por sistemas de IA, muitas vezes centrais às preocupações éticas nesta matéria.

Apesar disto, e sem prejuízo de outras iniciativas legislativas no nível europeu, existem algumas questões que poderiam ter merecido maior concretização, designadamente:

Mecanismos de acesso das vítimas de discriminação algorítmica à reparação efetiva e suficiente dos seus direitos fundamentais

Para os infratores, a Proposta prevê um regime sancionatório baseado em coimas fixas ou variáveis (dependendo no total anual do volume de negócios a nível mundial) e ainda a criação do “European Artificial Intelligence Board” para a supervisão global e articulação com os Estados-Membros. Mas numa perspetiva da vítima de abusos relacionados com o uso inadequado de sistemas de IA (designadamente de discriminação algorítmica), as medidas de efetivação das regras da Proposta são pouco claras, em grande parte, porque a perspetiva transversal do diploma é, continuamente, a do risco – a sua gestão, monitorização e mitigação. Para assegurar de forma holística os direitos fundamentais, é crucial aprofundar a construção jurídica da perspetiva da vítima enquanto stakeholder principal das medidas de aplicação legislativa através do foco sistémico nos seus direitos e vulnerabilidades, mecanismos de empoderamento e no acesso à reparação efetiva e suficiente dos seus direitos fundamentais.

Enquadramento nos fatores ESG

Dada a recente multiplicação de regulação europeia em torno do desenvolvimento sustentável e, especificamente, na integração dos fatores ESG (Environmental, Social e Governance na sigla inglesa) nos negócios e na atividade empresarial, é notória a ausência do enquadramento da utilização diligente da IA no espetro da sustentabilidade corporativa. Não apenas porque a temática do uso ético da IA é central à Governance das empresas, de todos os setores e tamanhos, mas porque (como se espera ter ficado demonstrado com a presente opinião) existe uma premente dimensão social na temática – desde a diversidade e inclusão à proteção e promoção dos direitos fundamentais.


[1] Dado ainda não se encontrar disponível tradução oficial, este artigo foi elaborado considerando apenas a versão inglesa da Proposta, pelo que a tradução dos conceitos constantes na mesma é livre.

Picture of Francisco Granja de Almeida

Francisco Granja de Almeida

Associado | Vieira de Almeida
Os Insights aqui publicados reproduzem o trabalho desenvolvido para este efeito pelo respetivo autor, pelo que mantêm a língua original em que foram redigidos. A responsabilidade pelas opiniões expressas no artigo são exclusiva do seu autor pelo que a sua publicação não constitui uma aprovação por parte do WhatNext.Law ou das entidades afiliadas. Consulte os nossos Termos de Utilização para mais informação.

Deixe um Comentário

Gostaríamos muito de ouvir a tua opinião!

Estamos abertos a novas ideias e sugestões. Se tens uma ideia que gostarias de partilhar connosco, usa o botão abaixo.