Inteligência artificial: uma (quase) solução de maior transparência no processo de decisão administrativa

Com o contínuo desenvolvimento e a crescente utilização de sistemas de IA no setor público, estaremos perante uma (quase) solução de maior transparência no processo de decisão administrativa ou será o "problema da caixa negra" uma barreira intransponível?

Não há dúvida de que vivemos num período de “grande entusiasmo com o fenómeno da inteligência artificial”(IA). No entanto, e sem prejuízo das sobejamente conhecidas vantagens dos sistemas de IA (com destaque para a rapidez e eficiência na adoção de decisões), continuam a existir reservas quanto ao papel que estes podem desempenhar no campo do procedimento administrativo.

A título introdutório, começaremos, pois, por traçar uma linha entre o que deve entender-se por automatização da atividade administrativa e por utilização de sistemas de IA.

Do ponto de vista prático, já todos experienciámos a automatização da atividade administrativa no nosso dia a dia – quer porque já renovámos o cartão de cidadão online, quer porque já tivemos de pedir alguma licença no website do nosso Município, entre tantos outros exemplos. Tudo isto são reflexos da crescente utilização de meios eletrónicos pela Administração Pública, muito potenciada pelas regras e princípios inovadores trazidos pela revisão do Código do Procedimento Administrativo (CPA) de 2015.

A utilização de sistemas de IA pela Administração Pública é o “próximo passo” desta equação: presume a automatização, mas também implica – como o próprio nome permite antecipar – a “efetiva” utilização de inteligência artificial.

Sistemas de IA

E o que é um sistema de IA? Segundo o Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial (Regulamento), é “um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.

Estes sistemas têm vindo a tornar-se cada vez mais sofisticados, não se reconduzindo unicamente à programação de uma regra condicional subjacente ao algoritmo (uma regra “se, então”), no qual, perante a inserção de determinados dados (input), o sistema gera um resultado (output).

Hoje, nos sistemas ditos modernos ou de aprendizagem automática (os sistemas machine learning), é já possível que o próprio algoritmo construa regras com base na criação de padrões e de associações apreendidas a partir de decisões anteriores. Por outras palavras, através da análise de dados inseridos (input), “estes sistemas inferem conclusões ou padrões que aplicarão futuramente a novos dados (input ou dado de entrada), permitindo que desta aplicação resulte uma concreta decisão (as tais previsões, estimativas, categorizações, entre outras)” [1].

Além disso, nestes sistemas, o caminho lógico que o algoritmo segue entre a receção de um input e a emissão de um output é muito dificilmente cognoscível pelo programador e pelos interessados na decisão, naquilo que vem sendo denominado como o “problema da caixa negra”.

A utilização de sistemas de IA na adoção de decisões administrativas

No campo específico da atividade administrativa, antecipa-se que os sistemas de IA possam ser utilizados, sem prejuízo das proibições impostas pelo artigo 5.º do Regulamento, (i) quer para auxiliar um agente administrativo na adoção de uma decisão (que não deixa de ser adotada por um humano, com base nos outputs fornecidos pelo sistema), (ii) quer para emitir, autonomamente, uma decisão.

Este insight visa precisamente refletir sobre as dificuldades de compatibilização da utilização de sistemas de IA pela Administração Pública com os padrões de transparência que devem reger qualquer processo decisório administrativo.

Um corolário evidente desses mesmos padrões é o dever de fundamentação dos atos adotados pela Administração Pública (cf. artigo 41.º, n.º 2, da Carta dos Direitos Fundamentais da União Europeia, artigo 268.º, n.º 3 da Constituição da República Portuguesa e artigos 152.º e 153.º do CPA). Dever de fundamentação, este, unanimemente reconhecido como um garante da tutela jurisdicional dos interessados.

Será que este dever de fundamentação é posto em causa pela adoção de decisões administrativas através de sistemas de IA?

O problema coloca-se de forma mais crítica no caso dos sistemas de machine learning, por causa do já referido “problema da caixa negra”, que torna o iter lógico seguido na adoção da decisão inalcançável. Assim, se a “caixa negra” do sistema não permite compreender quais os fundamentos de facto e de Direito que, numa situação concreta, levaram à adoção da decisão X (e não Y ou Z), então, a Administração estará impossibilitada de cumprir o dever de fundamentação do ato que lhe incumbe.

Quer isto dizer que a Administração Pública nunca poderá lançar mão de sistemas de IA para instruir e decidir qualquer tipo de decisão? Não nos parece que seja assim.

É que, apesar de o dever de fundamentação se aplicar tanto à prática de atos administrativos vinculados como discricionários [2], o iter lógico subjacente à adoção de um ato (estritamente) vinculado será, na esmagadora maioria das vezes, menos complexo do que aquele subjacente à adoção de um ato discricionário.

Logo, do ponto de vista da automatização do processo decisório, poderá admitir-se que a utilização de sistemas de IA menos sofisticados (sujeitos a regras “se, então”) será, à partida, suficiente no caso dos atos (estritamente) vinculados, com a vantagem de a regra condicional subjacente ao algoritmo ser facilmente apreensível e justificável.

Caso diferente é o da automatização do processo decisório que culmine na adoção de atos discricionários ou com elementos de discricionariedade, o qual estará dependente de sistemas mais complexos nos quais as regras, inferências, padrões e correlações criadas pelo algoritmo não estão ao alcance do programador ou dos interessados na decisão. A fundamentação do ato administrativo será, nestes casos, obscura, e as razões de facto e de Direito da decisão permanecerão no interior da “caixa negra”.

O caráter vinculado ou discricionário do ato administrativo não parece, apesar disso, e por si só, suficiente para distinguir os casos em que a Administração Pública pode (ou não) decidir através do uso de sistemas de IA.

À data de hoje, e em linha com as regras existentes sobre a matéria (nomeadamente, as que resultam do Regulamento), entendemos que a adoção de um ato administrativo cuja motivação dependa de regras não condicionais e/ou da ponderação de fatores não objetivos, não deixa de estar sujeita a um dever de fundamentação que não é compatível com a adoção de decisões por uma “caixa negra”.

É também nesse sentido que parece apontar a experiência de outros ordenamentos jurídicos nestas matérias.

O caso dos ordenamentos jurídicos alemão e francês

Desde logo, no ordenamento jurídico alemão, o artigo §35a do Código do Procedimento Administrativo prevê que um ato administrativo pode ser adotado por mecanismos automáticos, desde que as normas jurídicas o admitam e não subsista discricionariedade ou margem de livre decisão. Além disso, nestes atos automáticos (e, necessariamente, vinculados), prescinde-se da realização de audiência prévia (respetivo artigo §28) e de fundamentação (respetivo artigo §39).

Por outro lado, no ordenamento jurídico francês, no qual a questão da adoção de atos administrativos com fundamento nos outputs fornecidos por um sistema de IA já foi analisada pelo Tribunal Constitucional (Acórdão do Conseil Constitutionnel de 12.06.2018, n.º 2018-765 DC), o artigo R311-3-1-2 do Code des relation entre le public et l’administration prevê que, nesses casos, o interessado na decisão seja informado (i) do grau e modo de contribuição do algoritmo para a tomada de decisão, (ii) dos dados processados e da sua fonte, (iii) dos parâmetros do processamento e da sua ponderação e (iv) das operações realizadas para o tratamento dos dados.

Estas soluções parecem, contudo, depender de uma distinção entre a fundamentação de atos vinculados e discricionários que não existe no nosso ordenamento, ou de uma confusão entre a obrigação de divulgação de informações relacionadas com os inputs de que o algoritmo se alimenta e o dever de indicar as razões de facto e de Direito que motivaram a adoção dessa decisão.

O que esperar…?

Para terminar numa nota otimista, não podemos deixar de realçar que o “problema da caixa negra” não se traduz numa impossibilidade técnica intransponível de os programadores entenderem e explicarem o algoritmo subjacente a um sistema de IA. O que não significa que, mesmo conhecendo o funcionamento interno dos algoritmos, estes programadores consigam traduzir esse conhecimento numa interpretação convencional e intuitiva das razões que fundamentaram um resultado (output) [3].

É aqui que reside o problema: não basta saber o que se passa na “caixa negra”, é preciso que a Administração Pública possa traduzir esse iter lógico subjacente ao algoritmo numa motivação clara, congruente e suficiente, apreensível pelo interessado na decisão [4] – só assim estará garantida a possibilidade de escrutínio da mesma pelos interessados e, em última análise, pelos tribunais administrativos.

Sendo certo que, uma vez ultrapassado o “problema da caixa negra”, a utilização de sistemas de IA pela Administração Pública pode, na realidade, representar uma solução de maior transparência no processo de decisão administrativa. Tal resulta evidente da constatação de que a fundamentação de um ato humano estará sempre dependente da sua motivação pelo próprio, que pode, naturalmente, mesmo de forma involuntária, não considerar todos os fatores que influenciaram a sua decisão; o mesmo não acontece com a fundamentação de um output gerado por um sistema de IA [5]. Assim, se a utilização de sistemas de IA pela Administração Pública parece um dado inquestionável – e que não é afastado pelas regras do Regulamento –, não será de menor importância que a Administração Pública continue a assegurar as garantias dos administrados e, entre elas, a suscetibilidade de sindicar as decisões assim adotadas.

The Insights published herein reproduce the work carried out for this purpose by the author and therefore maintain the original language in which they were written. The opinions expressed within the article are solely the author’s and do not reflect in any way the opinions and beliefs of WhatNext.Law or of its affiliates. See our Terms of Use for more information.

Leave a Comment

We'd love to hear from you

We’re open to new ideas and suggestions. If you have an idea that you’d like to share with us, use the button bellow.