Blog

Relatórios de Impacto e a mitigação de vieses em IA

Escrito por

13 de junho de 2022

O Projeto de Lei 21/20 atualmente é o projeto mais avançado voltado a regular o desenvolvimento de tecnologias de inteligência artificial (IA) no país. Até o último dia 10, a Comissão de Juristas do Senado criada para trabalhar em cima da sua redação estava recebendo contribuições de todos os setores sobre pontos distintos para melhoria.

O texto no blog de hoje é para abordar um dos instrumentos que ainda não consta na redação do projeto, mas que pode vir a ser incluído na sequência dos trabalhos, e que acredito ter um importante papel no combate à discriminação algorítmica: o relatório de impacto de IA.

O que é (ou seria) o relatório de impacto de IA?

O ordenamento jurídico brasileiro já é familiarizado com relatórios de impacto. Na área ambiental, a Política Nacional de Meio Ambiente prevê a avaliação de riscos ambientais como um de seus instrumentos (art. 9º, da Lei 6.938/1981) para prevenir possíveis danos ao meio ambiente em razão de empreendimentos. Mais recentemente, a Lei Geral de Proteção de Dados também instituiu o relatório de impacto à proteção de dados pessoais, voltado a descrever “processos de tratamento de dados pessoais que podem gerar riscos às liberdades civis e aos direitos fundamentais, bem como medidas, salvaguardas e mecanismos de mitigação de risco” (art. 5º, XVII, da Lei 13.709/2018).

Na atual redação do PL 21/20, apenas a análise de impacto regulatório foi prevista (art. 6º, V), com a finalidade de verificar os efeitos de futuras normas sobre o “desenvolvimento e a operação de sistemas de inteligência artificial”. No entanto, até a conclusão da redação deste texto, ainda não havia sido incluído o relatório de impacto de sistemas de IA (RIIA).

Primeiramente, vale delimitar melhor sobre o que estamos falando. Segundo um documento elaborado pela ECP – Platform for the Information Society, o RIIA visa mapear os benefícios públicos de aplicação de IA; sua confiança, segurança e transparência; valores e interesses relacionados ao seu desenvolvimento, bem como a sua ponderação; e identificar e limitar seus riscos. Ou seja, trata-se de um relatório que analisa desde o design até a operação de sistemas de inteligência artificial.

Por que um relatório de impacto de IA?

Diferentemente da análise de impacto regulatório, o RIIA foca nas repercussões que determinado sistema terá também sobre as pessoas, isto é, os efeitos sociais a partir de sua aplicação. Considerando que a interação entre público e sistemas automatizados têm se tornado cada vez mais frequentes, essa análise é fundamental para evitar ou minimizar possíveis danos decorrentes dessa relação.

Hoje em dia, os riscos advindos de algumas tecnologias só conseguem ser melhor combatidos depois de elas estarem disponíveis à sociedade e, muitas vezes, depois de danos já terem ocorrido. Em outros casos, porém, elas são colocadas à disposição mesmo diante de estudos que comprovam a sua nocividade.

No caso de tecnologias que se utilizam de reconhecimento facial automatizado, por exemplo, Joy Boulamwini e Timnit Gebru já haviam concluído em 2018 que o índice de falibilidade de reconhecimento de rostos de mulheres negras e retintas era maior do que sobre rostos de homens brancos. Hoje em dia, a campanha pelo banimento do reconhecimento facial, em especial, para fins de segurança pública, surgiu após casos de injustiça causados pela operação desse tipo de sistema.

Nesse sentido, a necessidade de elaboração de relatórios de impacto de sistemas de inteligência artificial poderia vir a auxiliar para que os riscos e efeitos sobre indivíduos, principalmente aqueles que fazem parte de grupos sociais já historicamente marginalizados, fossem analisados em uma fase prévia à implementação da nova tecnologia. Ao redor do mundo, diversos modelos e diretrizes para RIIA já têm sido elaborados, tanto no Norte quanto no Sul Global.

No Canadá, por exemplo, o Algorithmic Impact Assessment (AIA) contém perguntas que determinam o nível de impacto de um sistema de decisão automatizado, com fatores baseados em design, algoritmo, tipo de decisão, impacto e dados. Na Índia, segundo pesquisa da organização EY, embora a estratégia em torno do desenvolvimento de IA não mencione expressamente esse tipo de relatório, ela identifica questões de atenção regulatória e que devem ser levadas em consideração para a elaboração de um RIIA.

O relatório de impacto é a solução?

Como os demais princípios e instrumentos voltados para o accountability de sistemas de IA, o relatório de impacto não deve ser considerado como a solução de forma isolada. Inclusive, no painel promovido pelo LAPIN no último FIB12, acerca do uso de relatórios de impacto à proteção de dados pessoais no combate à discriminação algorítmica, importantes apontamentos foram feitos sobre o tema e eu, inclusive, pude contribuir com um questionamento ao final.

Dentre os apontamentos trazidos pelos painelistas, destaco uma reflexão obtida a partir da fala do Prof. Edson Junior (UFRN), em resposta às perguntas feitas (a partir de 01:13:20 do vídeo), acerca das expectativas sobre relatórios de impacto. É preciso atenção para que eles não se limitem a um checklist de perguntas abstratas e descoladas da realidade daquela tecnologia em questão e, em última instância, que não acabem sendo apenas um instrumento de “lavagem ética” para empresas.

Segundo o professor, para realizar uma análise de impacto correta seria necessário, em primeiro lugar, entender a forma com que a tecnologia impacta nos elementos mais importantes, como são os direitos humanos – e isso implica em compreender adequadamente o próprio conceito de direitos humanos, em especial, na área de tecnologia.

Em verdade, quando se fala da eliminação de vieses e discriminação algorítmica de sistemas de IA, acredito que nenhuma ferramenta poderia ser implementada de forma cega e sem questionamento. Os relatórios de impacto não podem ser considerados como solução única, assim como a sua aplicação também não pode ser levada de maneira abstrata a contextos diferentes.

Um RIIA destinado a mensurar riscos de inteligência artificial em um país do Norte global não necessariamente (e acredito que nem provavelmente) poderá ser apenas replicado para revelar os riscos em uma realidade de país do Sul global. O intercâmbio de conhecimento, ideias e aprendizados do que funcionou em um local certamente pode (e deve) ser compartilhado, mas a experiência concreta de cada um é que poderá direcionar melhor os principais pontos a serem trabalhados.

Para não finalizar

Ainda que o relatório de impacto de sistemas de inteligência artificial não deva ser considerado a bala de prata contra a discriminação algorítmica, é fato que sua utilização pode ser mais uma ferramenta para avaliar riscos e evitar possíveis danos à sociedade em razão de novas tecnologias.

Além disso, pensar em uma possível responsabilização no caso de sua não realização ou posterior demonstração de que determinada empresa na verdade não cumpriu com os seus requisitos, pode ser essencial para incentivar não apenas sua adesão, como a busca pela sua efetividade. 

Até o momento, porém, não tem como se ter certeza de que a necessidade desse relatório constará na versão final do PL 21/20 no Senado. Assim, este texto fica um tanto como uma contribuição tardia (e um reforço a um dos pontos que abordamos em nossa contribuição enquanto IRIS) sobre a importância desse documento para o desenvolvimento de uma regulação em IA preocupada com os efeitos sobre grupos minoritários no país (inclusive, convido a todes, todas e todos para que leiam na íntegra a nossa contribuição à comissão de juristas, disponível em breve no site do Senado).

Todavia, fica também o alerta para que não nos contentamos com essa ou outra ferramenta como um fim em si só. Os temas de discussão em torno de inteligência artificial vieram para ficar – e, definitivamente, eu não falo isso de um local tecnochauvinista. Mas que a tendência no aumento das interações entre pessoas e sistemas automatizados nos lembrem de ficarmos sempre vigilantes ao núcleo do que estamos defendendo: os direitos humanos.

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Coordenadora de pesquisa e Pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). É Mestre em Direitos da Sociedade em Rede e Graduada em Direito pela Universidade Federal de Santa Maria (UFSM). Membra do Coletivo AqualtuneLab. Tem interesse em pesquisas na área de governança e racismo algorítmicos, reconhecimento facial e moderação de conteúdo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *