Como (não) está o antirracismo na regulação de IA no Brasil?
Escrito por
Fernanda Rodrigues (Ver todos os posts desta autoria)
4 de junho de 2024
Discussão no Senado Federal preocupa com regras para uso de tecnologias de IA potencialmente discriminatórias e violadoras de direitos.
O relatório preliminar apresentado pelo Senador Eduardo Gomes, na Comissão Temporária de Inteligência Artificial do Senado Federal, responsável por elaborar um novo projeto de lei substitutivo para o tema, trouxe significativa preocupação em razão do seu texto. Na contramão de articulações e contribuições feitas por organizações da sociedade civil, o relatório deixa de lado importantes avanços trazidos pela pela Comissão de Juristas, formada no início de 2022.
Ao estabelecer normas para o uso de armas letais autônomas e de reconhecimento facial na segurança pública, os eventuais pontos positivos do novo relatório parecem ter ficado escondidos e até mesmo em segundo plano. Afinal, como dialogar com uma redação que autoriza o uso de tecnologias de inteligência artificial reconhecidamente capazes de reproduzir discriminações estruturais e violar direitos humanos consagrados internacionalmente?
Nesse texto, pretendo explicar melhor como está o andamento dessa discussão, o que está em jogo com as novas regras sugeridas e por que o antirracismo novamente parece ter sido deixado de lado na proposta para uma regulação da IA no país.
Comissão Temporária para IA no Senado: em que pé está a discussão no Congresso Nacional?
Antes de mais nada, é importante compreender um pouco mais sobre o processo legislativo que nos trouxe até aqui.
Apesar das discussões em torno da Estratégia Brasileira para Inteligência Artificial (EBIA) já estarem em andamento no país desde 2019, com a abertura de uma consulta pública, a discussão ganhou fôlego no Congresso Nacional somente com o Projeto de Lei (PL) 21/2020, protocolado pelo deputado federal Eduardo Bismarck. Enquanto a EBIA visava um planejamento para o desenvolvimento da IA sob uma perspectiva mais ampla, envolvendo também estratégias para investimento em áreas prioritárias e de inovação, PL seguia o objetivo de criar um marco regulatório para a tecnologia.
Em outras palavras, o debate legislativo visava – e ainda visa – criar regras legais para o uso e desenvolvimento de IA no país, pensando também em mecanismos de aplicação da lei e formas de responsabilização em caso de descumprimento. No entanto, o PL 21/2020 foi duramente criticado justamente por se assemelhar mais a uma “carta de princípios” ou “de intenções” do que propriamente a uma lei.
Uma das maiores representações dessa afirmação estava na criação do princípio de “busca pela neutralidade” como uma mera “recomendação de que os agentes atuantes na cadeia de desenvolvimento e de operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários ao disposto na legislação vigente”. Além de reforçar a falsa ideia de que a tecnologia pode alcançar a neutralidade, o texto tratava a identificação e mitigação de vieses ilícitos como simples sugestão e, enquanto tal, não estabelecia um regramento nítido para responsabilização em caso de descumprimento.
Apesar desses e de outros problemas, o PL 21/2020 foi aprovado em regime de urgência na Câmara dos Deputados, no final de 2021, e enviado ao Senado Federal. Na nova casa, no início de 2022, uma Comissão de Juristas foi instaurada para elaborar um substitutivo ao texto encaminhado, o que deu origem a pelo menos um ano de discussões mais aprofundadas sobre qual regulação de IA se queria para o Brasil. Com a realização de audiências públicas, abertura de consulta pública e organização de um seminário internacional sobre o tema, a Comissão apresentou seu relatório final em dezembro de 2022, com mais de 900 páginas que reuniam as principais contribuições recebidas e a proposta final de um novo texto.
Protocolado no primeiro semestre de 2023, sob o nº 2.338, o novo PL apresentava uma estrutura mais robusta e garantista do que seu antecessor. Baseado em riscos e direitos, e muito inspirado na regulação para IA em discussão na União Europeia, o PL 2.338 previu uma série de garantias para pessoas afetadas por sistemas de IA, categorizou IAs de risco excessivo e alto risco, previu responsabilização em caso de danos, criou uma autoridade competente para IA e estabeleceu mecanismos para mitigação de vieses, como avaliação de impacto algorítmico. Apesar de ter pontos a melhorar, a proposta significava um avanço positivo na direção de uma regulação protetiva.
No segundo semestre do mesmo ano, a constituição de uma Comissão Temporária para Inteligência Artificial (CTIA) no Senado Federal passou a trabalhar em cima do texto proposto pela Comissão de Juristas. No entanto, após a realização de novas audiências públicas, que contaram, inclusive, com a primeira participação de uma liderança indígena no debate – Time’i Assurini, Presidente do Instituto Janeraka -, a CTIA surpreendeu com a publicação de um relatório preliminar que, dentre outros retrocessos, estabeleceu regras para o uso de armas autônomas e sistemas de reconhecimento facial na segurança pública.
“Numa sociedade racista, não basta não ser racista, é necessário ser…
… antirracista”. Muito provavelmente você já deve ter ouvido essa frase, de autoria da grande intelectual negra Angela Davis. Em poucas palavras, ela conseguiu sintetizar a necessidade de que sejam adotadas medidas proativas para enfrentar o racismo quando ele faz parte da estrutura de uma sociedade. E o que vejo nessa frase é que ela explicita algumas questões centrais quando falamos de antirracismo e regulação de inteligência artificial – em especial, no Brasil.
É verdade que o relatório preliminar manteve dispositivos que visam evitar a reprodução de vieses discriminatórios, como é o caso do viés racial, e que já estavam na versão anterior do PL 2.338. A título de exemplo, há a vedação da discriminação ilícita e abusiva; definição de discriminação direta e indireta; direito à não discriminação e correção de vieses discriminatórios; e consideração de impactos discriminatórios e sobre grupos vulneráveis para atualização da lista de sistemas de alto risco.
É também verdade que somente esses pontos não são suficientes para dizer que a regulação de IA trilha um caminho antirracista. O conceito de antirracismo não aparece na lei, apesar de recomendações da sociedade civil. O conceito de vulnerabilidade apresentado no relatório ignora a condição racial como agravante de assimetria de informação ou de poder, deixou de ser requisito obrigatório para a avaliação de impacto o “processo e resultado de testes e avaliações e medidas de mitigação realizadas para verificação de possíveis impactos a direitos, com especial destaque para potenciais impactos discriminatórios”, a classificação de sistemas de alto risco e risco excessivo reduziu significativamente em relação à versão anterior, dentre outros vários apontamentos que poderiam ser levantados.
No entanto, mais grave do que essas questões, o novo texto regula o uso de reconhecimento facial para fins de segurança pública – apesar de uma campanha nacional pedir pelo seu banimento – e estabelece regras para o uso de armas autônomas, ainda que exclua do escopo da lei tecnologias de IA para fins de defesa nacional (o que também é um problema). Em uma situação como essa, fica a pergunta: como dialogar com um texto que retrocede em pontos cruciais para organizações da sociedade civil e que abre margem para o uso de tecnologias reconhecidamente capazes de produzir danos discriminatórios e violações de direitos humanos?
Ao mesmo tempo em que é um conjunto de mecanismos, políticas públicas e regras legais que podem servir a um enfrentamento eficiente do racismo algorítmico, me parece que a frase de Angela Davis ilustra bem o dilema em questão: como discutir não discriminação e, mais ainda, antirracismo, em uma proposta que estabelece as bases para uso de duas tecnologias que podem fomentar e potencializar a discriminação racial?
Ainda que se possa prever a garantia de não discriminação, necessidade de revisão da inferência algorítmica pelo agente público ou o estabelecimento de critérios para uma supervisão humana significativa, não parece haver justificativa suficiente até mesmo para dispender recursos em tecnologias notoriamente falhas. Mais do que isso: como bem apontam Paula Guedes, André Fernandes e Tarcízio Silva, no caso de armas autônomas:
Para além dos claros usos ilegítimos de tecnologias de vigilância atualmente no país, olhando para reprováveis exemplos como a atual ofensiva de Israel, não há uma maneira ética ou mecanismos de prevenção e mitigação suficientes para justificar o uso desses sistemas.
Este texto não é um fechamento, mas um apelo ao debate (racializado)
Observe: este texto em nenhum momento se propõe a encerrar o debate político ou qualquer oportunidade de diálogo. Pelo contrário, é um apelo pela defesa de um debate amplo, democrático, multissetorial e, principalmente, racializado. O IRIS tem estado presente nas discussões em torno de uma regulação para IA desde os andamentos do PL 21/2020, na Câmara dos Deputados, inclusive participando de audiências públicas naquela Casa e no Senado Federal (em 2022 e 2023), mais recentemente. Tudo isso porque acreditamos que a construção coletiva é o que poderá nos conduzir para uma regulação que olhe atentamente para o impacto da inteligência artificial sobre todas as existências, e com um olhar especial para aquelas que são historicamente marginalizadas.
É fato, por exemplo, que a versão anterior do PL 2.338/2023 também previa exceções em que o reconhecimento facial poderia ser utilizado na segurança pública, mas havia uma espécie de moratória (prorrogação) estabelecida, na medida em que sua utilização dependia da elaboração de uma lei na esfera federal. E a partir dessa previsão, que não era a ideal, mas reconhecia a sensibilidade do tema, e na ausência de previsão sobre armas letais autônomas no texto, organizações da sociedade civil poderiam dialogar pelo banimento de ambas as tecnologias.
Ocorre que, após a redação da nova proposta da CTIA (ainda preliminar), que traz um significativo retrocesso nesse debate e no de armas autônomas, parece que é o próprio debate legislativo que se fecha um pouco mais aos apelos da sociedade civil. Há uma série de pontos que este mesmo relatório traz e que podem ser interessantes de incorporar à versão anterior do PL 2.338, demonstrando que houve avanços importantes na redação e que merecem ser reconhecidos.
As obrigações específicas para sistemas de inteligência artificial generativas e reconhecimento de seus riscos sistêmicos e um olhar mais apurado para os impactos da IA no mercado de trabalho que podem incorporar melhor os desafios da plataformização e precarização desse campo, são dois exemplos dessa situação. No entanto, isso parece ter ficado em segundo plano quando o desafio maior é buscar a classificação de sistemas de reconhecimento facial e armas letais autônomas, dentre outras tecnologias de IA, como de risco inaceitável.
As opiniões e perspectivas retratadas neste artigo pertencem a seus autores e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.
Escrito por
Fernanda Rodrigues (Ver todos os posts desta autoria)
Coordenadora de pesquisa e Pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). É Mestre em Direitos da Sociedade em Rede e Graduada em Direito pela Universidade Federal de Santa Maria (UFSM). Membra do Coletivo AqualtuneLab. Tem interesse em pesquisas na área de governança e racismo algorítmicos, reconhecimento facial e moderação de conteúdo.