Blog

Além da responsabilização: pensando em estratégias de reparação na regulação de IA

Escrito por

19 de setembro de 2022

Quando se pensa em vieses discriminatórios, como aqueles de cunho racial, social, de gênero, dentre outros, a primeira coisa que costuma vir à cabeça é a necessidade de responsabilização dos agentes envolvidos. Inclusive, o tipo de regime de responsabilidade civil tem sido um dos temas debatidos em torno da criação do Marco Legal sobre Inteligência Artificial no Brasil.

Entretanto, no texto de hoje, gostaria de chamar a atenção para o direito à reparação em regulações sobre IA, nos casos em que houver danos reconhecidamente provocados por esses sistemas.

Recomendações internacionais sobre discriminação racial em tecnologias emergentes

Antes de mais nada, é importante destacar que a reflexão que trago neste blogpost partiu da leitura de um documento elaborado pela relatora especial da ONU, Tendayi Achiume, que realiza uma análise pela ótica dos direitos humanos em torno da discriminação racial em tecnologias digitais emergentes.

Embora se trate de um documento publicado em 2020, considero que as colocações de Achiume permanecem extremamente pertinentes. Além de abordar brevemente sobre a reprodução de discriminação e desigualdades nessas tecnologias, a autora relaciona recomendações para a atuação estatal a fim de direcionar medidas efetivas e aptas a lidar com esses problemas.

Dentre elas, Tendayi aponta a criação de remédios efetivos voltados à reparação de eventuais vítimas, que envolvam não apenas restituição, como “compensação, reabilitação, satisfação e garantias de não-repetição” – todos estes já mencionados nos princípios e diretrizes básicas sobre o direito à reparação de vítimas de violações de direitos humanos da ONU (de 2005!). Além disso, a relatora ainda refere a necessidade de assegurar o acesso à justiça, a proteção contra possíveis violações, bem como assegurar a cessação e não-recorrência, ressaltando que cada um desses elementos contribui para um cenário holístico de remediação.

De acordo com Achiume, essas observações também são igualmente válidas para corporações privadas que se preocupam com a luta contra a discriminação racial nessas tecnologias. Ao citar empresas como Microsoft, Apple e Amazon, por exemplo, a relatora destaca que esses mesmos remédios podem servir de parâmetro para a sua atuação. 

Por que a reparação importa?

Ainda que seja absolutamente relevante responsabilizar os envolvidos em danos causados por sistemas de inteligência artificial, a atenção para a vítima após o incidente é igualmente fundamental para reparar as consequências do episódio que podem se prolongar no tempo.

Alguns autores, como Ehsan e outros, já falam, inclusive, na expressão impressão algorítmica (ou algorithmic imprint), que seria a preocupação com aqueles efeitos que permanecem mesmo após a retirada de um algoritmo de circulação, ou seja, reconhecendo que essas ferramentas podem ter um impacto prolongado para além do seu encerramento. Como exemplo, os autores mencionam o fato de que mesmo após o Facebook descontinuar sua ferramenta de reconhecimento facial, os efeitos desse algoritmo permanecem naqueles sistemas treinados com esses dados e “se manifesta em multidões em outras plataformas de propriedade do Facebook onde o algoritmo ainda está em uso”.

A forma de pensar dos autores considera os impactos sofridos pelas pessoas que estavam sujeitas ao algoritmo, razão pela qual eles propõem também uma abordagem de justiça situada, em que

as descrições de como um sistema algorítmico se constitui e suas consequências se fundamentam em relatos de pessoas que convivem com isso. – EHSAN et al, 2022

Para legislações voltadas a regular inteligência artificial, ainda segundo eles, a impressão algorítmica é um conceito que chama atenção para a necessidade de criação de mecanismos capazes de lidar com esses efeitos.

É por isso que pensar em estratégias de reparação é essencial para marcos legislativos efetivamente comprometidos com a proteção de direitos humanos, em especial, de diferentes grupos minoritários, que podem ser mais afetados pelo desenvolvimento de novas tecnologias. As diretrizes da ONU quanto a garantias de cessação, inclusive, vão ao encontro da preocupação da ideia de impressão algorítmica, que ressalta a necessidade de se atentar para um encerramento também dos efeitos que podem permanecer após a remoção de um sistema algorítmico.

No entanto, esse olhar só é possível a partir de uma preocupação real com os indivíduos que serão afetados por essas tecnologias e um engajamento que parte de todos os setores pertinentes – privado, governamental, terceiro setor e academia. Em especial, no que tange aos Estados, é primordial que a preocupação ultrapasse casos específicos e promova alterações sistêmicas, como através do direito de acesso à justiça por grupos vulneráveis, instituições dos três poderes atuando em prol do interesse público e a fiscalização sobre empresas que se propõem a elaborar sistemas de IA com impacto em comunidades.

Prevenção e remediação andam junta

Como já dizia o ditado, sempre é melhor prevenir do que remediar. Por isso é fundamental pensar em uma regulação que, antes de tudo, assegure a eliminação ou, ao menos, a mitigação de vieses discriminatórios já no desenvolvimento e design de novas tecnologias, em especial, de sistemas de inteligência artificial. Aliás, estar atento aos efeitos de sistemas algorítmicos, tanto durante quanto após a sua existência, também tem o condão de fazer com que cada etapa de sua criação, desde o começo, já leve em consideração os seus impactos.

Seja por meio de um órgão regulador, relatórios de impacto em direitos humanos, relatórios de transparência ou por meio de outro mecanismo de fiscalização, a adequada elaboração de arranjos fiscalizatórios compatíveis com a necessidade contextual de cada Estado é peça-chave para o ecossistema de governança de inteligência artificial. Entretanto, isso não exime a possibilidade de se complementar essa proteção com garantias de remediação holísticas, destinadas a reparar as vítimas em mais de uma esfera, e não apenas monetariamente.

Olhando para as demandas sociais e econômicas de cada país, bem como para as dificuldades enfrentadas no debate em torno de IA dentro de cada território, é possível formular políticas públicas de reparação não meramente importadas de outros contextos, mas que levam em consideração as experiências das pessoas nos locais a que se destinam a ajudar. Se é verdade que muitos dos problemas que atravessam o desenvolvimento da inteligência artificial no Brasil não surgiram com ela, que essa seja mais uma oportunidade de lhes dar visibilidade e apresentar soluções.

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Coordenadora de pesquisa e Pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). É Mestre em Direitos da Sociedade em Rede e Graduada em Direito pela Universidade Federal de Santa Maria (UFSM). Membra do Coletivo AqualtuneLab. Tem interesse em pesquisas na área de governança e racismo algorítmicos, reconhecimento facial e moderação de conteúdo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *