Blog

Reconhecimento Facial na Segurança Pública: Controvérsias, riscos e regulamentação

Escrito por

27 de fevereiro de 2019

Na última segunda (25/07), o jornal Bahia Meio Dia revelou que a tecnologia de reconhecimento facial será utilizada nos circuitos da folia durante o carnaval da cidade de Salvador, para fins de segurança pública. A medida seguiu afirmações do secretário de Estado da Polícia Militar do Rio de Janeiro (PMRJ), segundo o qual a polícia utilizaria um software de reconhecimento facial da empresa Oi para identificação de foragidos e de placas de carros roubados no mesmo período. No post de hoje, examinamos algumas das implicações políticas, éticas e jurídicas dessa tecnologia.

O que é o reconhecimento facial automatizado? Para que ele serve?

O reconhecimento facial automatizado (RFA) consiste numa tecnologia de identificação biométrica realizada a partir da coleta de dados faciais provenientes de fotografias ou segmentos de vídeo. Esses sistemas operam comumente, embora não exclusivamente, ao extrair representações matemáticas de traços faciais específicos, como a distância entre os olhos e o formato do nariz, a partir das quais se produz um padrão facial. Ao comparar o padrão de um rosto específico a outros contidos numa base de dados prévia, pode-se, por exemplo, identificar indivíduos desconhecidos ou autenticar pessoas conhecidas.

Nos últimos anos, tem-se verificado um grande interesse por esse tipo de sistema em diversos setores. Muito se fala sobre o conhecido Face ID, mecanismo de desbloqueio implementado pela Apple em produtos recentes. Outros usos possíveis incluem a identificação de pessoas em fotografias históricas para pesquisa, o estabelecimento das identidades de pessoas desaparecidas e mesmo diagnósticos de doenças genéticas. Tais possibilidades de desenvolvimento humano suscitadas pela tecnologia em questão vêm gerando uma disposição para adesão rápida a soluções desse tipo em diversos campos, o que por vezes omite seus riscos, usos negativos e problemas.

Uma das áreas em que esse interesse tem emergido com maior proeminência é segurança pública, como evidenciado pelo supracitado uso nos carnavais da Bahia e do Rio de Janeiro. Desde o ano passado, tramita na Câmara dos Deputados o PL 9763/2018, cujo efeito é alterar a Lei de Execução Penal para incluir uma previsão de obrigatoriedade do uso desse tipo de sistema na população carcerária. Em janeiro, parlamentares do Partido Social Liberal atraíram atenção notável ao viajarem à China para conhecimento do sistema chinês de RFA, o qual inspiraria um projeto de lei voltado à implementação de tecnologia em locais públicos.

É preciso ponderar, contudo, que há uma série de problemas e controvérsias que envolvem o uso desse tipo de recurso, principalmente em locais públicos e à guisa da segurança. Nesse sentido, legisladores de diferentes cidades dos Estados Unidos já chegaram ao ponto de propor o banimento do uso desse tipo de sistema por parte do Estado. Para compreender o que levou tais contextos regulatórios a esse ponto, é necessário examinar algumas das principais controvérsias e riscos envolvidos em RFA.

Imprecisão, discriminação e riscos de segurança

Um dos problemas mais elementares que envolve tecnologias desse tipo diz respeito a sua eficácia. Apesar do grande entusiasmo que envolve o recurso, é preciso ponderar as limitações que ainda marcam seu estágio atual de desenvolvimento. Sistemas de reconhecimento facial apresentam resultados significativos quando as imagens analisadas são fotografias frontais com boa iluminação e resolução. Todavia, como expõe um relatório da Electronic Frontier Foundation (EFF), as taxas de acerto dos sistemas caem notoriamente em função de diversos fatores.

Os erros aumentam quando são analisadas imagens com resolução baixa e provenientes de segmentos de vídeo, assim como devido a variações na iluminação, fundo da imagem, pose, expressão facial, sombras e distância da câmera. Finalmente, as semelhanças faciais num mesmo contingente populacional fazem com que quanto maior a base de dados utilizada, maior a probabilidade de falsos positivos – ocorrências em que o sistema atribui incorretamente o rosto analisado a outro ao qual ele não corresponde de fato.

Esses erros afetam especialmente minorias raciais e mulheres, conforme indicado por pesquisas atuais – uma dos quais chega a evidenciar taxas de falso positivo de 40% para pessoas não-brancas, em comparação com apenas 5% para pessoas brancas. O viés é agravado no campo da segurança pública devido às relações históricas de desigualdade que conformam as condições de produção de muitas das bases de dados utilizadas. Portanto, populações socialmente vulneráveis poderiam ser sujeitas à automatização de constrangimentos e violências, como abordagens policiais indevidas e atribuição inverídica de antecedentes criminais.

Ademais, de um ponto de vista de segurança da informação, há riscos específicos intrínsecos a qualquer sistema de identificação biométrica (escaneamento de íris ou de impressões digitais, por exemplo), principalmente por conta da dificuldade em modificar esses dados caso sua segurança seja comprometida, como poderia ocorrer num vazamento de dados. No entanto, mais que nossas íris ou dedos, a coleta de imagens de nossos rostos pode ser facilmente realizada sem nosso consentimento ou mesmo ciência. Isso abre margem para vigilância biométrica coletiva não-consentida e oculta.

Como diz a EFF: “Expomos nossas faces à vista pública toda vez que saímos de casa e muitos de nós compartilham imagens de nossos rostos online quase sem restrições sobre quem pode acessá-los. O reconhecimento facial possibilita, portanto, a captura e identificação massiva de imagens de forma remota e oculta.”

inteligência artificial

A ética é o ponto de partida. Supervisão e prestação de contas devem ser os pontos de chegada.

No ano passado, o Brasil aprovou sua Lei Geral de Proteção de Dados (LGPD), que entrará em vigor em agosto de 2020 e será o principal marco legislativo nacional referente ao tratamento de dados pessoais. Essa normativa prevê (art. 4º, inc. III) uma exceção referente ao tratamento de dados para fins exclusivos de segurança pública, o qual será regido por lei específica. Se, por um lado, isso gera incerteza acerca do futuro da matéria, o mesmo dispositivo da legislação também define expressamente que os princípios gerais da proteção de dados e os direitos do titular dos dados previstos nela deverão ser observados na lei específica.

Esses princípios incluem (art. 2º) a autodeterminação informativa, a liberdade de expressão, o respeito à privacidade, o livre desenvolvimento da personalidade e a inviolabilidade da intimidade, da honra e da imagem. O monitoramento contínuo, oculto e não consentido implicado pela implementação de reconhecimento facial em locais públicos constitui uma ameaça a esses princípios, bem como a outras garantias constitucionais, como liberdade de reunião, liberdade de associação e presunção de inocência. Assim sendo, a tecnologia deve ser abordada com extrema cautela.

Nesse sentido, há um consenso sendo gradualmente produzido entre diferentes atores a respeito de certos fundamentos éticos a serem observados no uso de RFA. No setor privado, por exemplo, empresas como Microsoft e Amazon vêm reconhecendo a necessidade de regulamentação ampla e baseada em ideais de transparência pública, consentimento, respeito ao devido processo legal, precisão e não-discriminação. Mas, conforme argumenta o Instituto AI Now, compromissos éticos não bastam. São necessários sistemas eficientes de supervisão, auditoria, monitoramento e prestação de contas em cada etapa do desenvolvimento e implementação desses produtos.

Tais sistemas devem incluir mecanismos externos e internos de participação da sociedade civil, proteções institucionais a denunciantes de violações – os quais têm sido fundamentais para trazer a tona abusos de direitos na indústria de T.I. nos últimos anos – e o afastamento do sigilo comercial quando tais tecnologias são usadas no setor público. Sem garantias concretas desse gênero, a sociedade acaba refém de discursos do poder público e de empresas a respeito de tecnologias que, na prática, permanecem como “caixas-pretas”.

Conclusão

O potencial do RFA para benefícios sociais em diversas áreas não afasta as preocupações éticas, regulatórias e políticas da sociedade em relação a seu potencial imenso para autoritarismo. A combinação entre identificação biométrica, coleta de dados ubíqua, distanciada e monitoramento contínuo de múltiplos indivíduos encontra poucos paralelos no tocante às possibilidades de abuso de poder que viabiliza. Por esse motivo, é necessário tratar  a questão com total prudência, sobretudo no campo da segurança pública. Vale lembrar, inclusive, que uma decisão recente dos EUA considerou ilícita a evidência obtida mediante o compelimento de indivíduos ao desbloqueio de dispositivos protegidos com reconhecimento facial pelas autoridades policiais.

Ademais, conforme foi argumentado, a busca por soluções para os problemas inerentes ao uso desse tipo de sistema não pode estar limitada a adesão a compromissos éticos por parte das empresas, nem tampouco a um elogio aos modelos de “justiça pelo código”. O código é um produto das relações sociais e políticas nas quais ele figura, o que significa que essas relações devem ser situadas no centro do racional solucionista. Embora o reconhecimento dos problemas e riscos da tecnologia seja um passo importante, precisamos ir além dos discursos sobre ética. É preciso falar sobre a supervisão e prestação de contas contínuas e efetivas.

Quer saber mais sobre as controvérsias que envolvem o reconhecimento facial? Leia nosso post sobre o uso de inteligência artificial e reconhecimento facial para determinação da orientação sexual das pessoas.

As opiniões e perspectivas retratadas neste artigo pertencem a seus autores e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

É diretor do Instituto de Referência em Internet e Sociedade. Mestrando em Divulgação Científica e Cultural pela Universidade Estadual de Campinas (Unicamp) e bacharel em Antropologia, com habilitação em Antropologia Social, pela Universidade Federal de Minas Gerais (UFMG). Membro do núcleo de coordenação da Rede de Pesquisa em Governança da Internet e alumni da Escola de Governança da Internet no Brasil (EGI). Seus interesses temáticos são antropologia do Estado, privacidade e proteção de dados pessoais, sociologia da ciência e da tecnologia, governança de plataformas e políticas de criptografia e cibersegurança.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *