Direito à Explicação e Inteligência Artificial
Escrito por
Odélio Porto Júnior (Ver todos os posts desta autoria)
17 de junho de 2019
O aumento expressivo na utilização de algoritmos de inteligência artificial (IA), tanto no setor público como no privado, tem fomentado o debate sobre como se aplicar um direito à explicação para decisões automatizadas. Essa preocupação tem sido potencializada por diversas notícias recentes na mídia que revelaram casos nos quais a utilização de determinadas IAs gerou discriminações e vieses indesejáveis. Como exemplo, podemos citar o famoso caso do algoritmo de IA da Amazon que dava preferência aos homens para seleção de vagas na emprego.
Nesse artigo, faremos uma análise geral dos artigos da Regulação Geral de Proteção de Dados (GDPR) que são utilizados como base para um direito à explicação e, posteriormente, será feita referência a dois trabalhos acadêmicos que ganharam destaque na Europa em relação ao tema. Como a redação legal da lei europeia é semelhante à Lei Geral de Proteção de Dados (LGPD), acreditamos que é importante acompanhar os debates lá desenvolvidos, pois eles podem influenciar significativamente o entendimento do direito à explicação no contexto Brasileiro.
Tanto a GDPR como a LGPD não utilizam o termo “direito à explicação”, mas conferem direitos ao titular de obter informações sobre a lógica relacionada à decisão automatizada. O art. 20 da LGPD estabelece o direito às “informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada”. De forma semelhante, os arts 13,14 e 15 da GPDR afirmam que devem ser fornecidos ao titular “ informações úteis relativas à lógica subjacente, bem como a importância e as consequências previstas”. Assim, o debate sobre o direito à explicação na União Europeia, e que atualmente está começando no Brasil, tem como ponto de partida a interpretação desses trechos da lei.
Além da discussão sobre a definição jurídica, deve-se fazer um parênteses para explicar o funcionamento de algoritmos de IA, devido a suas características técnicas próprias que dificultam um explicação clara sobre seu funcionamento. De forma geral, uma IA funciona como um sistema que recebe um conjunto de dados (inputs) para ser treinado, detecta padrões nesse conjunto, e aprende a realizar determinadas classificações ou previsões. Posteriormente, novos dados serão inseridos no sistema para que ele os trate conforme os padrões aprendidos no seu treinamento (outputs). Deve-se destacar que o aprendizado e o aperfeiçoamento da IA pode se dar de forma constante, conforme ele for sendo treinado com novos dados. Outro ponto a se destacar é que atualmente só temos algoritmos de IA especializados em realizar tarefas específicas (narrow AI), como identificar um rosto numa foto, fazer um análise de crédito, um diagnóstico de determinada doença, ou mesmo jogar Go. Desse modo, não estamos falando sobre inteligências artificiais semelhantes a inteligência humana (artificial general intelligence), algo que não se sabe se a tecnologia poderá alcançar no futuro.
Uma das principais diferenças entre algoritmos comuns, que podem ser denominados como “If this than that” (IFTTT) (em português: se isso, então, aquilo), e IAs é que nos primeiros a lógica decisória deve ser pensada previamente, antes de ser programada, enquanto que nos segundos, o próprio algoritmo aprende por si a lógica decisória. Atualmente, existe uma grande dificuldade técnica em se compreender como funciona a lógica decisória e IAs e traduzí-la em uma explicação acessível, problema denominado de black box. Quando se considera que uma IA pode levar em conta centenas de milhares de variáveis nas suas decisões, como o algoritmo do Linkedin que analisa 100.000 variáveis diferentes, tem-se uma dimensão mais clara do problema.
Tendo esses elementos em consideração, descrevemos brevemente dois pólos do debate sobre o alcance de um eventual direito à explicação. Watcher e demais autores, em um artigo que foi amplamente debatido, argumentam existir na GDPR apenas um direito à explicação restrito, apesar do título do seu trabalho ser “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection” (Por que o direito à explicação da tomada de decisões automatizada não existe na proteção geral de dados.). Num primeiro momento, os autores afirmam haver dois tipos de explicação para decisões automatizadas de IAs: (i) uma sobre a funcionalidade do sistema, que diz respeito a uma explicação mais geral do algoritmo (p. ex. quais categorias de dados são analisadas) e as consequências pretendidas com sua utilização; e outra sobre uma (ii) decisão específica, a qual esclarece como as variáveis (inputs) e circunstâncias individuais foram consideradas e ponderadas para se chegar àquele resultado. Devido às limitações técnicas, (black box) e jurídicas (proteção a direitos de propriedade intelectual, análise jurisprudencial da Diretiva 95/46 e interpretação restritiva da redação dos arts 13, 14 e 15 da GPDR), os autores argumentam que o direito à explicação envolve somente justificativas amplas sobre a funcionalidade do sistema.
Em sentido oposto Powles e Selbst criticam o argumento de Watcher e demais autores, afirmando que a divisão entre (i) explicações sobre a funcionalidade do sistema e (ii) decisões específicas não faz sentido, em parte por não se fundamentar corretamente em como os sistemas de IA realmente funcionam. Para os autores, na maior parte dos sistemas de IA, se é possível realizar uma descrição completa a nível de funcionamento do sistema, também o é para uma decisão específica, caso se tenha os dados de input. Entretanto, eles ainda reconhecem que o problema de black box é o maior impeditivo ao direito à explicação, independe da interpretação jurídica que se dê a esse instituto. Do ponto de vista jurídico, Powles e Selbst argumentam que a GDPR incrementou de forma significativa as proteções aos titulares dos dados quando comparada à Diretiva, portanto, a interpretação do termo “informações úteis” deve ter como parâmetro o entendimento do titular, e se ele consegue utilizar a explicação de forma a poder reivindicar seus direitos. Em outras palavras, não se poderia fornecer apenas uma explicação genérica que não tenha utilidade prática quanto ao exercício dos direitos do titular. Ademais, eles acrescentam que a redação da GDPR privilegiaria a proteção do titular dos dados mesmo em um eventual conflito com direitos de propriedade intelectual. Apesar da ênfase, tanto da GDPR como da LGPD, nos direitos do titulares, ainda nos parece nebuloso como esse conflito se dará com direitos de propriedade intelectual.
Para concluir este texto, ressaltamos que um dos pontos de maior dificuldade em relação ao tema, principalmente para profissionais da área de humanas, é determinar quais são os limites e as possibilidades técnicas de um direito à explicação de decisões tomadas por IA, considerando as limitações impostas pela próprias características da tecnologia (black box). O desenvolvimento de meios de explicação é uma área da ciência da computação ainda em evolução, mas que tem um impacto direto nas possibilidades de interpretação jurídica desse direito.
As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.
Escrito por
Odélio Porto Júnior (Ver todos os posts desta autoria)
Pesquisador do Instituto de Referência em Internet e Sociedade, graduando em direito na Universidade Federal de Minas Gerais (UFMG). Cursou dois anos de ciência política na Universidade de Brasília. Membro do GNet. Foi membro da Clínica de Direitos Humanos (CDH) e da Assessoria Jurídica Universitária Popular (AJUP), ambos da UFMG.