Como a inteligência artificial pode afetar os tribunais?
Escrito por
Odélio Porto Júnior (Ver todos os posts desta autoria)
12 de março de 2017
A pesquisa em inteligência artificial é um campo da ciência da computação que vem se expandindo nos últimos anos. Essa expansão está associada com a grande disponibilidade de dados compartilhados por usuários, principalmente devido a expansão da internet. Tal volume de informações é utilizado nos processos de aprendizagem dos algoritmos (machine learning), ou seja, não se programa previamente o que o algoritmo fará mas sim o modo que ele irá aprender a partir do dados fornecidos.
Essa técnica permite que um programa de computador tenha a capacidade de análise de um conjunto de dados e possa, posteriormente, fazer previsões e/ou tomadas de decisões com base no que aprendeu.
O aprendizado de máquinas já é uma realidade presente no nosso dia a dia, seja através de programas de reconhecimento facial utilizados nas suas fotos do Facebook, seja em áreas tão diversas como marketing, reconhecimento de fala, aprimoramento de ferramentas de busca online, pesquisas com DNA,etc.
Inteligência Artificial Fraca e Forte
E nesse grande leque de possibilidades há também aplicações no campo do direito, sendo um dos exemplos a sua utilização para julgamentos em tribunais. Contudo é importante buscar compreender como essa ferramentas funcionam a fim de se evitar extrapolações exageradas, já que tem se tornado comum reportagens que anunciam a substituição de juízes e advogados por “robôs”.
Veja por exemplo o trecho dessa reportagem do The Guardian:
Um software que é capaz de julgar evidências legais e questões morais de certo e errado foi desenvolvido por cientistas da computação na University College London, o qual foi usado para prever de forma precisa o resultado de julgamentos de centenas de casos reais.
O juiz de inteligência artificial (IA) chegou ao mesmo veredito que os julgado da Corte Europeia de Direitos Humanos em praticamente 4 de cada 5 casos envolvendo tortura, tratamento degradante e privacidade […] O algoritmo examinou 584 casos […] Em cada caso o software analisou a informação e fez sua própria decisão judicial. Em 79% desses casos, o veredito da IA foi o mesmo que aqueles feitos pela corte.” (tradução do autor).
Numa leitura desatenta poderia-se inferir que o programa seria o equivalente de um consciência humana, capaz de julgar diversos casos com base na análise de um grande número de jurisprudências.
Contudo os atuais avanços da inteligência artificial não capazes de simular um cérebro humano, conceituado como IA forte (strong AI), e ainda há fortes debates sobre se isso seria até mesmo possível. Assim parece precipitado imaginar que num futuro próximo tenhamos computadores julgando casos complexos nos tribunais.
Nesse sentido o professor Dr. Nikolaos Aletras, um dos responsáveis do projeto, esclarece que os pesquisadores não vislumbram que juízes e advogados serão substituídos pela IA, mas sim que tais ferramentas poderão auxiliar no trabalho dessas profissões. Um juiz analisando um novo caso pode utilizar esse programa para compará-lo com decisões antigas sobre uma mesma matéria, indicando quais semelhanças e diferenças foram encontradas.
Assim, as possibilidades aplicáveis de inteligência artificial hoje se encontram no nível da IA fraca (weak AI), categoria na qual o algoritmo é capaz de realizar somente tarefas específicas, não tendo uma capacidade geral de aprendizado. Apesar de não estarem no mesmo nível de inteligência amplo de um ser humano tais programas são bastante sofisticados, criando oportunidades para aplicações variadas, como a exemplificada acima para análise de jurisprudências.
Machine Learning e prisão preventiva
Outra pesquisa importante foi realizada pelo National Bureau of Economic Research nos EUA. Economistas e cientistas da computação desenvolveram um software para medir qual a probabilidade de réus fugirem ou cometerem novos crimes enquanto respondiam a um julgamento em liberdade. O algoritmo atribui uma nota de risco com base em informações do caso em julgamento (qual o tipo de crime, onde e quando a pessoa foi detida), do histórico criminal do acusado, e na idade do acusado.
O programa foi treinado com informações de centenas de milhares de jurisprudências de Nova York, e posteriormente foi testado em outras centenas de milhares de novos casos, se mostrando mais eficiente na avaliação de risco do que os juízes.
Se o ele fosse utilizado para auxiliar os juízes em suas decisões os pesquisadores calcularam que seria possível reduzir os índices criminais em Nova York em 25% sem alterar o número de pessoas nas prisões. Ou, alternativamente, poderia-se reduzir os presos provisórios aguardando julgamento em 40%, enquanto manteriam-se inalteradas as taxas criminais.
Esse resultados demonstram que tal ferramenta poderia trazer benefícios ao sistema penal brasileiro, já que um a cada três presos está em prisão provisória aguardando julgamento, provavelmente de forma desnecessária em um nº significativo de casos, contribuindo para a piora do cenário de superlotação das penitenciárias.
Transparência e reprodução de preconceitos pela máquina
Contudo deve-se estar atento para a transparência do funcionamento desses algoritmos, pois caso os dados fornecidos para o aprendizado do programa sejam enviesados, ele pode futuramente repetir preconceitos e vieses comuns em seres humanos. Tal fato foi detectado num software desenvolvido por uma empresa privada americana para calcular a probabilidade de reincidência criminal. O algoritmo errava mais sua previsões quando elas eram de afro-americanos, quando comparado com as taxas de erros de pessoas brancas
Assim é importante que tais ferramentas sejam auditáveis a fim de que se evitem critérios decisórios injustos e pouco transparentes.
O algoritmo citado acima, desenvolvido pelo National Bureau of Economic Research, buscou evitar esse problema ao utilizar somente como dado demográfico a idade dos réus.
Por fim conclui-se que num futuro próximo é muito provável que esse tipo de inteligência artificial auxilie os operadores do direito no seu cotidiano, aumentando sua eficiência e garantindo um melhor aplicação da justiça
Escrito por
Odélio Porto Júnior (Ver todos os posts desta autoria)
Pesquisador do Instituto de Referência em Internet e Sociedade, graduando em direito na Universidade Federal de Minas Gerais (UFMG). Cursou dois anos de ciência política na Universidade de Brasília. Membro do GNet. Foi membro da Clínica de Direitos Humanos (CDH) e da Assessoria Jurídica Universitária Popular (AJUP), ambos da UFMG.
3 Comentários
Estou fazendo uma pesquisa nesse ramo e gostaria de ter acesso a essa pesquisa que você citou em sua matéria. É possível disponibilizá-la?
Não acessei as pesquisas diretamente, mas foram essas as fontes que utilizei:
1. CHRIS, Johnston. Artificial intelligence ‘judge’ developed by UCL computer scientists. The Guardian. 24 de outrubro de 2016. Disponível em: https://goo.gl/0DISfT.
2. Machine Bias There’s software used across the country to predict future criminals. And it’s biased against blacks.
Disponível em: http://bit.ly/2muk7db.
3. SIMONITE, Tom. How to Upgrade Judges with Machine Learning.
Disponível em: http://bit.ly/1XMKh5R.