Blog

É possível o uso de inteligência artificial para determinar a orientação sexual de pessoas?

Escrito por

18 de setembro de 2017

Neste mês de setembro, uma pesquisa publicada pelo professor de psicologia de Stanford Michal Kosinski, e pelo pesquisador Yilun Wang, alegou ter identificado a orientação sexual de pessoas por meio da análise de fotos de rostos, realizada por um algoritmo de inteligência artifical (deep neural networks). A pesquisa tem gerado calorosos debates nos meios de comunicação estadunidenses e europeus, e tem sido também noticiada em alguns jornais brasileiros.

Antes de explicar como a pesquisa foi realizada, é importante lembrar qual o nível atual de desenvolvimento de inteligência artificial. Em uma explicação simples, hoje, o que as diversas técnicas computacionais de IA fazem é identificar padrões por meio da análise de uma enorme quantidade de dados. Ou seja, são algoritmos criados para realizar tarefas específicas e ainda estão longe de se assemelhar a uma inteligência humana.

O estudo analisou 35.326 imagens de homens e mulheres, ambos caucasianos, que foram coletadas de perfis públicos de um website de relacionamentos amorosos estadunidense. Os pesquisadores afirmam que foi utilizado somente um grupo étnico devido à falta de dados que representassem outros grupos, como o de afrodescentes.

Para classificar a orientação sexual de uma pessoa, o algoritmo analisa tanto características faciais permanentes (ex: tamanho do maxilar), quanto características transitórias (ex: corte de cabelo, maquiagem, etc). Após o algoritmo ter sido treinado com esse conjunto de imagens, o estudo alega que a inteligência artificial conseguia distinguir acertadamente, somente com a análise de uma foto, se um homem era gay ou heterossexual, em 81% dos casos, e em 74% dos casos para fotos de mulheres. A taxa de acerto de seres humanos analisando as fotos foi de 61% para fotos de homens e 54% para de mulheres.

Composição de faces hetero e homossexuais

Após a publicação, dois grandes grupos de defesa dos direitos LGBTQ, a Human Rights Campaign (HRC) e a GLAAD (Gay & Lesbian Alliance Against Defamation), dos EUA fizeram duras críticas à pesquisa. O diretor de assuntos digitais da GLAAD afirmou que:

“Essa pesquisa não é ciência ou mesmo matéria para noticiários, ela é somente uma descrição de padrões de beleza de sites de relacionamento online que ignora grande segmentos da comunidade LGBTQ, incluindo pessoas de outras etnias, transgêneros, pessoas mais velhas, e outros indivíduos LGBTQ que não postam fotos em sites online de relacionamento.”

Ashlan Johnson, Diretor de Educação Pública e pesquisa da HRC, declarou:

“Essa é uma informação ruim com consequências perigosas que provavelmente serão utilizadas fora de contexto, a pesquisa é baseada em premissas falhas, e ameaça igualmente a segurança e privacidade de pessoas LGBTQ e não LGBTQ. Imagine por um momento as potenciais consequências se essa pesquisa falha fosse usada em regimes autoritários que buscam identificar e perseguir pessoas que eles acreditam serem gays”

Além da questão ética e das críticas metodológicas sobre a realização da pesquisa em si, ela traz a tona o debate sobre quais devem ser os limites para classificação de grupos sociais por meio de decisões automatizadas, baseadas na análise de grandes quantidades de dados, seja para fins de pesquisa, comércio, segurança nacional, política públicas, entre outros.

Críticas semelhantes podem ser aplicadas a diversos serviços online que usamos diariamente, de forma “gratuita” em troca dos nosso dados pessoais. Enquanto uma pesquisa acadêmica é passível de ser criticada e debatida publicamente, o uso de Inteligência Artificial e Big Data por governos e empresas apresenta riscos adicionais quanto à garantia de transparência de sua utilização.

É interessante a metáfora que o autor Franklin Foer utiliza comparando nossa era digital com a indústria alimentícia. Na segunda metade do século XX, principalmente nos EUA, o mercado dos alimentos industrializados e refeições prontas decolava, apresentando um futuro em que as pessoas não perderiam tempo com a preparação de refeições. Somente com décadas de debate é que foi se percebendo o preço a ser pago por essa conveniência, os grandes malefícios à saúde gerados pelo consumo de grandes quantidades de sódio e açúcar, e seus impactos ambientais devido à cadeia de produção desses alimentos industrializados. De forma semelhante à indústria alimentícia, talvez só agora estejamos saindo de uma era de deslumbramento com o digital.

Para auxiliar as pessoas que não são de áreas técnicas envolvidas com estudo de Inteligência Artificial e Big Data, é útil mencionar o modelo de Carl Bergstrom e Jevin West. Eles afirmam que, a princípio, as pessoas podem se intimidar em criticar o uso de uma técnica estatística ou de IA por não entender seu funcionamento. Porém, grande parte dos problemas estão relacionados ou, (1) com aos dados iniciais (input), que serão utilizados pelo algoritmo, como no caso de dados enviesados; ou, (2) o problema está em como os resultados finais foram interpretados (output). Assim, o foco da análise deve ser, traduzindo de forma simplista, “no que entra e no que sai” do algoritmo.

Fluxo de dados e caixa preta

Enquanto países desenvolvidos apresentam uma intensidade maior nos debates, é preciso fomentar no Brasil maiores discussões sobre o uso de novas tecnologias e qual seu impacto na proteção dos direitos humanos. Conforme novos setores começem a incorporar essas tecnologias novos problemas éticos e sociais surgirão. Assim será necessário que o debate seja feito pelos diversos segmentos da sociedade e não somente por especialistas da área de tecnologia.

As opiniões e perspectivas retratadas neste artigo pertencem a seus autores e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Pesquisador do Instituto de Referência em Internet e Sociedade, graduando em direito na Universidade Federal de Minas Gerais (UFMG). Cursou dois anos de ciência política na Universidade de Brasília. Membro do GNet. Foi membro da Clínica de Direitos Humanos (CDH) e da Assessoria Jurídica Universitária Popular (AJUP), ambos da UFMG.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *