Moderação algorítmica e prioridades enviesadas: sabemos o problema, mas não as causas
Escrito por
Lahis Kurtz (Ver todos os posts desta autoria)
22 de novembro de 2021
Dessa vez, o problema não está no que não podemos ver, mas no que nos é mostrado.
Moderação de conteúdo vem em várias formas
Quando pensamos em moderação de conteúdo, logo vem à mente aquele influencer ou até aquele amigo que teve algum conteúdo removido sem querer. Normalmente, alguma foto inofensiva, um vídeo, um repost de algum conteúdo legítimo que foi mal-interpretado.
Todo mundo sabe que os algoritmos não são bons em distinguir conteúdo ilegítimo e conteúdo de protesto, sarcasmo, paródias, etc. Assim, muito conteúdo é retirado de nosso alcance por engano. Mas você já parou pra pensar que, tão ou mais importante, é como se decide o que vai estar em destaque, ou seja, o que vamos ver?
Priorização e ocultamento de conteúdo
No mundo do fear of missing out (medo de ficar de fora), nós estamos constantemente abrindo aplicativos de mídias sociais para ver o que há de novo. Do outro lado, quem está nesse palco quer que seu conteúdo chegue nas pessoas e quer que esteja em destaque. Existe uma pressão e, em vários casos, uma necessidade econômica, de ter interações e curtidas, de estar no feed das pessoas.
Sabemos que as mídias sociais não irão mostrar tudo o que todo mundo que seguimos postou no dia. Seguimos perfis demais para isso – deveríamos? – e, ainda mais, não teremos de qualquer maneira tempo para ver tudo. Quem nunca limitou seu tempo diário de aplicativos? Também há aqueles que aderem ao método pomodoro para poder focar mais no que interessa e menos nesses feeds infinitos. Mas o fato é que ficamos muito confortáveis com o feed, uma ferramenta que já nos mostra, logo de cara, o que supostamente queremos ver. E, pasme, essa é uma ferramenta poderosíssima de moderação de conteúdo. Isso pois, ao mostrar algumas coisas e apontar nossa atenção a elas, ela não mostra outras.
Ou seja, o algoritmo de moderação de conteúdo não é só aquele que excluiu imagens erroneamente. É também aquele que decidiu, com base em critérios talvez até mais misteriosos, o que ele iria priorizar no seu campo de visão e atenção. Por consequência, quando algo é priorizado dessa forma, é como se não existissem os conteúdos que ficaram de fora. Eles ganham menor relevância, pauta e espaço nas reflexões, debates e tomadas de decisão das pessoas.
Os mistérios de uma curadoria automatizada
Muito do trabalho de priorização de conteúdo, por isso, se assemelha a uma curadoria – isto é, alguns conteúdos entram e outros não. E isso implica em, talvez, alguns tipos de conteúdo entrarem mais que outros. É exatamente esse problema que uma equipe de pesquisadores contratados pelo Twitter apontou. Em uma análise de quais conteúdos políticos ganharam mais alcance dessa maneira, descobriram um viés. Nos posts mais amplificados de teor político, a maioria era de um determinado espectro.
O estudo foi realizado com contas de políticos eleitos do Poder Legislativo em sete países – Canadá, França, Alemanha, Japão, Espanha, Estados Unidos e Inglaterra – e envolveu milhões de posts entre abril e agosto de 2020. Depois, também foram analisados posts do público em geral com link para conteúdo de notícias políticas relevantes nos EUA.
Alguns dos achados foram muito reveladores, como, por exemplo, a confirmação de que posts políticos são amplificados por algoritmos. O fato de a pessoa que postou ter uma determinada filiação partidária, por sua vez, não surte efeito. O principal, entretanto, foi que em 6 dos 7 países (exceto Alemanha), postagens da direita política tiveram maior amplificação algorítmica do que os da esquerda – e o fato de serem oposição ou governo não influencia. O mesmo ocorre com notícias com editorial alinhado à direita quando comparados a jornais alinhados à esquerda; ainda, jornais com forte tendência partidária e constância nesse sentido tendem a ser mais amplificados que aqueles com menor enviesamento.
Também vale apontar que o estudo teve uma hipótese não corroborada pelos dados: na amostra, os algoritmos não priorizavam conteúdos de extrema direita ou esquerda com maior frequência do que os mais moderados, ou seja, conteúdos extremistas não eram priorizados. Mesmo assim, o resultado causa preocupação e levanta algumas questões.
Mais perguntas do que respostas
Um determinado tipo de conteúdo é priorizado pelos softwares. Por que isso ocorre? Os especialistas não sabem dizer se o algoritmo é treinado de forma que prioriza esse tipo de post devido a seu conteúdo em si ou devido à forma como ele interage nas redes. Seria por causa das palavras e/ou imagens, ou por causa de quem está postando, ou ainda porque ele é mais compartilhado ou gera mais interação?
A partir de uma conversa que o colunista Casey Newton teve com Chowdhury, uma das integrantes do time de transparência, accountability e ética de aprendizado de máquina do Twitter, ele afirma que esses softwares realizam um trabalho próximo ao da adivinhação. Isto é, como muitos modelos são combinados e há uma grande tentativa de personalização com base em muitos fatores, não há como afirmar com precisão as razões pelas quais um algoritmo desses toma uma decisão. Ou seja, encontrar um problema não significa encontrar o que o causou.
Na mesma entrevista, Chowdhury afirma que não existe um consenso sobre o que os algoritmos de priorização deveriam fazer, exatamente. Mas há uma expectativa de que eles possam ser mais compreensíveis e possamos, então, tomar decisões em relação a eles. A ideia é podermos controlar o que conta ou não. Se isso será ou não suficiente, é uma incógnita, mas o certo é que pesquisas são importantes para identificar as insuficiências do modelo atual e, se ainda não apontam qual o melhor caminho, ajudam a dizer quais caminhos são perigosos, ou mesmo que uma mudança de rota é necessária.
Nesse sentido, te convido a ler nossa mais recente pesquisa sobre transparência e moderação de conteúdo aqui.
As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.
Escrito por
Lahis Kurtz (Ver todos os posts desta autoria)
Coordenadora de Pesquisa e pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS), Doutoranda em Direito na Universidade Federal de Minas Gerais (UFMG), Mestra em Direito da Sociedade de Informação e Propriedade Intelectual pela Universidade Federal de Santa Catarina (UFSC), Graduada em Direito pela Universidade Federal de Santa Maria (UFSM).
Membro dos grupos de pesquisa Governo eletrônico, inclusão digital e sociedade do conhecimento (Egov) e Núcleo de Direito Informacional (NUDI), com pesquisa em andamento desde 2010.
Interesses: sociedade informacional, direito e internet, governo eletrônico, governança da internet, acesso à informação. Advogada.