Blog

Padrões para moderação de conteúdo

Escrito por

13 de julho de 2020

O que é a internet para você? Grande parte do conteúdo dessa ideia abstrata e tão romantizada com termos proféticos como “rede das redes” pode, em poucas palavras, ser descrita como aquilo que visualizamos em buscas, redes sociais, mensagem online. E, se pararmos para pensar, isso tudo é mediado por serviços, que nos permitem buscar, seguir, compartilhar e comentar sobre os mais variados assuntos. Serviços que decidem sobre a remoção, redução de alcance, determinação de relevância daquilo que acessamos

Moderação de conteúdo é a tarefa mais importante dessas plataformas que não criam, mas gerenciam conteúdo gerado por usuários. E, com a representatividade que isso tem na internet, sendo responsável por grande parte da informação que acessamos, não poderia passar ao largo de preocupações com direitos e garantias com relação a liberdade de expressão e acesso à informação. Você sabia que existem padrões que buscam guiar essa atividade, estabelecendo diretrizes sobre como as plataformas deveriam lidar com ela?

Como é feita a moderação de conteúdo?

Muita preocupação tem sido mobilizada em torno do que as plataformas devem fazer para restringir discursos extremistas e campanhas desinformativas. Entretanto, pouco se sabe sobre o que elas têm feito, e por que as atitudes tomadas não funcionaram tão bem como o esperado, ou mesmo se não geraram outros problemas. Por exemplo, uma autoridade governamental pode fazer conteúdo de oposição ser removido em sua jurisdição, enquanto uma entidade pode impulsionar artificialmente conteúdo de interesse comercial, ou ainda, conteúdo questionável publicado por personalidades influentes pode não ser removido.

Para fiscalizar o que realmente ocorre, essas práticas teriam de ser transparentes. Por exemplo, poderia haver divulgação de relatórios sobre remoção de conteúdo e denúncias atendidas, explicações a quem fosse afetado pela moderação, com acesso aos motivos que levaram a uma medida e a possibilidade de questioná-la, com direito a uma revisão não-automatizada de seu caso. Esses riscos de que haja alguma injustiça – remoção ou restrição de conteúdo legítimo, ou impulsionamento de conteúdo ilegítimo – são reduzidos por medidas desse tipo. E essa é exatamente a lógica dos Princípios de Santa Clara, elaborados em uma conferência na Universidade homônima, que compreendeu pesquisadores e instituições da área, como a Electronic Frontier Foundation.

Grandes responsabilidades e grandes poderes

Outra questão é como autoridades devem intervir na moderação de conteúdo, e até que ponto é possível exigir legalmente que intermediários desempenhem essa atividade. Considerando que com grandes responsabilidades, vêm grandes poderes, os Princípios de Manilla, assinados por inúmeras instituições, sugerem margens dentro das quais essa responsabilidade jurídica das plataformas pode ser configurada

É assim porque, se as plataformas tiverem obrigações legais (e, portanto, poderes e responsabilidades) de remover determinado tipo de conteúdo, podem ser condenadas a indenizar quem for prejudicado se não o fizerem. E, para evitar essa condenação, removeriam o máximo possível – e, eventualmente, conteúdo legítimo seria removido. E isso pode parecer pouco, mas dependendo da margem de erro e do quanto esse erro se repetisse, poderíamos estar falando de milhões de postagens

Por isso, os Princípios de Manilla incluem a transparência das políticas que são adotadas pela plataforma para restringir conteúdo, e a necessidade de comunicação com o usuário afetado por elas, podendo ele pedir revisão das medidas. Pensando na garantia da liberdade de expressão, indicam que os governos e as plataformas devem publicar relatórios de transparência sobre ordens de restrição de conteúdo.

A informação e seus inimigos

Alguns tipos de conteúdo levam a revisões periódicas e reabertura dos debates sobre a necessidade de transparência e de compreender o papel das plataformas na internet. Em especial, discursos extremistas, discursos de ódio e desinformação (pautas que costumam caminhar juntas) vem representando uma preocupação cada vez mais concreta. Esse tipo de conteúdo pode servir para manipulação de opinião pública sobre eventos importantes, com reflexos que podem alterar decisões sobre votos, atitudes de prevenção coletiva, percepção pública sobre determinado grupo ou autoridade, etc. No caso da pandemia, podemos exemplificar com atitudes como recusa em usar máscara ou compra de medicamentos sem efeito comprovado. 

A ideia de que a liberdade de informação segue um curso “natural” em que as ideias verdadeiras prevalecem pela sua completude, suporte e robustez logo se vê diante de uma realidade em que artifícios tecnológicos privilegiam curtidas, compartilhamentos, cliques, e favorecem assim conteúdo sensacionalista, odiento ou curas milagrosas, replicados por quem detém meios de propagá-lo mais eficientemente. O problema não é a liberdade de expressão em si, mas o uso de meios artificiais de priorização e compartilhamento de conteúdo, que passam invisíveis por usuários desavisados das plataformas.

Essas empresas, na condição de quem tem poder de regular esses artifícios, são importantes atores cuja colaboração é indispensável para a possibilidade de conter o problema. Reconhecendo essa realidade, algumas organizações comunitárias e internacionais produziram documentos voltados a essas empresas. Dois exemplos são a Relatoria Especial para a Liberdade de Expressão, feito em conjunto por OEA, ONU, OSCE e CADHP, e o Código de Conduta da UE sobre Desinformação, elaborado pela Comissão Europeia e que desde 2018 vem ganhando adesão de diversas plataformas – atualmente, já figuram Facebook, Google, Twitter, Mozilla e TikTok

Ainda mais recentemente, também os anunciantes vem cada vez mais enfaticamente reconhecendo que é necessário mudar a lógica de promoção e monetização de conteúdo. Com o assassinato de George Floyd, um homem negro, por um policial branco nos EUA e a ampla repercussão de manifestações antirracistas e antifascistas, sucedidas por uma postagem não removida do presidente Donald Trump no Facebook desvalorizando a legitimidade do movimento, a campanha Stop Hate for Profit (“pare de lucrar com ódio”) teve inúmeras adesões de grandes marcas, que elencaram uma série de recomendações para a plataforma lidar com conteúdo de ódio e desinformação.

Linhas-guia para o equilíbrio

Todos os documentos mencionados têm em comum a defesa de que a atividade de moderação de conteúdo, que é necessária, respeite a ideia de expressão autônoma de cada pessoa usuária de internet. Eles são padrões, linhas-guia que representam publicamente ideais de como se espera que as plataformas atuem. Também indicam no que usuários e anunciantes podem basear suas decisões ao escolher quais empresas e serviços irão intermediar sua experiência na internet. 

Conhecendo esses parâmetros, podemos repensar o uso que fazemos da rede e as escolhas que fazemos dentro dela. Se não podemos exigir representantes dentro de cada uma das plataformas, ao menos é desejável que nossos representantes se guiem nesses parâmetros para exigir ou regular atitudes delas. É preciso equilíbrio entre a existência de obrigações de uma experiência segura, justa e equânime e a garantia da proposta de acesso e compartilhamento de conteúdo que dá sentido à internet.

Recentemente, o IRIS respondeu a uma chamada por contribuições aos Princípios de Santa Clara, oferecendo considerações a partir de nosso contexto brasileiro de problemáticas envolvendo moderação de conteúdo. Confira nossas respostas nesse link!

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Ilustração por Freepik Stories

Escrito por

Coordenadora de Pesquisa e pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS), Doutoranda em Direito na Universidade Federal de Minas Gerais (UFMG), Mestra em Direito da Sociedade de Informação e Propriedade Intelectual pela Universidade Federal de Santa Catarina (UFSC), Graduada em Direito pela Universidade Federal de Santa Maria (UFSM).

Membro dos grupos de pesquisa Governo eletrônico, inclusão digital e sociedade do conhecimento (Egov) e Núcleo de Direito Informacional (NUDI), com pesquisa em andamento desde 2010.

Interesses: sociedade informacional, direito e internet, governo eletrônico, governança da internet, acesso à informação. Advogada.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *