Blog

Por que pensar em regras para moderação de conteúdo em plataformas digitais?

Escrito por

22 de janeiro de 2024

Com a pauta da regulação de redes sociais voltando à tona em 2024, entenda por que é importante pensar em regras para a moderação de conteúdo online.

O caso de divulgação de fake news por páginas de fofoca e a preocupação com o uso indevido de redes sociais nas eleições de 2024 reacenderam o debate sobre a regulação de plataformas digitais. O Projeto de Lei (PL) 2.630/2020, conhecido como “PL das Fake News” não avançou como o esperado em 2023, mas este parece ser um ano chave para a retomada da sua tramitação. Nesse contexto, é importante compreender melhor um dos pontos principais nessa discussão, que é a criação de regras para a moderação de conteúdo online.

Recapitulando: o que é moderação de conteúdo?

Moderação de conteúdo é a atividade por meio da qual as plataformas digitais, como redes sociais, intervêm no conteúdo que circula no seu espaço. Isso vale tanto para as formas de intervenção mais conhecidas, como sinalização, suspensão ou restrição de postagens e contas, quanto para a definição da ordem de recomendação de conteúdo na linha do tempo.

Assim, a moderação é vista ao mesmo tempo como a finalidade de tornar o ambiente digital mais saudável e seguro para os usuários e também um próprio produto das plataformas, na medida em que aquelas com uma melhor moderação podem ser mais bem vistas e, consequentemente, mais buscadas pelo público.

Como o tema está sendo discutido no Congresso Nacional?

O PL 2630 possui atualmente (em sua versão disponível mais recente, de 27 de abril de 2023) um capítulo dedicado somente a estabelecer parâmetros para as plataformas notificarem usuários e publicizarem ações relacionadas à moderação de conteúdo. Inclusive, o texto utiliza a expressão “devido processo”, que vem da ideia de um princípio do direito processual, que visava garantir a ideia de um processo justo

Atualmente, esse princípio está consagrado como um direito formalizado na Constituição Federal de 1988, o que eleva o seu status como norma no direito brasileiro.

Dessa forma, apesar de ser algo primariamente aplicado a relações entre indivíduo e Estado, o PL 2630 parece chamar a atenção para a necessidade de se pensar também na importância de um processo justo quando estamos diante de plataformas digitais.

Por que precisa de regras?

De fato, a moderação de conteúdo se apresenta como uma atividade que possui importância significativa, na medida em que ao decidir sobre o que pode circular ou não naquele espaço digital, as plataformas acabam tendo amplo poder de influência sobre um direito fundamental do cidadão: o da liberdade de expressão. Nesse sentido, pensar em regras para essa atividade tem se demonstrado cada vez mais essencial no debate sobre regulação de plataformas digitais.

Além disso, já existem diferentes casos que demonstram o quanto ferramentas de moderação de conteúdo automatizadas, como as que são largamente empregadas em redes sociais, podem cometer erros e/ou não ser transparente com os usuários.

🧑‍🤝‍🧑 Um estudo de Haimson, Delmonaco, Nie e Wegner, de 2021, revelou que pessoas negras e transgênero tinham maiores remoções de conteúdo relacionadas à expressão de suas identidades marginalizadas, apesar de seguirem as políticas da plataforma ou por cair em áreas consideradas “cinzentas” para a moderação de conteúdo

🧑‍🤝‍🧑 A expressão shadow banning é utilizada para se referir a casos em que redes sociais reduzem ou restringem o alcance de determinado conteúdo, podendo ser uma conta, postagem ou até mesmo uma hashtag. Na maioria das vezes, o próprio usuário é quem percebe isso, através da redução do número de interações com a sua conta, não sendo informado adequadamente pela plataforma. Essa redução pode ser considerada uma moderação de conteúdo, mas não é transparente se não há qualquer notificação ao usuário.

Já pensou se você depende de produzir conteúdo ou vender seus produtos por uma rede social e a sua conta ou postagem é removida sem qualquer explicação adequada?

Como essas regras devem ser feitas?

Apesar de já haver discussões a respeito, não há uma única forma de se elaborar regras para a moderação de conteúdo. Inclusive, é importante que a plataforma possa ter certa autonomia para criar as suas próprias diretrizes, mas ter parâmetros mínimos determinados por uma regulação estatal têm se demonstrado cada vez mais importante.

Na União Europeia, por exemplo, em que já houve a aprovação do Digital Services Act (ou Lei de Serviços Digitais), voltada a plataformas digitais, há determinações relacionadas a necessidade de notificação de usuários e de fundamentação nítida de decisões de moderação, por exemplo. Aqui no Brasil, como já mencionado, o PL 2630 traz até mesmo a ideia do direito constitucional de devido processo legal para o campo das relações privadas existentes entre usuários e essas empresas.

Seja qual for o caminho escolhido, alguns pontos têm aparecido com certa frequência no debate, podendo citar-se: 

  1. a) transparência em relação a como a moderação de conteúdo é feita; 
  2. b) disponibilização de canais de denúncia de conteúdo nocivo de forma acessível; 
  3. c) regras e diretrizes de comunidade objetivas e compreensíveis
  4. d) oportunidade de recurso para usuários com conteúdo moderado; 
  5. e) explicação dos motivos para a moderação de determinado conteúdo; dentre outros.

Considerando se tratar de um tema de absoluta relevância para diferentes atores e a sociedade como um todo, faz-se igualmente fundamental que esse debate seja conduzido de forma multissetorial, diversa e equitativa. Isso pode contribuir não somente para uma moderação conduzida de forma mais democrática, como também para que as regras estipuladas possam ser seguidas com maior respeito por todas as partes interessadas.

Para seguir acompanhando…

2024 promete ser um ano para retomar e aprofundar as discussões em torno da regulação de plataformas no Brasil. Se você quiser saber mais sobre esse debate (e eu recomendo que você acompanhe, pois muito provavelmente vai impactar o seu dia a dia), procure ficar por dentro do andamento do Projeto de Lei 2.630/2020 e outros que possam ser relacionados. Não só isso, como também busque o que tem sido produzido por entidades da sociedade civil voltadas a essa pauta.

O Instituto de Referência em Internet e Sociedade (IRIS) possui um projeto de pesquisa dedicado exclusivamente a compreender quais as possibilidades existentes, tanto no Brasil como em outros países do mundo, acerca da construção de um direito ao devido processo na moderação de conteúdo online. Junto à Coalizão Direitos na Rede, que é um coletivo com mais de 50 organizações da sociedade civil, também temos atuado para a proteção e defesa dos usuários frente a plataformas digitais.

E quanto mais pessoas puderem somar nessa construção, mais chances nós temos de pautar uma regulação que faça sentido no nosso contexto e atenda às nossas particularidades. Vamos juntes nessa?

Escrito por

Coordenadora de pesquisa e Pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). É Mestre em Direitos da Sociedade em Rede e Graduada em Direito pela Universidade Federal de Santa Maria (UFSM). Membra do Coletivo AqualtuneLab. Tem interesse em pesquisas na área de governança e racismo algorítmicos, reconhecimento facial e moderação de conteúdo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *