Blog

Moderação e desinformação: operação das plataformas e a resposta do Legislativo

Escrito por

30 de março de 2022

Neste início de 2022, a imprensa brasileira foi inundada por notícias relacionadas à moderação de conteúdo desinformativo ou falso nas plataformas de redes sociais e serviços de mensageria. De novas medidas adotadas pelos grandes provedores de conteúdo a decisões da Justiça relativas ao tema, passando por projetos de lei e pesquisas de opinião  que apontam que 81% dos brasileiros defendem que as redes sociais deveriam excluir o mais rápido possível publicações falsas sobre as eleições, o tema está no centro do embate político nacional.  

Considerando a experiência de 2018 e 2020 e os cenários da disputa de outubro, a preocupação com o tema está mais do que justificada. Mas será que os usuários dessas plataformas entendem de fato os critérios adotados por cada uma para moderar conteúdos considerados desinformativos? Que riscos e limites estão colocados nesses processos? E como o Estado brasileiro, principalmente o Judiciário e o Legislativo, tem respondido aos novos desafios da moderação das chamadas “fake news” nas redes e apps de mensagem? 

Medidas adotadas pela indústria

No último dia 22 de março, o YouTube anunciou a atualização de sua política de moderação, informando aos usuários que vídeos com alegações falsas sobre “fraude generalizada, erros ou problemas técnicos que supostamente tenham alterado o resultado” das eleições de 2018 passarão a ser removidos. Já em funcionamento nos Estados Unidos e na Alemanha, a mudança se soma à restrição da plataforma a conteúdos que visem enganar eleitores sobre local e regras para votação e informações que coíbam as pessoas de comparecerem às urnas, incluindo ações, como ameaças, contra quem pretende votar. Vídeos que se aproximem dos conteúdos proibidos mas que não possam ser caracterizados como tal terão a disseminação limitada no sistema de recomendações.

A novidade é importante – apesar de bastante tardia – para tentar reduzir o impacto das campanhas de descredibilização do sistema eleitoral brasileiro, foco de preocupação do TSE (Tribunal Superior Eleitoral). Mas está longe de ser suficiente diante da quantidade de desinformação que ali segue circulando. Como mostramos na pesquisa “Fake News: como as plataformas enfrentam a desinformação”, lançada em 2021 pelo Intervozes, o YouTube não trabalha com uma definição única de desinformação e, até 2020, não tinha uma política específica para o tema, desenvolvendo medidas de maneira reativa, como  durante a pandemia da covid-19. Hoje, a plataforma não permite “conteúdo enganoso que apresente sérios riscos de danos” e combina aprendizado de máquina e “uma grande variedade de especialistas externos e criadores de conteúdo do YouTube” para analisar os vídeos postados. Além da remoção, que é notificada ao usuário, casos reincidentes sofrem restrições de publicação e monetização. O canal pode chegar a ser excluído. 

No outro lado da ponte, o YouTube recompensa “criadores confiáveis” e recomenda “fontes confiáveis de notícias e informações”.  E aí está um dos principais riscos das políticas de moderação de conteúdo relacionadas ao enfrentamento à desinformação: quem define o que é confiável? Em condições normais de pressão e temperatura, conteúdos jornalísticos poderiam ser um ótimo parâmetro – e, sim, o jornalismo segue cumprindo um papel fundamental no combate às “fake news”. Mas uma simples busca no YouTube sobre vacinas em crianças realizada no dia da redação deste artigo apresentou como resultados vídeos de canais de imprensa mostrando o presidente Bolsonaro falando contra a vacinação infantil para a covid; a reportagem de um grande portal de notícias sobre erros no processo de vacinação de crianças no país; e um conteúdo intitulado “5 razões para NÃO vacinar crianças”, com mais de 188 mil visualizações, entre outros. 

Em janeiro, o Twitter – que também proíbe mídias manipuladas, postagens que comprometam a integridade física das eleições e informações falsas sobre a covid que possam causar danos – lançou uma ferramenta para a comunidade denunciar desinformação em tempo real. A medida, que já vinha sendo testada desde agosto nos Estados Unidos, Austrália e Coreia do Sul, só chegou ao Brasil depois de muita pressão dos próprios usuários. Na ocasião do lançamento, o Twitter afirmou que “menos de 10% da amostra de Tweets analisada pelas equipes correspondia a violações às políticas”, resultado explicado, pela empresa, “pelo grande volume de denúncias recebidas sobre Tweets cujos assuntos não são relacionados àqueles em que agimos de acordo com nossas políticas”.  Ou seja, a grande maioria dos usuários que se disponibilizou a formalizar uma denúncia na plataforma desconhecia o que a própria rede social entendia sobre desinformação e sobre que temas tinha regras estabelecidas para agir. 

Também este ano, provocado pelo contexto da guerra na Ucrânia, o Twitter passou a sinalizar todo conteúdo publicado por mídias estatais russas. A política também já era adotada em outros países, mas passou a incluir, além das contas oficiais dos veículos, também seus jornalistas. Por mais que não seja uma medida explicitamente relacionada pela plataforma ao enfrentamento à desinformação, o contexto em que foi adotada a coloca no centro da disputa de narrativas sobre a guerra e na propaganda feita em seu entorno – não apenas pela Rússia, vale destacar. O resultado das novas regras foi uma grande quantidade de jornalistas que não têm vínculos formais com tais canais russos, ou que há muito tempo deixaram de colaborar com os mesmos, sofrendo ataques nas redes após a rotulagem e moderação de seus conteúdos pelo Twitter. São inúmeros os relatos de quem não foram sequer consultados previamente para ganharem o carimbo de “estatal”.

Já o Facebook/Meta, para não deixar de mencionar um dos gigantes do setor, afirma que “uma política que simplesmente proíbe “desinformação”… seria inaplicável, já que não temos acesso impecável às informações”. Por isso, as plataformas do grupo articulam “categorias diferentes de desinformação”. A remoção de conteúdo só acontece, segundo a política, quando há possibilidade de ela contribuir diretamente para o risco de agressão física iminente, e quando se tratar de conteúdo que possa interferir diretamente no funcionamento de processos políticos.  Para determinar o que é desinformação ou não nesses casos, a empresa firma parcerias com especialistas independentes para avaliar a veracidade de um conteúdo e se é provável que ele contribua diretamente para o risco de dano iminente. Para todas as outras desinformações, o Facebook opta por reduzir sua disseminação, principalmente de conteúdos que viralizaram, cuja análise depende do programa de verificação de fatos, firmado com organizações de checagem parceiras. 

Ou seja, a diversidade de medidas adotadas pela indústria, a forma como elas são implementadas, os limites dos processos automatizados, os atores ouvidos ou não na análise de conteúdos, o que vale para o Brasil ou somente em outros países, tudo isso  mostra o tamanho do desafio que está colocado quando olhamos para a atuação das plataformas. E que não pode ser reduzido a uma simples pergunta se os cidadãos defendem que elas moderem conteúdo desinformativo de maneira imediata ou não.

Moderação de conteúdo ou bloqueio: o ultimato da Justiça

Se a pergunta acima requer complexidade na resposta para que a sociedade não dê uma autorização tácita às plataformas para a total moderação do que elas entendem por desinformação, menos recomendável ainda são decisões monocráticas da Justiça.  No dia 18 de março, o país foi surpreendido com a decisão do ministro Alexandre de Moraes, do Supremo Tribunal Federal, de ordenar o bloqueio do Telegram no país por descumprimento de diversas ordens judiciais.  Entre elas, a remoção de um conteúdo publicado ilegalmente pelo presidente Jair Bolsonaro em seu canal. A ordem de bloqueio foi suspensa depois que o Telegram correu atrás do prejuízo para atender às decisões da Justiça em 24 horas. 

Mas, sem entrar no que o ministro Moraes acertou e onde errou em sua decisão, é fundamental analisarmos suas consequências para a moderação de conteúdo desinformativo que o Telegram agora se comprometeu a fazer. Em primeiro lugar, a plataforma disse que vai monitorar manualmente e todos os dias os 100 canais mais populares do Brasil para revisar seu conteúdo e “identificar informações perigosas e deliberadamente falsas”. Em segundo, anunciou que vai marcar postagens específicas em canais um-para-muitos como “imprecisas”, por meio de avisos que serão adicionados ao final de qualquer mensagem no Telegram. Para isso, devem estabelecer relações de trabalho com organizações de checagem de fatos no Brasil, que também permitirão adicionar links para fatos relevantes compilados por elas.

Em terceiro lugar, disseram que implementaram, em 24 horas, uma solução técnica para “restringir permanentemente a capacidade dos usuários envolvidos na disseminação de desinformação de criar novos canais ou postar em canais existentes”, o que permitiria diminuir o risco de repetidas violações. Essas e outras mudanças sobre moderação de conteúdo constarão da atualização dos Termos de Serviço do Telegram, que deve estar disponível no meio de abril. É aguardar para ver se os novos termos do aplicativo detalharão o que o Telegram entende por perigoso, por envolvimento em disseminação de desinformação – será preciso compartilhar quantos conteúdos e com que frequência para ganhar este rótulo? – e quem ficará responsável por esta análise. E, a pergunta que não quer calar: o Telegram vai remover algum tipo de conteúdo desinformativo? Tal medida não ficou clara na resposta oficial dada ao ministro Moraes. 

O PL 2630 e regras democráticas para moderação

Para dar uma resposta democrática aos desafios da moderação de conteúdo – não apenas desinformativo –, o PL 2630/20, que ficou conhecido como “PL das Fake News”, traz uma seção específica, intitulada “Dos Procedimentos de Devido Processo”. O nome, que tenta trazer para o espírito da lei a ideia de um julgamento equilibrado sobre os conteúdos postados, dialoga com uma série de preocupações apresentadas ao longo de dois anos de discussão sobre o texto no Congresso Nacional acerca da liberdade de expressão dos usuários nas redes. Às vésperas da votação do PL no plenário da Câmara, tal seção é considerada uma das mais relevantes contribuições do projeto – que ainda precisa ser aprimorado em vários aspectos – para uma regulação democrática das plataformas. 

De acordo com o artigo 15 do substitutivo do PL aprovado no Grupo de Trabalho criado para debater o tema, “ao aplicar regras próprias que impliquem a exclusão, indisponibilização, redução de alcance ou sinalização de conteúdos gerados por terceiros ou de suas contas, conforme previsão nos termos de uso, os provedores de redes sociais e mensageria instantânea devem” notificar o usuário sobre a natureza da medida aplicada; sua fundamentação (que deve necessariamente apontar a cláusula aplicada de suas regras e o conteúdo que deu causa à decisão); os procedimentos e prazos para o usuário exercer o direito de pedir a revisão da decisão; e se a decisão foi tomada exclusivamente por meio de sistemas automatizados. E, se for constatado equívoco na moderação, providenciar sua reversão imediata. 

Por forte pressão das plataformas, entretanto, pode cair do texto do relator Orlando Silva o direito do usuário de que, caso constatado equívoco na aplicação de regras após avaliação do pedido de revisão e havendo dano individual, coletivo ou difuso a direitos fundamentais, os provedores tenham que informar os usuários sobre seu erro, na mesma proporção de alcance do conteúdo considerado inadequado. Trata-se de um mecanismo importante para, de fato, dissuadir as plataformas da aplicação totalmente automatizada e por vezes abusiva de medidas de moderação de conteúdo. Mas sem impedir – como tentou o presidente Bolsonaro por meio da Medida Provisória 1068/21, que hoje tramita enquanto PL 3227/21 – de seguirem moderando conteúdos que podem trazer danos aos usuários. 

Como visto, ainda há muito para avançarmos para garantir o direito dos usuários a serem plenamente informados sobre os critérios adotados pelas redes sociais para moderarem conteúdos desinformativos e para tais medidas de moderação serem aplicadas de maneira efetiva e democrática. Trata-se de esforço fundamental de ser abraçado pelas autoridades, indústria, organizações da sociedade civil e usuários, sob o risco de ficarmos presos num encruzilhada que terá, de um lado, a possibilidade de ampliarmos ainda mais o poder das gigantes da tecnologia no fluxo de informação nas redes, abrindo perigosas avenidas para a violação da liberdade de expressão. E, de outro, o imobilismo que manterá em circulação campanhas de desinformação massivas e altamente danosas para a nossa democracia. Saiba mais sobre os debates em torno do PL 2630 em http://plfakenews.direitosnarede.org.br/.

Escrito por

Bia Barbosa é jornalista, especialista em Direitos Humanos pela USP e mestra em Políticas Públicas pela FGV-SP. Pesquisa liberdade de expressão, regulação de meios e da internet há vários anos. É coautora da pesquisa “Fake News: o que as plataformas fazem para combater a desinformação” (Intervozes/Multifoco, 2020), integrante da Coalizão Direitos na Rede e representante do 3º setor no CGI.br.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *