Blog

Moderação de conteúdo e redes sociais: o que esperar (de velho) no ano novo?

Escrito por

16 de janeiro de 2025

O discurso de Mark Zuckerberg reforça que, apesar do ano novo, os problemas com a moderação de conteúdo online permanecem os mesmos – e podem piorar.

Você provavelmente deve ter visto o discurso de Mark Zuckerberg logo no início deste ano, anunciando uma série de mudanças preocupantes no funcionamento da moderação de conteúdo nas plataformas da Meta. Na contramão do movimento dos últimos anos, o CEO da empresa se aproxima não somente do discurso de Donald Trump, prestes a assumir o governo dos EUA novamente, como do discurso do CEO de outra rede social: Elon Musk, que defende a priorização quase que absoluta do direito à liberdade de expressão – um posicionamento que costuma ter um preço bem caro para grupos vulnerabilizados.

A verdade é que 2025 recém começou, mas muitos problemas permanecem de 2024 e de anos anteriores – mas se estamos apenas em janeiro, o que esperar dos próximos meses dessa virada ao sol?

Qual será a nova abordagem da Meta?

Em pronunciamento feito no dia 7 de janeiro de 2025, Mark Zuckerberg anunciou ao mundo alterações profundas na moderação de conteúdo em plataformas da Meta. Defendendo “mais discurso e menos erros”, o representante da empresa destacou que os esforços por moderar mais e melhor estariam prejudicando usuários inocentes, com a remoção indevida de conteúdo. Apesar de ser verdade a existência de inúmeros casos de moderação equivocada, a solução apresentada pela Meta aponta para um caminho de maior permissividade a discursos preconceituosos.

Enquanto a moderação de conteúdo automatizada seguirá utilizada para casos de “conteúdo ilegal e violações de alta severidade, como terrorismo, exploração sexual infantil, drogas, fraudes e scams”, as demais infrações às políticas de comunidade serão analisadas primeiramente a partir de denúncias. A intenção, segundo a nota da empresa, é chegar a uma convicção melhor embasada de que o conteúdo é realmente violador, antes de proceder a sua remoção.

Nesse sentido, diferentes restrições sobre temas como imigração, identidade de gênero e gênero foram levantadas, uma vez que, afirma, “não é certo que coisas possam ser ditas na TV ou no plenário do Congresso, mas não em nossas plataformas”. Ocorre que, desde então, a atualização das diretrizes demonstra um posicionamento que retrocede no reconhecimento de direitos básicos de grupos minoritários, como é o caso da população LGBTQIAPN+. Para esta, as novas diretrizes passaram a autorizar, por exemplo, “alegações de doença mental ou anormalidade quando baseadas em gênero ou orientação sexual, considerando discursos políticos e religiosos sobre transgenerismo e homossexualidade, bem como o uso comum e não literal de termos como ‘esquisito’”. Além disso, a nova política também permite “conteúdo que defenda limitações baseadas em gênero para empregos militares, policiais e de ensino”, além de conteúdo semelhante “relacionado à orientação sexual, desde que fundamentado em crenças religiosas”.

A racionalidade por trás desta e outras alterações seria assegurar uma maior proteção à liberdade de expressão dos usuários – um argumento que você já deve ter ouvido pelo representante do X, Elon Musk. A aproximação entre os dois posicionamentos é expressamente demonstrada no discurso oficial da empresa, que informa a adoção do mecanismo de Notas da Comunidade do X, para anunciar o fim da parceria com agências de checagem para verificação de notícias. Embora esta alteração em específico valha somente para os EUA neste momento, onde a regra será testada, a ideia é que haja usuários colaboradores que escrevam e avaliem o conteúdo postado. 

Por fim, a empresa também afirmou que voltará a recomendar conteúdo político, o que havia sido reduzido desde 2021, após solicitação por parte dos próprios usuários. Novamente, a justificativa para a medida seria proteger o direito à liberdade de expressão. No vídeo publicado no início deste ano, Zuckerberg chegou a afirmar que haveria “tribunais secretos de censura” na América Latina e que a Europa, por sua vez, adotaria um número cada vez maior de normas que institucionalizam a censura.

Principais reações brasileiras às alterações

As alterações da Meta já geraram e seguem gerando inúmeras reações. Ainda que não tenha mencionado expressamente o Supremo Tribunal Federal (STF), a menção a “cortes secretas de censura” foi entendida pelo Secretário de Políticas Digitais da Secretaria de Comunicação do governo, João Brant, como uma referência ao caso envolvendo a Suprema Corte brasileira e a plataforma X, quando esta foi suspensa após descumprir reiteradamente ordens judiciais para moderação de contas e conteúdos. Em recente cerimônia que relembrava os ataques antidemocráticos de 8 de janeiro, no Brasil, Alexandre de Moraes, ministro do STF, destacou a existência de uma instrumentalização de redes sociais para ataques à democracia e afirmou que elas somente poderão continuar a operar no país caso respeitem a lei vigente. O presidente Lula foi igualmente enfático ao afirmar que um cidadão não poderia interferir na soberania de um país e que iria ter uma reunião para discutir a questão. 

Inclusive, a Advocacia Geral da União já enviou uma notificação extrajudicial à empresa, acerca do fim do programa de checagem e demais alterações nas diretrizes de comunidade. Em seu texto, a instituição afirma, dentre outras coisas, que

“(…) As grandes empresas de tecnologia, a exemplo da META, devem assumir suas responsabilidades com o ambiente informacional íntegro, devendo, para tanto, adotar as medidas cabíveis para a consecução deste objetivo, de modo a extirpar ou, pelo menos, mitigar, os danos que seus produtos e serviços causam às pessoas.

(…) Considerando, portanto, a gravidade e a complexidade da situação, conforme novas diretrizes apontadas acima que demonstram a possibilidade de violações a direitos fundamentais no ambiente digital, com desrespeito à legislação pátria, podendo trazer consequências nefastas para todos os cidadãos, faz-se necessário que sejam esclarecidas, de parte dessa plataforma ora notificada, quais as medidas proativas que vêm sendo e que serão adotadas a respeito da arquitetura digital da plataforma, especialmente sobre o desenho dos algoritmos, no sentido de inarredável promoção e proteção dos direitos fundamentais, com respeito à legislação infraconstitucional e à CF/88”. (grifo nosso).

A notificação, que até já foi respondida pela Meta e será analisada ainda essa semana, reforça o tom proferido pelas autoridades, no sentido de obrigar a empresa e outras plataformas à observância do regramento nacional sobre desinformação e discurso de ódio. Em sua resposta, a plataforma de Zuckerberg afirmou que segue “comprometida em respeitar os direitos humanos e seus princípios subjacentes de igualdade, segurança, dignidade, privacidade e voz”. E afirma que mantém seus princípios de “dar voz às pessoas; servir a todos; promover oportunidades econômicas; viabilizar que as pessoas se conectem e construam comunidades; manter as pessoas seguras e proteger a privacidade”.

Além disso, a Associação Nacional de Travestis e Transexuais (ANTRA) protocolou uma representação contra a Meta perante o Ministério Público Federal. Dentre os pedidos, está a adoção de medidas legais contra a empresa, criação de campanhas e canais de denúncia para combate ao discurso de ódio e a regulação urgente de redes sociais. A Coalizão Direitos na Rede, da qual o IRIS faz parte e que é composta por mais de 50 organizações da sociedade civil que defendem direitos digitais, também divulgou uma nota “Contra o Retrocesso na Moderação de Conteúdo da Meta e os Ataques à Regulação Democrática do Espaço Digital”, que conta com mais de 150 assinaturas.

Dentre as críticas e pedidos, o texto da CDR menciona:

  • A preocupação com um discurso retórico “que afronta iniciativas regulatórias legítimas e necessárias de governos e da sociedade civil em diversas partes do mundo, incluindo a América Latina, generalizando essas ações como ‘censura’ ou ‘ataques a empresas estadunidenses’”;
  • O anúncio de um problema estrutural, que é “a concentração de poder nas mãos de corporações que atuam como árbitros do espaço público digital, enquanto ignoram as consequências de suas decisões para bilhões de usuários”
  • Os pedidos de que tanto a Meta revise suas medidas e assuma “sua responsabilidade no combate ao discurso de ódio, à desinformação e à exploração online”, como de que governos e organizações da sociedade civil engajem em esforços para a regulação de direitos e plataformas digitais.

O que esperar desse ano que mal começou?

2024 já havia chegado ao fim sem definir questões importantes para a governança da internet no Brasil, como com o julgamento do STF em torno do art. 19, do Marco Civil da Internet (MCI), que determina a forma de responsabilização de provedores de serviço (como plataformas de redes sociais) no caso de conteúdo publicado por terceiros. Uma vez que o texto do MCI não determina especificamente a necessidade de moderação de conteúdo, esta era realizada pelas plataformas não somente como uma boa prática, até mesmo para evitar ações judiciais, como também um produto dos seus serviços. Isto porque as pessoas tendem a buscar espaços digitais mais seguros e confiáveis para terem interações sociais, de modo que a moderação de conteúdo contribui diretamente para esse fim.

No entanto, os inúmeros casos diários de conteúdos nocivos que circulam nas redes sociais, junto à utilização destas como canal para promoção de atividades criminosas e ataques a eleições e à democracia, já haviam aumentado a preocupação com a adoção de medidas que pudessem frear essas atividades. Com os novos anúncios da Meta, essa questão se intensifica.

Em especial, é possível que a flexibilização aumente a circulação de casos de desinformação e discurso de ódio, principalmente contra minorias como pessoas LGBTQIAPN+ e mulheres. A nova disposição acerca da permissão em torno da associação entre homossexualidade e transexualidade a doenças mentais contraria declarações da própria Organização Mundial da Saúde, de que não se tratam de doenças, e do Conselho Federal de Psicologia do Brasil, que não permite qualquer associação da sexualidade como patologia.

Embora o direito à liberdade de expressão seja um direito fundamental no Brasil, já está pacificado pelo Poder Judiciário que não se trata de um direito absoluto, livre de consequências jurídicas em caso de eventual abuso no seu exercício. É necessário que ele seja equilibrado junto a outros direitos fundamentais garantidos tanto pela própria Constituição Federal (CF), quanto por tratados internacionais ratificados pelo Brasil e que possuem peso de Emenda Constitucional – como é o caso do direito à igualdade e à não discriminação, que podem ser encontrados na CF e na Convenção Americana de Direitos Humanos. Não há necessidade de pedir nenhuma autorização para manifestar uma opinião, mas eventuais violações de direitos ensejam a devida responsabilização.

Assim, mesmo que a Meta ou outras plataformas de redes sociais decidam autorizar a presença de conteúdos que, pelo menos no Brasil, são passíveis de responsabilização cível e/ou criminal, os usuários poderão recorrer ao Poder Judiciário para proteger os seus direitos. Ainda que não seja originária do país, os serviços da Meta estão disponíveis e são operados aqui, impactando diariamente a vida de cidadãos brasileiros, de modo que podem ser submetidos à lei local.

Caso não haja alguma alteração ou adequação da plataforma aos parâmetros nacionais, conforme já requerido por órgãos oficiais, como a AGU, o que se pode esperar é um possível aumento de demandas judiciais por remoção de conteúdo e suspensão de contas. Atualmente, conforme pesquisa inédita conduzida pelo IRIS, as principais reclamações de usuários sobre a moderação realizada por redes sociais gira em torno de questões relacionadas ao próprio procedimento de moderação (54,34%), como decisões de remoção/suspensão não fundamentadas e contestações não respondidas. Dentre as queixas que não tratam sobre o procedimento em si, o maior número é representado por reclamações genéricas sobre as políticas de moderação e pedidos de moderação de conteúdo de terceiros.

Ainda que o pronunciamento da Meta tenha mencionado que aumentou o número de pessoas dedicadas a responder solicitações de revisão de moderação, assim como o número de casos que exigem o consenso entre vários revisores antes de chegar a uma decisão de remoção, as demais alterações parecem ignorar os pontos a melhorar no próprio procedimento. Se a maior parte das reclamações sobre a forma com que a moderação é feita trata da falta de fundamentação adequada das decisões, melhorar este ponto pode reduzir o sentimento de insatisfação frente a uma remoção ou suspensão. Quanto aos casos em que efetivamente se comprove uma moderação indevida, como situações de moderação de conteúdo envolvendo racismo, é possível uma articulação mais profundamente comprometida com os grupos afetados, com a finalidade de afinar melhor os mecanismos automatizados.

Por fim, é possível aguardar que essa discussão internacional acirre o embate entre governo federal e plataformas digitais, além do avanço do julgamento do Marco Civil da Internet pelo STF e o andamento de um projeto de lei (PL) para regular redes sociais. Em relação a este último, após anos de discussão no Congresso Nacional, o PL 2630/2020 acabou travado na Câmara dos Deputados, com a formação de um Grupo de Trabalho para elaboração de uma nova proposta. No entanto, até o momento nenhuma atividade significativa foi registrada.

Seja como for, é fundamental que o debate atual seja capaz de fortalecer a soberania nacional frente a grandes empresas de tecnologia, bem como que estas sejam capazes de reconhecer o seu papel frente à disseminação de conteúdo nocivo. A liberdade de expressão é, sim, um direito humano e fundamental, mas que não existe em um vácuo normativo. Antes disso, trata-se de uma previsão legal com o mesmo grau de importância de outros direitos fundamentais, de modo que deve ser equilibrada para não gerar outras violações graves.

No final das contas, vale aquela máxima que aprendemos muito cedo na vida: o nosso direito termina quando começa o do outro.

As opiniões e perspectivas retratadas neste artigo pertencem a seus autores e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Coordenadora de pesquisa e Pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). É Mestre em Direitos da Sociedade em Rede e Graduada em Direito pela Universidade Federal de Santa Maria (UFSM). Membra do Coletivo AqualtuneLab. Tem interesse em pesquisas na área de governança e racismo algorítmicos, reconhecimento facial e moderação de conteúdo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *