Blog

Entre Musk, STF e reformas: situando o devido processo na moderação de conteúdo no Brasil

Escrito por

17 de abril de 2024

Em 2024, os embates entre Musk e STF revelam desafios para a transparência na moderação de conteúdo em meio a reformas e incertezas no Brasil.

Após o dono do X (antigo Twitter) fazer postagens ameaçando descumprir ordens do STF, a discussão sobre regulação de plataformas digitais voltou aos holofotes no Brasil e um novo cenário surgiu após o anúncio de descarte do “Projeto de Lei das Fake News” — o mais avançado no tema. Neste texto, mergulharemos nesse momento histórico do debate político e jurídico brasileiro.  Não pretendemos esgotar o tema, mas sim compilar um panorama estratégico sobre os rumos da moderação de conteúdo no Brasil, alinhado aos valores democráticos e à soberania digital do país. Em momentos como este, desconfiar de respostas conclusivas é fundamental. Convidamos você a continuar a leitura, explorando os diversos aspectos que compõem essa encruzilhada complexa e multifacetada.

Como chegamos nesta encruzilhada na moderação de conteúdo? 

As plataformas digitais desempenham um papel central na sociedade, concentrando considerável poder socioeconômico em algumas grandes empresas. Esses espaços virtuais se tornaram verdadeiros cruzamentos de caminhos, onde ideias, informações e interações se entrelaçam em redes que transcendem fronteiras. Contudo, essa interseção de poder e influência também trouxe à tona uma encruzilhada crítica, em que decisões importantes sobre a regulação dessas plataformas se fazem necessárias.

O retorno da pauta da regulação de plataformas digitais aos holofotes no Brasil é resultado da convergência de diversos fatores e vetores. Um dos principais impulsionadores dessa discussão é a crescente preocupação com os riscos à democracia, como identificou o Comitê Gestor da Internet no Brasil (CGI.br) em relatório recente.

No cerne desse debate está a moderação de conteúdo, que pode ser definida como:

🖥️ Conjunto de práticas de intervenção e curadoria dos conteúdos  disponíveis que, além de ser um produto da atividade econômica da plataforma, visa a organização do espaço virtual e a proteção contra conteúdos danosos ou ilícitos.

Em 2024, essa discussão ganha ainda mais destaque no combate à desinformação, sobretudo antes e durante o período eleitoral. E nesse ano em particular, a moderação de conteúdo pode afetar não apenas o cenário político brasileiro, mas também dezenas de eleições ao redor do globo.

Reforma do Código Civil e o futuro da responsabilidade nas plataformas digitais

As movimentações políticas e jurídicas para a reforma do Código Civil no Brasil também ecoam na atual encruzilhada da regulação de plataformas digitais. Recentemente, em 1º de abril deste ano, a comissão de juristas do Senado Federal aprovou em seu relatório  a criação de um livro dedicado ao Direito Digital. 

Uma das principais mudanças propostas é a revogação do artigo 19 do Marco Civil da Internet (MCI). Esse artigo atualmente prevê que a responsabilidade das empresas por conteúdos produzidos por terceiros (os usuários de suas plataformas) só tem início após uma postura negligente frente a uma ordem judicial específica de indisponibilizar o conteúdo. — o que pode ser visto como uma limitação diante da complexidade e da rapidez com que conteúdos danosos podem se propagar online. 

Essa proposta é preocupante diante das incertezas e pouca nitidez sobre os processos democráticos que levarão à construção de um eventual novo modelo. Como explica o Telesíntese, a proposta busca “permitir que as plataformas digitais sejam responsabilizadas administrativamente e civilmente, na reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma, ou quando houver descumprimento sistemático das obrigações previstas na lei, conforme regulamento específico a ser editado”.

Isso reflete a discussão mais ampla sobre a constitucionalidade do atual modelo de responsabilidade dos intermediários ou provedores de plataformas digitais no Brasil, submetida ao Supremo Tribunal Federal (STF) no julgamento do  Recurso Extraordinário (RE) nº 1.037.396. Como já dito em blogpost anterior, esse “certamente continuará a ser um dos temas mais relevantes da agenda de governança da internet no Brasil nos próximos meses e anos” e idealmente a solução deveria “respeitar os parâmetros e valores característicos básicos da democracia, incluindo os princípios para a governança e uso da internet no Brasil”. 

Elon Musk vs. STF e o velório do PL 2630

Recentemente, a equipe de assuntos governamentais globais do X (antigo Twitter) fez uma publicação expressando sua insatisfação com as ordens do ministro do STF Alexandre de Morais, que solicitou o bloqueio de algumas contas. O conteúdo sob ordem de restrição estaria relacionado a ataques ao sistema eleitoral em 2022 e à tentativa de golpe de 8 de janeiro de 2023.

Elon Musk, proprietário do X, ameaçou descumprir essas ordens judiciais, e ainda dirigiu ofensas diretas ao ministro. O bilionário chegou a rotular o magistrado como ditador e compará-lo ao icônico vilão Darth Vader, da franquia Star Wars.

 

Fonte: reprodução de postagem original do Elon Musk em seu perfil no X.

Fonte: reprodução do Poder 360 da postagem original do perfil de Elon Musk no X.

 

Diversos veículos jornalísticos analisaram as implicações políticas e econômicas desse caso. Destacaram os interesses comerciais de Elon Musk, que é também proprietário de empresas como Starlink, Tesla e SpaceX, e sua postura associada à extrema direita apenas quando lhe convém. No entanto, também levantaram discussões sobre possíveis excessos do Judiciário brasileiro, em um contexto já sensível.

As postagens de Musk se apoiaram em publicações de ativistas. Um deles chamado Michael Shellenberger, que, após dias, desmentiu sua principal acusação — a de que o Min. Alexandre de Morares teria chegado a ameaçar um advogado brasileiro do X com um processo criminal. O caso ficou conhecido como “Twitter files Brazil” (Arquivos do Twitter no Brasil, em tradução nossa). 

Os principais efeitos práticos desse caso foram sintetizados por Ronaldo Lemos, na Folha de S. Paulo, e merecem citação literal:

📰 “Em quatro dias, com seus tuítes, ele conseguiu a demissão do relator do projeto de lei das Fake News, deputado Orlando Silva, de forma sumária. Um movimento raro no Congresso, ainda mais de forma tão abrupta. Musk também conseguiu que o presidente da Câmara trabalhasse para ele, criando uma comissão especial para escrever uma nova lei para internet no país em 40 dias (o que poderia dar errado com tanta pressa?).

Também colocou o Supremo para trabalhar para ele. Com um punhado de tuítes fez o STF pautar ações de constitucionalidade sobre a regulação da internet que estavam paradas há meses. Conseguiu também que o Supremo incluísse Musk pessoalmente como investigado no inquérito dos ataques à democracia. As luzes da ribalta brilharam forte sobre ele, do jeito que ele gosta. Por fim, conseguiu eletrizar toda uma corrente política que andava cabisbaixa nos últimos meses. Jogou como um mestre, como um “boss” de videogame.”

Com grande repercussão política, o caso criou uma mobilização política e jurídica de rumos ainda incertos, mas que atingem diretamente a regulação de plataformas digitais que estava sendo gestada no finado Projeto de Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, o PL 2630/2020 ou, como popularmente conhecido, o “PL das Fake News” mencionado por Ronaldo Lemos. 

Nessa jogada, o magnata norte-americano, indiretamente, criou o cenário ideal para que o debate público multissetorial – que se desenvolveu por anos no Brasil e se consolidou nessa iniciativa normativa –  corra alto risco de ser completamente ignorado, como veremos a seguir

A necessidade do olhar sobre a transparência e o devido processo na moderação de conteúdo 

O citado caso Twitter files Brazil destaca a necessidade urgente de regras que estabeleçam procedimentos garantidores de direitos e deveres na rede. Isso visa tornar a internet mais transparente e fundamentada na responsabilidade social, seguindo o caminho delineado desde a aprovação do Marco Civil da Internet no Brasil, como alerta a Coalizão Direitos na Rede (CDR).

O Projeto de Lei nº 2630 surge em meio a um contexto de disseminação acelerada de desinformação nas redes sociais, especialmente após o acirramento da polarização política que culminou nos desafios tecnopolíticos enfrentados nas eleições de 2018, que marcaram uma onda de notícias falsas cujo impacto real ainda é imensurável. Desde 2020, ele vem sendo debatido em diversas audiências e recebeu contribuições de especialistas na matéria. 

Em apertada síntese, a proposta legislativa estabelece obrigações de transparência para as plataformas, amplia as hipóteses de responsabilização desses agentes, garante direitos dos usuários para preservar a liberdade de expressão, além de instituir sanções e órgãos reguladores participativos para fiscalização e aplicação de punições na esfera administrativa, complementando o papel do Judiciário.

A inclusão explícita da expressão “devido processo” na última versão do texto do PL 2630, de 27 de abril de 2023, destaca a importância desse princípio nos procedimentos de moderação de conteúdo. O projeto estabelece parâmetros, princípios e critérios para essa moderação, além de mecanismos para denúncia e revisão decisória, prazos e regras claras para os procedimentos, incluindo notificação tanto dos usuários cujo conteúdo foi moderado quanto daqueles que denunciaram conteúdo nocivo.

Observando essa iniciativa normativa dentro de um movimento global de busca por transparência nas plataformas digitais, o IRIS concluiu que:

⚖️ O direito ao devido processo na moderação de conteúdo implica em mecanismos e procedimentos que legitimem o gerenciamento do conteúdo pelas plataformas digitais, garantindo sua exibição de forma justa e transparente.

É crucial observar as melhores práticas adotadas globalmente e os acordos mínimos já alcançados no contexto brasileiro, como busca fazer o PL 2630 de forma democrática e multissetorial, ainda que não seja isenta de críticas. Qualquer substituição por outra proposta legislativa deve levar em conta esses parâmetros.

O que vem pela frente?

A possibilidade de uma bloqueio do acesso ao X no Brasil se popularizou e até já gerou um aumento do uso preventivo de redes sociais alternativas, como o Bluesky. Veículos jornalísticos divulgaram que a Anatel (Agência Nacional de Telecomunicações) já estaria de sobreaviso para caso seja necessária tal suspensão. Contudo, o cenário é de incertezas e essa medida é vista como drástica e com um potencial nocivo, tanto para liberdade de expressão quanto para a própria efetividade desse tipo de sanção. 

Ronaldo Lemos afirma, em sua coluna da Folha de S. Paulo, que Musk pode estar desenvolvendo estratégias para contornar as ordens judiciais dos Estados nacionais, visando criar um mecanismo de desconfirmação do poder judicial. No caso de eventual bloqueio, o uso de VPNs, que permitem acessar sites e serviços bloqueados pelas autoridades, podem minar a capacidade do Judiciário de impor restrições. Se um número significativo de pessoas adotar VPNs, o Judiciário poderá ser tentado a bloqueá-las, um passo que seria de alto risco para a liberdade de acesso à internet em países democráticos. 

Para além do exercício imaginativo acerca do futuro, o caso provocou intensa mobilização política nos vários poderes estatais e já conta com importantes declarações públicas, as quais indicam a superação do texto do PL 2630/2020 e uma pressão para a regulação de plataformas digitais, como defende a Advocacia Geral da União, cujo teor ainda é difícil de prospectar com segurança. 

O Poder Legislativo também reagiu. Na Câmara dos Deputados, os líderes das bancadas decidiram que o projeto de lei 2.630/2020, será apreciado por um novo grupo de trabalho, resultando na saída do relator Orlando Silva e reiniciando o debate. Arthur Lira, presidente da Câmara, destacou a preocupação dos líderes em relação às polêmicas em torno da proposta, que foram relacionadas à censura e à liberdade de expressão. Em termos práticos, a discussão sobre a proposta legislativa recomeçou e espera-se que a análise dure de 30 a 40 dias.

No Senado Federal, a Comissão de Comunicação e Direito Digital (CCDD) realizou uma audiência pública para discutir a interferência de autoridades brasileiras nas redes sociais, especialmente após o caso Twitter Files. O Senado ouviu jornalistas mencionados por Elon Musk em seus ataques ao ministro Alexandre de Moraes e ao STF.

Por parte do Poder Executivo Federal, tendo em vista o indicativo do descarte do texto do PL 2630/2020, João Brant, secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República (Secom), propôs a necessidade de um órgão ou entidade independente para supervisionar o cumprimento da legislação brasileira pelas redes sociais. 

Por sua vez, o Poder Judiciário federal – através da atuação do Min. Alexandre de Moraes do STF – incluiu Elon Musk no inquérito sobre milícias digitais em curso, além de ter reacendido o olhar da sociedade sobre processos judiciais em andamento, como o Recurso Extraordinário 1037396 em que se discute o tema 987 de repercussão geral, cujo objeto é análise da constitucionalidade do modelo do art. 19 do MCI de responsabilidade de intermediários (que, como vimos, está em cheque, também, nas iniciativas de reforma via Código Civil).

Nesse contexto apressado e de intensa pressão política, há um legítimo receio de desconsideração dos caminhos possíveis já encontrados no debate construído no âmbito do PL 2630, inclusive no ponto sobre obrigações de transparência e devido processo na moderação de conteúdo em plataformas digitais, que, como dito, são fundamentais para a promoção da democracia e dos direitos humanos online, inclusive para o equilíbrio entre a liberdade de expressão e os valores do Estado Democrático de Direito. 

Ademais, o risco de captura da nova proposta regulatória pela extrema-direita também assusta, em defesa de uma suposta “liberdade de expressão” que permite a ofensa a minorias e o compartilhamento de desinformação, por exemplo — o que pode ser ilustrado pelo teor dos argumentos utilizados por Elon Musk e das pessoas que costumam fazer coro a suas reinvindicações, como os apoiadores do ex-presidente Jair Bolsonaro, Nikolas Ferreira, Paulo Figueiredo e Allan dos Santos

Construindo o futuro da moderação de conteúdo no Brasil hoje

Diante do cenário instável e da pressão política, faz-se necessário uma cautela adicional para não permitir que ignoremos os avanços e caminhos construídos no PL 2630, inclusive no que diz respeito à transparência e ao devido processo na moderação de conteúdo. A possibilidade de a nova proposta de regulação de plataformas digitais ser influenciada pela extrema-direita é alarmante, ameaçando a promoção da democracia e dos direitos humanos no ambiente digital.

 

Para se aprofundar e acompanhar os próximos passos deste debate, além de saber formas de articulação com a pauta,  conheça:

Fique de olho e junte-se a nós em mais uma empreitada da governança da internet.

Escrito por

Pesquisadora e líder de projetos de Moderação de Conteúdo no IRIS. Mestranda em Direito da Regulação na FGV Rio e graduada em Direito pela UFBA. É advogada e se interessa por temas regulatórios que envolvam regulação de plataformas digitais, inteligência artificial e discussões sobre neurodireitos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *