Blog

Da moderação de conteúdo à liberdade de expressão: até onde e de que forma regular?

Escrito por

12 de abril de 2023

Certamente você ouviu falar em “combate a fake news” e “moderação de conteúdo online”. Mas o que está em discussão? Os debates internacionais se aproximam do cenário brasileiro e dos muitos questionamentos feitos aqui. Apresento aqui as principais discussões feitas no evento “Internet for Trust” (Internet para Confiança, em tradução livre), que ocorreu este ano em Paris, no qual estive presente, trazendo alguns pontos principais para o cenário brasileiro atual. 

Internet for Trust: o que foi e pontos centrais debatidos

O Internet for Trust foi realizado na sede da Unesco, em Paris, capital da França, entre os dias 21 e 23 de fevereiro de 2023. A finalidade foi  discutir um conjunto de diretrizes globais para a regulamentação de plataformas digitais que salvaguardem a liberdade de expressão e o acesso à informação, conforme o documento “Guidelines for regulating digital platforms: a multistakeholder approach to safeguarding freedom of expression and access to information”. A conferência recebeu atores de diversos países e setores sociais, como forma de englobar os pontos críticos e divergentes para melhoria do documento de orientações. A iniciativa da agência da ONU para Educação, a Ciência e a Cultura, se insere em um cenário em que se pretende criar diretrizes relativas ao uso da Internet de forma geral, se centrando no Pacto Global Digital.

Contando com mais de 4 mil participantes, os debates sobre governança na internet foram divididos durante os três dias de conferência: no dia zero – ou seja, dia 21/02/2023 – parceiros de todo o mundo reuniram seus constituintes para discutir questões de regulamentação de plataformas digitais. De mesas que debatiam desde “Informação como bem público: Qual regulamentação de plataforma para uma era digital conturbada?”, até os efeitos psicossociais da violência online em jornalistas, chegando em debates regionalmente mais específicos, como “Transparência, moderação de conteúdo e liberdade de expressão. Perspectivas multissetoriais da América Latina”, os debates foram propostos por sociedade civil e diferentes organizações intergovernamentais. A partir de análises mais regionais e experiências locais, os painéis desse dia abordaram questões para além do documento de diretrizes em discussão.

A título exemplificativo, Vilas Dhar, Presidente e curador da Fundação Patrick J. McGovern, trouxe questionamentos como “como criar ferramentas que fazem o mundo melhor?”, ou “como assegurar transparência com uso de ferramentas?”, pensando que os algoritmos reproduzem discriminações que devem ser olhadas e entendidas. Ainda, Emma Wright, analisando o impacto da utilização de inteligência artificial em todas as partes de nossas vidas, questionou sobre o impacto da utilização de IA no futuro do trabalho e da educação; Laura Schernel Mendes, professora adjunta de Direito Civil da Universidade de Brasília (UnB) e do Instituto Brasiliense de Direito Público (IDP), apresentando o contexto brasileiro de regulação de IA e do potencial discriminatório do uso de IA, aponta a importância da transparência: saber como IA é utilizada e quais resultados de seu uso impactam as pessoas. 

No segundo dia de evento, o chamado “Day 1”, a conferência contou com painéis que versavam sobre: apoiar uma Internet para confiança; definir o escopo regulatório multissetorial; promover a liberdade de expressão e informação no ecossistema digital; e relatórios de transparência. Entre os debatedores que fizeram parte das discussões, Maria Ressa, jornalista e vencedora do prêmio Nobel da Paz, destacou a necessidade de alinharmos fatos, verdades e confiança para termos um ambiente democrático. Tawfik Jelassi, Diretor-Geral Adjunto de Comunicação e Informação da UNESCO, argumentou sobre a necessidade de definir os princípios globais de regulação das plataformas digitais protegendo a liberdade de expressão, difundindo a informação. Pansy Tlakula, Presidente do Regulador de Informação da África do Sul, questionou os motivos pelos quais as plataformas digitais permitem discursos de ódio em suas plataformas.

Por fim, no dia 23.02, os debates giraram em torno de gerenciamento de conteúdo e responsabilidade; mecanismos de empoderamento do usuário e reclamações; o papel da juventude no desenvolvimento de políticas regulatórias multissetoriais; desafios técnicos na aplicação de uma abordagem baseada em direitos humanos para a regulamentação de plataformas digitais; salvaguardas para garantir a existência de reguladores independentes; e como definir o caminho para seguir.

O Brasil foi representado em várias sessões e painéis da Conferência devido ao ocorrido do dia 08 de janeiro de 2023, em Brasília, em que eventos anti-democráticos marcaram a invasão do Congresso, do Palácio do Planalto e da sede do STF – frente ao descontentamento de alguns cidadãos com relação às eleições presidenciais de 2022. Debateu-se as formas de combate às ondas de desinformação durante as eleições e no próprio episódio antes narrado – lembrando que uma das primeiras medidas do governo Lula, no que tange à regulação de plataformas, se deu com um texto de Medida Provisória proposto no chamado ‘Pacote da Democracia’ do Ministério da Justiça, que busca aumentar o poder das redes para essa moderação, e reforçando uma lógica punitivista.

Dentro desses debates, no dia 23/02, o ministro do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu a regulamentação da Internet, criando mecanismos de controle interno e externo das plataformas de mídia social e maneiras de reforçar liberdades de expressão. Defendeu que a internet precisa ser regulamentada: 

  1. Por razões econômicas, para permitir a tributação justa, pela lei antitruste e a proteção do direito autoral, por exemplo; 
  2. Para proteger a privacidade e evitar o uso inapropriado de dados que as plataformas digitais coletam de todos os seus usuários; e 
  3. Para combater comportamento inautêntico coordenado, bem como o conteúdo ilícito e a desinformação. 

Por fim, explicitou seu posicionamento da seguinte maneira: “Responsabilização da plataforma por conteúdo de terceiros deve ser razoável e proporcional. Penso que as seguintes regras devem ser consideradas

  1. Em caso de claro comportamento criminoso, tal como pornografia infantil, terrorismo e incitação a crimes, as plataformas devem ter o dever de diligência, para usar todos os meios possíveis para identificar e remover tal conteúdo, independentemente de provocação; 
  2. Em casos de clara violação de direitos de terceiros, tais como compartilhamento de fotos íntimas sem autorização e violação de direitos autorais, entre outros, as plataformas devem remover o conteúdo após serem notificadas pela parte interessada; 
  3. Entretanto, em casos de dúvida, em áreas de penumbra em que pode haver dúvida razoável, a remoção deve ocorrer após a primeira ordem judicial.”

Ainda foi aberto, ao final de todos os painéis, espaço para os representantes de todos setores (governos, setor privado, academia e comunidade técnica, e sociedade civil) serem ouvidos e colocarem suas opiniões e recomendações para melhoria no documento de diretrizes criado pela ONU, buscando abarcar o espírito multissetorial do evento.

Em análise geral da conferência, abarcando as discussões sobre regulação de inteligência artificial, transparência algorítmica e manutenção da integridade da internet, alguns posicionamentos retirados da fala do ministro Barroso merecem atenção. A primeira delas é um olhar atento para a proteção da privacidade e proteção de dados, atentando para a possibilidade de existência de um vigilantismo desmedido e punitivista se diretrizes constitucionais não forem protegidas. O combate à desinformação não necessita ser feito num campo inquisitorial e sem regulamentação. Em continuidade, a regulação de plataformas digitais deve ser debatida de forma multissetorial, abrangendo os diversos posicionamentos de setores da sociedade. 

Regulação de plataformas digitais: principais debates atuais sobre moderação de conteúdo

O aumento das discussões sobre regulação de plataformas digitais e moderação de conteúdo vem ganhando centralidade em diversos campos e locais no mundo, principalmente no papel dos intermediários, aqui pensando nas plataformas, na criação e implementação de normas e diretrizes que garantam a liberdade de expressão dos seus usuários, mas também a gerência de conteúdos nocivos e discursos discriminatórios postados e difundidos em suas redes. Ou seja: até onde vai a liberdade de expressão e qual o papel das plataformas digitais nesse embate?

De forma resumida, a moderação de conteúdo é uma das ações de maior importância de plataformas que gerenciam conteúdos postados por outros atores, ou seja, conteúdos postados e disseminados por seus usuários. Existem diferentes formas em que essa moderação pode se dar, mas alguns pontos parecem ser centrais: a necessidade de transparência do processo, os motivos de remoção ou contenção de conteúdo e o devido processo, dando a possibilidade de recurso para o usuário, nesses atos de moderação.

No Brasil, os acontecimentos antidemocráticos ocorridos no dia 08 de janeiro de 2023, em que apoiadores do ex-presidente Jair Bolsonaro, após sua derrota nas eleições de 2022, invadiram e depredaram os prédios dos três poderes, em Brasília, suscitaram novos debates mais calorosos sobre regulação de plataformas digitais e seu papel na moderação dos conteúdos postados em suas plataformas. Isso, pois, existiu ampla utilização das redes sociais como forma de fomentar e incentivar os atos  golpistas, com conteúdos que negavam a veracidade das eleições presidenciais e a vitória do atual presidente do Brasil, e pediam, inclusive, intervenção militar.

A questão é: de que forma essa regulação deve ser feita e qual o papel dos atores na gerência desses conteúdos? É sabido que existem grandes riscos à democracia quando da permissão de circulação de conteúdos em plataformas digitais que deslegitimam as ações de instituições democráticas. Nesse sentido, é debatido e defendido, pelos diversos atores atuantes no campo de governança da internet, a necessidade de proibir a publicação e compartilhamento de postagens autoritárias e que incitem a violência. 

É nesse cenário que fortemente se debate sobre a transparência nos processos de moderação e a responsabilização dos intermediários. No primeiro ponto, é sinalizada a importância do usuário ter conhecimento, a título exemplificativo, sobre os motivos da remoção de um conteúdo seu postado, com o intuito de abrir possibilidade para questioná-la. Assim, se fala em normas e regras acessíveis e transparentes demonstrando os critérios de moderação de conteúdos considerados ilegais, nocivos ou desinformativos; por isso já foi defendida a publicação de relatórios, pelas plataformas, sobre a remoção de conteúdo, as denúncias atendidas para verificação de determinado conteúdo postado, assim como a taxatividade ou exemplificação de conteúdos que não serão aceitos em qualquer tipo de postagem.

Isso se reflete na democratização da moderação de conteúdo, possibilitando o afastamento da insuficiência de informações e dando a possibilidade de uma criticidade ao próprio usuário que é notificado quando da decisão de remoção de um conteúdo infringente, a partir de critérios avaliativos consistentes e concretos. A possibilidade de existência de exemplos de conteúdos nocivos e ilegítimos são maneiras também apontadas como importantes nesse processo de uma internet segura, aberta e democrática.

Ainda, parece ser importante a clareza da ação dos intermediários que irão moderar conteúdos, indicando os critérios ou fatores que influenciam na determinação de uma medida tomada, ainda mais quando da possibilidade de ações diversas dessa moderação; evitar ações autoritárias, por qualquer um dos atores-chave neste contexto, é uma medida necessária.

Outro ponto sensível dentro dessa discussão é o dos limites de responsabilização dos intermediários – como iremos debater melhor na seção seguinte, e como devem gerir a moderação de conteúdo. 

Pontos sensíveis e caminhos possíveis: a responsabilização de intermediários  

A partir dos pontos elencados anteriormente, no Brasil está ocorrendo extenso debate político e social sobre a responsabilidade de provedores de aplicativos ou de ferramentas de internet por conteúdo compartilhado e gerado por seus usuários, assim como a possibilidade de remoção de conteúdos que incitem o ódio e possam auxiliar na difusão de “fake news”, de forma extrajudicial; esses são os temas de repercussão geral de número 533 e 887, do STF, que foram temas de debate de audiência pública realizada pela mesma instituição, em abril de 2023. No referido dia, representantes de diferentes setores da sociedade foram ouvidos: dentre as questões, foram levantadas a transparência na moderação de conteúdo e o devido processo.

O consenso nesse tema da responsabilização dos intermediários ainda não existe: por vezes se defende uma gerência maior das plataformas digitais, por vezes uma ação mais contida; alguns atores defendem maior influência dos agentes estatais nesse esfera, alguns defendem quase uma liberdade de expressão irrestrita dos usuários. 

Em que pese a ausência de uma regulação específica sobre essa temática, a criação de regras mínimas para a moderação de conteúdo online vem, novamente, gerando forte debate jurídico e social no que tange à responsabilização. O Marco Civil da Internet (MCI) defende um princípio, inscrito no inciso VI do art. 3º, que é o que cada agente se responsabiliza de acordo com suas atividades. Em seu art. 19, com relação à responsabilização das plataformas digitais, fixa que, nos casos de danos derivados de conteúdo gerado por terceiros, o provedor de aplicações de internet – que são os que oferecem as funcionalidades específicas que realizam as possibilidades gerais da Internet,  só poderá ser responsabilizado civilmente após ordem judicial específica.

É devido a essa redação do art. 19, do MCI, que se discute a sua constitucionalidade – que foi o debate que fomentou a audiência pública no STF antes mencionada, e quais as possibilidades de ação das plataformas digitais para a moderação de conteúdo. Existe a defesa de retirar parte do poder de moderação das plataformas digitais, diminuindo sua responsabilização; existe a defesa de dar mais poder para as plataformas no quesito de moderação. A questão é que parâmetros claros irão evitar que os provedores acabem por adotar ações que irão lhe gerar menos riscos regulatórios, ou seja, moderar conteúdo, por exemplo, de forma a evitar penalidade pela não moderação. 

Assim, a responsabilização dos intermediários é algo de suma importância:  ao que tudo indica, a remoção de conteúdos executada de maneira procedimentalizada, com possibilidade, inclusive, de revisão humana de decisões automatizadas, por exemplo, gera formas mais transparentes nessas ações e demonstram quais as responsabilidades das plataformas. Proporcionalidade de moderação de acordo com as postagens feitas parece, também, outro caminho possível nesse trilhar da moderação e responsabilização de intermediários. 

Agora: de quais maneiras iremos responsabilizar os intermediários com relação à remoção de conteúdos ilegais, nocivos, discriminatórios e que são uma afronta às sociedades democráticas, sem criar caminhos que levem as plataformas a adesão de ações de vigilantismos extremos e controle irrestritos de populações?

Um ponto que aqui merece ser levantado é a proteção à criptografia. A segurança e confidencialidade das comunicações criptografadas devem ser preservadas, como forma de não prejudicar o pleno exercício de um montante de direitos humanos. Ela se mostra essencial em ambientes de conflitos armados e predomínio da censura prévia, mas também no cotidiano de jornalistas e defensores de direitos humanos, e na proteção de mulheres contra ameaças de vigilância, assédio e violência. Por isso, até mesmo no contexto de crimes gravíssimos, como a detecção de conteúdo de abuso sexual e exploração infantil, as investigações de comunicações criptografadas devem se limitar estritamente pelos princípios da legalidade, da necessidade e da proporcionalidade.

É necessário, ainda, um olhar atento para a proteção da privacidade e proteção de dados, com foco para a possibilidade de existência de um vigilantismo desmedido e punitivista se diretrizes constitucionais não forem protegidas. O combate à desinformação não necessita ser feito num campo inquisitorial e sem regulamentação. Em continuidade, os atores envolvidos no campo ainda defendem que a regulação de plataformas digitais deve ser debatida de forma multissetorial, abrangendo os diversos posicionamentos de setores da sociedade. 

Contudo a defesa da democracia é chave central nessa discussão. A  proibição, pelas plataformas digitais, e a disseminação e publicação de conteúdos com temáticas golpistas, autoritárias e incitando a violência merecem ser combatidas.

A questão que permanece é: de que forma a regulação de plataformas digitais e a moderação de conteúdo vai avançar reforçando as garantias e princípios que já temos sem retroceder em direitos sociais e fundamentais?

Democratização da informação e o combate à desinformação 

A discussão sobre regulação de plataformas digitais e moderação de conteúdo online não é uma discussão simples. Ela não possui consenso entre os atores atuantes no campo; ela versa sobre assuntos delicados, como transparência, responsabilização e escola de modelos regulatórios; e ela fala sobre um tema de suma importância que é a democratização da informação e o combate à desinformação.

O ponto parece ser: quais escolhas, enquanto sociedade, que faremos para equilibrar a liberdade de expressão e a defesa à democracia? 

De todos os aspectos relevantes do evento da UNESCO, estando lá presencialmente esses dois pontos centrais aqui trazidos foram amplamente debatidos. Interessante como a mesma questão se mostra relevante no Brasil, onde estamos atualmente debatendo a constitucionalidade do artigo 19 do MCI e a melhor forma de legislar sobre a responsabilidade de intermediários.

Caso você tenha interesse sobre o tema, acompanhe nossos perfis nas redes sociais: sempre estamos produzindo material sobre governança da internet, em especial abordando tópicos de regulação de plataformas. Por exemplo, para saber mais sobre moderação de conteúdo, recomendo a leitura do relatório “Governança da Moderação de Conteúdo Online: percepções sobre o papel dos atores e regimes”, em que se discutiu o entendimento de conceitos, mapeamento de discursos e compilação dos riscos e impactos dos diferentes regimes e práticas propostas para a moderação de conteúdo online, com caráter multissetorial.

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Luiza Correa de Magalhães Dutra, doutoranda e mestra em Ciências Criminais pela Pontifícia Universidade do Rio Grande do Sul. Especialista em Segurança Pública, Cidadania e Diversidade pela Universidade Federal do Rio Grande do Sul. Bacharela em Ciências Sociais pela UFRGS, com período sanduíche realizado no Science-Po Rennes, França, e Bacharela em Direito pela PUCRS. Pesquisadora.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *