Blog

Liberdade de expressão, moderação de conteúdo e o PL das fake news

Escrito por

6 de julho de 2020

No dia 30/06, o Senado Federal aprovou o PL 2630/2020, proposta de autoria do Senador Alessandro Vieira (Cidadania/SE) que ganhou a alcunha de PL das fake news. A proposta, que agora vai para a Câmara de Deputados, foi objeto de grande controvérsia pública e encontrou enorme resistência de ativistas e acadêmicos dos direitos humanos na rede, que alertavam para ameaças à privacidade e à liberdade de expressão na proposta. Em meio a esse debate, uma discussão mais ampla emergiu acerca do papel das plataformas no combate à desinformação e de quais seriam os instrumentos regulatórios mais adequados para combater desinformação sem ferir os direitos dos usuários.

No post de hoje, o PL das fake news é examinado no contexto mais amplo do debate regulatório sobre moderação de conteúdo.

A responsabilidade dos provedores em questão – do Communications Decency Act ao Marco Civil da Internet

Para compreender o que está em jogo nos conflitos atuais sobre a regulação da moderação de conteúdo, é necessário examinar os fatos e valores que moldaram o regime atual. Se a década de 2010 foi marcada por debates sobre como regular a internet, nos anos 1990 discutia-se mesmo se ela deveria ser objeto de regulação. Os ideais liberais de descentralização e afirmação de liberdades individuais haviam participado tanto da construção da rede quanto a matéria-prima dos cabos submarinos que constituíam seu suporte físico. Por conseguinte, uma perspectiva bastante difundida à época enquadrava o ambiente online como cenário de realização última desse imaginário de autogoverno, sendo, portanto, refratário a qualquer intervenção regulatória. Um de seus maiores símbolos foi a Declaração de Independência do Ciberespaço, manifesto redigido por John Perry Barlow durante o Fórum Econômico Mundial de 1996, que negava tanto a legitimidade quanto a viabilidade de qualquer regramento estatal sobre o território digital.

Embora esse detalhe seja frequentemente esquecido, a Declaração foi escrita em resposta ao Telecommunications Act de 1996, uma reforma na legislação de telecomunicações dos EUA com implicações decisivas para a internet. Um dos títulos dessa reforma, o Communications Decency Act (CDA), atraiu especial atenção por criminalizar a distribuição de material “obsceno ou indecente” para menores de idade, bem como o assédio e as ameaças no meio digital. Entre outros, tratava-se de uma reação institucional a preocupações com a circulação de conteúdos alegadamente indesejáveis na rede, em especial pornografia e material pirateado – ameaças então alardeadas de forma análoga às fake news atualmente. Embora sua aprovação tivesse mobilizado muita atenção pública, o CDA perdeu eficácia rapidamente: menos de um ano após sua aprovação, a Suprema Corte dos EUA o consideraria incompatível com as proteções à liberdade de expressão contidas na Primeira Emenda da Constituição estadunidense e decidiria por sua inconstitucionalidade.

Houve, no entanto, uma seção do CDA que sobreviveu, e que seria decisiva na construção do debate sobre moderação de conteúdo no século XXI. A chamada seção 230 continha duas previsões principais. Em primeiro lugar, a cláusula do porto seguro (§230, c, 1), que estabelecia que provedores e usuários não seriam considerados responsáveis pelo conteúdo gerado por terceiros. Como observa o midiálogo Tarleton Gillespie, a implicação era de que o papel desempenhado pelos provedores de serviços de internet com respeito ao conteúdo era análogo ao de companhias telefônicas: forneciam o meio, mas a responsabilidade pelo dito era do usuário. Na prática, isso significava um “porto seguro” para esses atores, que não seriam legalmente obrigados a policiar o discurso dos usuários, haja vista que tal obrigação poderia incentivá-los a censurar preventivamente conteúdos a fim de se autoproteger.

A esse dispositivo seguia-se a cláusula do bom samaritano (§230, c, 2), que protegia provedores de responsabilização por ações voluntárias de moderação de conteúdo que considerassem questionável, desde que tais medidas fossem tomadas de boa-fé. Para a jurista Kate Klonick, o entendimento da Suprema Corte dos EUA foi de que essa imunidade incentivaria os provedores a assumir uma postura proativa de combate à circulação de material danoso ou obsceno em seus meios. Em síntese, o paradigma da seção 230 fornecia aos provedores o direito de moderar conteúdos, mas não a obrigação de fazê-lo. Esse modelo impactou significativamente a internet nas décadas seguintes, informando decisões empresariais sobre práticas de moderação de conteúdo em escala global e influenciando o debate em outros países, inclusive no Brasil.

Em nosso caso, o regime regulatório adotado na matéria abordou preocupações similares com a proteção de liberdades civis no ambiente online. A lei que trata do assunto, o Marco Civil da Internet, resultou de um longo processo de construção colaborativa e democrática marcado por ampla participação civil. De um ponto de vista político, ela respondia a propostas legislativas que ameaçavam cercear o exercício de direitos na rede, como o PL 89/2003, que ganhou a alcunha de “AI-5 Digital” devido a sua abordagem voltada à criminalização de diversas condutas online. Também foi fruto de um contexto em que a importância política da internet se tornava cada vez mais evidente, conforme Edward Snowden revelava os sistemas de vigilância massiva empregados pela NSA e outras agências de segurança, e manifestações como Occupy Wall Street, as jornadas de junho e a Primavera Árabe revelavam o crescente poder de mobilização das redes sociais.

Aprovado em 2014, o Marco Civil nasceu voltado a consolidar direitos e afirmar princípios orientadores da governança da internet no país, entre eles privacidade e liberdade de expressão. A principal expressão desse último princípio pode ser encontrada em seu Artigo 19, que estabelece o regime conhecido como Judicial notice and take down (literalmente: notificação judicial e retirada). De inspiração estadunidense, esse modelo estabelece que a obrigação de remover conteúdos só passa a existir quando a plataforma é comandada judicialmente a fazê-lo. Ele se diferencia do chamado modelo de notice and takedown, frequentemente encontrado em normas relativas a direitos autorais, em que a mera notificação extrajudicial é suficiente para criar a obrigação de remoção, gerando direito a indenização do usuário notificante quando não removido o conteúdo.

Como veremos na próxima seção, o modelo de Judicial notice and takedown acabaria se tornando central aos debates contemporâneos sobre desinformação e liberdade de expressão na internet.

Desinformação, liberdade de expressão e a busca por instrumentos regulatórios para tratar da moderação do conteúdo

Nos últimos anos, a moderação de conteúdo online ganhou progressivamente os holofotes do debate público conforme as plataformas digitais ocuparam espaços e funções previamente reservadas às mídias tradicionais na vida social. Essa centralidade vem levantando preocupações significativas de atores nacionais e internacionais. Em relatoria, o relator especial da ONU para a liberdade de expressão e de opinião alerta para os perigos da circulação de discursos de ódio e desinformação nas plataformas, bem como do crescente controle privado sobre a liberdade de expressão dos usuários. Similarmente, uma declaração conjunta de diversas organizações internacionais destaca o controle privado como ameaça à liberdade de expressão para a próxima década e convida as partes interessadas ao desenvolvimento de mecanismos multissetoriais de supervisão independentes e transparentes para enfrentar esse desafio.

A busca por soluções para esses problemas mobiliza atores e recursos nacionais e internacionais, estatais e não-estatais. Tais esforços têm por pano de fundo o fenômeno caracterizado pelo cientista político David Levi-Faur como “a proliferação de novas tecnologias de regulação”, isto é, a multiplicação e diversificação dos instrumentos de modulação do comportamento institucional a partir da década de 1970. Se antes, diz ele, o principal mecanismo regulatório eram normas vinculantes (hard law), a governança de diversos setores passa, cada vez mais, por tecnologias tão diversas quanto códigos de conduta, sistemas de auditoria, listas de princípios orientadores, rankings de transparência, normas de responsabilidade social corporativa e procedimentos de naming and shaming. Isso pode ser observado em setores tão distintos quanto meio-ambiente, proteção ao consumidor e defesa concorrencial.

Com a moderação de conteúdo online não é diferente. Uma das principais consequências da cláusula do bom samaritano adotada na seção 230 foi o desenvolvimento de políticas privadas de conteúdo: os padrões ou diretrizes de comunidade. Gillespie, o midiálogo supracitado, observa que esses documentos diferem dos termos de uso na medida em que sua eficácia não é jurídica, mas pedagógica e cultural: eles informam aos usuários sobre que conteúdos são encorajados, desencorajados e proibidos na plataforma, comunicam a anunciantes que são espaços seguros para a circulação de publicidade e sinalizam a reguladores estatais que estão agindo para coibir a circulação de material danoso em seus meios.

Além das políticas de comunidade, outros instrumentos regulatórios vêm emergindo nos últimos anos. Em 2015, organizações civis de diversos países produziram os Princípios de Manila sobre Responsabilização de Intermediários, recomendações destinadas a orientar formuladores de políticas e representantes do setor privado no desenvolvimento de soluções que respeitem a liberdade de expressão e favoreçam o ambiente inovativo. Em 2018, a União Europeia anunciou seu Código de Conduta sobre Desinformação, os primeiros padrões normativos de autorregulação voltados ao enfrentamento do problema. No mesmo ano, entidades acadêmicas e do terceiro setor de diversos países produziram os Princípios de Santa Clara sobre Transparência e Accountability na Moderação de Conteúdo, instrumento que estabelece boas práticas para a garantia de níveis mínimos de transparência e accountability no setor privado.

É nesse complexo ecossistema que os recentes embates sobre desinformação, liberdade de expressão e responsabilização de intermediários vêm se desenvolvendo em diversos países: um cenário que envolve o crescimento das preocupações de atores políticos com a circulação de discurso indesejável, especialmente desinformação, um modelo de regulação vinculante baseado na não-responsabilização apriorística de intermediários pelo conteúdo gerado por terceiros, e a proliferação de tecnologias regulatórias produzidas pelo setor privado e pelo terceiro setor para o enfrentamento dos desafios relativos a essas transformações sociotécnicas.

O debate brasileiro e o PL das fake news

A demanda por medidas mais duras contra conteúdo indesejável tem motivado a alegação de que instrumentos não-vinculantes seriam ineficazes em incentivar as plataformas à adoção de ações efetivas para coibir sua circulação. Até 2018, a principal expressão institucional dessa retórica era o questionamento da constitucionalidade do modelo de Judicial notice and takedown estabelecido pelo Marco Civil da Internet. Com as eleições daquele ano, contudo, o debate sobre a desinformação passou por um acelerado processo de ultrapolitização. Como consequência, observou-se uma série de novas respostas institucionais movidas pela busca por soluções contra as fake news que fossem simultaneamente rápidas e contundentes. Essas respostas incluíram a CPMI das fake news, diversas propostas legislativas sobre a desinformação e um inquérito conduzido pelo STF contra as fake news. 

Em 2020, a onda de desinformação sobre a pandemia do novo coronavírus desencadeou um novo capítulo do debate. Seu personagem principal é o PL 2630/2020, conhecido como PL das fake news e recentemente aprovado pelo Senado Federal. Objeto de enorme controvérsia entre os setores envolvidos, o projeto enfrentou imensa resistência de especialistas e ativistas dos direitos digitais. Para compreender as causas dessa reação, é necessário examinar seu texto e seu contexto.

O primeiro aspecto que chama atenção no PL das fake news é sua difícil caracterização. Isso porque a tramitação da proposta tem sido marcada por uma combinação entre reduzido nível de transparência e alterações frequentes e substanciais em seu conteúdo. Por exemplo: no dia 18 de maio, o IRIS publicou uma nota técnica sobre o projeto. A nota reconhecia a legitimidade das intenções subjacentes a ele e apontava seus pontos considerados positivos, que consistiam principalmente em exigências de maior transparência nas práticas de moderação de conteúdo. Também identificava pontos que entendemos serem negativos: insuficiência na participação social em seu processo de construção, definições imprecisas que poderiam dar margem para abusos de poder, atribuição de função policial às plataformas e a imposição de obrigações de policiamento discursivo a plataformas.

Cerca de duas semanas após a publicação da nota, veio a público o texto substitutivo elaborado pelo relator. Essa versão fundamentalmente reescrevia a proposta, acrescentando-lhe dezenas de artigos. Desde então, o PL das fake news foi sofrendo modificações repetidas e notáveis, com diferentes versões sendo publicizadas a cada poucos dias. Nesse período, numerosas disposições violadoras da privacidade foram acrescentadas, a exemplo de obrigações de identificação massiva dos usuários pela plataformas e exigência de documentação para o acesso a redes sociais e para o cadastramento de números pré-pagos. Consequentemente, críticas nacionais e internacionais foram se multiplicando: da Human Rights Watch ao relator da ONU para a liberdade de expressão e opinião, da Global Network Initiative ao Conselho Nacional de Direitos Humanos. A Coalizão Direitos na Rede, articulação entre 39 entidades civis, acadêmicos e ativistas dos direitos digitais no Brasil,  entre elas o IRIS, tem apontado repetidamente os riscos e falhas do projeto a fragilidade de sua construção.

No tocante à liberdade de expressão, algumas versões do PL instituíam a obrigação de que as plataformas monitorassem o conteúdo publicado pelos usuários e exibissem correções ao lado de conteúdo rotulado como desinformativo por verificadores independentes. Essas disposições foram objeto de crítica da sociedade civil organizada, que partilhava do entendimento de que a criação de obrigações de policiamento do discurso traria de volta os problemas que o modelo de Judicial notice and takedown nasceu para prevenir: as plataformas seriam incentivadas a utilizar seus sistemas automatizados de detecção e avaliação de conteúdos para embasar muito mais remoções. Alegamos que  isso agravaria o problema do controle privado sobre o discurso e que poderia aumentar o número de remoções injustas, dados os conhecidos vieses desses sistemas.

Na versão aprovada pelo Senado Federal, algumas dessas críticas foram absorvidas e muitas das disposições em questão foram suprimidas do texto. O debate, todavia, foi conduzido de forma bastante precária, com diferentes estratégias sendo mobilizadas pelos apoiadores da proposta para abafar o debate sobre seus riscos. Na discussão parlamentar, por exemplo, recorreu-se com frequência a uma versão contemporânea do chavão “quem não deve não teme”, segundo a qual somente os produtores de fake news teriam algo a temer. Alternativamente, as lideranças parlamentares reconheciam os problemas da proposta, porém terceirizavam as correções para a Câmara dos Deputados, casa que a revisará.

Desde o início, a insuficiência dos níveis de participação social no trâmite legislativo do projeto foi questionada pela sociedade civil. As duas principais outras leis que alicerçam a governança da internet no país, o Marco Civil e a Lei Geral de Proteção de Dados, foram debatidas ao longo de pelo menos cinco anos cada. Seus processos de construção contaram com diversas audiências e consultas públicas e ampla participação civil. O PL 2630/2020, por outro lado, sequer existia até maio deste ano. Enquanto seus defensores tentam apresentá-lo como uma espécie de “bala de prata” contra a desinformação, especialistas e ativistas seguem preocupados com os efeitos nocivos que uma lei aprovada a toque de caixa poderá ter sobre a internet.

Conclusão – Entre perguntas e respostas

No contexto da progressiva demanda por respostas relativas aos desafios sociais  e políticos trazidos pelo advento da moderação de conteúdo em escala massiva, acadêmicos e ativistas têm produzido um corpo crescente de contribuições baseadas em pesquisa científica e diálogo multissetorial. Essa produção indica caminhos para as respostas. Como combater desinformação sem violar direitos fundamentais? Com uma abordagem não-penalizante e focada em transparência e letramento informacional. Como garantir accountability na moderação de conteúdo? Instituindo obrigações relativas a transparência e devido processo legal sobre as plataformas. O modelo de Judicial notice and takedown é suficiente para responder às demandas atuais da sociedade? O entendimento majoritário partilhado pelas partes envolvidas é de que ele ainda é a melhor proteção à liberdade de expressão que temos. Evidentemente, essas respostas estão longe de exaurir o debate, dado que estamos diante de alguns dos maiores problemas sobre os quais reguladores, pesquisadores e defensores de direitos humanos se debruçarão no século XXI.

Contudo, quando o tempo e a energia dos atores envolvidos é dedicado a enfrentar propostas que contrariam de forma gritante o acúmulo construído na discussão, o desenvolvimento de respostas eficazes e embasadas é atravancado. Nessas ocasiões, é um outro leque de perguntas, dessa vez levantadas pelos próprios especialistas, que acaba ganhando os holofotes: é pertinente aprovar normas com impactos tão devastadores sobre a internet sem tempo hábil para debate e em contexto de ultrapolitização? É aceitável suprimir a privacidade dos usuários em nome do combate à desinformação? É adequado condicionar o cadastro em redes sociais à apresentação de documentos num país em que milhões de pessoas não possuem documentação, ampliando a exclusão digital? 

Do ponto de vista da defesa das liberdades civis e do respeito aos valores democráticos, a resposta a essas outras questões é bem mais simples: um sonoro não.

Se interessou pela discussão sobre liberdade de expressão e desinformação no Brasil atual? Confira nosso post sobre o inquérito do STF contra as fake news.

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Ilustração por Freepik Stories

Escrito por

É diretor do Instituto de Referência em Internet e Sociedade. Mestrando em Divulgação Científica e Cultural pela Universidade Estadual de Campinas (Unicamp) e bacharel em Antropologia, com habilitação em Antropologia Social, pela Universidade Federal de Minas Gerais (UFMG). Membro do núcleo de coordenação da Rede de Pesquisa em Governança da Internet e alumni da Escola de Governança da Internet no Brasil (EGI). Seus interesses temáticos são antropologia do Estado, privacidade e proteção de dados pessoais, sociologia da ciência e da tecnologia, governança de plataformas e políticas de criptografia e cibersegurança.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *