Ameaças opacas à liberdade de expressão online: chilling effect e shadowban
Escrito por
Lahis Kurtz (Ver todos os posts desta autoria)
1 de março de 2021
Conheça esses dois chavões do conteúdo online.
Um enigma jurídico-midiático
Músicas podem impedir as pessoas de se expressarem, mesmo em volume normal.
Um ativista de Los Angeles, conhecido por transmitir ao vivo em suas redes sociais abordagens policiais, entra em uma delegacia. O policial, ao ver que está sendo filmado, liga uma música em seu celular e para de responder à conversa. Esse relato (real, cuja fonte é a revista Vice News), que parece uma charada em que devemos descobrir o que está acontecendo, tem uma resposta relativamente simples.
A Lei de Direitos Autorais do Milênio Digital, dos Estados Unidos, obriga serviços de transmissão como esse a adotar medidas para impedir que a proteção desses direitos seja contornada. Como reflexo, são usados algoritmos que detectam e derrubam, automaticamente ou mediante sinalização de usuários, conteúdo que é reconhecido como de autoria registrada (copyright). O policial liga a música para ativar esses algoritmos e impedir a continuidade da transmissão, que é derrubada pelos algoritmos.
Efeito silenciador colateral
Para a maior parte dos conteúdos, não existem consequências legais que obriguem plataformas a detectar e remover postagens proativamente – seja na lei estrangeira dos Estados Unidos sobre intermediários, seja no Marco Civil da Internet, do Brasil. Já vimos isso em outros posts aqui do blog, como esse.
Essa regulação segue a lógica de que, se o serviço fosse responsável por danos causados por conteúdo que usuários postam, uma possibilidade seria o serviço remover por padrão qualquer conteúdo considerado suspeito, sem uma análise mais pausada. Muito conteúdo que é legítimo e que poderia ser uma exceção à regra seria apagado, isto é, o mero risco de indenização já operaria um limite à livre expressão. E isso seria um custo muito alto a pagar, como foi sinalizado em contribuições do IRIS ao PL 2630 ou aos Princípios de Santa Clara.
O caso da música tocada pelo policial pode ser um exemplo. Isso é o que se chama de “chilling effect”, vulgo “desencorajamento”, nesse caso, do exercício de direitos como efeito colateral de uma lei ou ato governamental. O algoritmo elaborado para adequação à lei de direitos de autor certamente não buscava derrubar conteúdo contendo abordagens policiais. Mas acabou fazendo exatamente isso quando filtrou indiscriminadamente a transmissão que continha uma música ao fundo. E esse não é um episódio único, existem diversos relatórios da Electronic Frontier Foundation sobre os problemas desse tipo de proteção de direitos autorais.
Manto de invisibilidade
Agora, imagine que uma/um artista criou conteúdo e resolveu publicá-lo em alguma rede social ou plataforma. Digamos que essa pessoa tem muitas outras que a seguem. Ela espera que o conteúdo seja visto, compartilhado, enfim, seja recebido por uma grande quantidade de gente. Mas, quando passa algum tempo, percebe que teve pouquíssimas visualizações. Ao comentar com contatos mais próximos, fica sabendo que não apareceu para eles aquela postagem.
Esse é um dos tipos mais opacos de controle de conteúdo: quando uma postagem tem seu alcance reduzido sem qualquer aviso. Alguém tem seu conteúdo invisibilizado (ou silenciado) sem nem mesmo saber. Quem sofre o controle não sabe que isso está, de fato, ocorrendo, até que tenha evidências concretas. Esse é o chamado “shadowban”. Ele afeta diversas categorias de negócios e artistas, ao ponto de haver um abaixo-assinado para que pole dancers parem de ter seu conteúdo restrito dessa forma. Também existe um show homônimo que faz referência a como redes sociais se relacionam com artistas burlescos e profissionais da área. As respostas aos protestos ainda são insatisfatórias, como relatado neste blog de uma artista.
Níveis de opacidade e efeitos na liberdade de expressão
Esses dois conceitos e episódios não foram trazidos à tona de forma aleatória: talvez já tenha sido possível perceber, mas eles estão ligados à transparência e à liberdade de expressão. Esses dois assuntos estão muito conectados e diferentes situações podem ilustrar aspectos diversos dessa interligação.
No caso do ativista com os policiais, a lei de direitos autorais não é declaradamente uma forma de restringir a expressão. Ela busca proteger direitos de criadores. Então, em um primeiro momento pode parecer que ela não é sobre liberdade de expressão. O episódio narrado nos revela que podemos perceber que tem algo estranho. Nele, podemos identificar que algo não soa bem (e não é a música). Faz pensar que o mecanismo de direitos de autor poderia ser revisto, que precisamos ao menos discutir o assunto. Mostra também que existe um nível de opacidade nos efeitos desse tipo de proteção, em que o enfoque é em um determinado direito e não se percebem os efeitos colaterais em outro.
Outro tipo de opacidade é quando não podemos nem mesmo saber se/como acontecem restrições ao conteúdo. Nessas situações, o problema é mais profundo, porque apesar de a restrição não vir de uma lei, ela acontece de forma sistemática, mas menos sujeita ainda a questionamento de seus critérios. Se algo que sofre shadowban não vai ser sinalizado pela plataforma, como eu posso saber se existem padrões sendo seguidos, ou mesmo quais seriam eles? Não é possível saber se todos os conteúdos estão sendo restritos, ou se somente aqueles que atingem os critérios desconhecidos são restritos. É difícil criticar ou mesmo questionar uma forma de controle cujo alcance é desconhecido.
Ao debater formas de tornar as redes sociais mais seguras e amigáveis, é comum deixar de lado os reflexos de algumas medidas que aparentemente só protegem o público. É preciso refletir e pensar situações onde elas são excessivas e limitam o que pode ou não ser dito e, com isso, o que pode ser conhecido. A transparência é uma medida importante para permitir que sejam feitas propostas de mudança nos parâmetros do que pode ou não circular nas redes.
Na pesquisa que integrei, analisamos quais os níveis e lacunas de transparência nas políticas de comunidade de 8 grandes plataformas. Para saber quais as recomendações que fizemos para garantir um ambiente democrático e de livre expressão nas redes sociais, acesse nosso estudo!
As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.
Escrito por
Lahis Kurtz (Ver todos os posts desta autoria)
Coordenadora de Pesquisa e pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS), Doutoranda em Direito na Universidade Federal de Minas Gerais (UFMG), Mestra em Direito da Sociedade de Informação e Propriedade Intelectual pela Universidade Federal de Santa Catarina (UFSC), Graduada em Direito pela Universidade Federal de Santa Maria (UFSM).
Membro dos grupos de pesquisa Governo eletrônico, inclusão digital e sociedade do conhecimento (Egov) e Núcleo de Direito Informacional (NUDI), com pesquisa em andamento desde 2010.
Interesses: sociedade informacional, direito e internet, governo eletrônico, governança da internet, acesso à informação. Advogada.