Blog

“Conteúdo perigoso”? a invisibilização da Comunidade LGBTQIA+ na moderação de conteúdo

Escrito por

28 de junho de 2021

“Acreditamos que todos têm o direito de expressar opiniões e que o mundo se torna melhor quando ouvimos, compartilhamos e nos unimos por meio das nossas histórias.” (YouTube | About)

Visto como uma das maiores e principais plataformas de criação e compartilhamento de vídeos, o YouTube, na intenção de “dar a todos uma voz e revelar o mundo”, elenca como seus valores a liberdade de expressão, o direito à informação, o direito à oportunidade e a liberdade para pertencer. Aparenta, assim, ser um espaço livre, aberto e participativo de maneira até igualitária – um mundo aparentemente de coexistência pacífica, sem censura ou controle.

No entanto, como esperado em qualquer rede social, o YouTube regula o conteúdo publicado, seja de forma a coibir violações a direitos autorais ou a combater a propagação de notícias falsas, discursos de ódio, conteúdo sexual, entre outros tipos de conteúdo perigosos. Esta regulação se dá por um contrato de adesão: ou aceitamos e seguimos todas as regras, ou seremos punidos com desmonetização (perda da possibilidade de ganhar dinheiro com propagandas) do vídeo identificado como infrator das diretrizes de comunidade, limitação do alcance desse vídeo na plataforma, seu bloqueio ou até sua remoção, sem possibilidade de retorno do conteúdo à plataforma.

É nesta relação de controle unilateral que acontece tanto no YouTube quanto em outras plataformas que este artigo se insere. A comunidade LGBTQIA+ acaba, muitas vezes como no caso do YouTube, caindo nessas ‘caixas’ de conteúdo considerado perigoso ou violador de direito autoral, com base na identificação automática da plataforma. Nesse contexto, de invisibilização da comunidade potencializada pelo YouTube, que iremos explorar neste artigo. Confira a seguir!

Espaço de fala, representatividade e remuneração da comunidade LGBTQIA+

O YouTube é visto como uma das principais plataformas de compartilhamento e produção de conteúdo audiovisual. A comunidade LGBTQIA+, inclusive, parece preferir esta plataforma para tratar de temas não representados na mídia mainstream e até para se assumirem como LGBTQIA+. A plataforma é vista pela comunidade não só como um meio em que ela consegue se fortalecer e se empoderar, mas também, como um meio de furar a bolha e expandir o alcance dessas temáticas para além dos círculos de dentro da comunidade.

Além de ser uma plataforma crescentemente utilizada para a vazão de assuntos não tratados na mídia mainstream, o YouTube possui um programa de parceria que permite que as pessoas produtoras de conteúdo recebam uma remuneração pela publicidade colocada em seus vídeos, proporcional ao seu número de visualizações, o YouTube Partners Program. Para participar do programa, a produtora de conteúdo, além de ter um canal com mais de 4 mil visualizações nos últimos 12 meses e com ao menos 1.000 inscritos, deve aderir ao AdSense, um programa do Google que monetiza os criadores de conteúdo online por meio da exibição de anúncios em seus websites, que impõe algumas limitações de conteúdo, como, dentre outros, nudez ou conteúdo sexual, conteúdos que violem a privacidade e outras políticas. 

Como o CEPI relatou, em sua pesquisa “Convergindo Vozes Dissonantes: Liberdade de expressão, grupos vulnerabilizados e desafios à produção cultural online”,

“muitos destes conteúdos são difíceis de determinar, mas ao contratar o Programa de Parceria do YouTube (AdSense), a plataforma se [dá] o direito de desativar a exibição de anúncios no seu conteúdo; desativar sua conta do Google AdSense; suspender sua participação no Programa de Parcerias do YouTube; suspender ou até mesmo encerrar seu canal do YouTube”.

Inúmeras críticas vêm sendo feitas à plataforma por retirar automaticamente o conteúdo de canais que tratem de temas como diversidade, devido aos termos que são utilizados em seus vídeos, já que muitas vezes entram na categoria, por exemplo, de “conteúdo sexual”

Por ser uma plataforma privada, o YouTube regula da maneira que melhor entende o conteúdo para evitar responsabilização da empresa por crimes, ofensas e outros ilícitos ocorridos dentro da plataforma. Deixa claro, inclusive, em seus termos de “Políticas e segurança”, que não há espaço para debate sobre as categorias listadas como conteúdo inadequado:

“Aqui estão algumas regras baseadas no bom senso que ajudam você a se manter longe de problemas. Pedimos que você as leve a sério. Não tente encontrar brechas nem burlar essas diretrizes. Apenas compreenda-as e tente respeitar o propósito com que elas foram criadas”.

No entanto, em 2019, um grupo de produtores de canais LGBTQIA+ nos Estados Unidos processou o YouTube alegando que a plataforma estava discriminando seu conteúdo, frequentemente removendo a sua remuneração. Eles alegam, dentre outros pontos, que o YouTube remove publicidade de vídeos com palavras consideradas “gatilho” como “gay” ou “lésbica”, freqüentemente rotula os vídeos com tema LGBTQIA+ como “sensíveis” ou “maduros”, os restringe de aparecer nos resultados de busca ou recomendações e, por fim, não faz o suficiente para filtrar o assédio e o discurso de ódio na seção de comentários. Inclusive, Stephanie Frosch, uma YouTuber queer com cerca de 370.000 inscritos, ganhava aproximadamente $23.000 por ano no YouTube em 2009. Em 2021, Frosch diz que ela tem “sorte se receber $100 por mês”.

A alegação do grupo, no entanto, não se baseia só na questão do conteúdo em si dos vídeos, mas, também, na identificação da autoria do conteúdo, ou seja, dos produtores serem pessoas LGBTQIA+. O Google contesta essas reclamações, dizendo que os algoritmos de distribuição da plataforma são protegidos pela Seção 230 do Communications Decency Act, dos EUA – que inclusive entrou em disputa quando o ex-Presidente Trump procurou revogar a Seção 230 após uma briga pública com o Twitter sobre a moderação de seus tweets.

Seja pelo conteúdo dos vídeos, seja pela identidade da autoria do material audiovisual, é fato que há uma crescente invisibilização da comunidade LGBTQIA+, que não só prejudica o objetivo do YouTube de “dar a todos uma voz e revelar o mundo”, mas, também, impede a remuneração das produtoras de conteúdo pertencentes à comunidade.

O Content ID na proteção ao Direito Autoral: uma limitação automática da expressão da comunidade LGBTQIA+

Uma outra forma que o YouTube potencializa a invisibilização da comunidade LGBTQIA+ é baseada no funcionamento da ferramenta Content ID – um mecanismo de identificação automática de vídeos e áudios cadastrados por seus autores para garantirem seus Direitos Autorais.

Como fala Katharine Trendacosta, da Electronic Frontier Foundation, o YouTube já provou estar mais interessado em agradar os grandes detentores de Direitos Autorais do que em proteger a liberdade de expressão ou promover a criatividade, como defende em sua lista de valores. Com a ferramenta do Content ID, o YouTube oferece um sistema de filtros que, além de ser alterado ao longo do tempo – gerando insegurança para os produtores de conteúdo online –, não leva em conta o contexto do uso e o alcance do conteúdo violador de Direito Autoral, muitas vezes desmonetizando de forma automática pequenas produtoras e direcionando dinheiro apenas para grandes detentoras de Direitos Autorais.

A comunidade LGBTQIA+ utiliza o YouTube como um espaço para ganhar voz, um espaço não só seguro para trazer à tona temas que não são encontrados na mídia tradicional, mas, também, para criar conteúdo e se sustentar no ramo da produção de conteúdo online. Uma das formas mais usuais de se discutir temas “alternativos” ou/e celebrar o avanço desses temas na mídia tradicional é a produção de vídeos de reação, em que se usa outro conteúdo a fim de analisá-lo, ou vídeo com trechos de diversos conteúdos, para ilustrar certa situação em discussão.

Esses usos de trechos de vídeos ou áudios podem muitas vezes serem vistos pelo Content ID como um uso ilegal, passível de punição. Como o próprio IRIS relatou em seu estudo “Transparência sobre moderação de conteúdo em políticas de comunidade”, o YouTube apresenta critérios explícitos de análise contextual para configuração, ou não, da violação para todos os conteúdos listados como inadequados pela plataforma, exceto para as violações a Direitos Autorais.

Assim, a ferramenta funciona muito bem para o que foi programada: identificação rápida e fiel de vídeos e áudios cadastrados como protegidos por Direitos Autorais, mas acaba por auxiliar na invisibilização de uma comunidade que usa – e muito – conteúdos da mídia mainstream para discutir temas e se empoderar num espaço que, teoricamente, seria um espaço para a vazão da “voz de todos”.

É claro, isso não acontece só com a comunidade LGBTQIA+. Inclusive, ferramentas como o Content ID são vistas como armas muito poderosas na remoção automática de conteúdos que usam obras protegidas a ponto de um policial utilizar-se dessa ferramenta a seu favor. Em fevereiro de 2021, quando Sennett Devermont – um ativista que regularmente transmite ao vivo protestos e interações com a polícia para seus mais de 300.000 seguidores na Instagram – transmitiu ao vivo sua interação com o Sargento Billy Fair, este, ao perceber que a conversa estava sendo transmitida ao vivo via Instagram, silenciou-se e tocou de seu celular, por cerca de 1 minuto, a música “Santeria” (da banda Sublime), afins de fazer com que o vídeo de Devermont fosse identificado como violador de Direitos Autorais e, assim, tivesse seu áudio removido do vídeo ou, até, a própria transmissão ao vivo interrompida e o vídeo removido por completo.

Regulação unilateral é o problema?

As plataformas, por serem serviços oferecidos por empresas privadas, regulam de diferentes maneiras a moderação de conteúdo publicado por seus usuários. O problema está na falta de transparência e impossibilidade de discussão sobre as categorias utilizadas para classificar conteúdos como inadequados. Essas regras acabam sendo, muitas vezes, automaticamente aplicadas, sem a análise caso a caso, o que dificulta a criação de um espaço aberto de debates, já que os discursos são muito mais complexos que meras ‘caixas classificatórias’.

Voltando ao relatório do IRIS, o Instituto verificou que o YouTube possui uma grave falta de transparência quando o assunto é os meios de detecção de conteúdo inadequado, de acordo com as suas políticas de comunidade. A equipe verificou que há a indicação, pela plataforma, da realização de uma detecção proativa sem referência ao teor (automatizado ou não) e há uma redução da capacidade contestatória do usuário. Além disso, também foi indicado que o YouTube utiliza-se de uma terminologia ambígua, com o uso do verbo “poder” para especificar os conteúdos proibidos em sua plataforma, gerando insegurança ao produtor de conteúdo e dificultando seu poder de contestação – já que a regra é tão ampla que fica difícil de mostrar o porquê de certo conteúdo estar fora das categorias de conteúdos proibidos. 

Assim, por um lado, é exigido das plataformas a coibição de conteúdo danoso, incluindo discursos de ódio, desinformação, ofensas e condutas criminosas, o que faz surgir a necessidade de se classificar conteúdos como proibidos e, então, investir em iniciativas para coibir a propagação desses na rede. Por outro lado, criamos espaço para um amplo poder de escolha de agentes privados na determinação da limitação da liberdade de expressão. Limita-se, assim, não só a expressão individual de cada usuário, mas, também, a criação e cultivo de um espaço de empoderamento, informação, remuneração e representatividade de grupos vulneráveis, como é o caso da comunidade LGBTQIA+.

A transparência é essencial para a liberdade de expressão

Neste mês de junho, em que celebramos o orgulho LGBTQIA+, quisemos levantar a discussão sobre como a moderação de conteúdo no YouTube pode e está reduzindo o espaço e invisibilizando a comunidade LGBTQIA+. A plataforma tem seus pontos positivos: ela oferece um espaço para a criação e produção (remunerada) de conteúdo, permite com que a comunidade se expresse, se conecte e alcance espaços antes não ocupados. Mas, também, ela oferece seus riscos, limitando para além do necessário a liberdade de expressão dos criadores (digo ‘além do necessário’, porque a própria coibição de discursos de ódio, ofensas e outras condutas nocivas já é uma limitação à liberdade de expressão amplamente reconhecida como necessária). Essa limitação se dá por meio do uso de categorias amplas de conteúdo entendido como inadequado, do funcionamento do Content ID, da pouca transparência na identificação do conteúdo inadequado, ou, ainda, da redução da capacidade contestatória do usuário no processo de denúncia, recurso e punição por usos de conteúdos proibidos.

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Pesquisadora no Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Mestranda em Direito e Desenvolvimento na FGV Direito SP, com Bolsa Mario Henrique Simonsen de Ensino e Pesquisa. Graduada em Direito pela Pontifícia Universidade de São Paulo — PUC-SP. Atualmente, desenvolve pesquisa nas áreas de Direitos Humanos Digitais, Moderação de Conteúdo, Direito Autoral e Ensino Jurídico.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *