Blog

STF abriu um novo capítulo na responsabilidade das plataformas digitais: qual será a conclusão?

Escrito por

3 de novembro de 2025

Decisão sobre a inconstitucionalidade do art. 19 do Marco Civil da Internet reformula o conjunto das regras jurídicas, mas o cenário ainda é repleto de incertezas.

O Supremo Tribunal Federal finalmente deu a sua canetada sobre um dos grandes impasses no enredo da governança da internet no Brasil: a responsabilidade das empresas pelos danos decorrentes de publicações de quem usa suas plataformas digitais. Depois de anos de espera, alguns pedidos de vista e muitas horas de votação, o STF abriu um novo capítulo ao declarar a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet, que desde 2014 era o único fio condutor desta narrativa. A Corte fixou 14 teses vinculantes para o tema.

Mas o que isso significa de prático nessa história? O que muda no uso das plataformas digitais e do restante do ecossistema da Internet no Brasil? Usando a metáfora do romance em cadeia, quero desembaraçar esse novelo.

De onde viemos: o artigo 19 e sua promessa original

O autor estadunidense Ronald Dworkin explicou a construção da integridade do direito por meio da alegoria de um “romance escrito em cadeia”. Segundo ele, o Direito vigente pode ser entendido como um texto escrito por várias mãos, em um processo coletivo, contínuo e aberto de interpretação e redação, cuja integridade decorre do compromisso com a coerência narrativa. Essa ideia pode ser observada na história da regulação da responsabilidade civil das plataformas digitais no Brasil, para a qual o STF inaugurou um novo capítulo em junho deste ano de 2025. 

Esse enredo foi marcado, por exemplo, pela ordem judicial de bloqueio do YouTube no caso envolvendo Daniela Cicareli e o namorado Tato Malzoni, em 2007. Teve um momento chave quando o Congresso Nacional aprovou e Dilma Rousseff sancionou o Marco Civil da Internet, em 2014. A regra do art. 19 da Lei 12.965 veio estabelecer uma limitação da responsabilidade dos provedores de aplicações: somente após uma ordem judicial específica se poderia exigir de empresas como Facebook, YouTube, X e Instagram que removessem conteúdos publicados por seus usuários. Como exceção, prevista no art. 21, em casos de violação da intimidade privada bastaria uma notificação extrajudicial para surgir a obrigação de remoção.

A lógica foi proteger a liberdade de expressão contra remoções arbitrárias e censura privada. Ao apontar o Poder Judiciário como protagonista na tomada de decisões sobre a legalidade ou não dos conteúdos de terceiros, deixava às empresas o papel secundário de operacionalizar as remoções a partir do julgamento feito pelo ator reputado mais adequado para equilibrar liberdade de expressão e proteção de outros direitos. Ainda, tinha como pressuposto que a imensa escala de conteúdos publicados a cada segundo era incompatível com a verificação prévia pelas plataformas.

Um detalhe importante: o artigo 19 não impedia que as plataformas assumissem deliberadamente, por suas próprias políticas, uma postura proativa contra violações de direitos e infrações a suas próprias regras. A limitação de responsabilidade dizia respeito apenas ao que poderia ser exigido delas, não ao que elas podiam fazer voluntariamente. Assim, o Marco Civil não proibiu a moderação de conteúdo sem decisão judicial, apenas fixou que esta marcaria o início da obrigação legal.

Mas essa abordagem mostrou seus limites ao longo dos anos.

O peso das palavras chega ao Supremo: a professora e a dona de casa

Dois casos emblemáticos levaram o STF a enfrentar esse debate em torno do art. 19 do MCI. O primeiro, do Recurso Extraordinário 1.057.258 (Tema 533), era anterior ao próprio Marco Civil. Aliandra Cleide Vieira, professora de português em Belo Horizonte, foi alvo de uma comunidade criada por alunos do Ensino Médio na rede social Orkut, onde faziam xingamentos e ofensas contra ela. O Google, dono da plataforma, alegou não ter dever de fiscalizar conteúdos sem intervenção judicial e se negou a remover a comunidade

O segundo caso, objeto do Recurso Extraordinário 1.037.396 (Tema de Repercussão Geral 987), foi a história de Lourdes Pavioto Correa, dona de casa moradora de Capivari, interior de São Paulo. Ela descobriu que alguém havia criado um perfil falso no Facebook usando seu nome e suas fotos para ofender familiares dela. Ela pediu que a rede social removesse o perfil, mas Facebook se recusou, alegando que precisaria de ordem judicial. Lourdes foi à Justiça.

Ambos os casos colocavam na mesa a mesma pergunta incômoda: até que ponto a limitação de responsabilidade protegia mais as empresas do que as pessoas? E até que ponto essa proteção tinha se tornado um escudo para uma passividade empresarial conveniente?

A decisão: para o STF, o MCI envelheceu mal

Em um julgamento que começou em novembro de 2024 e se encerrou em junho de 2025, o STF entendeu que o artigo 19 não nasceu inconstitucional, mas se tornou inconstitucional progressivamente ao longo do tempo. Essa ideia foi expressa no termo “inconstitucionalidade progressiva”.

Em 2014, quando o Marco Civil foi aprovado, as plataformas ainda estavam consolidando seu papel social, o direcionamento era menos sofisticado, o faturamento era menor, e a escala dos danos causados por conteúdos online ainda não tinha atingido as dimensões que vemos hoje. Naquele contexto, segundo o STF, apontar o Judiciário como protagonista da decisão sobre legalidade de conteúdos fazia sentido constitucional.

Mas o mundo mudou e, para a Corte, a regra do art. 19 se tornou insuficiente para proteger direitos fundamentais, ao passo que o Congresso Nacional se omitiu em não criar previsões mais adequadas à nova complexidade do ambiente online. As plataformas extrapolaram o posto de meras intermediárias que conectam pessoas. Hoje atuam como infraestruturas essenciais da esfera pública contemporânea, com algoritmos que amplificam, recomendam, priorizam e monetizam conteúdos. Tornaram-se atores centrais na curadoria do debate público e, como diz um personagem  de outra história, com grandes poderes vêm grandes responsabilidades.

O STF apontou especificamente que as plataformas se mantiveram excessivamente passivas diante de diversas modalidades de evidentes e graves violações de direitos. Mais do que isso: adotaram uma postura incoerente, inconsistente e opaca na aplicação das próprias regras internas para moderação de conteúdo. Ou seja, quando escolhiam moderar voluntariamente (o que o artigo 19 sempre permitiu), agiam de forma arbitrária, discriminatória e sem transparência. E quando decidiam não moderar, abusavam da exigência de ordem judicial mesmo em casos manifestamente graves.

A Corte identificou também a escalada de violações a direitos fundamentais facilitadas pela demora judicial: os ataques sistemáticos à democracia e ao Estado de Direito; a epidemia de desinformação com consequências concretas para a saúde pública; e a proliferação do discurso de ódio que silencia vozes vulneráveis. Tudo isso contribuiu para que uma regra constitucional em 2014 fosse declarada inconstitucional uma década depois.

Mas atenção: o STF não jogou o artigo 19 inteiro no lixo. A decisão foi pela inconstitucionalidade “parcial” e progressiva. Isso significa que a regra continua valendo em alguns casos específicos.

Um novo mosaico: as várias versões da responsabilidade

O que emergiu do julgamento foi um mosaico de situações, cada uma com seu próprio regime de responsabilidade. Não é mais uma regra única para tudo, mas diferentes níveis de obrigações conforme a gravidade do conteúdo e a natureza do serviço. É possível resumir assim as teses vinculantes firmadas pelo Supremo:

  • Notificação e retirada: Primeiro, a regra geral passa a ser o art. 21 do Marco Civil, e as plataformas têm obrigação de remover o conteúdo mediante notificação extrajudicial, sem necessidade de ir ao Judiciário. Essa lógica, que já existia para um tipo específico de violação (à intimidade privada), passa a valer para quaisquer crimes ou atos ilícitos, incluindo perfis falsos. Ainda, caso tenha havido uma decisão judicial contra um conteúdo, as plataformas ficam obrigadas a agir contra publicações idênticas. 
  • Ordem judicial prévia: Segundo, o artigo 19 continua aplicável de forma residual para crimes contra a honra (injúria, calúnia e difamação) e para serviços considerados neutros, como e-mail, videochamadas e mensagens instantâneas privadas. Nesses casos, de aplicações que funcionam apenas como canais de transmissão, sem curadoria ou recomendação de conteúdos, a ordem judicial prévia ainda é necessária para responsabilização.
  • Código de Defesa do Consumidor: Terceiro, para marketplaces, aplica-se o Código de Defesa do Consumidor. As empresas têm deveres de verificação, transparência e resposta rápida a reclamações sobre produtos falsificados, perigosos ou defeituosos.
  • Dever de cuidado contra falhas sistêmicas: quarto, e talvez mais importante, o STF estabeleceu um dever de cuidado contra falhas sistêmicas para casos de ilícitos graves. A Corte listou situações específicas em que as plataformas não podem simplesmente esperar uma ordem judicial: terrorismo, indução ao suicídio ou automutilação, crimes sexuais contra crianças e adolescentes, tráfico de pessoas, discriminação e discurso de ódio, violência de gênero e atos antidemocráticos. Nesses casos gravíssimos, as plataformas têm obrigação de agir proativamente, implementando sistemas de detecção, moderação e resposta rápida. A falha sistêmica em prevenir ou responder a esses conteúdos pode gerar responsabilidade civil, mesmo sem ordem judicial prévia.

O que isso muda no dia a dia das plataformas

As empresas agora estão fora da zona de conforto. A decisão do STJ cria um limbo jurídico peculiar: as plataformas podem continuar alegando que precisam de ordem judicial, mas correm o risco de, quando as teses finalmente forem aplicadas, serem responsabilizadas retroativamente por omissões.

Ainda assim, algumas mudanças já começam a aparecer. Não basta mais dizer “me tragam uma ordem judicial” e lavar as mãos, ao menos para empresas que decidem se antecipar ao que parece ser o caminho inevitável. É preciso investir em mecanismos proativos de moderação, que incluem tanto tecnologia quanto equipes humanas capacitadas para lidar com contextos complexos.

A transparência vira obrigação, não cortesia. Plataformas devem publicar relatórios periódicos sobre moderação de conteúdo, tornar públicos os critérios que usam para decidir o que fica e o que sai, e disponibilizar canais de denúncia eficazes e acessíveis. A diligência no tratamento de denúncias deixa de ser opcional.

E aqui entra um ponto fundamental que o STF destacou: não adianta ter políticas de moderação apenas no papel. A aplicação dessas políticas precisa ser consistente, coerente e transparente. Foi justamente a postura errática das plataformas – ora removendo conteúdos arbitrariamente, ora ignorando violações graves – que contribuiu para a inconstitucionalidade progressiva do artigo 19.

Mas ressurge um risco real nessa ampliação de responsabilidades: a remoção excessiva de conteúdo. Com medo de serem responsabilizadas, as plataformas podem adotar uma postura ultraconservadora, removendo tudo que pareça minimamente controverso. Conteúdos legítimos de crítica política, jornalismo investigativo, arte ou educação sexual podem ser silenciados no processo. É a velha história de jogar o bebê fora junto com a água do banho.

Esse risco pode até ser mitigado por meio do devido processo na moderação de conteúdo, inclusive apontado pelo STF. Fica mais fácil controlar erros e abusos se as empresas avisarem quem havia publicado o conteúdo removido, se informarem o motivo da remoção, se oferecerem meios para recurso, se definirem prazos para esses passos, e tudo isso contar com meios tecnológicos de fácil uso. 

Mas encontrar o equilíbrio entre responsabilizar plataformas e proteger a liberdade de expressão é o desafio central desse novo momento. E não será fácil, especialmente quando nem mesmo os tribunais superiores concordam sobre quando começar a aplicar as novas regras.

Mas e aí, vale desde já? Há exceções? A resistência do STJ e as incertezas no ar

Aqui entra uma reviravolta que complica ainda mais esse enredo. Ocorre que, encerrado o julgamento em junho, estamos em outubro e o acórdão com os termos escritos do julgamento ainda não foi publicado pelo STF.

Daí a Corte Especial do Superior Tribunal de Justiça, em setembro de 2025, em um processo que tramita sob segredo de justiça, decidiu que ainda não são aplicáveis as teses vinculantes definidas pelo STF sobre responsabilidade de plataformas. O fundamento? Que o julgamento no Supremo ainda não transitou em julgado, e enquanto houver possibilidade de embargos de declaração ou outros recursos, a decisão não teria força vinculante imediata. E as novas regras ainda estarão sujeitas a modulação temporal dos efeitos.

Essa posição do STJ agrega uma camada de incerteza sobre um tema que já estava longe de ser simples. Na prática, significa que juízes de primeira e segunda instância podem continuar aplicando a lógica original do artigo 19, exigindo ordem judicial prévia mesmo nos casos que o STF entendeu como de responsabilidade direta das plataformas.

É como se a autora da novela tivesse anunciado a morte da vilã, mas o diretor dissesse  “calma lá, vamos esperar para ver se essa morte aconteceu mesmo”.

E as incertezas não param por aí. Uma série de questões pendentes sobre o significado da decisão do STF continua gerando debate acalorado entre especialistas. O que exatamente caracteriza uma “falha sistêmica”? Quantas denúncias ignoradas são necessárias para configurar negligência? Como diferenciar conteúdo manifestamente ilícito de conteúdo controverso mas legítimo? Qual o prazo razoável para as plataformas removerem conteúdos após notificação? E quem define os critérios técnicos para que a moderação proativa não se transforme em censura privada?

Essas indefinições não são apenas teóricas. Elas têm consequências reais que buscam proteção, para plataformas que precisam saber quais são suas obrigações, e para usuários que querem entender até onde vai sua liberdade de expressão. É um jogo sendo jogado com as regras ainda sendo escritas, e isso gera insegurança jurídica para todos os lados.

A história do dia a dia: profissionais do direito, grupos vulneráveis e nossa democracia

Normas jurídicas não se aplicam sozinhas. Elas precisam ser interpretadas e implementadas por juízes de primeira instância, tribunais estaduais e federais, advogados de ambos os lados, e pelas próprias plataformas. E é nessa tradução do abstrato para o concreto que os desafios práticos aparecem.

Imaginem a situação de um juiz de primeira instância em Capivari, a cidade da dona Lourdes. Chega à sua vara uma ação contra uma plataforma digital que não removeu um conteúdo ofensivo após notificação extrajudicial. O juiz sabe que o STF declarou a inconstitucionalidade progressiva da exigência de ordem judicial prévia, mas também sabe que o STJ disse que essa decisão ainda não tem efeito vinculante. O que fazer: aplicar a nova interpretação, ou seguir a antiga? Esse dilema está acontecendo por todo o país, criando uma espécie de loteria judicial.

Do lado das empresas, a moderação de conteúdo afeta diretamente a qualidade da esfera pública digital. Quando ela funciona bem, permite que debates ocorram com respeito e sem intimidação. Quando funciona mal, censura críticas legítimas, amplifica conteúdos sensacionalistas e permite que campanhas de desinformação prosperem. O papel delas na formação da esfera pública é hoje gigantesco e assimétrico. Elas decidem quem vê o quê, quando e como. Elas moldam narrativas, influenciam eleições e definem os limites do dizível. E essa concentração de poder privado sobre a infraestrutura da democracia é, no fundo, o que torna esse debate tão urgente e delicado.

Para grupos vulneráveis (mulheres, população negra, comunidade LGBTQIA+, povos indígenas, crianças e adolescentes) a violência digital é cotidiana e tem efeitos concretos. Ameaças de morte, divulgação de endereços, campanhas de assédio organizado e discurso de ódio sistemático não são só palavras na tela. Eles silenciam vozes, afastam pessoas do debate público e reproduzem online estruturas de opressão offline. Aqui, a falta de boa moderação de conteúdo significa desproteção e medo, reduzindo a participação política e cultural.

Do outro lado, há risco de mais vigilância, mais coleta de dados pessoais, mais decisões automatizadas alheias às nuances culturais e contextos específicos. A mesma tecnologia de moderação proativa que pode proteger direitos sexuais pode silenciar uma ativista negra discutindo racismo. Teremos de lidar com algoritmos mal calibrados ou moderação humana insensível?

O Congresso volta ao ringue e a ANPD ganha músculos

A decisão do STF pode reabrir as comportas do debate legislativo, mesmo com todas as suas indefinições. A Corte sinalizou que essas novas regras são provisórias, e podem ser substituídas por uma deliberação legislativa que assegure a maior proteção de direitos fundamentais online. Assim, projetos de lei encalhados podem ganhar novo fôlego, e pode ressurgir sobre a agenda do Congresso Nacional a pressão por uma regulação mais detalhada e robusta das obrigações das plataformas.

O PL 2630/2020, conhecido como PL das Fake News (embora trate de muito mais que desinformação), é o exemplo mais evidente. Depois de anos de tramitação complicada, lobby intenso das big techs e polarização política, o projeto poderia encontrar um ambiente mais propício para avanços.

A perspectiva é de que o Brasil caminhe para uma nova lei ampla de responsabilidade digital, mais abrangente e detalhada que o Marco Civil, mas que preserve seus princípios fundacionais de governança multissetorial e proteção de direitos fundamentais. Será um processo longo, complexo e certamente atravessado por disputas entre diferentes visões sobre o papel das plataformas na sociedade.

Além dessa possibilidade, foi já aprovado e sancionado o ECA Digital (Lei 15.211/2025), que estipula regras de responsabilidade das plataformas digitais na proteção dos direitos de crianças e adolescentes em ambientes online (inclusive exigindo devido processo na remoção). Na sequência, a Autoridade Nacional de Proteção de Dados (ANPD) foi transformada em agência reguladora e, através do Decreto nº 12.622/2025, foi apontada como autoridade administrativa responsável por coordenar a aplicação das novas responsabilidades previstas no ECA Digital.

Essa mudança não é trivial. A ANPD, que até então tinha competências focadas em proteção de dados pessoais, passa a ter um papel muito mais amplo na regulação das plataformas digitais, especialmente no que diz respeito à proteção de crianças e adolescentes online.

Mas essa expansão de competências também levanta questões. A agência tem estrutura, orçamento e pessoal suficiente para dar conta dessa nova missão? Como ela vai coordenar sua atuação com outros órgãos, como o Ministério da Justiça, ANATEL, Ministério Público e o próprio Poder Judiciário? E mais importante: como garantir que essa regulação seja construída de forma participativa e democrática, envolvendo sociedade civil, academia e usuários, e não apenas numa mesa de negociação entre governo e empresas?

Roteiros possíveis: para onde vamos a partir daqui

Olhando para frente, algumas coisas parecem certas e outras permanecem nebulosas. É certo que virão novas ações judiciais testando os limites e as nuances da decisão do STF, e também testando a resistência do STJ em reconhecer sua aplicabilidade. É certo que o Congresso tentará legislar sobre o tema, embora o resultado desse processo seja imprevisível. É certo que as plataformas resistirão a algumas obrigações e tentarão moldar as regras a seu favor, usando inclusive o argumento de que ainda não há clareza sobre o que exatamente devem fazer.

Mas também é possível imaginar caminhos mais animadores. Uma regulação verdadeiramente multissetorial, construída com participação efetiva do governo, sociedade civil, setor privado e academia, pode resultar em normas mais equilibradas e efetivas. A ANPD, em seu novo papel de agência reguladora com competências ampliadas, pode se tornar um espaço de construção participativa dessas regras, se conseguir se estruturar adequadamente e resistir às inevitáveis pressões políticas e econômicas.

No palco dessa história, vale ainda notar a existência de complicadas e dinâmicas questões geopolíticas. As interações entre Trump e Lula, as concessões aos interesses das Big Techs, as disputas eleitorais vindouras, os conflitos econômicos entre Estados Unidos, União Europeia e China, as guerras violentas que persistem, etc. A cooperação internacional, tão necessária para lidar com a Internet, pode encontrar nesse momento barreiras muito fortes, inclusive no Sul Global. Talvez, até como exercício de soberania, caiba ao Brasil retomar seu protagonismo na governança multissetorial da Internet, como nos bons tempos da aprovação do Marco Civil, e sempre contando com o sucesso da experiência do CGI.br (que, aliás, ofereceu uma promissora tipologia de provedores de aplicações). Estou otimista de que a receita que iremos escrever pode trazer o tempero certo para produzir o equilíbrio necessário, sem dramas, sem terror, sem pastelão.

E agora, José?

Ao dizer que a decisão do STF inaugura um novo capítulo, ressalto que o debate não acabou. Ele está mais profundo e desafiador. A resistência do STJ em aplicar imediatamente as teses adiciona tinta a um texto intrincado. E a verdade é que para todo problema complexo há uma solução simples e errada, e a regulação das plataformas digitais é um dos problemas mais complexos que a democracia contemporânea precisa enfrentar.

Não tenho respostas prontas para onde isso vai dar. Mas sei que precisamos construir essas respostas em conjunto. A arquitetura digital da Internet segue em sua constante reconstrução, os andares do edifício da governança vão crescendo, e quanto mais demorarmos para definir os limites das nossas paredes, mais pessoas estarão expostas às intempéries nocivas do ambiente digital.

Com esse resumão, espero ter conseguido explicar pra você os principais capítulos anteriores e como essa história chegou até aqui. Daqui pra frente, se tiver interesse em acompanhar e até participar da redação da regulação da responsabilidade de plataformas e outros grandes temas da governança da internet, acompanhe nosso trabalho aqui no IRIS. Em nossas tarefas de produção científica, incidência e divulgação, estamos sempre nos esforçando para a realização de uma Internet mais inclusiva e justa, em outras palavras, um final feliz. 

As opiniões e perspectivas retratadas neste artigo pertencem a sua autoria e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Escrito por

Doutor e Mestre em Direito, Estado e Constituição na Universidade de Brasília (UnB). Pesquisador bolsista no Instituto de Referência em Internet e Sociedade (IRIS); integrante voluntário do Aqualtune Lab; ex-Diretor Presidente do Instituto Beta Internet e Democracia (IBIDEM), três ONGs componentes da Coalizão Direitos na Rede (CDR). Consultor Sênior de Políticas Públicas do Capítulo Brasileiro da Internet Society (ISOC Brasil) para os temas Responsabilidade de Intermediários e Criptografia. Conselheiro Consultivo do centro de pesquisa Internetlab. Consultor Sócio da Veredas – Estratégias em Direitos Humanos. Servidor Público Federal no Tribunal Superior do Trabalho (TST), foi gestor do processo de elaboração coletiva do Marco Civil da Internet na Secretaria de Assuntos Legislativos do Ministério da Justiça (SAL-MJ). Premiado na Terceira Edição do Prêmio Destaques em governança da Internet no Brasil, concedido pelo Comitê Gestor da Internet no Brasil – CGI.br.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *