STF decide que redes sociais podem ser responsabilizadas por postagens de usuários no Brasil
O Supremo Tribunal Federal (STF) tomou uma decisão histórica nesta quarta-feira, 26 de junho de 2025, que muda a forma como plataformas digitais como Google, Meta, X (antigo Twitter), TikTok e outras devem lidar com conteúdos publicados por seus usuários no Brasil. A partir de agora, essas empresas podem ser responsabilizadas civilmente por publicações que violem direitos, mesmo sem decisão judicial prévia, dependendo do caso.
A medida foi aprovada por 8 votos a 3, durante o julgamento que analisava a constitucionalidade do artigo 19 do Marco Civil da Internet, de 2014. Esse artigo dizia que as plataformas só poderiam ser responsabilizadas por conteúdos ilegais após uma ordem judicial. Com a nova interpretação dada pelo STF, essa exigência deixa de valer em muitas situações.
O relator do caso, ministro Dias Toffoli, destacou que a decisão não significa censura, mas sim a criação de uma responsabilidade proporcional ao poder das plataformas. Segundo ele, as redes sociais hoje funcionam como espaços públicos de debate, mas precisam seguir regras que protejam os direitos fundamentais dos cidadãos.
A partir de quando a mudança vale?
A decisão já está em vigor desde o fim do julgamento, ou seja, desde o dia 26 de junho de 2025. Como se trata de uma interpretação constitucional feita pelo STF, ela tem aplicação imediata e não depende de sanção presidencial nem de publicação em diário oficial, como acontece com leis aprovadas no Congresso. As novas regras passam a ser seguidas automaticamente por tribunais de todo o país.
Quando as plataformas passam a ser responsáveis?
As plataformas poderão ser responsabilizadas por conteúdos ilegais ou prejudiciais, especialmente se não tomarem medidas para removê-los após serem notificadas extrajudicialmente por quem se sentiu ofendido.
Em casos mais graves, como publicações que envolvam racismo, incitação à violência, pornografia infantil, terrorismo, discurso de ódio (inclusive homofobia e misoginia), ou crimes contra crianças e adolescentes, a responsabilidade é ainda mais direta. Nesses casos, se o conteúdo não for removido após denúncia clara, a plataforma poderá ser punida judicialmente por omissão.
Além disso, se o conteúdo tiver sido impulsionado por anúncios pagos ou divulgado por robôs (bots), a responsabilidade da plataforma será ainda mais rigorosa, mesmo sem necessidade de notificação prévia.
Por outro lado, em casos que envolvem conflitos privados — como calúnia, difamação ou injúria entre indivíduos — ainda será necessário recorrer ao Judiciário, já que essas situações exigem uma análise mais cuidadosa do contexto e do direito ao sigilo.

Impacto nas redes sociais
Na prática, a decisão obriga as empresas a adotarem sistemas mais rápidos e eficientes de moderação de conteúdo, especialmente quando se trata de violações evidentes de direitos ou crimes. Plataformas que demorarem a agir ou forem omissas diante de denúncias poderão ser processadas e até condenadas a pagar indenizações.
A mudança também deve impactar influenciadores digitais, criadores de conteúdo e até empresas que usam redes sociais como canal de comunicação. Todos precisarão ter mais atenção com o que publicam e compartilham, já que as plataformas devem agir com mais rigor na moderação.
Próximos passos
Apesar de a decisão valer de imediato, o STF deixou claro que é papel do Congresso Nacional elaborar uma nova legislação que regulamente de forma mais detalhada o funcionamento das plataformas digitais no Brasil. A ideia é que o Legislativo aprove uma lei que traga equilíbrio entre a liberdade de expressão e a proteção contra abusos e desinformação.
Enquanto isso não acontece, a decisão do Supremo serve como parâmetro jurídico para orientar tribunais, usuários e empresas. O tema ainda deve gerar debates intensos, especialmente em ano pré-eleitoral, onde as redes sociais ganham ainda mais destaque como instrumento de mobilização e informação.
Contato
- Atendimento
- (41) 999-555-006
-
Av. do Batel, 1750 – S215
Curitiba – PR