Conceitos de remoção de conteúdo podem levar à censura, diz especialista
STF altera regras sobre responsabilidade das big techs por conteúdos de usuários. Decisão gera controvérsias sobre a possibilidade de censura e falta de critérios claros para remoção de publicações.
STF decide responsabilizar big techs por conteúdo de usuários em 26 de junho de 2025.
O Artigo 19 do Marco Civil da Internet (lei 12.965 de 2014) foi declarado parcialmente inconstitucional.
Anteriormente, era necessária uma ordem judicial para excluir conteúdos; agora, essa regra é a exceção, válida apenas para crimes contra a honra.
André Marsiglia, advogado especialista, citou 3 problemas com a decisão:
- Decisões judiciais não serão mais necessárias na maioria dos casos;
- Plataformas definirão que conteúdo permanece ou sai do ar;
- Critérios para remoção de conteúdos ilícitos não foram claros.
O STF exigiu que as plataformas removam proativamente postagens em categorias consideradas ilícitas. Marsiglia destacou que esses conceitos são subjetivos e podem levar à censura.
A expectativa é que as big techs removam conteúdos polêmicos para evitar punições.
Ele também observou a dificuldade de autorregulação, afirmando que é impossível que uma plataforma fiscalize a si mesma ao remover conteúdos. Além disso, a tese já usada para “controlar redes” é a mesma que condena o bolsonarismo.
A decisão citou os artigos 359-L e 359-M do Código Penal, que estabelecem ilegalidade para tentativas de deposição do Estado Democrático de Direito.
O órgão para fiscalizar big techs não foi definido pelo STF, o que gerou críticas por parte de Marsiglia.
A íntegra da tese será publicada em até 60 dias.