HOME FEEDBACK

Redes sociais respondem por publicações criminosas dos usuários, decide STF

STF estabelece novas responsabilidades para big techs na moderação de conteúdo online, determinando que devem agir prontamente em casos de publicações nocivas. Decisão visa equilibrar a liberdade de expressão com a proteção dos usuários em um cenário de crescente violência digital.

Supremo Tribunal Federal (STF) concluiu em 26 de outubro um julgamento que aumenta as obrigações das big techs sobre conteúdo de usuários na internet.

Critérios estabelecidos vão punir as plataformas por falhas na moderação. O STF pediu ao Congresso que regulamente as redes sociais, alegando que não pode esperar indefinidamente pela legislação.

As empresas serão responsabilizadas por crimes ou atos ilícitos que não removerem após notificação privada. A responsabilidade começa a partir da notificação dos usuários, não mais de decisões judiciais.

Para crimes contra a honra, permanece a necessidade de ordem judicial para remoção, mas as plataformas devem impedir a replicação de ofensas automaticamente.

Com anúncios, a responsabilidade é presumida e só será isenta com comprovação de diligência na exclusão de conteúdos. Kickback é para marketplaces que seguem o Código de Defesa do Consumidor.

A decisão é baseada em uma “tese de repercussão geral” para orientações nacionais do Judiciário. As empresas não poderão ser indenizadas caso haja ordem judicial para restaurar publicações.

A mudança pode levar a censura prévia e remoção automática de conteúdos controversos. Barroso afirmou que a decisão preservou a liberdade de expressão enquanto combate discursos de ódio.

Por 8 a 3 votos, o STF considerou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, devido à inadequação às realidades das redes sociais e a necessidade de proteger direitos fundamentais.

A crítica às falhas de moderação é clara, já que a atual norma não protege adequadamente os usuários contra violência digital.

Ministros que disputaram a decisão acreditam que o tema deve ser resolvido pelo Congresso, não pelo Judiciário.

O STF também listou publicações “graves” que devem ser excluídas pelas plataformas sem notificação ou decisão judicial. A punição exige comprovação de falhas sistêmicas na moderação.

Além disso, a decisão exige que as plataformas mantenham representantes legais no Brasil, responsáveis por fornecer informações e cumprir determinações legais, um ponto de tensão recente entre big techs e o STF.

As empresas devem também implementar normas de autorregulação e divulgar relatórios de transparência anualmente.

Leia mais em estadao