Home Remoção ‘proativa’ de racismo, pedofilia, discurso de ódio: o que o STF decidiu sobre responsabilidade das redes

Remoção ‘proativa’ de racismo, pedofilia, discurso de ódio: o que o STF decidiu sobre responsabilidade das redes

Última atualização 27 de junho de 2025 - 13:53:08

O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira (26) para mudar a interpretação sobre a responsabilidade das redes sociais e outras plataformas digitais em relação a conteúdos publicados por terceiros.

Por 8 votos a 3, os ministros reconheceram a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet (MCI), que exigia ordem judicial específica para responsabilização civil de redes por postagens ofensivas.

A Corte entendeu que esse modelo oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade — e, por isso, precisa ser ajustado até que o Congresso aprove nova legislação sobre o tema.

O que muda com a decisão do STF

A decisão cria três níveis de responsabilização para provedores e redes sociais:

Remoção proativa para casos graves

A Corte afirmou que plataformas devem atuar de forma imediata, mesmo sem notificação extrajudicial ou ordem judicial, para remover conteúdos com discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. Nesses casos, a omissão da empresa pode levar à responsabilização civil direta.

Notificação extrajudicial como gatilho

Para outros tipos de conteúdo considerado ilícito, a empresa será responsabilizada caso receba uma notificação extrajudicial, não remova o conteúdo, e posteriormente a Justiça reconheça que houve ofensa.

A medida flexibiliza a exigência de ordem judicial, abrindo espaço para remoção mais ágil de conteúdo ofensivo, como ataques pessoais, desinformação grave, entre outros.

Crimes contra a honra

Em casos de crimes contra a honra — por exemplo, difamação — a tese fica como é hoje:

Ou seja, as plataformas só são obrigadas a tirar conteúdo se a Justiça mandar. Não serão punidas se não excluírem o conteúdo só com a notificação extrajudicial.

Essa é uma maneira que o STF buscou para preservar a liberdade de expressão.

Tese fixada pelo STF

A tese fixada estabelece que:

O artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção de direitos fundamentais

Enquanto não houver nova lei, o artigo deve ser interpretado de forma que:

  • Plataformas podem ser responsabilizadas civilmente por não removerem conteúdo após notificação extrajudicial.
  • Essa responsabilização não se aplica à legislação eleitoral, regida por regras próprias e normas do TSE.
  • Conteúdos de contas inautênticas também entram na lógica de responsabilização.
  • Casos de racismo, pedofilia, discurso de ódio e incitação à violência exigem remoção imediata e proativa, sem necessidade de provocação.

Impacto

A decisão deve forçar as grandes plataformas a rever suas políticas de moderação, adotando protocolos mais rigorosos para casos de discurso de ódio e estruturando canais eficazes de recebimento e resposta a notificações extrajudiciais.

O Congresso ainda pode editar nova legislação sobre o tema. Até lá, vale a interpretação determinada pelo Supremo.

Fonte: Por Fernanda Vivas, TV Globo — Brasília / G1

Foto: Reprodução / Youtube

Corte entendeu que modelo atual oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade

deixe seu comentário