O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira (26) para mudar a interpretação sobre a responsabilidade das redes sociais e outras plataformas digitais em relação a conteúdos publicados por terceiros.
Por 8 votos a 3, os ministros reconheceram a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet (MCI), que exigia ordem judicial específica para responsabilização civil de redes por postagens ofensivas.
A Corte entendeu que esse modelo oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade — e, por isso, precisa ser ajustado até que o Congresso aprove nova legislação sobre o tema.
O que muda com a decisão do STF
A decisão cria três níveis de responsabilização para provedores e redes sociais:
Remoção proativa para casos graves
A Corte afirmou que plataformas devem atuar de forma imediata, mesmo sem notificação extrajudicial ou ordem judicial, para remover conteúdos com discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. Nesses casos, a omissão da empresa pode levar à responsabilização civil direta.
Para outros tipos de conteúdo considerado ilícito, a empresa será responsabilizada caso receba uma notificação extrajudicial, não remova o conteúdo, e posteriormente a Justiça reconheça que houve ofensa.
A medida flexibiliza a exigência de ordem judicial, abrindo espaço para remoção mais ágil de conteúdo ofensivo, como ataques pessoais, desinformação grave, entre outros.
Em casos de crimes contra a honra — por exemplo, difamação — a tese fica como é hoje:
Ou seja, as plataformas só são obrigadas a tirar conteúdo se a Justiça mandar. Não serão punidas se não excluírem o conteúdo só com a notificação extrajudicial.
Essa é uma maneira que o STF buscou para preservar a liberdade de expressão.
A tese fixada estabelece que:
O artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção de direitos fundamentais
Enquanto não houver nova lei, o artigo deve ser interpretado de forma que:
A decisão deve forçar as grandes plataformas a rever suas políticas de moderação, adotando protocolos mais rigorosos para casos de discurso de ódio e estruturando canais eficazes de recebimento e resposta a notificações extrajudiciais.
O Congresso ainda pode editar nova legislação sobre o tema. Até lá, vale a interpretação determinada pelo Supremo.
Fonte: Por Fernanda Vivas, TV Globo — Brasília / G1
Foto: Reprodução / Youtube
Corte entendeu que modelo atual oferece proteção insuficiente aos direitos fundamentais — como a honra, a dignidade e a integridade
deixe seu comentário