Brasil, 27 de junho de 2025
BroadCast DO POVO. Serviço de notícias para veículos de comunicação com disponibilzação de conteúdo.
Publicidade
Publicidade

STF define responsabilidade das redes sociais por conteúdos ilegais

Ministros do STF decidem que plataformas devem remover conteúdos ilícitos após notificação, mas mantêm exceções para crimes contra a honra.

Na última quinta-feira, o Supremo Tribunal Federal (STF) finalizou o julgamento sobre a responsabilidade das redes sociais em relação aos conteúdos ilegais publicados em suas plataformas. Os ministros decidiram que as regras do artigo 19 do Marco Civil da Internet são, em parte, inconstitucionais. A nova estrutura estabelece que as plataformas digitais têm a obrigação de remover conteúdos ilícitos uma vez que tenham sido notificadas. No entanto, foi mantida uma exceção para crimes contra a honra, que ainda exigem uma ordem judicial para a remoção.

Responsabilidade das redes sociais com conteúdos ilícitos

A decisão do STF traz importantes implicações para a forma como as redes sociais devem agir em relação a conteúdos que possam infringir a lei. Com base no novo entendimento, as plataformas poderão ser responsabilizadas por danos causados por conteúdos publicados por terceiros, desde que sejam notificadas e não promovam a remoção da postagem. Essa mudança representa um marco significativo na responsabilização das empresas de tecnologia diante de abusos online.

Para crimes como calúnia, difamação e injúria, as regras atuais continuam valendo: uma ordem judicial é necessária para a remoção. Somente no caso de descumprimento dessa ordem é que as plataformas poderiam ser responsabilizadas. Isso significa que as vítimas de ataques a sua honra ainda precisarão passar pelo sistema judiciário para que seus direitos sejam protegidos.

Remoções e notificações

Se um conteúdo já reconhecido como ofensivo pelo Judiciário for replicado em uma plataforma, os provedores agora devem removê-lo imediatamente a partir de uma notificação. Esse novo protocolo busca tornar mais eficiente a erradicação de conteúdos prejudiciais, aumentando a responsividade das plataformas à solicitação de seus usuários e ao próprio Judiciário.

Bons exemplos de como essa gestão se aplica incluem serviços de mensagens como WhatsApp e Telegram, onde também será necessária uma ordem judicial para a remoção de conteúdos considerados ilegais. A mesma regra se aplica a e-mails e aplicativos de reuniões fechadas, como o Zoom, reforçando a necessidade de supervisão em todos os meios de comunicação digital.

Presunção de responsabilidade e conteúdos pagos

Um ponto importante abordado pela nova decisão é a questão da “presunção de responsabilidade” para conteúdos de anúncios pagos ou distribuídos artificialmente, como os gerados por robôs. Neste caso, as plataformas são consideradas responsáveis desde o início, independentemente de notificação. Elas só conseguem se isentar de responsabilidade se comprovarem que agiram de maneira apropriada e em um tempo razoável para remover as publicações prejudiciais.

Além disso, as plataformas têm a obrigação de coibir a publicação de conteúdos que promovam comportamentos antidemocráticos; terrorismo; instigação ou auxílio ao suicídio ou automutilação; discriminação com base em raça, religião ou identidade de gênero; crimes praticados contra mulheres; crimes sexuais contra crianças e adolescentes; e pornografia infantil. Isso marca uma tentativa de garantir que as redes sociais contribuam ativamente para um espaço digital mais seguro e respeitoso.

Requisitos para plataformas e marketplaces

Os provedores de plataformas também devem garantir que tenham uma sede e um representante no Brasil, disponibilizando informações de contato de forma acessível. Essa exigência visa aumentar a responsabilidade das empresas estrangeiras que operam no Brasil, tornando-as mais vinculadas à legislação local.

As empresas de redes sociais e marketplaces são obrigadas a apresentar relatórios anuais de transparência que abrangem notificações extrajudiciais, anúncios e impulsionamento. Com isso, o STF espera aumentar a confiança do público nas plataformas e na forma como elas lidam com conteúdos sensíveis.

Por fim, os ministros do STF fizeram um apelo ao Congresso Nacional para desenvolver uma legislação que trate das deficiências do atual regime, especialmente em relação à proteção de direitos fundamentais online. Essa nova ordem judicativa reforça a necessidade de se legislar de forma eficaz sobre o tema, aprimorando as estruturas legais e proporcionando uma melhor proteção aos cidadãos brasileiros.

Com essas mudanças, o Brasil avança no debate sobre a responsabilidade das redes sociais, roubando a cena num cenário global recheado de desafios na relação entre liberdade de expressão e a segurança dos usuários na internet.

PUBLICIDADE

Institucional

Anunciantes