“`html
O Supremo Tribunal Federal (STF) anunciou ontem novas diretrizes que alteram a responsabilização das redes sociais por conteúdos publicados em suas plataformas. Com base em uma construção de tese que considerou 14 pontos, a Corte determinou que as plataformas deverão remover conteúdos que infrinjam a lei após serem notificadas, mas não serão obrigadas a seguir a mesma regra para crimes contra a honra. Essa mudança ocorre após longos oito meses de debates internos e em plenário, em um contexto em que muitos ministros consideraram que o Congresso Nacional não legislou adequadamente sobre a questão, resultando numa violação de direitos fundamentais.
Alterações significativas no Marco Civil da Internet
Os ministros votaram pela inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, que, desde 2014, estabelecia que as plataformas só seriam responsabilizadas por danos causados por conteúdos de terceiros se não seguissem uma ordem judicial de remoção. Agora, essa regra se aplica exclusivamente a crimes como injúria, calúnia e difamação. O objetivo, segundo o STF, é garantir que não haja cerceamento à liberdade de expressão.
Condições para remoção de conteúdos
O presidente do STF, Luís Roberto Barroso, destacou que, em casos de crime ou ato ilícito, basta uma notificação privada para que a plataforma tenha a obrigação de remover o conteúdo. Para outros casos, a ordem judicial ainda será necessária. Este entendimento foi aprovado com uma votação de oito a três, com os ministros André Mendonça, Edson Fachin e Nunes Marques manifestando desacordo.
Além disso, foi decidido que o artigo 19 não oferece proteção suficiente a direitos fundamentais, o que justifica a responsabilidade civil das plataformas em relação a conteúdos ilícitos. Outros artigos da mesma legislação, como o artigo 21, que diz respeito à remoção de conteúdos envolvendo nudez e atos sexuais, também foram mencionados na nova decisão.
Dever de cuidado e responsabilização civil
A tese aprovada estabelece que os provedores de internet serão considerados responsáveis civilmente pelos danos decorrentes de conteúdos gerados por terceiros, especialmente em casos de conteúdo ilícito ou criminoso. Os ministros também determinaram um “dever de cuidado” para as plataformas, que agora devem tomar medidas preventivas contra a disseminação de conteúdo nocivo, incluindo a discriminação, terrorismo e incitação ao suicídio.
Embora os ministros expressassem preocupações sobre a remoção de conteúdos sem decisão judicial, estudos, como os realizados pelo NetLab, sugerem que legislações similares, como a da Alemanha, não resultaram em remoções massivas, mas sim em ações baseadas nas diretrizes internas das plataformas.
Transparência e responsabilidade das plataformas
As novas regras incluem a obrigatoriedade de que as plataformas constituam sede e representantes legais no Brasil. O representante deverá prestar contas sobre o funcionamento da plataforma e como gerencia reclamações e moderação de conteúdo. Além disso, os provedores deverão fornecer relatórios de transparência detalhando as operações internas e gestão de riscos.
Chamado ao Congresso
Em sua decisão, o STF fez um apelo ao Congresso Nacional para criar uma legislação que atenda as lacunas deixadas pelo atual regime. A proposta visa regular o funcionamento das redes sociais de uma forma que proteja os direitos fundamentais dos cidadãos.
Os ministros também abordaram a questão das plataformas de comunicação privadas, como WhatsApp e Zoom, que continuarão sujeitas ao artigo 19, exigindo ordem judicial para remoção de conteúdos. Essa decisão se baseia na natureza privada dessas comunicações, preservando o sigilo de suas mensagens.
A mudança proposta pelo STF representa uma resposta clara às crescentes preocupações sobre a desinformação e o conteúdo nocivo nas redes sociais, destacando a necessidade de um equilíbrio entre a liberdade de expressão e a responsabilidade civil. Como a Corte afirmou, as empresas devem ser proativas na moderação de conteúdos para garantir um ambiente online mais seguro.
“`