O Supremo Tribunal Federal (STF) está a um passo de alterar significativamente a responsabilidade das redes sociais em relação ao conteúdo postado por usuários. Com a maioria de votos a favor, a Corte já tem seis votos para permitir que plataformas digitais sejam responsabilizadas por conteúdos considerados ilegais publicados em suas redes sem a necessidade de uma decisão judicial prévia. No entanto, os detalhes da responsabilização ainda estão sendo discutidos entre os ministros.
O contexto da decisão do STF
A maioria dos votos foi alcançada com o posicionamento do ministro Gilmar Mendes, que criticou a atual ausência de responsabilização das empresas e afirmou que o Marco Civil da Internet, na forma atual, serve como um “véu da irresponsabilidade” para as plataformas digitais. Mendes destacou que, mesmo quando as redes sociais são informadas sobre a ocorrência de crimes, elas não são responsabilizadas por danos provenientes da manutenção desse conteúdo, exceto em casos onde exista uma ordem judicial.
Durante a discussão, o ministro Flávio Dino também se posicionou, afirmando que “liberdade regulada é a única liberdade”. Ele argumentou que não há liberdade sem responsabilidade e que a ideia de que a regulamentação limita a liberdade é falsa. Dino enfatizou a importância de se avançar em direções que garantam tanto a liberdade quanto a responsabilidade no ambiente digital.
A proposta de regulamentação das plataformas digitais
O julgamento atual analisa a forma como as plataformas digitais devem responder por conteúdos postados por seus usuários, especialmente no contexto do Marco Civil da Internet. O artigo 21 da legislação atual estabelece que as redes só podem ser responsabilizadas se descumprirem uma ordem judicial de exclusão de conteúdo. Contudo, algumas propostas feitas pelos ministros sugerem que essa responsabilização deve ser extendida, permitindo que as plataformas removam conteúdos ilegais imediatamente após notificação extrajudicial.
O ministro Cristiano Zanin, um dos que se posicionaram a favor da responsabilização, defendeu que as empresas devem agir assim que houver evidências claras de que o conteúdo é ilícito, como perfis falsos ou invasões de contas. A proposta é que o dever de remoção se aplique a casos em que a notificação extrajudicial explique suficientemente a ilegalidade do conteúdo.
Momentos de divergência entre os ministros
Apesar da maioria já formada, a discussão no STF ainda está longe de um consenso total. O presidente da Corte, Luís Roberto Barroso, destacou que os diversos pontos de vista apresentados pelos ministros podem levar a uma “consenso sobreposto”, mas deixou claro que nenhuma decisão final será tomada nesta semana. Além disso, a ausência da ministra Cármen Lúcia e as considerações do ministro Nunes Marques sobre a necessidade de mais tempo para análise das questões indicam que a discussão ainda está em aberto.
Outro ponto relevante é a divergência expressa pelo ministro André Mendonça, que sustentou a constitucionalidade do artigo 19 do Marco Civil. Mendonça argumentou que as plataformas devem ter o direito de proteger a liberdade de expressão, mantendo suas regras de moderação. Ele também se opõe à remoção de perfis, exceto nos casos de comprovação de falsidade.
Consequências para a liberdade de expressão
O julgamento atual tem implicações diretas na forma como as redes sociais operam em relação ao conteúdo gerado por usuários e à liberdade de expressão no Brasil. A discussão sobre a responsabilidade das plataformas está inserida em um contexto mais amplo de proteção dos direitos fundamentais, como a dignidade humana, destacando a necessidade de um equilíbrio entre liberdade e responsabilidade.
Barroso, em seu voto, defendeu um meio termo, argumentando que as plataformas devem ser responsabilizadas por conteúdos de terceiros caso não tomem as providências necessárias para sua remoção. Ele enfatizou que a inércia após a notificação constitui uma violação dos direitos fundamentais e das normas democráticas.
Além disso, o presidente do STF fez um apelo ao Congresso Nacional para que se estude a criação de um regime jurídico que regule adequadamente esse tema, estabelecendo as medidas necessárias para minimizar riscos, definir sanções e criar um órgão regulador responsável pela supervisão das plataformas.
O desenrolar desse julgamento promete impactar tanto as redes sociais quanto os usuários, moldando o futuro da interação digital e a forma como os conteúdos são moderados no Brasil. A definição de um modelo de responsabilização mais claro poderá não apenas garantir mais segurança jurídica para as vítimas de abusos online, mas também estabelecer novas diretrizes para as grandes plataformas digitais operando no país.