Taylor Little, uma adolescente de 13 anos, conta sua experiência devastadora após uma tentativa de suicídio em novembro de 2015, que quase terminou fatalmente após dias em coma induzido. A jovem, que se identifica como não binária e usa pronomes they/them, revela que o impacto do conteúdo do Instagram foi fundamental na sua batalha contra a saúde mental.
O papel do Instagram na formação de pensamentos suicidas de Taylor Little
Desde os 11 anos, Little utilizava o Instagram, onde teve seu primeiro contato com vídeos e imagens de automutilação. Segundo a própria, muita da sua equipe de pensamentos suicidas foi estimulada pelo conteúdo presente na plataforma. Após anos de luta e tentativas de autoagressão, Little conseguiu estabilizar-se ao abandonar completamente as redes sociais.
“O fato de eu ser obsessivamente suicida naquela fase não era apenas minha química cerebral, era minha química cerebral sendo alterada pela plataforma que eu usava”, afirma Little. Eles acreditam que o impacto do Instagram agravou seus problemas de saúde mental, perpetuando pensamentos de morte e contribuindo para sua tentativa de suicídio.
Processo contra gigantes da tecnologia e responsabilização social
Atualmente, Little está entre mais de 1.800 pessoas que ingressaram com uma ação contra empresas de tecnologia, incluindo o Instagram e Meta, o grupo responsável pela rede social. Os processos alegam que essas empresas negligenciaram os efeitos prejudiciais de seus produtos sobre a saúde mental de crianças e adolescentes, além de terem feito escolhas de design que incentivariam o consumo de conteúdo perigoso.
O processo busca responsabilizar o Instagram por liberar conteúdo que, segundo os autores, é viciante, prejudicial e até fatal. Little afirma que o feed da sua conta foi repleto de imagens de suicídio, automutilação e mensagens que moldaram sua perspectiva de vida e morte.
Medidas e respostas das empresas de tecnologia
De acordo com um porta-voz do Meta, o conteúdo que incentiva o suicídio ou automutilação viola regras da plataforma. Sistemas de moderação humana revisam esse tipo de conteúdo de forma prioritária, podendo removê-lo, orientar o usuário ou acionar os serviços de emergência. Segundo a empresa, ela evoluiu sua abordagem ao monitoramento de conteúdo sensível ao longo dos últimos anos, implementando novas salvaguardas para usuários menores de 18 anos em janeiro de 2024.
Essas medidas incluem a proibição de grande parte de conteúdos considerados perigosos para adolescentes e o lançamento de Contas para Adolescentes, com configurações automáticas de proteção. “Queremos oferecer uma experiência mais segura para os jovens, com controles e supervisão dos pais”, afirma Liza Crenshaw, porta-voz do Meta.
O impacto irreparável na vida de Taylor Little
Para Little, essas mudanças aconteceram tarde demais. Seus dias e noites eram passados navegando pelo feed do Instagram, que na época apresentava imagens de garotas caindo de prédios, vídeos de cortes na própria pele e fotos estilizadas de corpos pendurados, acompanhadas de músicas suaves e cenas perturbadoras.
Hoje, Little busca conscientizar sobre os efeitos do conteúdo de plataformas digitais na vulnerabilidade de jovens, defendendo maior responsabilidade das empresas de tecnologia na proteção da saúde mental das novas gerações.