Cadastre-se e receba grátis as principais notícias do Correio.
Flavia Azevedo
Publicado em 27 de setembro de 2025 às 06:00
Um relatório publicado nesta quinta (25) por um consórcio de organizações de defesa da infância e centros acadêmicos concluiu que as ferramentas do Instagram destinadas a proteger adolescentes de conteúdos nocivos apresentam falhas generalizadas e, em muitos casos, simplesmente não existem na prática. A investigação - intitulada Teen Accounts, Broken Promises - avaliou 47 mecanismos de segurança relacionados a contas de jovens e concluiu que 30 deles eram “substancialmente ineficazes ou já não estavam disponíveis”, enquanto apenas oito funcionaram plenamente sem limitações. >
O estudo foi coordenado pelo centro Cybersecurity for Democracy, com participação do denunciante e ex-executivo da Meta Arturo Béjar, e contou com a colaboração de organizações como Molly Rose Foundation, Fairplay e ParentsSOS, além de pesquisadores de universidades como Northeastern e NYU. A metodologia incluiu a criação de contas-teste que simulavam adolescentes para verificar sugestões algorítmicas, filtros de busca e mecanismos de moderação.>
Adolescentes continuam vulneráveis nas redes sociais
Segundo o relatório, essas contas passaram a receber sugestões de busca e conteúdos relacionados a suicídio, automutilação e distúrbios alimentares, além de serem alvo de comentários sexualizados por adultos. Os autores ressaltam ainda problemas estruturais: vários recursos anunciados pela empresa foram removidos, renomeados ou deixaram de operar como prometido; filtros e bloqueios foram facilmente contornados; e medidas concebidas para redirecionar usuários longe de conteúdo prejudicial nem sempre funcionaram. >
Para grupos de defesa, essas lacunas decorrem de escolhas de design que privilegiam engajamento, o que limita a eficácia das proteções quando confrontadas com a lógica comercial da plataforma. Repercutiram no relatório depoimentos de familiares e representantes de organizações criadas após mortes de jovens expostas a conteúdo nocivo: Andy Burrows, da Molly Rose Foundation, afirmou que os achados mostram uma priorização do engajamento sobre a segurança e exigiu mudanças efetivas. >
Pesquisadores envolvidos recomendaram também maior transparência nos testes e fiscalização regulatória para garantir que as funções anunciadas por empresas de tecnologia realmente protejam menores. A Meta repudiou as conclusões, afirmando que o relatório “distorce” o funcionamento das ferramentas e subestimou benefícios observados desde a implementação das contas adolescentes em 2024. Em comunicado, a empresa defendeu que configurações específicas para jovens reduzem a exposição a conteúdos sensíveis, limitam o contato indesejado e oferecem controles parentais mais simples; e acrescentou que algumas funcionalidades apontadas como ausentes foram integradas a outras ferramentas.>
A divulgação do estudo reacende o debate regulatório internacional. No Reino Unido, a entrada em vigor do Online Safety Act transferiu para as agências reguladoras a responsabilidade de exigir conformidade técnica e de design por parte das plataformas.>
Por Flavia Azevedo com agências>