Acesse sua conta
Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Recuperar senha
Preencha o campo abaixo com seu email.

Já tem uma conta? Entre
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Dados não encontrados!
Você ainda não é nosso assinante!
Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *
ASSINE

Relatório-bomba: Instagram falha em proteger adolescentes e expõe jovens a conteúdos perigosos

Investigação internacional revela que a maioria das ferramentas de segurança prometidas pela Meta não funciona como deveria, deixando menores vulneráveis a suicídio, automutilação e abusos online

  • Foto do(a) author(a) Flavia Azevedo
  • Flavia Azevedo

Publicado em 27 de setembro de 2025 às 06:00

Celular
Celular Crédito: Shutterstock

Um relatório publicado nesta quinta (25) por um consórcio de organizações de defesa da infância e centros acadêmicos concluiu que as ferramentas do Instagram destinadas a proteger adolescentes de conteúdos nocivos apresentam falhas generalizadas e, em muitos casos, simplesmente não existem na prática. A investigação - intitulada Teen Accounts, Broken Promises - avaliou 47 mecanismos de segurança relacionados a contas de jovens e concluiu que 30 deles eram “substancialmente ineficazes ou já não estavam disponíveis”, enquanto apenas oito funcionaram plenamente sem limitações.

O estudo foi coordenado pelo centro Cybersecurity for Democracy, com participação do denunciante e ex-executivo da Meta Arturo Béjar, e contou com a colaboração de organizações como Molly Rose Foundation, Fairplay e ParentsSOS, além de pesquisadores de universidades como Northeastern e NYU. A metodologia incluiu a criação de contas-teste que simulavam adolescentes para verificar sugestões algorítmicas, filtros de busca e mecanismos de moderação.

Série "Adolescência" revela o submundo das redes por Reprodução | Netflix

Segundo o relatório, essas contas passaram a receber sugestões de busca e conteúdos relacionados a suicídio, automutilação e distúrbios alimentares, além de serem alvo de comentários sexualizados por adultos. Os autores ressaltam ainda problemas estruturais: vários recursos anunciados pela empresa foram removidos, renomeados ou deixaram de operar como prometido; filtros e bloqueios foram facilmente contornados; e medidas concebidas para redirecionar usuários longe de conteúdo prejudicial nem sempre funcionaram.

Para grupos de defesa, essas lacunas decorrem de escolhas de design que privilegiam engajamento, o que limita a eficácia das proteções quando confrontadas com a lógica comercial da plataforma. Repercutiram no relatório depoimentos de familiares e representantes de organizações criadas após mortes de jovens expostas a conteúdo nocivo: Andy Burrows, da Molly Rose Foundation, afirmou que os achados mostram uma priorização do engajamento sobre a segurança e exigiu mudanças efetivas.

Pesquisadores envolvidos recomendaram também maior transparência nos testes e fiscalização regulatória para garantir que as funções anunciadas por empresas de tecnologia realmente protejam menores. A Meta repudiou as conclusões, afirmando que o relatório “distorce” o funcionamento das ferramentas e subestimou benefícios observados desde a implementação das contas adolescentes em 2024. Em comunicado, a empresa defendeu que configurações específicas para jovens reduzem a exposição a conteúdos sensíveis, limitam o contato indesejado e oferecem controles parentais mais simples; e acrescentou que algumas funcionalidades apontadas como ausentes foram integradas a outras ferramentas.

A divulgação do estudo reacende o debate regulatório internacional. No Reino Unido, a entrada em vigor do Online Safety Act transferiu para as agências reguladoras a responsabilidade de exigir conformidade técnica e de design por parte das plataformas.

Por Flavia Azevedo com agências