Instragram proíbe publicação de imagens de autoflagelação

Publicações com pessoas se machucando, como atos de cortar partes de corpo, serão proibidas na rede social

Publicado em 10 de fevereiro de 2019 às 09:55

- Atualizado há um ano

. Crédito: Shutterstock/Divulgação

O Instagram anunciou que passará a ter mecanismos para restringir imagens que estimulem a autoflagelação e o suicídio. Imagens de pessoas se machucando, como atos de cortar partes de corpo, serão proibidas na rede social.

As medidas foram uma reação à morte de uma adolescente de 14 anos no Reino Unido, no mês passado. Após o suicídio, o caso gerou questionamentos sobre o papel do Instagram, pela presença no perfil da moça de conteúdos mostrando formas de autoflagelação e relacionados ao suicídio. O pai da jovem, em entrevista a veículos de mídia, responsabilizou diretamente a plataforma.

Além disso, outros conteúdos relacionados a essas práticas, inclusive textos, não serão disponibilizadas nas buscas. Essas mensagens, contudo, não serão removidas das redes sociais. O Instagram justificou que a publicação de mensagens nesse sentido pode ter um papel de expressão em pessoas que estejam convivendo com sofrimento e sentimentos como esses.

Antes, a plataforma já proibia conteúdos que promovessem essas práticas. Mas permitia mensagens relacionadas à admissão delas (como uma pessoa relatando um desejo ou uma tentativa), como forma de alertar amigos e familiares para reagir e prestar apoio.

Orientações de especialistas Segundo o Facebook, empresa controladora do Instagram, as mudanças foram formuladas a partir do diálogo com especialistas no tema, de diferentes países. Eles teriam indicado o efeito negativo da circulação de imagens de práticas de autoflagelação, como cortes. Elas “podem ter um potencial de promover não intencionalmente a autoflagelação, mesmo quando são compartilhadas no contexto da admissão da prática ou no caminho para uma recuperação”, explicou o diretor global de Segurança do Facebook, Antigone Davis.

Ele acrescentou que a equipe das plataformas ainda avalia como tratar imagens de cicatrizes. Segundo o diretor, os especialistas consultados indicaram ainda polêmicas nos estudos acadêmicos sobre os efeitos desse tipo de imagem em pessoas suscetíveis a cometer algum ato relacionado à prática.

As duas redes sociais, completou Davis, continuarão fornecendo recursos para dar apoio em situações de sofrimento, como a disponibilização, de forma acessível., de “linhas de ajuda” a pessoas nas plataformas.

Transparência Na avaliação da pesquisadora de proteção de dados Marina Pita, do Instituto Alana, decisões como essa mostram a importância da transparência por parte das plataformas no que se refere às remoções de conteúdos e aos critérios usados nessas medidas. A cobrança por critérios mais claros das redes sociais vêm sendo uma demanda não somente no Brasil, como em outros países.

Além disso, acrescentou Pita, há a necessidade de discutir a lógica de funcionamento dos algoritmos de curadoria dos conteúdos mostrados aos usuários. Isso porque ao identificar uma vulnerabilidade ou condição psicológica de uma pessoa, especialmente adolescentes, o sistema passa a privilegiar conteúdos relacionados. “A plataforma, a partir da visualização de um conteúdo, identifica que aquele adolescente tem interesse naquele tipo de imagem e vai reforçar isso”, alerta a pesquisadora.

Isso ocorre, completou, em casos em que muitas vezes os usuários das redes sociais não têm consciência dessa forma de funcionamento. Por isso, é importante discutir de forma transparente não somente medidas como a anunciada, mas a própria dinâmica de segmentação dos usuários e de veiculação de publicidade a partir dela, que pode ter efeitos prejudiciais sobre os internautas.