Usuários acusam o Twitter de racismo por priorizar pessoas brancas em prévias de fotos

Rede social afirmou que vai analisar algoritmo e abrir código para comunidade analisar

Publicado em 21 de setembro de 2020 às 13:33

- Atualizado há um ano

. Crédito: Reprodução

O Twitter divulgou nota afirmando que vai analisar os algoritmos que fazem recortes automáticos em fotos após uma série de denúncias de internautas mostrando uma tendência do sistema a privilegiar rostos de pessoas brancas em imagens que também trazem pessoas negras.

No final de semana, vários usuários da rede publicaram fotos para mostrar que, independente da ordem da foto, o Twitter tende a mostrar na prévia a pessoa brnaca. O recorte que aparece na timeline do usuário, antes dele clicar para ver a imagem completa, é automaticamente feita pelo Twitter.

Os testes coemçaram depois que um americano comentou sobre um problema que notou no sistema de reconhecimento facial do aplicativo de videochamadas Zoom, que apagava o rosto de pessoas negras ao inserir um pano de fundo automático. 

Quando publicou uma imagem para contar o problema no Twitter, reparou que o enquadramento da prévia dava destaque ao seu rosto, ao invés do colega negro.

A partir daí, muitos tuiteiros começaram a fazer testes similares. 

Em nota, o Twitter diz que fez testes antes de lançar a ferramenta e não percebeu "evidências de preconceito racial ou de gênero", mas que claramente há "mais análises a fazer". 

O site utiliza uma rede neural para realizar cortes automáticos nas prévias das imagens publicadas na plataforma desde 2018. Uma rede neural é um modelo computacional que reconhece padrões. No Twitter, o sistema usado busca saliências em imagens para tentar detectar o que há na foto que mais gere interesse.

Os sistemas são alimentados com bases de dados para fazer essa determinação. O Twitter afirmou que vai divulgar o código usado para que pessoas de fora passam analisar e revisar.

Veja nota completa do Twitter:Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, e abriremos o código para que outros possam revisá-lo.