Receba por email.
Cadastre-se e receba grátis as principais notícias do Correio.
Rede social afirmou que vai analisar algoritmo e abrir código para comunidade analisar
Publicado em 21 de setembro de 2020 às 13:33
- Atualizado há um ano
O Twitter divulgou nota afirmando que vai analisar os algoritmos que fazem recortes automáticos em fotos após uma série de denúncias de internautas mostrando uma tendência do sistema a privilegiar rostos de pessoas brancas em imagens que também trazem pessoas negras.
No final de semana, vários usuários da rede publicaram fotos para mostrar que, independente da ordem da foto, o Twitter tende a mostrar na prévia a pessoa brnaca. O recorte que aparece na timeline do usuário, antes dele clicar para ver a imagem completa, é automaticamente feita pelo Twitter.
Os testes coemçaram depois que um americano comentou sobre um problema que notou no sistema de reconhecimento facial do aplicativo de videochamadas Zoom, que apagava o rosto de pessoas negras ao inserir um pano de fundo automático.
Quando publicou uma imagem para contar o problema no Twitter, reparou que o enquadramento da prévia dava destaque ao seu rosto, ao invés do colega negro.
A partir daí, muitos tuiteiros começaram a fazer testes similares.
Em nota, o Twitter diz que fez testes antes de lançar a ferramenta e não percebeu "evidências de preconceito racial ou de gênero", mas que claramente há "mais análises a fazer".
O site utiliza uma rede neural para realizar cortes automáticos nas prévias das imagens publicadas na plataforma desde 2018. Uma rede neural é um modelo computacional que reconhece padrões. No Twitter, o sistema usado busca saliências em imagens para tentar detectar o que há na foto que mais gere interesse.
Os sistemas são alimentados com bases de dados para fazer essa determinação. O Twitter afirmou que vai divulgar o código usado para que pessoas de fora passam analisar e revisar.
Veja nota completa do Twitter:Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, e abriremos o código para que outros possam revisá-lo.