Acesse sua conta

Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google

Alterar senha

Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.

Recuperar senha

Preencha o campo abaixo com seu email.

Já tem uma conta? Entre

Alterar senha

Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.

Dados não encontrados!

Você ainda não é nosso assinante!

Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *

ASSINE

Parece, mas não é: falsos vídeos, fotos e áudios manipulados por inteligência artificial circulam pela internet

Veja como identificar itens da deepfake que vem criando ondas de golpes, desinformação e riscos para as vítimas

Publicado em 21 de outubro de 2024 às 08:56

Ferramentas de IA estão cada vez mais avançadas e a saída para combater as deepfakes é a prevenção, além do desenvolvimento de uma visão crítica sobre o que é fake e o que é real na internet
Ferramentas de IA estão cada vez mais avançadas e a saída para combater as deepfakes é a prevenção, além do desenvolvimento de uma visão crítica sobre o que é fake e o que é real na internet Crédito: Adobe Firefly

Nesta era super digital e marcada por selfs e vídeos curtos e velozes, muitas coisas parecem reais, porém, não passam de deepfakes. A técnica que, por meio de inteligência artificial, manipula imagens onde aparecem pessoas falando o que nunca disseram ou em atos que não cometerem, é disseminada em toda a internet com números de casos crescentes. Apesar de ainda não existirem estatísticas específicas do Brasil, o relatório internacional Sumsub Identity Fraud Report 2023, que analisou mais de dois milhões de tentativas de fraude em 224 países, indica que o Brasil apresentou o maior volume de fraudes sofisticadas, baseadas em inteligência artificial, na América Latina. O aumento de casos de deepfakes, entre 2022 e 2023, foi de 830%, o mais alto na América Latina. 

O relatório destaca que as  deepfakes aparecem em primeiro lugar entre as principais fraudes, seguidos por práticas como "money muling"- que é o recrutamento de pessoas para movimentar dinheiro ilícito em suas contas bancárias, facilitando a lavagem de dinheiro - e falsificação de documentos de identidade. Esses dados evidenciam que, apesar de a maioria dos casos conhecidos envolver figuras públicas, indivíduos comuns estão cada vez mais suscetíveis a serem vítimas de deepfakes.

Uma prova disso é que circularam em todo o país, há duas semanas, posts patrocinados no Instagram, com vídeos nos quais as apresentadoras Angélica e Sabrina Sato apareciam anunciando uma promoção de malas de uma marca de moda carioca. Para ganhar a desejada mala com estampas tropicais, a pessoa deveria responder uma pesquisa, informar seus dados e, por meio de um link, efetuar um pix para custear o envio do brinde. Puro golpe. Muitas pessoas caíram, porque os vídeos eram muito convincentes, só que as apresentadoras nunca os gravaram. 

Novela da vida real 

Além de promover golpes, perda de dinheiro e exposição de  dados pessoais, as deepfakes podem levar a muitas outras consequências sérias. Em 2022, a autora Glória Perez abordou o tema na novela Travessia, na qual a personagem Brisa (Lucy Alves) teve uma foto sua usada por montagem feita com aplicativo de IA e postada na rede, fazendo com que ela fosse confundida com uma sequestradora de crianças. No folhetim, a personagem foi perseguida pelas ruas, apanhou, foi presa e chegou a perder a guarda do próprio filho. Um alerta da autora para os perigos que estavam por vir. 

Outra prova de que a internet não é para amadores foi a situação enfrentada pela cantora Taylor Swift, em janeiro deste ano. No auge da carreira, a artista teve falsas imagens sexuais exibidas na rede. Um dos conteúdos feitos com IA teve 47 milhões de visualizações em menos de 24 horas, antes de ser retirado do X, antigo Twitter. E não para por aí, há uma série de vídeos, sobretudo, no YouTube, de falsos romances entre artistas, e até vozes de cantores famosos em músicas que jamais gravaram, a exemplo, do membro do BTS, JungKook, cantando a canção Die With a Smile (Lady Gaga e Bruno Mars), que foi lançada recentemente quando ele já estava afastado das atividades artísticas e servindo ao exercício Sul coreano. 

 Por falar em Coreia do Sul, atrizes de Doramas, idols de K-Pop e até mulheres do exército não escaparam das deepfakes. Nos últimos tempos, com o sucesso dos K-dramas e dos grupos musicais femininos, inúmeros falsos vídeos sexuais com suas imagens invadiram os grupos do Telegram. Os chamados NTH Rooms - grupos de homens que postam e consomem imagens pornográficas de mulheres -  têm usado as falsas montagens digitais.  A pesquisadora sobre  cultura coreana, Thaís Midori, publicou em seu canal a informação de que 96% das deepfakes que circulam na internet hoje têm objetivos pornográficos e 25% delas envolvem mulheres Sul coreanas. 

A onda dos grupos de Telegram chegou às escolas, atingindo os jovens, que manipulam imagens de colegas, professoras, funcionárias, irmãs e mães de outros membros dentro desses grupos. Já foram mapeadas  mais de 200 escolas, onde hoje há mulheres vítimas dessas ações e chantagens. O exército retirou de suas páginas as fotografias das mulheres que estão em serviço militar, e muitos protestos estão acontecendo para pedir ao governo uma atitude de defesa a elas e punição a quem comete e/ou dissemina os crimes.

Recentemente no Brasil, a apresentadora Sandra Annemberg também usou as redes socais para anunciar que foi vítima de deepfake. Um vídeo que ela havia feito para o Globo Repórter foi adulterado com um texto que ela nunca disse para aplicar golpes, utilizando sua credibilidade de anos de televisão. “Estou me sentindo ultrajada. Pior de tudo é que tem gente caindo nessa fraude e isso é muito grave, muito triste. Gente que por acreditar em mim acha que está vendo algo verdadeiro e cai em uma propaganda enganosa. Isto é crime”, alertou ela. 

Elevar olhar crítico para não cair em golpe 

Qualquer pessoa com acesso à internet pode ser vítima ou consumidor deepfakes, principalmente o público jovem que passa muito tempo on-line. Por isso, um trabalho de conscientização nas escolas tem sido proposto e reforçado pelo Instituto Palavra Aberta, por meio do seu projeto EducaMídia, que propaga a importância da educação midiática.

De acordo com Daniela Machado, coordenadora de educação do Instituto Palavra Aberta, antes o nível básico de cuidado e atenção era observar detalhes desses vídeos, como falta de sincronia entre a fala e os movimentos da boca ou expressões faciais, falhas nas extremidades das imagens, iluminação inconsistente e presença de sombras não condizente com a imagem mostrada.

A grande questão é que as ferramentas de inteligência artificial, que permitem a geração de deepfakes estão cada vez mais sofisticadas e acessíveis, então, muitos desses erros e dessas falhas que eram mais perceptíveis a olho nu, vão deixando de existir, porque os programas estão aprimorados, tornando a identificação mais difícil. 

“É aí que entra a parte decisiva do olhar crítico que a gente prega na educação midiática, para refletir sobre o contexto daquela informação, imagem, daquele vídeo ou daquele áudio: ele está trazendo alguma revelação que pode acabar com a reputação de alguém? Quem é que está ganhando com este conteúdo ou, por outro lado, quem é que está sendo prejudicado? Tem alguma figura pública sendo exposta ou alguém que você conhece ? Parece realmente algo que aquela pessoa que você conhece faria?  O que você sabe sobre a fonte de onde surgiu este conteúdo? E aquelas alegações que estão sendo feitas, tem alguma evidência  para provar que a aquilo realmente foi falado? Será que essa informação não pode ser encontrada em fontes, em sites jornalísticos já conhecidos e confiáveis? Este olhar mais crítico vai  tentar constituir ali o contexto da informação e  isso vai ser cada vez mais decisivo, à medida que aquelas falhas mais técnicas vão sendo corrigidas com o avanço desta tecnologia”, ensina Daniela Machado. 

Ela destaca, ainda, que muitas plataformas têm trabalhado para que a informação seja cada vez mais clara e já se pensa em criar maneiras de deixar o uso da IA mais transparente, como por exemplo, colocando um selo ou marca d’agua na informação gerada por IA. Na dúvida, recomenda, a melhor opção é sempre não passar adiante o que não se tem certeza. 

OAB se mantém atenta ao cenário 

 Não só os famosos estão expostos aos riscos das deepfakes, mas indivíduos comuns têm cada vez mais chances de  serem vítimas desses crimes, por conta da facilidade de acesso às tecnologias de inteligência artificial e à ampla disponibilidade de imagens pessoais nas redes sociais, aumentando este risco. Por conta disso, a Comissão Permanente de Tecnologia e Informação da Ordem dos Advogados - Seccional Bahia vem atuando para combater este quadro. A advogada, professora especialista em Cybercrimes e Presidente da Comissão Permanente de Tecnologia e Informação da OAB Bahia, Tamíride Monteiro, ressalta que a “Comissão está atenta a essa realidade e tem buscado parcerias com instituições acadêmicas e organizações internacionais para aprofundar o entendimento sobre o cenário nacional e regional. Reconhecemos a importância de coletar dados precisos para embasar políticas públicas eficazes e promover a atualização do arcabouço legal, visando enfrentar os desafios impostos por essa tecnologia emergente”. 

Para evitar cair em deepfakes, o melhor caminho é a prevenção, como explica Victor Habib Lantyer, advogado, professor, autor e pesquisador em Direito Digital e Inteligência Artificial e coordenador de Inteligência Artificial da Comissão Permanente de Tecnologia e Informação da OAB Bahia. “Recomenda-se limitar a exposição de informações pessoais na internet, evitando o compartilhamento excessivo de fotos e vídeos em plataformas públicas. Manter as configurações de privacidade restritas nas redes sociais e ser criterioso quanto às permissões concedidas a aplicativos também são medidas importantes”, destaca. 

Ele frisa ainda que, no âmbito da segurança digital, é aconselhável utilizar autenticação de dois fatores em contas online e estar atento a possíveis tentativas de phishing que busquem coletar dados pessoais. “Educar-se e educar aqueles ao seu redor sobre os riscos e sinais de deepfakes pode contribuir para uma cultura de maior vigilância e proteção coletiva”, diz. 

No caso de ser vítima de deepfake, os seguintes passos são recomendados:

Coletar evidências: Documente todas as formas possíveis de prova, incluindo arquivos originais, metadados, registros de conversas e quaisquer interações relacionadas ao conteúdo. Essas evidências serão cruciais em investigações e processos judiciais;

Registrar um boletim de ocorrência: Procure uma delegacia especializada em crimes cibernéticos, como a Delegacia de Repressão aos Crimes de Informática. O registro formal é essencial para que as autoridades competentes possam atuar;

Buscar assistência legal: Consulte um advogado especializado em direito digital para orientações específicas. O profissional poderá auxiliar na tomada de medidas judiciais adequadas, como ações civis e criminais, além de orientá-lo sobre seus direitos;

Solicitar a remoção do conteúdo: Entre em contato com os provedores de serviços de internet e plataformas de mídia social onde a deepfake foi publicada. De acordo com o Marco Civil da Internet (Lei nº 12.965/2014), os provedores devem remover conteúdos mediante ordem judicial, mas muitos possuem políticas internas que permitem a remoção voluntária em casos de violação de direitos.

O que a lei prevê para crimes de internet 

A legislação brasileira, apesar de não ter uma norma específica sobre deepfakes, oferece mecanismos jurídicos para punir atos lesivos decorrentes dessa prática. Os crimes contra a honra (calúnia, difamação e injúria), previstos nos artigos 138 a 140 do Código Penal, podem ser aplicados quando a deepfake causa dano à reputação ou dignidade da vítima; 

A Lei Carolina Dieckmann (Lei nº 12.737/2012) tipifica crimes relacionados à invasão de dispositivos informáticos, podendo ser aplicada se a obtenção de imagens ou vídeos utilizados na deepfake ocorreu por meio de acesso não autorizado a dispositivos da vítima; 

A Lei Geral de Proteção de Dados Pessoais (LGPD) (Lei nº 13.709/2018) estabelece diretrizes para o tratamento adequado de dados pessoais. O uso indevido de imagens e informações pessoais em deepfakes pode constituir infração à LGPD, sujeitando os responsáveis a sanções administrativas e obrigando a reparação de danos; 

Em casos que envolvem menores de idade, o Estatuto da Criança e do Adolescente (ECA) prevê punições severas para a produção, distribuição e posse de conteúdo pornográfico envolvendo crianças e adolescentes, incluindo materiais manipulados digitalmente.