Golpistas estão utilizando Inteligência Artificial (IA) para criar vídeos falsos envolvendo personalidades de diferentes campos da política brasileira, desde o presidente Luiz Inácio Lula da Silva (PT) até um de seus principais opositores, o deputado federal Nikolas Ferreira (PL). As imagens manipuladas são divulgadas como propaganda no Instagram e promovem uma falsa indenização do Governo Federal, supostamente para compensar um vazamento de dados pessoais de brasileiros.
Um dos vídeos mostra um deepfake de Lula afirmando que os cidadãos poderiam receber até R$ 7 mil de indenização, direcionando os espectadores para um link suspeito. Outra versão da fraude usa a imagem de Nikolas Ferreira, que aparece anunciando um programa falso no qual o valor do benefício dependeria do número final do CPF (contemplando absolutamente todos). As imagens também envolvem o jornalista César Tralli e o ministro da Fazenda, Fernando Haddad, simulando recomendações em que eles supostamente divulgam a existência do benefício.
Golpe – Os vídeos patrocinados no Instagram levam os usuários a clicar em um link para “consultar” o valor disponível para saque. Ao acessar a página, que utiliza ilegalmente a identidade visual do governo federal, os internautas são induzidos a inserir seus dados pessoais, especialmente o CPF. Essas informações podem ser usadas para criar cadastros falsos, solicitar créditos em nome das vítimas ou realizar outras fraudes financeiras.
A Secretaria de Comunicação do governo federal já desmentiu a existência do benefício e alertou para o risco do golpe. O deputado Nikolas Ferreira também se manifestou, publicando um aviso em suas redes sociais informando que a gravação é falsa. “Nos meus perfis, eu só divulgo meus livros e cursos. Qualquer coisa fora disso é golpe”, alertou.
Deepfake – O uso de deepfakes tem crescido significativamente como ferramenta de fraude. Com avanços na inteligência artificial, criminosos conseguem criar vídeos extremamente realistas, manipulando voz e imagem de figuras públicas para dá-los credibilidade. A ferramenta Hive AI Detector, especializada na identificação desse tipo de manipulação, apontou uma probabilidade de 99,4% de que os vídeos utilizados pelos golpistas tenham sido gerados por IA. Este golpe não é um caso isolado. Deepfakes semelhantes já foram utilizados para espalhar desinformação e fraudes em outros momentos, sempre explorando a imagem de figuras conhecidas para atrair vítimas.
Proteção – Diante do avanço dessas fraudes, especialistas recomendam que os usuários sigam algumas precauções para evitar cair em golpes semelhantes: Desconfie de promessas de dinheiro fácil: O governo não concede indenizações sem um processo oficial, amplamente divulgado pelos canais oficiais; verifique a origem das informações:
Antes de clicar em links suspeitos, cheque se a notícia foi divulgada por portais confiáveis; analise o site: Sites oficiais do governo têm endereços que terminam em “.gov.br”. Se o link tiver domínios diferentes, é provável que seja uma fraude; denuncie vídeos suspeitos: Caso veja propagandas falsas no Instagram, denuncie à plataforma para que o conteúdo seja removido; proteja seus dados pessoais: Nunca informe CPF, senhas ou outras informações sensíveis em sites de procedência duvidosa.
Se você quer ficar por dentro de tudo que acontece na política do nosso Estado, clique aqui, cadastre-se e receba diariamente as atualizações do Blog da Folha no seu email.
Folha PE