Ataque Falso a Maduro Gera Onda de Desinformação nas Redes Sociais
Rumores sobre um suposto ataque dos Estados Unidos à Venezuela e a consequente captura de Nicolás Maduro, ocorridos no último sábado, 3, desencadearam uma avalanche de notícias falsas nas redes sociais. Especialistas alertam que muitos desses conteúdos foram criados com inteligência artificial ou utilizam vídeos antigos fora de contexto para enganar o público.
As informações falsas se concentram principalmente em duas frentes: imagens geradas por inteligência artificial e vídeos autênticos, mas apresentados como se fossem recentes. Essas táticas visam manipular a opinião pública e disseminar desinformação sobre a situação política na Venezuela.
O Fato ou Fake, serviço de checagem do G1, investigou diversas publicações virais e expôs as mentiras por trás delas. Acompanhe os detalhes para não cair em armadilhas de desinformação.
Imagens Geradas por IA: A Foto Enganosa de Maduro Capturado
Uma foto que supostamente mostrava Nicolás Maduro sendo levado por agentes americanos após uma captura pelos EUA viralizou rapidamente em plataformas como X, YouTube, Facebook, Threads e Instagram. A legenda afirmava ser a primeira imagem divulgada do ditador venezuelano preso pelas forças militares americanas.
No entanto, a análise do Fato ou Fake, utilizando a ferramenta SynthID Detector do Google, confirmou que a imagem foi gerada por inteligência artificial. O resultado da análise foi claro: “Feito com IA do Google (vídeo) – Synth ID identificado em todo ou parte do conteúdo carregado”.
Adicionalmente, a primeira foto real de Maduro divulgada após sua suposta captura, publicada por Donald Trump, exibe o líder venezuelano com óculos escuros, protetores de ouvido e aparentemente algemado, vestindo um moletom. Essa imagem difere drasticamente da foto enganosa, onde Maduro aparece de camisa branca e casaco preto.
Vídeos Antigos Fora de Contexto: Derrubada de Estátua de Chávez
Outra frente de desinformação envolve um vídeo que mostra manifestantes venezuelanos derrubando uma estátua de Hugo Chávez, ex-presidente da Venezuela e mentor político de Maduro. Posts falsos alegavam que o registro era recente, associando-o à suposta captura de Maduro.
A realidade, conforme apurado pelo Fato ou Fake, é que as imagens são de 29 de julho de 2024, dia das eleições presidenciais venezuelanas. Naquela data, manifestantes derrubaram uma estátua de Chávez na cidade de Calabozo, e outras quatro estátuas em homenagem ao ex-presidente foram vandalizadas no país.
Para verificar a origem do vídeo, a equipe utilizou a ferramenta InVID, fragmentando o material em quadros estáticos e realizando uma busca reversa no Google Lens. Essa metodologia permitiu identificar que o conteúdo já havia sido reproduzido em fontes confiáveis, mas em um contexto diferente.
Helicóptero Militar em Treinamento, Não em Ataque
Um vídeo que mostra um helicóptero militar Boeing CH-47 Chinook se aproximando do topo de um prédio durante a noite, lançando e içando uma corda, também foi divulgado como se fosse parte do suposto ataque americano à Venezuela. A legenda afirmava que eram “registros incríveis da Venezuela”.
A investigação do Fato ou Fake revelou que as imagens, na verdade, são de um treinamento militar realizado entre 24 e 25 de janeiro de 2023, em Miami, e não têm qualquer relação com os eventos recentes em Caracas.
Montagem com Ratinho e Ursinho Pooh: Sátira Transformada em Fake News
Uma publicação no X alegava que a TV chilena havia confundido Nicolás Maduro com o apresentador brasileiro Ratinho. A imagem mostrava um apresentador apontando para um telão com a manchete “Aliados da Rússia”, exibindo fotos do Ursinho Pooh (como Xi Jinping), Aleksandr Lukashenko, Ratinho (supostamente Maduro) e Ebrahim Raisi.
O Fato ou Fake desmentiu a informação, explicando que se tratava de uma montagem satírica. A imagem original, encontrada através de uma busca no Google por “meganoticias chile los aliados de rusia y ucrania”, exibia as fotos corretas dos líderes mundiais, e não as de Ratinho e do Ursinho Pooh.
Declaração de Lula Fora de Contexto
Um vídeo com declarações do presidente Luiz Inácio Lula da Silva sobre a Venezuela, publicado no X, também foi utilizado para disseminar desinformação. A legenda afirmava que Lula estava “irritado ao falar sobre a Venezuela”.
A entrevista em questão ocorreu em 30 de setembro de 2024, no México, onde Lula participaria da posse da presidente Claudia Sheinbaum. A Secretaria de Comunicação da Presidência da República repudiou a divulgação de boatos falsos com objetivos políticos, afirmando que a publicação visa desinformar e manipular a opinião pública.
Protestos na Venezuela e Falsas Ameaças do MST
Vídeos de manifestantes derrubando pôsteres de Maduro em protestos em Maracay, em julho de 2024, foram apresentados como se fossem recentes comemorações da prisão do ditador. Além disso, um vídeo gerado por inteligência artificial simulava uma ameaça do MST de invadir os Estados Unidos para libertar Maduro, algo que o próprio movimento desmentiu veementemente.
O Fato ou Fake utilizou ferramentas de detecção de IA e buscas reversas para desmascarar essas e outras notícias falsas, reforçando a importância da verificação de informações em tempos de rápida disseminação de conteúdo online.
Vídeo de Apagão na Itália Usado como Ataque em Caracas
Uma filmagem de um apagão surpreendendo um homem em uma rua iluminada, com gritos e sirenes ao fundo, foi divulgada como se fosse o momento de ataques com bombas americanas em Caracas. A investigação do Fato ou Fake revelou que o vídeo, na verdade, é de um youtuber argentino, Geronimo “Momo” Benavides, durante uma viagem pela Itália, especificamente na região de Nápoles.