Skip to main content

Os Casos de Desinformação Mais Significativos Desmentidos em 2024

2024 foi um ano de eleições — e um ano de desinformação em volume recorde. Em quatro grandes votações democráticas, dois conflitos em curso e o primeiro grande desdobramento de meios de comunicação sintéticos gerados por IA, os verificadores de factos documentaram padrões que irão moldar o ambiente informativo durante anos. Esta análise cobre os casos que mais importaram.

Por Que 2024 Foi Diferente

O volume por si só não distinguiu 2024. A mudança fundamental foi a convergência de três fatores em simultâneo: os calendários eleitorais nos EUA, na UE, no Reino Unido e na Índia criaram oportunidades de targeting coordenado; as ferramentas de geração por IA atingiram limiares de qualidade que tornaram o conteúdo sintético plausível para observadores casuais; e a moderação das plataformas — segundo a avaliação do próprio Reuters Institute no Relatório de Notícias Digitais de 2024 — tornou-se menos consistente, não mais.

O Reuters Institute inquiriu cerca de 100.000 respondentes em 47 mercados e concluiu que a preocupação com a desinformação aumentara mais do que em qualquer ano desde a pandemia de COVID-19 — com o conteúdo gerado por IA citado como principal fator. A confiança nas notícias em geral manteve-se nos 40%, quatro pontos abaixo do pico de 2020. Mais de um quarto dos utilizadores de notícias no TikTok (27%) relatou dificuldades em identificar conteúdo fidedigno — o valor mais elevado de todas as plataformas inquiridas.

O que se segue não é um catálogo exaustivo. É uma seleção de casos documentados e desmentidos, organizados por categoria — escolhidos por ilustrarem os padrões dominantes, não por terem sido os mais virais.

Desinformação Eleitoral: Estados Unidos

As eleições presidenciais americanas produziram o maior volume individual de alegações desmentidas do ano. Três categorias dominaram: endossos sintéticos gerados por IA, alegações de fraude nos sistemas de votação e operações de desinformação de estados estrangeiros.

O Endosso Falso de Taylor Swift por IA

Em agosto de 2024, a campanha de Donald Trump partilhou no Truth Social imagens geradas por IA representando a pop star Taylor Swift a sugerir o apoio à candidatura de Trump. As imagens eram visualmente grosseiras mas espalharam-se rapidamente. Swift não apoiou Trump — apoiou publicamente Kamala Harris em setembro de 2024. O episódio foi significativo não porque alguém tenha provavelmente sido enganado pelas imagens específicas, mas porque normalizou o uso de imagens de celebridades sintéticas em mensagens políticas sem divulgação.

A Chamada Automática com Voz Clonada de Biden no New Hampshire

Em janeiro de 2024, antes das primárias democratas do New Hampshire, uma chamada automática com uma voz clonada do Presidente Biden contactou democratas registados apelando a que «ficassem em casa» e não votassem. O áudio foi gerado com síntese de voz por IA disponível comercialmente. A Comissão Federal de Comunicações (FCC) declarou posteriormente ilegais as vozes geradas por IA em chamadas automáticas ao abrigo da Lei de Proteção dos Consumidores de Telefone — a primeira ação regulatória deste tipo. O consultor político por detrás da chamada foi identificado e enfrentou acusações criminais no New Hampshire.

Operações Russas de Doppelganger

O Departamento de Justiça apreendeu 32 domínios de internet em setembro de 2024 ligados à operação Doppelganger da Rússia — uma rede de sites a imitar meios de comunicação legítimos, incluindo o Washington Post, a Fox News e o Bild, para difundir narrativas pró-Kremlin. Em outubro de 2024, o FBI atribuiu publicamente várias alegações falsas virais — incluindo um vídeo que supostamente mostrava boletins de voto de Trump a ser destruídos — a atores estatais russos. O Relatório de Ameaças Adversariais do terceiro trimestre de 2024 da Meta documentou que, desde 2017, a Rússia havia gerado 39 operações de comportamento inautêntico coordenado (CIB) identificadas — mais do que qualquer outro país.

A Narrativa dos «Imigrantes e os Animais de Estimação»

Alegações de que imigrantes haitianos em Springfield, Ohio, estavam a comer animais de estimação circularam amplamente em setembro de 2024, amplificadas por figuras políticas proeminentes. O governo municipal, a polícia e os meios de comunicação locais de Springfield confirmaram que nenhum desses incidentes tinha sido relatado ou verificado. O Snopes, o FactCheck.org e o PolitiFact classificaram todas as alegações como falsas em menos de 48 horas. O episódio ilustrou como a desinformação viral pode semear-se a partir de uma única publicação não verificada, ganhar credibilidade através da amplificação política e revelar-se difícil de retratar uma vez incorporada nos ecossistemas mediáticos partidários.

Desinformação Eleitoral: Europa

As eleições para o Parlamento Europeu de junho de 2024 geraram desinformação coordenada em escala. As operações mais sistemáticas vieram de redes pró-russas, mas atores domésticos também realizaram campanhas direcionadas.

A Rede Pravda

O EU DisinfoLab e o Observatório Europeu dos Meios de Comunicação Digitais (EDMO) documentaram a rede de desinformação «Pravda» — um conjunto de mais de 50 sites de notícias imitadores que se faziam passar por meios de comunicação regionais europeus. Inicialmente direcionada a audiências de língua alemã, a rede expandiu-se para conteúdo em francês, italiano, polaco e checo antes das eleições de junho. Os artigos eram, na sua maioria, conteúdo de meios de comunicação estatais russos traduzido automaticamente e reembalado com nomes de domínio de aspeto local. A Meta aprovou 275 anúncios políticos ligados a contas adjacentes à rede que não tinham as isenções obrigatórias de transparência da UE, alcançando mais de três milhões de utilizadores em Itália, Alemanha, França e Polónia antes da remoção.

Eleições no Reino Unido: Áudio Deepfake de Sadiq Khan

Um clipe de áudio gerado por IA, falsamente atribuído ao Presidente da Câmara de Londres Sadiq Khan, circulou nas redes sociais antes das eleições londrinas de maio de 2024. O clipe representava Khan a fazer declarações inflamatórias sobre a prioridade dos protestos pró-palestinianos relativamente ao Dia do Armistício — declarações que nunca fez. O próprio Khan descreveu o clipe como tendo quase causado «distúrbios graves». Investigadores do Centro de Tecnologia Emergente e Segurança (CETAS) do Instituto Alan Turing identificaram 16 casos confirmados de desinformação viral por IA nas eleições gerais britânicas — um número que consideraram significativo dado o quão recentemente a tecnologia se tornara acessível.

Eleições no Reino Unido: Anúncios Deepfake de Rishi Sunak

Para além do áudio de Khan, clipes de vídeo gerados por IA representando o então Primeiro-Ministro Rishi Sunak a promover esquemas de investimento fraudulentos circularam no Facebook e no YouTube. Os clipes utilizavam clonagem de voz realista e manipulação de vídeo. Nem a Meta nem a Google removeram todas as instâncias antes de estas terem acumulado contagens de visualizações substanciais. Os investigadores do CETAS observaram que, embora nenhum dos deepfakes britânicos de 2024 parecesse ter alterado resultados eleitorais mensuráveis, estabeleceram um modelo para operações futuras — e elevaram o limiar do que os eleitores precisarão de verificar antes de confiar em conteúdo audiovisual político.

Desinformação sobre Saúde: Narrativas Pós-COVID

A desinformação sobre vacinas não terminou quando a emergência aguda da COVID-19 acabou. Em 2024, um conjunto de narrativas falsas persistentes continuou a circular — muitas inalteradas desde 2021, algumas atualizadas com novos enquadramentos pseudo-científicos.

A Ligação entre mRNA e Cancro

Um artigo de preprint circulou amplamente no início de 2024 alegando que as vacinas de mRNA contra a COVID-19 causavam «cancro turbo» — malignidades anormalmente agressivas. A equipa SciCheck do FactCheck.org analisou o artigo e concluiu que os seus autores incluíam indivíduos com histórias documentadas de promoção de desinformação sobre vacinas, que a sua metodologia não tinha sido sujeita a revisão por pares, e que as suas conclusões contradiziam múltiplos estudos epidemiológicos de grande escala. O Vaccine Safety Datalink do CDC, que monitoriza eventos adversos em milhões de doentes vacinados, não encontrou qualquer sinal ligando as vacinas de mRNA ao aumento da incidência ou agressividade do cancro. A narrativa foi classificada como desinformação pelo FactCheck.org, pela Science Feedback e pela Mayo Clinic.

Alegações de Infertilidade por Vacinas Revisitadas

As alegações de que as vacinas contra a COVID-19 causavam infertilidade — desmentidas múltiplas vezes desde 2021 — ressurgiram em 2024, frequentemente associadas a novos estudos descontextualizados. Uma revisão sistemática e meta-análise publicada na revista Human Reproduction Update examinou 18 estudos abrangendo 35.000 participantes e não encontrou qualquer associação estatisticamente significativa entre a vacinação contra a COVID-19 e a redução da fertilidade em homens ou mulheres. A OMS e o CDC emitiram orientações atualizadas reafirmando a segurança das vacinas para pessoas em idade fértil. A persistência desta alegação, apesar de repetidos e abrangentes desmentidos, ilustra o que os investigadores denominam o problema das «narrativas zombie»: alegações falsas sobre saúde que não podem ser eliminadas permanentemente porque ressoam com ansiedades pré-existentes.

Negação do Long COVID

Em 2024 emergiu uma contra-narrativa alegando que o Long COVID era primariamente uma condição psicossomática ou um artefacto da ansiedade pandémica, em vez de uma síndrome fisiológica documentada. Esta narrativa circulou a par de debates científicos legítimos sobre os mecanismos do Long COVID. A distinção é importante: a incerteza científica genuína sobre como o Long COVID funciona não equivale à alegação sem base de que não existe. Em 2024, a OMS estimava que 10 a 20% dos sobreviventes da COVID-19 experienciaram sintomas de Long COVID para além das 12 semanas, com marcadores biológicos consistentes incluindo microcoágulos, desregulação imunológica e envolvimento do sistema nervoso autónomo documentados em centros de investigação independentes.

Conteúdo Gerado por IA: A Primeira Grande Vaga

2024 marcou o ano em que os meios de comunicação sintéticos gerados por IA passaram de uma ameaça emergente para uma ameaça documentada e de elevado volume. Os casos abaixo representam as instâncias desmentidas mais significativas — um catálogo mais completo está disponível na nossa base de dados de casos.

O Comício de Kamala Harris no Michigan: Alegações de Multidão Falsa

Em agosto de 2024, contas conspiracionistas no X e no Facebook alegaram que fotografias aéreas de uma grande multidão num comício de Kamala Harris em Ann Arbor, Michigan, eram geradas por IA ou CGI. As alegações sustentavam que a campanha de Harris tinha fabricado o tamanho da multidão por razões de imagem. As imagens foram autenticadas pelo Reuters Fact Check, pela ABC News e pelos meios de comunicação locais do Michigan, que tinham jornalistas presentes no evento. Notavelmente, a alegação falsa espalhou-se mais depressa do que o desmentido — um padrão que os investigadores denominam «falha do sanduíche da verdade», em que as correções amplificam a alegação original em vez de a neutralizar.

Redes de Desinformação por IA da Meta

Os Relatórios de Ameaças Adversariais da Meta de 2024 documentaram uma mudança qualitativa na desinformação patrocinada por estados: as operações estrangeiras começaram a mobilizar apresentadores de notícias em vídeo gerados por IA e portais de notícias sintéticos em escala. Uma rede iraniana identificada no relatório do segundo trimestre de 2024 da Meta utilizava âncoras geradas por IA em sites de notícias falsos para apresentar narrativas pró-iranianas como reportagem independente. Uma rede de origem libanesa publicou apresentadores de notícias em vídeo gerados por IA misturando conteúdo geopolítico com temas de estilo de vida para parecer credível. A Meta observou que as ferramentas de IA ofereciam a estas redes ganhos de eficiência na produção de conteúdo — mas ainda não tinham melhorado significativamente a sua capacidade de construir audiências autênticas antes da deteção. Todas as 20 operações identificadas pela Meta em 2024 foram detetadas antes de atingirem alcance orgânico significativo. Para uma análise mais aprofundada dos casos, veja a nossa análise de notícias falsas geradas por IA em 2025.

Imagens Sintéticas a Inundar a Cobertura de Catástrofes

Múltiplos eventos de catástrofes naturais em 2024 — incluindo as cheias em Valência, Espanha, e o furacão Helene no sudeste dos EUA — foram acompanhados, em poucas horas, por imagens geradas por IA representando destruição que não havia ocorrido ou estava exagerada. O AFP Fact Check, a BBC Verify e o Misbar documentaram mais de uma dúzia de imagens de catástrofes confirmadas como geradas por IA que alcançaram circulação significativa antes do desmentido. Artefactos visuais (fontes de luz implausíveis, mãos anatomicamente distorcidas, geometrias arquitetónicas impossíveis) estavam presentes em todos os casos — mas eram invisíveis para a maioria dos observadores casuais que consumiam as imagens em miniatura em ecrãs de telemóvel.

Desinformação Climática: Táticas em Mudança

A desinformação climática em 2024 abandonou em grande parte a negação direta da ciência a favor da negação das soluções — alegações falsas visando a política climática em vez da ciência climática em si. Esta mudança tornou a verificação de factos mais difícil: a ciência subjacente já não era o alvo.

O Esquema do «Mapa de Temperaturas de 1986»

Um esquema comparando dois mapas meteorológicos — um falsamente rotulado como sendo de 1986, o outro de 2022 — espalhou-se por Espanha, França, Alemanha, Países Baixos, Polónia, Roménia, Áustria, Bélgica e Hungria em meados de 2024, alegando mostrar que os meios de comunicação convencionais estavam a fabricar pânico climático. A rede de verificação de factos do EDMO documentou a propagação em nove países. O primeiro mapa era na verdade de 2016, não de 1986; o segundo era de 2021, não de 2022. Ambos eram mapas autênticos de fontes meteorológicas legítimas — a manipulação estava inteiramente na rotulagem. Este caso é um exemplo claro de como dados autênticos podem ser falsificados através de manipulação de contexto apenas, sem qualquer edição a nível de pixel.

Desinformação sobre a «Política Verde» Europeia

Antes das eleições para o Parlamento Europeu, redes coordenadas espalharam alegações falsas sobre os efeitos económicos das políticas climáticas da UE — incluindo estatísticas fabricadas atribuindo falências agrícolas, perdas de emprego e subidas nos preços da energia especificamente e exclusivamente à legislação do Pacto Ecológico. O EU DisinfoLab rastreou múltiplas instâncias destas narrativas a aparecerem primeiro em meios pró-russos antes de migrarem para canais populistas domésticos. As narrativas não eram inteiramente inventadas: existiam pressões económicas reais sobre os agricultores europeus. A desinformação consistia em apresentar essas pressões como causadas exclusivamente pela política climática, e em associar valores fabricados a queixas reais.

Negação da Atribuição Pós-Catástrofe

Na sequência dos principais eventos meteorológicos de 2024 — as cheias em Valência (outubro), o furacão Milton (outubro) e as temperaturas recordes de verão no sul da Europa — emergiu uma contra-narrativa consistente alegando que atribuir estes eventos às alterações climáticas era especulação não científica. Este enquadramento representou de forma seletiva a ciência da atribuição: embora eventos meteorológicos individuais não possam ser atribuídos às alterações climáticas com certeza, o campo da ciência de atribuição climática estabeleceu ligações probabilísticas entre o aquecimento e o aumento da frequência e intensidade de tipos específicos de eventos. A metodologia do IPCC distingue entre atribuição ao nível do evento (incerta) e atribuição ao nível do padrão (bem estabelecida) — uma distinção que as narrativas de negação colapsaram consistentemente.

Padrões e Tendências: O Que 2024 Estabeleceu

Em todas as quatro categorias, vários padrões estruturais repetiram-se com consistência suficiente para serem considerados características definidoras do panorama de desinformação de 2024.

A assimetria de velocidade alargou-se. A desinformação espalhou-se mais depressa em 2024 do que em qualquer ano eleitoral anterior, impulsionada pela amplificação algorítmica e pela eliminação do atrito na partilha (reposts com um toque, pré-visualizações automáticas). As correções atrasaram-se consistentemente por horas ou dias. O Reuters Institute concluiu que mais de 24% dos utilizadores do X relataram dificuldades em distinguir conteúdo fidedigno de não fidedigno — um valor que reflete não falhas individuais, mas escolhas de design sistémicas das plataformas.

A IA baixou o piso da produção sem elevar o teto. A própria análise da Meta concluiu que as ferramentas de IA conferiam às operações de influência ganhos de eficiência na produção de conteúdo, mas não melhoravam a sua capacidade de evadir a deteção. O deepfake da rendição de Zelensky de 2022 — um dos primeiros falsos de IA de elevado perfil num contexto de conflito, documentado na nossa base de dados de casos — era rudimentar e foi rapidamente desmentido. Os falsos de IA de 2024 eram mais numerosos, não categoricamente mais convincentes.

A aplicação pelas plataformas continuou inconsistente. Os dados do EU DisinfoLab mostraram que aproximadamente 45% do conteúdo sinalizado em período eleitoral não foi alvo de ação pelas plataformas, com o X e o YouTube a mostrar as taxas de não ação mais elevadas (cerca de 75%). Não é um problema específico de 2024 — mas tornou-se um problema documentado e quantificado.

As narrativas zombie não morrem. As alegações de infertilidade por vacinas, as alegações de fraude eleitoral e vários esquemas climáticos desmentidos em 2021-2022 ressurgiram em 2024 com modificações mínimas. O desmentido não apaga uma narrativa do ecossistema informativo — compete com ela.

O que esperar em 2025: a vaga de conteúdo gerado por IA que começou em 2024 escalou significativamente em 2025. Para os casos documentados e os métodos de deteção, veja a nossa análise de notícias falsas geradas por IA em 2025. Para competências práticas de verificação, o guia do método SIFT cobre as ferramentas práticas usadas na maioria dos casos acima.