Skip to main content

I Casi di Disinformazione più Significativi Smentiti nel 2024

Il 2024 è stato un anno di elezioni — e un anno di disinformazione a volume record. Attraverso quattro grandi voti democratici, due guerre in corso e il primo dispiegamento su larga scala di media sintetici generati dall’IA, i fact-checker hanno documentato pattern che plasmeranno l’ecosistema informativo per anni. Questa rassegna copre i casi che hanno contato di più.

Perché il 2024 è Stato Diverso

Il volume da solo non ha distinto il 2024. Il cambiamento chiave è stata la convergenza simultanea di tre fattori: i calendari elettorali negli Stati Uniti, nell’UE, nel Regno Unito e in India hanno creato opportunità di targeting coordinate; gli strumenti di generazione IA hanno raggiunto soglie qualitative che rendevano i contenuti sintetici plausibili ai fruitori occasionali; e la moderazione delle piattaforme — secondo la stessa valutazione del Reuters Institute nel Digital News Report 2024 — è diventata meno coerente, non di più.

Il Reuters Institute ha intervistato quasi 100.000 persone in 47 mercati e ha rilevato che la preoccupazione per la disinformazione era aumentata più che in qualsiasi anno dai tempi della pandemia di COVID-19 — con i contenuti generati dall’IA citati come driver principale. La fiducia nelle notizie in generale si era attestata al 40%, quattro punti al di sotto del picco del 2020. Più di un quarto degli utenti di notizie su TikTok (27%) riferiva di avere difficoltà a identificare contenuti affidabili, la cifra più alta tra tutte le piattaforme rilevate.

Quello che segue non è un catalogo esaustivo. È una selezione di casi documentati e smentiti organizzati per categoria — scelti perché illustrano i pattern dominanti, non perché fossero i più virali.

Disinformazione Elettorale: Stati Uniti

Le elezioni presidenziali statunitensi hanno prodotto il maggior volume di affermazioni smentite dell’anno. Tre categorie hanno dominato: endorsement sintetici generati dall’IA, allegazioni di frode nei sistemi di voto e operazioni di disinformazione di stato straniero.

L’Endorsement IA di Taylor Swift

Nell’agosto 2024, la campagna di Donald Trump ha condiviso su Truth Social immagini generate dall’IA raffiguranti la pop star Taylor Swift accompagnate da testi che implicavano un suo endorsement alla candidatura di Trump. Le immagini erano visivamente rozze ma si sono diffuse rapidamente. Swift non aveva endorsato Trump — ha pubblicamente endorsato Kamala Harris a settembre 2024. L’episodio è stato significativo non perché qualcuno fosse probabilmente ingannato dalle immagini specifiche, ma perché ha normalizzato l’uso di sembianze sintetiche di celebrità nella messaggistica politica senza divulgazione.

La Robocall Biden nel New Hampshire

Nel gennaio 2024, in vista delle primarie democratiche del New Hampshire, un clone vocale del presidente Biden ha telefonato a democratici registrati esortandoli a “restare a casa” e a non votare. L’audio era stato generato utilizzando sintesi vocale IA disponibile commercialmente. La Federal Communications Commission (FCC) ha successivamente dichiarato illegali le voci generate dall’IA nelle robocall ai sensi del Telephone Consumer Protection Act — la prima azione regolamentare di questo tipo. Il consulente politico dietro la chiamata è stato identificato e ha dovuto affrontare accuse penali nel New Hampshire.

Le Operazioni Doppelganger Russe

Il Dipartimento di Giustizia ha sequestrato 32 domini internet a settembre 2024 collegati all’operazione Doppelganger russa — una rete di siti che impersonavano testate giornalistiche legittime tra cui il Washington Post, Fox News e Bild per diffondere narrazioni filo-Cremlino. A ottobre 2024, l’FBI ha attribuito pubblicamente diverse false affermazioni virali — tra cui un video che presumibilmente mostrava schede di Trump distrutte — ad attori statali russi. Il Rapporto Q3 2024 sulle Minacce Avversariali di Meta ha documentato che dal 2017 la Russia aveva generato 39 operazioni di comportamento inautentico coordinato (CIB) interrotte, più di qualsiasi altro paese.

La Narrativa degli “Animali Domestici degli Immigrati”

Le affermazioni che gli immigrati haitiani a Springfield, Ohio, stessero mangiando animali domestici e bestiame si sono diffuse ampiamente a settembre 2024, amplificate da figure politiche di rilievo. Il governo comunale di Springfield, il dipartimento di polizia e i media locali hanno confermato che nessun incidente del genere era stato segnalato o verificato. Snopes, FactCheck.org e PolitiFact hanno tutti valutato le affermazioni false entro 48 ore. L’episodio ha illustrato come la disinformazione virale possa nascere da un singolo post non verificato, acquistare credibilità attraverso l’amplificazione politica e dimostrarsi difficile da ritrattare una volta radicata negli ecosistemi mediatici partigiani.

Disinformazione Elettorale: Europa

Le elezioni del Parlamento Europeo di giugno 2024 hanno generato disinformazione coordinata su larga scala. Le operazioni più sistematiche provenivano da reti filo-russe, ma anche attori nazionali hanno condotto campagne mirate.

La Rete Pravda

L’EU DisinfoLab e l’Osservatorio Europeo dei Media Digitali (EDMO) hanno documentato la rete di disinformazione “Pravda” — un insieme di oltre 50 siti di notizie clone che impersonavano testate mediatiche regionali europee. Inizialmente rivolta a pubblici di lingua tedesca, la rete si era espansa a contenuti in francese, italiano, polacco e ceco in vista del voto di giugno. Gli articoli erano in larga parte contenuti dei media statali russi tradotti automaticamente e riconfezionati sotto nomi di dominio dall’aspetto locale. Meta ha approvato 275 annunci politici collegati ad account adiacenti alla rete privi degli obbligatori disclaimer di trasparenza UE, raggiungendo oltre tre milioni di utenti in Italia, Germania, Francia e Polonia prima della rimozione.

Elezioni UK: Audio Deepfake di Sadiq Khan

Una clip audio generata dall’IA falsamente attribuita al sindaco di Londra Sadiq Khan ha circolato sui social media prima delle elezioni londinesi del maggio 2024. La clip raffigurava Khan fare dichiarazioni infiammatorie sulla priorità delle manifestazioni pro-palestinesi rispetto alle cerimonie del Remembrance Day — dichiarazioni che non aveva mai fatto. Khan stesso ha descritto la clip come vicina a causare “gravi disordini”. I ricercatori del Centre for Emerging Technology and Security (CETAS) presso l’Alan Turing Institute hanno identificato 16 casi confermati di disinformazione virale IA attraverso le elezioni generali del Regno Unito — un numero che hanno considerato significativo data la recente accessibilità della tecnologia.

Elezioni UK: Annunci Deepfake di Rishi Sunak

Separatamente dall’audio di Khan, clip video generate dall’IA raffiguranti l’allora Primo Ministro Rishi Sunak che promuoveva schemi di investimento fraudolenti hanno circolato su Facebook e YouTube. Le clip usavano clonazione vocale realistica e manipolazione video. Né Meta né Google hanno rimosso tutte le istanze prima che avessero accumulato conteggi di visualizzazioni sostanziali. I ricercatori del CETAS hanno osservato che, sebbene nessuno dei deepfake del 2024 nel Regno Unito sembrasse aver spostato risultati di voto misurabili, hanno stabilito un modello per operazioni future — e hanno alzato la soglia di ciò che gli elettori avrebbero dovuto verificare prima di fidarsi dei contenuti politici audiovisivi.

Disinformazione Sanitaria: Narrazioni Post-COVID

La disinformazione sui vaccini non è finita con la fine dell’emergenza acuta del COVID-19. Nel 2024, un insieme di false narrazioni persistenti ha continuato a circolare — molte invariate dal 2021, alcune aggiornate con un nuovo framing pseudoscientifico.

Il Legame mRNA-Cancro

Un preprint circolato ampiamente all’inizio del 2024 affermava che i vaccini COVID-19 a mRNA causassero il “turbo cancro” — neoplasie anormalmente aggressive. Il team SciCheck di FactCheck.org ha esaminato il paper e ha rilevato che i suoi autori includevano individui con storie documentate di promozione della disinformazione sui vaccini, la sua metodologia non era stata sottoposta a peer review e le sue conclusioni contraddicevano molteplici studi epidemiologici su larga scala. Il Vaccine Safety Datalink dei CDC, che monitora gli eventi avversi su milioni di pazienti vaccinati, non ha trovato alcun segnale che collegasse i vaccini mRNA a una maggiore incidenza o aggressività del cancro. La narrativa è stata classificata come disinformazione da FactCheck.org, Science Feedback e dalla Mayo Clinic.

Affermazioni di Infertilità da Vaccino Rivisitate

Le affermazioni secondo cui i vaccini COVID-19 causassero infertilità — smentite più volte dal 2021 — sono riemersi nel 2024, spesso associate a nuovi studi decontestualizzati. Una revisione sistematica e meta-analisi pubblicata sulla rivista Human Reproduction Update ha esaminato 18 studi su 35.000 partecipanti e non ha trovato alcuna associazione statisticamente significativa tra la vaccinazione COVID-19 e la ridotta fertilità in uomini o donne. L’OMS e i CDC hanno entrambi emesso linee guida aggiornate che ribadivano la sicurezza dei vaccini per le persone in età riproduttiva. La persistenza di questa affermazione, nonostante ripetute smentite complete, illustra quello che i ricercatori chiamano il problema delle “narrazioni zombie”: false affermazioni sanitarie che non possono essere definitivamente eliminate perché risuonano con ansie preesistenti.

Il Negazionismo del Long COVID

Nel 2024 è emersa una contro-narrativa che affermava che il Long COVID fosse principalmente una condizione psicosomatica o un artefatto dell’ansia dell’era pandemica piuttosto che una sindrome fisiologica documentata. Questa narrativa circolava accanto a legittimi dibattiti scientifici sui meccanismi del Long COVID. La distinzione è importante: la genuina incertezza scientifica su come funziona il Long COVID non è la stessa cosa dell’affermazione priva di prove che non esista. Al 2024, l’OMS stimava che il 10–20% dei sopravvissuti al COVID-19 manifestasse sintomi di Long COVID oltre le 12 settimane, con marcatori biologici coerenti tra cui microcoaguli, disregolazione immunitaria e coinvolgimento del sistema nervoso autonomo documentati in centri di ricerca indipendenti.

Contenuti Generati dall’IA: La Prima Grande Ondata

Il 2024 ha segnato l’anno in cui i media sintetici generati dall’IA sono passati da minaccia emergente a una documentata e ad alto volume. I casi seguenti rappresentano le istanze smentite più significative — un catalogo più completo è disponibile nel nostro database dei casi.

Il Rally di Kamala Harris in Michigan: False Affermazioni sulla Folla

Nell’agosto 2024, account complottisti su X e Facebook affermavano che le fotografie aeree di una grande folla a un comizio di Kamala Harris ad Ann Arbor, Michigan, fossero generate dall’IA o CGI. Le affermazioni sostenevano che la campagna Harris avesse fabbricato le dimensioni della folla per motivi di immagine. Le immagini sono state autenticate da Reuters Fact Check, da ABC News e dai media locali del Michigan che avevano giornalisti presenti all’evento. In modo significativo, la falsa affermazione si è diffusa più velocemente della smentita — un pattern che i ricercatori chiamano “fallimento del truth sandwich”, in cui le correzioni amplificano l’affermazione originale invece di neutralizzarla.

Le Reti di Disinformazione IA di Meta

I Rapporti sulle Minacce Avversariali di Meta del 2024 hanno documentato un cambiamento qualitativo nella disinformazione sponsorizzata da stati: le operazioni straniere hanno iniziato a dispiegare su larga scala lettori di notizie video generati dall’IA e portali di notizie sintetici. Una rete iraniana identificata nel rapporto Q2 2024 di Meta usava presentatori generati dall’IA su falsi siti di notizie per presentare narrazioni pro-iraniane come reportage indipendenti. Una rete di origine libanese pubblicava lettori di notizie video generati dall’IA che mescolavano contenuti geopolitici con argomenti lifestyle per sembrare credibili. Meta ha osservato che gli strumenti IA offrivano a queste reti vantaggi in termini di efficienza nella produzione di contenuti — ma non avevano ancora migliorato significativamente la loro capacità di costruire pubblici autentici prima del rilevamento. Tutte le 20 operazioni interrotte da Meta nel 2024 sono state identificate prima di raggiungere una portata organica significativa. Per un’analisi più approfondita dei casi, vedi la nostra analisi su IA e fake news nel 2025.

Immagini Sintetiche che Inondavano la Copertura dei Disastri

Molteplici eventi di calamità naturali nel 2024 — tra cui le alluvioni a Valencia, in Spagna, e l’uragano Helene nel Sud-Est degli Stati Uniti — sono stati accompagnati entro poche ore da immagini generate dall’IA che raffiguravano distruzioni non avvenute o esagerate. AFP Fact Check, BBC Verify e Misbar hanno documentato oltre una dozzina di immagini di disastri generate dall’IA confermate che hanno raggiunto una circolazione significativa prima della smentita. Artefatti visivi (fonti di luce implausibili, mani anatomicamente distorte, geometrie architettoniche impossibili) erano presenti in tutti i casi — ma erano invisibili alla maggior parte dei fruitori occasionali che consumavano immagini in miniatura su schermi mobile.

Disinformazione Climatica: Tattiche in Evoluzione

La disinformazione climatica nel 2024 ha abbandonato in larga parte il negazionismo scientifico diretto in favore del negazionismo delle soluzioni — false affermazioni mirate alle politiche climatiche piuttosto che alla scienza del clima stessa. Questo cambiamento ha reso il fact-checking più difficile: la scienza sottostante non era più il bersaglio.

La Bufala della “Mappa delle Temperature 1986”

Una bufala che confrontava due mappe meteorologiche — una falsamente etichettata come del 1986, l’altra come del 2022 — si è diffusa in Spagna, Francia, Germania, Paesi Bassi, Polonia, Romania, Austria, Belgio e Ungheria a metà 2024, affermando di dimostrare che i media mainstream stessero fabbricando il panico climatico. La rete di fact-checking di EDMO ha documentato la diffusione in nove paesi. La prima mappa era in realtà del 2016, non del 1986; la seconda era del 2021, non del 2022. Entrambe erano mappe autentiche di fonti meteorologiche legittime — la manipolazione era interamente nell’etichettatura. Questo caso è un esempio lampante di come dati autentici possano essere falsificati attraverso la manipolazione del contesto da sola, senza alcuna modifica a livello di pixel.

Disinformazione sulle “Politiche Green” Europee

In vista delle elezioni del Parlamento Europeo, reti coordinate hanno diffuso false affermazioni sugli effetti economici delle politiche climatiche UE — incluse statistiche fabbricate che attribuivano fallimenti di aziende agricole, perdite di posti di lavoro e aumenti dei prezzi dell’energia specificamente ed esclusivamente alla legislazione del Green Deal. L’EU DisinfoLab ha tracciato molteplici istanze di queste narrazioni che apparivano prima in testate filo-russe prima di migrare verso canali populisti nazionali. Le narrazioni non erano interamente inventate: esistevano reali pressioni economiche sugli agricoltori europei. La disinformazione consisteva nel presentare quelle pressioni come causate esclusivamente dalla politica climatica e nell’allegare cifre fabbricate a lamentele reali.

Negazionismo dell’Attribuzione Post-Disastro

In seguito ai principali eventi meteorologici del 2024 — le alluvioni di Valencia (ottobre), l’uragano Milton (ottobre) e le temperature estive record in tutta l’Europa meridionale — è emersa una contro-narrativa coerente che sosteneva che attribuire questi eventi al cambiamento climatico fosse speculazione non scientifica. Questo framing rappresentava selettivamente la scienza dell’attribuzione: mentre i singoli eventi meteorologici non possono essere attribuiti con certezza al cambiamento climatico, il campo della scienza dell’attribuzione climatica ha stabilito legami probabilistici tra il riscaldamento e l’aumento di frequenza e intensità di specifici tipi di eventi. La metodologia dell’IPCC distingue tra attribuzione a livello di evento (incerta) e attribuzione a livello di pattern (ben stabilita) — una distinzione che le narrazioni negazioniste collassavano sistematicamente.

Pattern e Tendenze: Cosa ha Stabilito il 2024

In tutte e quattro le categorie, diversi pattern strutturali si sono ripetuti abbastanza costantemente da essere considerati caratteristiche definenti del panorama della disinformazione del 2024.

L’asimmetria di velocità si è ampliata. La disinformazione si è diffusa più velocemente nel 2024 che in qualsiasi anno elettorale precedente, guidata dall’amplificazione algoritmica e dalla rimozione di attriti nella condivisione (repost con un tocco, anteprime automatiche). Le correzioni hanno costantemente tardato di ore o giorni. Il Reuters Institute ha rilevato che più del 24% degli utenti di X riferiva difficoltà a distinguere contenuti affidabili da inaffidabili — una cifra che riflette non un fallimento individuale ma scelte progettuali sistemiche delle piattaforme.

L’IA ha abbassato il pavimento della produzione senza alzare il soffitto. La stessa analisi di Meta ha rilevato che gli strumenti IA offrivano alle operazioni di influenza vantaggi in termini di efficienza nella produzione di contenuti ma non miglioravano la loro capacità di eludere il rilevamento. Il deepfake della resa di Zelensky del 2022 — uno dei primi falsi IA di alto profilo in un contesto di conflitto, documentato nel nostro database dei casi — era grezzo e rapidamente smentito. I falsi IA del 2024 erano più numerosi, non categoricamente più convincenti.

L’applicazione delle regole delle piattaforme è rimasta incoerente. I dati dell’EU DisinfoLab mostravano che circa il 45% dei contenuti segnalati nel periodo elettorale non veniva gestito dalle piattaforme, con X e YouTube che mostravano i tassi di non intervento più alti (circa il 75%). Non è un problema specifico del 2024 — ma è diventato uno documentato e quantificato.

Le narrazioni zombie non muoiono. Le affermazioni sull’infertilità da vaccino, le accuse di frode elettorale e diverse bufale climatiche smentite nel 2021–2022 sono riemersi nel 2024 con modifiche minime. Smontare una narrativa non la cancella dall’ecosistema informativo — vi compete.

Cosa aspettarsi nel 2025: l’ondata di contenuti generati dall’IA iniziata nel 2024 è escalata significativamente nel 2025. Per i casi documentati e i metodi di rilevamento, consulta la nostra analisi delle fake news generate dall’IA nel 2025. Per le competenze di verifica pratiche, il laboratorio sul metodo SIFT copre gli strumenti pratici usati nella maggior parte dei casi sopra descritti.