
2024 war ein Jahr der Wahlen – und ein Jahr mit Rekordvolumen an Desinformation. Über vier große demokratische Abstimmungen, zwei anhaltende Kriege und den ersten großflächigen Einsatz KI-generierter synthetischer Medien hinweg dokumentierten Faktencheckerinnen und Faktenchecker Muster, die das Informationsumfeld für Jahre prägen werden. Dieser Rückblick behandelt die Fälle, auf die es am meisten ankam.
Warum 2024 anders war
Nicht allein das Volumen unterschied 2024. Die entscheidende Veränderung war das gleichzeitige Zusammentreffen von drei Faktoren: Die Wahlkalender in den USA, der EU, Großbritannien und Indien schufen koordinierte Angriffsflächen; KI-Generierungstools erreichten Qualitätsschwellen, die synthetische Inhalte für Gelegenheitsbetrachter glaubwürdig machten; und die Plattform-Moderation wurde – nach eigenem Urteil des Reuters Institute im Digital News Report 2024 – weniger konsistent, nicht mehr.
Das Reuters Institute befragte fast 100.000 Teilnehmende in 47 Märkten und stellte fest, dass die Sorge um Desinformation stärker gestiegen war als in jedem Jahr seit der COVID-19-Pandemie – wobei KI-generierte Inhalte als Haupttreiber genannt wurden. Das allgemeine Nachrichtenvertrauen hielt sich bei 40 Prozent, vier Punkte unter dem Höchststand von 2020. Mehr als ein Viertel der TikTok-Nachrichtennutzenden (27 Prozent) gaben an, Schwierigkeiten zu haben, vertrauenswürdige Inhalte zu identifizieren – der höchste Wert aller befragten Plattformen.
Das Folgende ist kein erschöpfender Katalog. Es ist eine Auswahl dokumentierter, widerlegter Fälle, geordnet nach Kategorie – ausgewählt, weil sie die dominanten Muster illustrieren, nicht weil sie die viralsten waren.
Wahldesinformation: Vereinigte Staaten
Die US-Präsidentschaftswahl produzierte das größte Einzelvolumen an widerlegten Behauptungen des Jahres. Drei Kategorien dominierten: KI-generierte synthetische Endorsements, Betrugsvorwürfe bei Wahlsystemen und ausländische staatliche Desinformationsoperationen.
Das KI-Taylor-Swift-Endorsement
Im August 2024 teilte Donald Trumps Wahlkampf KI-generierte Bilder auf Truth Social, die Popstar Taylor Swift mit einem Text zeigten, der implizierte, sie habe Trumps Kandidatur unterstützt. Die Bilder waren visuell grob, verbreiteten sich aber rasch. Swift hatte Trump nicht unterstützt – sie unterstützte Kamala Harris öffentlich im September 2024. Die Episode war nicht deshalb bedeutsam, weil jemand durch die spezifischen Bilder getäuscht worden wäre, sondern weil sie den Einsatz synthetischer Promi-Abbilder in politischen Botschaften ohne Offenlegung normalisierte.
Der Biden-Robocall in New Hampshire
Im Januar 2024, kurz vor der demokratischen Vorwahl in New Hampshire, rief ein Stimmenklon von Präsident Biden registrierte Demokratinnen und Demokraten an und forderte sie auf, „zuhause zu bleiben” und nicht zu wählen. Das Audio wurde mit kommerziell verfügbarer KI-Sprachsynthese erzeugt. Die Federal Communications Commission (FCC) erklärte daraufhin KI-generierte Stimmen in Robocalls unter dem Telephone Consumer Protection Act für illegal – die erste derartige Regulierungsmaßnahme. Der hinter dem Anruf steckende politische Berater wurde identifiziert und sah sich in New Hampshire Strafanzeigen gegenüber.
Russische Doppelganger-Operationen
Das Justizministerium beschlagnahmte im September 2024 32 Internetdomains, die mit Russlands Doppelganger-Operation verknüpft waren – einem Netzwerk von Seiten, die seriöse Nachrichtenportale imitierten, darunter die Washington Post, Fox News und Bild, um pro-Kreml-Narrative zu verbreiten. Im Oktober 2024 führte das FBI mehrere virale falsche Behauptungen – darunter ein Video, das angeblich die Vernichtung von Trump-Stimmzetteln zeigte – öffentlich auf russische staatliche Akteure zurück. Metas Q3-2024-Adversarial-Threat-Report dokumentierte, dass Russland seit 2017 39 aufgedeckte koordinierte unechte Verhaltensoperationen (CIB) durchgeführt hatte – mehr als jedes andere Land.
Das Narrativ der „Einwanderer und Haustiere”
Behauptungen, haitianische Einwanderer in Springfield, Ohio, würden Haustiere und Tiere essen, kursierten im September 2024 weit und wurden von prominenten Politikerinnen und Politikern verstärkt. Springfields Stadtverwaltung, Polizei und lokale Medien bestätigten, dass keine solchen Vorfälle gemeldet oder verifiziert worden waren. Snopes, FactCheck.org und PolitiFact stuften die Behauptungen innerhalb von 48 Stunden als falsch ein. Die Episode veranschaulichte, wie virale Desinformation aus einem einzigen unverifizierten Post entstehen, durch politische Verstärkung Glaubwürdigkeit gewinnen und sich als schwer rückholbar erweisen kann, sobald sie in parteiischen Medienökosystemen verankert ist.
Wahldesinformation: Europa
Die Europäischen Parlamentswahlen im Juni 2024 erzeugten koordinierte Desinformation in großem Maßstab. Die systematischsten Operationen kamen von pro-russischen Netzwerken, aber auch inländische Akteure führten gezielte Kampagnen durch.
Das Prawda-Netzwerk
Das EU DisinfoLab und das European Digital Media Observatory (EDMO) dokumentierten das „Prawda”-Desinformationsnetzwerk – eine Gruppe von mehr als 50 imitierenden Nachrichtenwebsites, die regionale europäische Medienportale nachahmten. Zunächst auf deutschsprachige Zielgruppen ausgerichtet, erweiterte das Netzwerk seinen Inhalt auf Französisch, Italienisch, Polnisch und Tschechisch im Vorfeld der Juniwahl. Die Artikel bestanden größtenteils aus maschinell übersetzten russischen Staatsmedieninhalten, die unter lokal wirkenden Domainnamen neu verpackt wurden. Meta genehmigte 275 politische Anzeigen, die mit netzwerknahen Accounts verknüpft waren und die obligatorischen EU-Transparenzhinweise fehlten, wodurch über drei Millionen Nutzerinnen und Nutzer in Italien, Deutschland, Frankreich und Polen erreicht wurden – bevor sie entfernt wurden.
UK-Wahl: Deepfake-Audio von Sadiq Khan
Ein KI-generierter Audioclip, fälschlicherweise dem Londoner Bürgermeister Sadiq Khan zugeschrieben, kursierte in sozialen Medien vor den Londoner Wahlen im Mai 2024. Der Clip zeigte Khan angeblich mit hetzerischen Aussagen über die Priorisierung pro-palästinensischer Proteste gegenüber dem Remembrance Day – Aussagen, die er nie gemacht hatte. Khan selbst beschrieb den Clip als beinahe Ursache für „ernsthafte Unruhen”. Forschende am Centre for Emerging Technology and Security (CETAS) am Alan-Turing-Institut identifizierten 16 bestätigte virale KI-Desinformationsfälle über die gesamte britische Parlamentswahl hinweg – eine Zahl, die sie für bedeutsam hielten, angesichts wie kürzlich die Technologie erst zugänglich geworden war.
UK-Wahl: Rishi-Sunak-Deepfake-Anzeigen
Getrennt vom Khan-Audio kursierten KI-generierte Videoclips, die den damaligen Premierminister Rishi Sunak dabei zeigten, wie er betrügerische Investitionssysteme bewirbt, auf Facebook und YouTube. Die Clips nutzten realistisches Stimmklonen und Videomanipulation. Weder Meta noch Google entfernten alle Instanzen, bevor sie erhebliche Aufrufzahlen angesammelt hatten. CETAS-Forschende stellten fest, dass keiner der Deepfakes von 2024 in Großbritannien messbare Wahlauswirkungen zu haben schien, aber eine Vorlage für künftige Operationen etablierte – und die Schwelle anhob, die Wählerinnen und Wähler zur Verifizierung audiovisueller politischer Inhalte überwinden müssten.
Gesundheitsdesinformation: Post-COVID-Narrative
Impfstoff-Desinformation endete nicht mit dem Ende der akuten COVID-19-Notlage. 2024 kursierten weiterhin anhaltende falsche Narrative – viele unverändert seit 2021, einige mit neuem pseudowissenschaftlichem Framing aktualisiert.
Der mRNA-Krebs-Zusammenhang
Ein Preprint-Papier kursierte Anfang 2024 weit verbreitet mit der Behauptung, mRNA-COVID-19-Impfstoffe verursachten „Turbo-Krebs” – ungewöhnlich aggressive Malignome. Das SciCheck-Team von FactCheck.org prüfte das Papier und stellte fest, dass seine Autorinnen und Autoren dokumentierte Vorgeschichten der Verbreitung von Impfstoff-Desinformation hatten, seine Methodik nicht peer-reviewt worden war und seine Schlussfolgerungen mehreren groß angelegten epidemiologischen Studien widersprachen. Das CDC’s Vaccine Safety Datalink, das unerwünschte Ereignisse bei Millionen geimpfter Patientinnen und Patienten überwacht, fand kein Signal, das mRNA-Impfstoffe mit erhöhter Krebsinzidenz oder -aggressivität verknüpfte. Das Narrativ wurde von FactCheck.org, Science Feedback und der Mayo Clinic als Desinformation eingestuft.
Erneuerung von Impfstoff-Unfruchtbarkeits-Behauptungen
Behauptungen, COVID-19-Impfstoffe verursachten Unfruchtbarkeit – seit 2021 mehrfach widerlegt –, lebten 2024 wieder auf, oft an neue, aus dem Kontext gerissene Studien geknüpft. Eine in der Fachzeitschrift Human Reproduction Update veröffentlichte systematische Übersichtsarbeit und Meta-Analyse untersuchte 18 Studien mit 35.000 Teilnehmenden und fand keine statistisch signifikante Assoziation zwischen COVID-19-Impfung und verminderter Fruchtbarkeit bei Männern oder Frauen. Die WHO und die CDC veröffentlichten beide aktualisierte Leitlinien, die die Impfstoffsicherheit für Menschen im reproduktiven Alter bestätigten. Das Fortbestehen dieser Behauptung – trotz wiederholter umfassender Widerlegung – illustriert, was Forschende das „Zombie-Narrativ”-Problem nennen: Falsche Gesundheitsbehauptungen, die nicht dauerhaft getötet werden können, weil sie bei bereits vorhandenen Ängsten Anklang finden.
Long-COVID-Leugnung
2024 entstand ein Gegennarrativ, das behauptete, Long COVID sei in erster Linie ein psychosomatischer Zustand oder ein Artefakt pandemiebedingter Angst und kein dokumentiertes physiologisches Syndrom. Dieses Narrativ kursierte neben legitimen wissenschaftlichen Debatten über die Mechanismen von Long COVID. Die Unterscheidung ist wichtig: Echte wissenschaftliche Unsicherheit darüber, wie Long COVID wirkt, ist nicht dasselbe wie die beweisfreie Behauptung, dass es nicht existiert. Stand 2024 schätzte die WHO, dass 10 bis 20 Prozent der COVID-19-Überlebenden Long-COVID-Symptome über 12 Wochen hinaus erlebten, mit konsistenten biologischen Markern einschließlich Mikroblutgerinnseln, Immunregulationsstörungen und Beteiligung des autonomen Nervensystems, die in unabhängigen Forschungszentren dokumentiert wurden.
KI-generierte Inhalte: Die erste große Welle
2024 war das Jahr, in dem KI-generierte synthetische Medien von einer aufkommenden Bedrohung zu einer dokumentierten, hochvolumigen Bedrohung wurden. Die folgenden Fälle repräsentieren die bedeutendsten widerlegten Instanzen – ein vollständigerer Katalog ist in unserer Falldatenbank verfügbar.
Die Kamala-Harris-Kundgebung in Michigan: Gefälschte Menschenmassen-Behauptungen
Im August 2024 behaupteten verschwörungstheoretische Accounts auf X und Facebook, dass Luftaufnahmen einer großen Menschenmenge bei einer Kamala-Harris-Kundgebung in Ann Arbor, Michigan, KI-generiert oder CGI seien. Die Behauptungen unterstellten, die Harris-Kampagne habe die Menschenmengengröße für Optics gefälscht. Die Bilder wurden von Reuters Fact Check, ABC News und lokalen Michigan-Medien authentifiziert, die Journalistinnen und Journalisten vor Ort hatten. Bemerkenswert: Die falsche Behauptung verbreitete sich schneller als die Richtigstellung – ein Muster, das Forschende als „Truth-Sandwiching-Versagen” bezeichnen, bei dem Korrekturen die ursprüngliche Behauptung eher verstärken als neutralisieren.
Metas KI-Desinformationsnetzwerke
Metas Adversarial-Threat-Berichte 2024 dokumentierten eine qualitative Verschiebung bei staatlich geförderter Desinformation: Ausländische Operationen begannen KI-generierte Video-Nachrichtensprecherinnen und -sprecher sowie synthetische Nachrichtenportale in großem Maßstab einzusetzen. Ein in Metas Q2-2024-Bericht identifiziertes iranisches Netzwerk nutzte KI-generierte Moderatorinnen und Moderatoren auf gefälschten Nachrichtenwebsites, um pro-iranische Narrative als unabhängige Berichterstattung darzustellen. Ein libanesisch-stämmiges Netzwerk veröffentlichte KI-generierte Video-Nachrichtensprecherinnen und -sprecher, die geopolitische Inhalte mit Lifestyle-Themen mischten, um glaubwürdig zu wirken. Meta stellte fest, dass KI-Tools diesen Netzwerken Effizienzgewinne bei der Inhaltserstellung boten – aber ihre Fähigkeit, vor der Erkennung authentische Zuschauergruppen aufzubauen, noch nicht wesentlich verbessert hatten. Alle 20 von Meta 2024 aufgedeckten Operationen wurden identifiziert, bevor sie erhebliche organische Reichweite erzielten. Für tiefergehende Fallanalysen, siehe unsere Aufarbeitung zu KI-Falschmeldungen 2025.
Synthetische Bilder überschwemmen Katastrophenberichterstattung
Mehrere Naturkatastrophenereignisse in 2024 – darunter die Überschwemmungen in Valencia, Spanien, und Hurrikan Helene im US-Südosten – wurden innerhalb von Stunden von KI-generierten Bildern begleitet, die Zerstörung zeigten, die so nicht stattgefunden hatte oder übertrieben war. AFP Fact Check, BBC Verify und Misbar dokumentierten über ein Dutzend bestätigte KI-generierte Katastrophenbilder, die erhebliche Verbreitung erreichten, bevor sie widerlegt wurden. Visuelle Artefakte (unplausible Lichtquellen, anatomisch verzerrte Hände, unmögliche Architekturgeometrien) waren in allen Fällen vorhanden – blieben aber für die meisten Gelegenheitsbetrachter unsichtbar, die Bilder auf mobilen Bildschirmen in Thumbnail-Größe konsumierten.
Klima-Desinformation: Wechselnde Taktiken
Klima-Desinformation gab 2024 die direkte Wissenschaftsleugnung weitgehend zugunsten der Lösungsleugnung auf – falschen Behauptungen, die auf Klimapolitik statt auf Klimawissenschaft selbst abzielten. Diese Verschiebung erschwerte das Faktenchecken: Die zugrundeliegende Wissenschaft war nicht mehr das Ziel.
Der „Temperaturkarte 1986″-Hoax
Ein Hoax, der zwei Wetterkarten verglich – eine fälschlicherweise mit 1986, die andere mit 2022 beschriftet –, verbreitete sich Mitte 2024 in Spanien, Frankreich, Deutschland, den Niederlanden, Polen, Rumänien, Österreich, Belgien und Ungarn und behauptete, Mainstream-Medien würden Klimapanik fabrizieren. EDMOs Faktenchecknetzwerk dokumentierte die Verbreitung in neun Ländern. Die erste Karte stammte tatsächlich von 2016, nicht von 1986; die zweite von 2021, nicht von 2022. Beide waren authentische Karten aus legitimen meteorologischen Quellen – die Manipulation lag ausschließlich in der Beschriftung. Dieser Fall ist ein klares Beispiel dafür, wie authentische Daten allein durch Kontextmanipulation gefälscht werden können, ohne jegliche Pixelbearbeitung.
Europäische „Grüne-Politik”-Desinformation
Im Vorfeld der EU-Parlamentswahlen verbreiteten koordinierte Netzwerke falsche Behauptungen über die wirtschaftlichen Auswirkungen der EU-Klimapolitik – darunter erfundene Statistiken, die Bauernbankrotte, Jobverluste und Energiepreisanstiege speziell und ausschließlich auf die Gesetzgebung des Green Deal zurückführten. Das EU DisinfoLab verfolgte mehrere Instanzen dieser Narrative, die zuerst in pro-russischen Portalen auftauchten, bevor sie in inländische populistische Kanäle migrierten. Die Narrative waren nicht vollständig erfunden: Reale wirtschaftliche Drücke auf europäische Bauernbetriebe existierten. Die Desinformation bestand darin, diese Drücke als ausschließlich durch die Klimapolitik verursacht darzustellen und an reale Klagen erfundene Zahlen zu knüpfen.
Nachkatastrophen-Attributions-Leugnung
Nach großen Wetterereignissen 2024 – den Überschwemmungen in Valencia (Oktober), Hurrikan Milton (Oktober) und Rekord-Sommertemperaturen in Südeuropa – tauchte konsistent ein Gegennarrativ auf, das behauptete, die Zuschreibung dieser Ereignisse an den Klimawandel sei unwissenschaftliche Spekulation. Dieses Framing stellte die Attributionswissenschaft selektiv falsch dar: Während einzelne Wetterereignisse dem Klimawandel nicht mit Gewissheit zugeschrieben werden können, hat das Feld der Klimaattributionswissenschaft probabilistische Zusammenhänge zwischen Erwärmung und erhöhter Häufigkeit und Schwere bestimmter Ereignistypen etabliert. Die Methodik des IPCC unterscheidet zwischen der Ereignisebenen-Attribution (unsicher) und der Musterebenen-Attribution (gut etabliert) – eine Unterscheidung, die die Leugnungsnarrative konsistent verwischten.
Muster und Trends: Was 2024 etablierte
Über alle vier Kategorien hinweg wiederholten sich mehrere strukturelle Muster konsistent genug, um als definierende Merkmale der Desinformationslandschaft 2024 zu gelten.
Die Geschwindigkeitsasymmetrie vergrößerte sich. Desinformation verbreitete sich 2024 schneller als in jedem früheren Wahljahr, angetrieben durch algorithmische Verstärkung und die Verringerung der Reibung beim Teilen (Ein-Tap-Reposts, automatische Vorschauen). Korrekturen hinken konsistent Stunden oder Tage hinterher. Das Reuters Institute stellte fest, dass mehr als 24 Prozent der X-Nutzenden angaben, Schwierigkeiten zu haben, vertrauenswürdige von nicht vertrauenswürdigen Inhalten zu unterscheiden – eine Zahl, die nicht individuelles Versagen, sondern systemische Designentscheidungen der Plattformen widerspiegelt.
KI senkte den Produktionsboden, ohne die Decke anzuheben. Metas eigene Analyse ergab, dass KI-Tools Einflussoperationen Effizienzgewinne bei der Inhaltserstellung boten, ihre Fähigkeit zur Erkennung zu umgehen aber nicht verbesserten. Das Selenskyj-Kapitulationsdaten-Deepfake von 2022 – eines der ersten hochkarätigen KI-Fakes in einem Konfliktkontext, dokumentiert in unserer Falldatenbank – war grob und wurde schnell widerlegt. Die KI-Fakes von 2024 waren zahlreicher, nicht kategorisch überzeugender.
Plattform-Durchsetzung blieb inkonsistent. EU-DisinfoLab-Daten zeigten, dass ungefähr 45 Prozent der als problematisch markierten Wahlperioden-Inhalte von Plattformen nicht bearbeitet wurden, wobei X und YouTube die höchsten Nicht-Handlungsquoten aufwiesen (rund 75 Prozent). Das ist kein 2024-spezifisches Problem – aber es wurde ein dokumentiertes, quantifiziertes.
Zombie-Narrative sterben nicht. Die Impfstoff-Unfruchtbarkeits-Behauptungen, die Wahlbetrugsvorwürfe und mehrere 2021–2022 widerlegte Klimahoaxes lebten 2024 mit minimaler Modifikation wieder auf. Faktenprüfung löscht ein Narrativ nicht aus dem Informationsökosystem – sie konkurriert damit.
Was 2025 zu erwarten ist: Die KI-generierte Inhaltswelle, die 2024 begann, eskalierte 2025 erheblich. Für die dokumentierten Fälle und Erkennungsmethoden, siehe unsere Analyse zu KI-generierten Falschmeldungen 2025. Für praktische Verifizierungsfähigkeiten deckt der SIFT-Methoden-Workshop die praktischen Werkzeuge ab, die in den meisten der oben genannten Fälle verwendet wurden.