Skip to main content

Medienkompetenz-Werkstatt — Wie du Falschmeldungen erkennst

Falschmeldungen erkennen ist eine erlernbare Fähigkeit — kein angeborenes Talent. Diese Werkstatt erklärt vier praktische Methoden, die du ohne Spezialwerkzeug, institutionellen Zugang oder Vorkenntnisse anwenden kannst.

Was diese Werkstatt vermittelt

Die hier dokumentierten Methoden sind keine theoretischen Rahmenwerke. Es sind Verifikations-Workflows, die professionelle Faktenprüfer, Journalistinnen und digitale Ermittler verwenden — angepasst für alle, die einen Internetzugang und einen kritischen Blick haben.

Jede Methode ist in einem eigenen Leitfaden mit Schritt-für-Schritt-Anleitung, echten Beispielen aus der Falschmeldungs-Datenbank und einer Checkliste zum schnellen Nachschlagen dokumentiert. Diese Seite stellt alle vier Methoden vor. Folge den Links zu den vollständigen Leitfäden, um sie in der Praxis anzuwenden.

Die Werkstatt ist kostenlos und erfordert keine Anmeldung. Alle Leitfäden sind für die eigenständige Nutzung geschrieben — du musst sie nicht der Reihe nach durcharbeiten. Wähle die Methode, die am besten zu dem Inhalt passt, den du prüfen möchtest.

Nach dieser Werkstatt kannst du:

  • Die SIFT-Methode anwenden, um jede Online-Information zu prüfen, bevor du sie teilst
  • Rückwärts-Bildsuche nutzen, um visuelle Behauptungen zu verifizieren oder zu widerlegen
  • Die emotionalen Sprachmuster erkennen, die auf manipulative Inhalte hinweisen
  • Wichtige technische und verhaltensbezogene Merkmale KI-generierter Videos (Deepfakes) identifizieren

Methode 1 — SIFT: Ein Vier-Schritte-Verifikationsrahmen

SIFT ist die am weitesten verbreitete Informationsverifikationsmethode in der Medienkompetenzbildung. Sie wurde von Mike Caulfield an der Washington State University entwickelt und wird heute in Schul- und Universitätsprogrammen sowie in der journalistischen Berufsausbildung in den USA und Europa eingesetzt.

Die Methode adressiert ein konkretes Problem: Die meisten Menschen bewerten Informationen danach, wie sie sich anfühlen — nicht anhand von Belegen. SIFT durchbricht diesen Reflex durch strukturierte Verlangsamung: vier bewusste Schritte, die vor dem Teilen oder Meinungsbilden stattfinden.

S

Stop. Bevor du reagierst, teilst oder eine Meinung bildest — halte inne. Starke emotionale Reaktionen (Empörung, Angst, Begeisterung) sind ein verlässliches Signal, dass Manipulation im Spiel sein könnte. Die Pause ist keine Skepsis — sie ist die Voraussetzung für ein genaues Urteil. Sie dauert weniger als zehn Sekunden und verändert die darauffolgende Entscheidung.

I

Investigate the source. Öffne einen neuen Tab und recherchiere die Quelle unabhängig — verlasse dich nicht darauf, dass die Seite selbst dir sagt, ob sie glaubwürdig ist. Prüfe Wikipedia, Medienbias-Datenbanken wie Media Bias/Fact Check und einfache WHOIS-Registrierungsdaten. Eine zweiminütige Suche deckt die meisten Warnsignale auf: Domänenalter, Eigentümerschaft, Veröffentlichungshistorie und frühere Faktencheck-Urteile.

F

Find better coverage. Suche die konkrete Behauptung über mehrere unabhängige Quellen hinweg. Wenn sie stimmt, berichten andere seriöse Medien darüber. Wenn sie nur auf einer einzigen Seite auftaucht, ist diese Abwesenheit bereits ein Datenpunkt. Das Ziel ist nicht, eine Quelle zu finden, der du mehr vertraust — sondern zu prüfen, ob die Behauptung bei verschiedenen Berichterstattungslinien standhält.

T

Trace claims, quotes, and media to their original context. Viele Falschmeldungen verzerren reale Fakten durch Kontextentzug. Eine echte Studie, ein echtes Zitat oder ein echtes Bild wird herausgerissen und neu gerahmt. Verfolge die Behauptung zurück zu ihrem Ursprung — der Originalstudie, der Primäraussage, dem zuerst veröffentlichten Bild — und vergleiche sie mit der aktuellen Darstellung. Die Lücke zwischen Original und aktueller Rahmung ist meist der Ort, an dem die Manipulation steckt.

Vollständiger SIFT-Methoden-Leitfaden — mit ausgearbeiteten Beispielen →

Methode 2 — Rückwärts-Bildsuche

Zweckentfremdete Bilder sind einer der häufigsten Vektoren bei Falschmeldungen. Ein Foto einer Überschwemmung von 2013 kursiert als Beleg für eine Katastrophe von 2024. Ein Protestbild aus einem Land wird mit einer Bildunterschrift aus einem anderen versehen. Rückwärts-Bildsuche bricht diese Taktik in unter zwei Minuten auf.

Der grundlegende Ablauf: Rechtsklick auf ein Bild im Browser, dann „Bild suchen“ (Chrome/Edge) auswählen oder es direkt bei Google Images, TinEye oder Yandex Images hochladen. Die Suche liefert alle indizierten Instanzen dieses Bildes — mit Datum, Quelle und Originalbildunterschrift. Ein Bild, das erstmals Jahre vor dem behaupteten Ereignisdatum auftauchte, wird mit hoher Wahrscheinlichkeit falsch dargestellt.

Wichtige Verfeinerungen im vollständigen Leitfaden: Suche per Screenshot, wenn direktes Hochladen nicht funktioniert; Yandex für breitere Abdeckung (besonders effektiv bei ost- und russischsprachigen Quellen); Kombination von Rückwärts-Bildsuche und EXIF-Metadaten-Prüfung bei noch nicht weit indizierten Bildern. Der Leitfaden erklärt auch, wie man mit zugeschnittenen oder farblich veränderten Kopien umgeht, die einfache Suchen umgehen können.

Vollständiger Rückwärts-Bildsuche-Leitfaden — Schritt für Schritt mit Tools →

Methode 3 — Emotionale Sprache in Schlagzeilen erkennen

Emotional aufgeladene Sprache in Schlagzeilen ist für sich genommen kein Beweis für eine Falschmeldung — echte Ereignisse können und lösen starke Reaktionen aus. Aber ein konsistentes Muster emotionaler Manipulationstechniken ist ein verlässliches Warnsignal dafür, dass der Inhalt Reaktion über Genauigkeit stellt.

Die Muster, auf die du achten solltest: absolute Sprache („NIE“, „IMMER“, „VERNICHTET“, „BEWEIST EIN FÜR ALLE MAL“), vage, aber alarmierende Zuschreibungen („Experten warnen“, „Quellen bestätigen“ ohne Namen oder Institution), Dringlichkeitsrahmung („bevor es gelöscht wird“, „teile, bevor sie es entfernen“) und Identitätsbedrohungs-Rahmung („was sie deinen Kindern/deiner Gemeinschaft/deinem Land antun“). Diese Muster tauchen sowohl in billigem Clickbait als auch in ausgefeilter staatlich gesteuerter Desinformation auf — deshalb ist ihre Erkennung eine übertragbare Fähigkeit über alle Inhaltstypen hinweg.

Keines dieser Muster beweist, dass eine Behauptung falsch ist. Sie zeigen an, dass der Inhalt darauf ausgelegt ist, eine Reaktion auszulösen, bevor die Leserin oder der Leser die Belege prüft. Der Stop-Schritt der SIFT-Methode ist die direkte Verhaltensantwort auf diese Technik — er verlangsamt den Teilimpuls lang genug, um auch eine minimale Prüfung zu ermöglichen.

Vollständiger Leitfaden: Emotionale Sprache in Schlagzeilen — Muster und Beispiele →

Methode 4 — Deepfakes erkennen

KI-generierte synthetische Videos (Deepfakes) sind technisch so zugänglich geworden, dass Einzelpersonen mit Consumer-Hardware heute überzeugende Gesichtstausche und Stimmklone produzieren können. Die Erkennung wird schwieriger — aber nicht unmöglich. Aktuelle Deepfake-Erzeugungsmethoden hinterlassen konsistente Artefaktmuster, die sich mit konzentrierter Analyse noch identifizieren lassen.

Die zuverlässigsten visuellen Indikatoren heute: unnatürliche Blinkmuster oder ausbleibendes Blinken, inkonsistente Beleuchtung zwischen dem Gesicht der Person und der Umgebung, Unschärfe oder Verzerrung an Haarlinien und Ohrkonturen, inkonsistente Audio-Lippensynchronisation sichtbar bei Bild-für-Bild-Prüfung sowie unnatürlich glatte Hauttextur (ein Nebenprodukt des neuronalen Renderprozesses). Kein einzelner Indikator ist schlüssig. Eine Kombination von drei oder mehr gibt ernsthaften Anlass zur Prüfung.

Technische Tools im vollständigen Leitfaden: Deepware Scanner und die FakeCatcher-Methode des Intel Research. Verhaltens- und Herkunftsanalyse ist ebenso wichtig: Wer hat dieses Video veröffentlicht, über welchen Kanal, mit welcher behaupteten Entstehungsgeschichte, und passt der Kontext zum Inhalt — diese Fragen lassen sich oft schneller klären als technische Artefaktanalysen.

Vollständiger Deepfake-Erkennungs-Leitfaden — Tools und Schritt-für-Schritt-Analyse →

Für wen diese Werkstatt ist

Schülerinnen und Schüler, Studierende

Für alle, die in informationsdichten Umgebungen navigieren. Jede Methode ist für schnelle Anwendung ausgelegt — ein SIFT-Check dauert zwei Minuten, eine Rückwärts-Bildsuche eine. Keine Spezialtools oder Accounts notwendig. Die Leitfäden verwenden reale Fälle aus der Datenbank als ausgearbeitete Beispiele statt hypothetischer Szenarien.

Lehrende und Pädagoginnen und Pädagogen

Jeder Leitfaden enthält ausgearbeitete Beispiele und herunterladbare Checklisten für den Unterrichtseinsatz. Die SIFT- und Emotionssprache-Leitfäden orientieren sich direkt an Medienkompetenz-Kompetenzstandards deutscher, österreichischer und europäischer Curricula. Bei Bedarf an zugeschnittenen Workshop-Materialien oder Unterrichtsplanungshilfe: Kontaktformular nutzen.

Journalistinnen und Journalisten, Forschende

Die Rückwärts-Bildsuche- und Deepfake-Erkennungs-Leitfäden gehen technisch tiefer und verweisen auf professionelle Tools neben den kostenlosen Optionen. Die Falschmeldungs-Datenbank bietet dokumentierte Fallstudien nach Methodenkategorie organisiert — nützlich für die Forschung oder als Lehrmaterial in Journalismusprogrammen.

Common Misinformation Patterns

These patterns appear repeatedly in fake news content. Learning to recognise them is the first step toward media literacy.

Sensationalist Headline

Exaggerated or emotionally charged language designed to provoke a reaction before you read the article.

Missing Source

Claims with no cited source, anonymous experts, or vague references to “scientists say”.

Emotional Language

Content that triggers fear, anger, or outrage to bypass rational evaluation.

No Date

Old stories recirculated without context, or articles with no publication date at all.

Out of Context

Real images, quotes, or statistics used to support a completely different narrative.

Deepfake / Manipulated Media

AI-generated or digitally altered images, audio, and video presented as authentic.

Ready to practice?

Browse real documented cases in our database and test your ability to spot the patterns.

Open the Database