
2024 fue un año de elecciones — y un año de desinformación en volumen récord. A lo largo de cuatro grandes procesos democráticos, dos guerras en curso y el primer despliegue a gran escala de medios sintéticos generados por IA, los verificadores documentaron patrones que darán forma al entorno informativo durante años. Esta revisión cubre los casos que más importaron.
Por Qué 2024 Fue Diferente
El volumen por sí solo no distinguió a 2024. El cambio clave fue la convergencia simultánea de tres factores: los calendarios electorales de EE.UU., la UE, el Reino Unido e India crearon oportunidades de targeting coordinado; las herramientas de generación con IA alcanzaron umbrales de calidad que hacían el contenido sintético plausible para observadores casuales; y la moderación de las plataformas — según la propia evaluación del Reuters Institute en el Digital News Report 2024 — se volvió menos consistente, no más.
El Reuters Institute encuestó a casi 100.000 encuestados en 47 mercados y encontró que la preocupación por la desinformación había aumentado más que en cualquier año desde la pandemia de COVID-19 — siendo el contenido generado por IA citado como principal impulsor. La confianza en las noticias en general se mantuvo en el 40%, cuatro puntos por debajo de su pico de 2020. Más de una cuarta parte de los usuarios de noticias de TikTok (27%) declaró tener dificultades para identificar contenido fiable, la cifra más alta de todas las plataformas encuestadas.
Lo que sigue no es un catálogo exhaustivo. Es una selección de casos documentados y desmentidos organizados por categoría — elegidos porque ilustran los patrones dominantes, no porque fueran los más virales.
Desinformación Electoral: Estados Unidos
Las elecciones presidenciales de EE.UU. produjeron el mayor volumen individual de afirmaciones desmentidas del año. Tres categorías dominaron: endorsements sintéticos generados por IA, alegaciones de fraude en los sistemas de votación y operaciones de desinformación de Estados extranjeros.
El Endorsement de Taylor Swift con IA
En agosto de 2024, la campaña de Donald Trump compartió en Truth Social imágenes generadas por IA que mostraban a la cantante Taylor Swift junto a un texto que implicaba que había respaldado la candidatura de Trump. Las imágenes eran visualmente toscas pero se propagaron rápidamente. Swift no había respaldado a Trump — públicamente respaldó a Kamala Harris en septiembre de 2024. El episodio fue significativo no porque nadie fuera a ser probablemente engañado por las imágenes específicas, sino porque normalizó el uso de semejanzas sintéticas de celebridades en mensajes políticos sin divulgación.
La Robocall con Voz Clonada de Biden en New Hampshire
En enero de 2024, antes de las primarias demócratas de New Hampshire, una llamada automática que utilizaba un clon de voz del presidente Biden contactó a demócratas registrados instándoles a «quedarse en casa» y no votar. El audio fue generado usando síntesis de voz con IA disponible comercialmente. La Comisión Federal de Comunicaciones (FCC) declaró posteriormente ilegales las voces generadas por IA en robocalls bajo la Ley de Protección al Consumidor Telefónico — la primera acción regulatoria de este tipo. El consultor político detrás de la llamada fue identificado y se enfrentó a cargos penales en New Hampshire.
Operaciones Doppelganger Rusas
El Departamento de Justicia confiscó 32 dominios de internet en septiembre de 2024 vinculados a la operación rusa Doppelganger — una red de sitios que suplantaban a medios de comunicación legítimos incluyendo el Washington Post, Fox News y Bild para difundir narrativas pro-Kremlin. En octubre de 2024, el FBI atribuyó públicamente varias afirmaciones falsas virales — incluyendo un vídeo que supuestamente mostraba papeletas de Trump siendo destruidas — a actores estatales rusos. El Informe de Amenazas Adversariales Q3 2024 de Meta documentó que desde 2017, Rusia había generado 39 operaciones de comportamiento inauténtico coordinado (CIB) interrumpidas, más que ningún otro país.
La Narrativa de las «Mascotas de Inmigrantes»
En septiembre de 2024 circularon ampliamente afirmaciones de que inmigrantes haitianos en Springfield, Ohio, estaban comiendo mascotas y animales, amplificadas por figuras políticas prominentes. El gobierno municipal de Springfield, el departamento de policía y los medios de comunicación locales confirmaron que no se había reportado ni verificado ningún incidente de este tipo. Snopes, FactCheck.org y PolitiFact calificaron las afirmaciones de falsas en menos de 48 horas. El episodio ilustró cómo la desinformación viral puede sembrar desde una sola publicación no verificada, ganar credibilidad mediante la amplificación política y resultar difícil de desmentir una vez incrustada en los ecosistemas de medios partidistas.
Desinformación Electoral: Europa
Las elecciones al Parlamento Europeo de junio de 2024 generaron desinformación coordinada a escala. Las operaciones más sistemáticas procedieron de redes pro-rusas, pero actores nacionales también ejecutaron campañas dirigidas.
La Red Pravda
EU DisinfoLab y el Observatorio Europeo de Medios Digitales (EDMO) documentaron la red de desinformación «Pravda» — un conjunto de más de 50 sitios web de noticias imitadores que suplantaban a medios de comunicación europeos regionales. Dirigida inicialmente a audiencias de habla alemana, la red se expandió a contenido en francés, italiano, polaco y checo antes del voto de junio. Los artículos eran en su mayor parte contenido de medios estatales rusos traducido automáticamente y reempaquetado bajo nombres de dominio de apariencia local. Meta aprobó 275 anuncios políticos vinculados a cuentas adyacentes a la red que carecían de las declaraciones de transparencia obligatorias de la UE, llegando a más de tres millones de usuarios en Italia, Alemania, Francia y Polonia antes de ser eliminados.
Elecciones del Reino Unido: Audio Deepfake de Sadiq Khan
Un clip de audio generado por IA falsamente atribuido al alcalde de Londres Sadiq Khan circuló en redes sociales antes de las elecciones de Londres de mayo de 2024. El clip mostraba a Khan haciendo declaraciones inflamatorias sobre la prioridad de las protestas pro-palestinas sobre las ceremonias del Día del Recuerdo — declaraciones que nunca hizo. El propio Khan describió el clip como casi causando «graves disturbios». Investigadores del Centre for Emerging Technology and Security (CETAS) del Alan Turing Institute identificaron 16 casos confirmados de desinformación viral con IA en las elecciones generales del Reino Unido — una cifra que consideraron significativa dado cuán recientemente la tecnología se había vuelto accesible.
Elecciones del Reino Unido: Anuncios Deepfake de Rishi Sunak
Aparte del audio de Khan, clips de vídeo generados por IA que mostraban al entonces primer ministro Rishi Sunak promoviendo esquemas de inversión fraudulentos circularon por Facebook y YouTube. Los clips usaban clonación de voz realista y manipulación de vídeo. Ni Meta ni Google eliminaron todas las instancias antes de que hubieran acumulado recuentos de visualizaciones sustanciales. Los investigadores de CETAS señalaron que, si bien ninguno de los deepfakes del Reino Unido de 2024 parecía haber desviado resultados de voto medibles, establecieron una plantilla para operaciones futuras — y elevaron el umbral de lo que los votantes necesitarían verificar antes de confiar en el contenido político audiovisual.
Desinformación Sanitaria: Narrativas Post-COVID
La desinformación sobre vacunas no terminó cuando lo hizo la emergencia aguda del COVID-19. En 2024, un conjunto de narrativas falsas persistentes continuó circulando — muchas sin cambios desde 2021, algunas actualizadas con nuevos encuadres pseudocientíficos.
El Supuesto Vínculo entre mRNA y Cáncer
Un preprint circuló ampliamente a principios de 2024 afirmando que las vacunas COVID-19 de mRNA causaban «turbo cáncer» — neoplasias anormalmente agresivas. El equipo SciCheck de FactCheck.org revisó el paper y encontró que sus autores incluían personas con historiales documentados de promoción de desinformación sobre vacunas, que su metodología no había pasado por revisión por pares y que sus conclusiones contradecían múltiples estudios epidemiológicos a gran escala. El Vaccine Safety Datalink de los CDC, que monitoriza eventos adversos en millones de pacientes vacunados, no encontró ninguna señal que conectara las vacunas de mRNA con mayor incidencia o agresividad del cáncer. La narrativa fue clasificada como desinformación por FactCheck.org, Science Feedback y la Clínica Mayo.
Afirmaciones de Infertilidad por Vacunas Revisitadas
Las afirmaciones de que las vacunas COVID-19 causaban infertilidad — desmentidas múltiples veces desde 2021 — resurgieron en 2024, frecuentemente vinculadas a nuevos estudios sacados de contexto. Una revisión sistemática y metaanálisis publicada en la revista Human Reproduction Update examinó 18 estudios que cubrían 35.000 participantes y no encontró ninguna asociación estadísticamente significativa entre la vacunación contra el COVID-19 y la reducción de la fertilidad en hombres o mujeres. La OMS y los CDC emitieron orientaciones actualizadas reafirmando la seguridad de las vacunas para personas en edad reproductiva. La persistencia de esta afirmación, a pesar de los repetidos desmentidos comprehensivos, ilustra lo que los investigadores llaman el problema de la «narrativa zombi»: afirmaciones sanitarias falsas que no pueden eliminarse permanentemente porque resuenan con ansiedades preexistentes.
Negación del COVID Prolongado
En 2024 surgió una contranarrativa que afirmaba que el COVID prolongado era principalmente una condición psicosomática o un artefacto de la ansiedad pandémica en lugar de un síndrome fisiológico documentado. Esta narrativa circuló junto a debates científicos legítimos sobre los mecanismos del COVID prolongado. La distinción importa: la incertidumbre científica genuina sobre cómo funciona el COVID prolongado no es lo mismo que la afirmación sin evidencia de que no existe. A fecha de 2024, la OMS estimaba que entre el 10 y el 20% de los supervivientes de COVID-19 experimentaban síntomas de COVID prolongado más allá de las 12 semanas, con marcadores biológicos consistentes incluyendo microcoágulos, disregulación inmunitaria e implicación del sistema nervioso autónomo documentados en centros de investigación independientes.
Contenido Generado por IA: La Primera Gran Oleada
2024 marcó el año en que los medios sintéticos generados por IA pasaron de ser una amenaza emergente a una documentada y de alto volumen. Los casos a continuación representan las instancias desmentidas más significativas — un catálogo más completo está disponible en nuestra base de datos de casos.
El Mitin de Kamala Harris en Michigan: Afirmaciones de Multitud Falsa
En agosto de 2024, cuentas conspirativas en X y Facebook afirmaron que las fotografías aéreas de una gran multitud en un mitin de Kamala Harris en Ann Arbor, Michigan, eran generadas por IA o CGI. Las afirmaciones alegaban que la campaña de Harris había fabricado el tamaño de la multitud para dar una mejor imagen. Las imágenes fueron autenticadas por Reuters Fact Check, ABC News y medios locales de Michigan que tenían periodistas presentes en el evento. Notablemente, la afirmación falsa se propagó más rápido que el desmentido — un patrón que los investigadores llaman «fracaso del sándwich de verdad», donde las correcciones amplían la afirmación original en lugar de neutralizarla.
Las Redes de Desinformación con IA de Meta
Los Informes de Amenazas Adversariales de Meta de 2024 documentaron un cambio cualitativo en la desinformación patrocinada por Estados: las operaciones extranjeras comenzaron a desplegar presentadores de noticias de vídeo generados por IA y portales de noticias sintéticos a escala. Una red iraní identificada en el informe Q2 2024 de Meta usaba presentadores generados por IA en sitios web de noticias falsos para presentar narrativas pro-iraníes como reportajes independientes. Una red de origen libanés publicaba presentadores de noticias de vídeo generados por IA que mezclaban contenido geopolítico con temas de estilo de vida para parecer creíble. Meta señaló que las herramientas de IA ofrecían a estas redes ganancias de eficiencia en la producción de contenido — pero aún no habían mejorado significativamente su capacidad para construir audiencias auténticas antes de ser detectadas. Las 20 operaciones interrumpidas por Meta en 2024 fueron todas identificadas antes de alcanzar alcance orgánico significativo. Para un análisis más profundo de los casos, consulta nuestro seguimiento de Noticias Falsas con IA en 2025.
Imágenes Sintéticas Inundando la Cobertura de Desastres
Múltiples eventos de desastres naturales en 2024 — incluyendo las inundaciones en Valencia, España, y el huracán Helene en el sureste de EE.UU. — fueron acompañados en cuestión de horas por imágenes generadas por IA que mostraban destrucciones que no habían ocurrido o estaban exageradas. AFP Fact Check, BBC Verify y Misbar documentaron más de una docena de imágenes de desastres confirmadas como generadas por IA que lograron una circulación significativa antes de ser desmentidas. Los artefactos visuales (fuentes de luz inverosímiles, manos anatómicamente distorsionadas, geometrías arquitectónicas imposibles) estaban presentes en todos los casos — pero eran invisibles para la mayoría de los espectadores casuales que consumían imágenes en miniatura en pantallas de móvil.
Desinformación Climática: Cambio de Tácticas
La desinformación climática en 2024 abandonó en gran medida la negación abierta de la ciencia en favor de la negación de soluciones — afirmaciones falsas dirigidas a la política climática en lugar de a la ciencia climática misma. Este cambio hizo más difícil la verificación: la ciencia subyacente ya no era el objetivo.
El Engaño del «Mapa de Temperaturas de 1986»
Un engaño que comparaba dos mapas meteorológicos — uno falsamente etiquetado como 1986, el otro como 2022 — se propagó por España, Francia, Alemania, Países Bajos, Polonia, Rumanía, Austria, Bélgica y Hungría a mediados de 2024, afirmando mostrar que los medios convencionales estaban fabricando pánico climático. La red de verificación de EDMO documentó la propagación en nueve países. El primer mapa era en realidad de 2016, no de 1986; el segundo era de 2021, no de 2022. Ambos eran mapas auténticos de fuentes meteorológicas legítimas — la manipulación estaba completamente en el etiquetado. Este caso es un ejemplo claro de cómo los datos auténticos pueden falsificarse mediante la manipulación del contexto, sin ninguna edición a nivel de píxel.
Desinformación sobre la «Política Verde» Europea
Antes de las elecciones al Parlamento Europeo, redes coordinadas difundieron afirmaciones falsas sobre los efectos económicos de las políticas climáticas de la UE — incluyendo estadísticas fabricadas que atribuían quiebras de explotaciones agrícolas, pérdidas de empleo y subidas de precios de la energía específica y exclusivamente a la legislación del Pacto Verde. El EU DisinfoLab rastreó múltiples instancias de estas narrativas apareciendo primero en medios pro-rusos antes de migrar a canales populistas nacionales. Las narrativas no estaban completamente inventadas: existían presiones económicas reales sobre los agricultores europeos. La desinformación consistía en presentar esas presiones como causadas exclusivamente por la política climática, y en adjuntar cifras fabricadas a quejas reales.
Negación de la Atribución Post-Desastre
Tras los principales eventos meteorológicos de 2024 — las inundaciones de Valencia (octubre), el huracán Milton (octubre) y las temperaturas récord de verano en el sur de Europa — surgió consistentemente una contranarrativa que afirmaba que atribuir estos eventos al cambio climático era especulación no científica. Este encuadre tergiversaba selectivamente la ciencia de la atribución: si bien los eventos meteorológicos individuales no pueden atribuirse al cambio climático con certeza, el campo de la ciencia de la atribución climática ha establecido vínculos probabilísticos entre el calentamiento y el aumento de la frecuencia y gravedad de tipos específicos de eventos. La metodología del IPCC distingue entre la atribución a nivel de evento (incierta) y la atribución a nivel de patrón (bien establecida) — una distinción que las narrativas negacionistas colapsan consistentemente.
Patrones y Tendencias: Lo Que Estableció 2024
En las cuatro categorías, varios patrones estructurales se repitieron con suficiente consistencia como para considerarse características definitorias del panorama de desinformación de 2024.
La asimetría de velocidad se amplió. La desinformación se propagó más rápido en 2024 que en cualquier año electoral anterior, impulsada por la amplificación algorítmica y la eliminación de fricciones al compartir (reposteos con un toque, vistas previas automáticas). Las correcciones quedaron consistentemente rezagadas horas o días. El Reuters Institute encontró que más del 24% de los usuarios de X declaró tener dificultades para distinguir contenido fiable del no fiable — una cifra que refleja no un fallo individual sino decisiones de diseño sistémicas de las plataformas.
La IA bajó el suelo de producción sin elevar el techo. El propio análisis de Meta encontró que las herramientas de IA daban a las operaciones de influencia ganancias de eficiencia en la producción de contenido pero no mejoraban su capacidad para evadir la detección. El deepfake de rendición de Zelenski de 2022 — uno de los primeros fakes de IA de alto perfil en un contexto de conflicto, documentado en nuestra base de datos de casos — era tosco y fue desmentido rápidamente. Los fakes de IA de 2024 eran más numerosos, no categóricamente más convincentes.
La moderación de las plataformas siguió siendo inconsistente. Los datos de EU DisinfoLab mostraron que aproximadamente el 45% del contenido marcado durante el período electoral no recibió acción de las plataformas, con X y YouTube mostrando las tasas más altas de inacción (alrededor del 75%). Este no es un problema específico de 2024 — pero se convirtió en uno documentado y cuantificado.
Las narrativas zombi no mueren. Las afirmaciones de infertilidad por vacunas, las alegaciones de fraude electoral y varios bulos climáticos desmentidos en 2021-2022 resurgieron en 2024 con mínimas modificaciones. Desmentir no borra una narrativa del ecosistema informativo — compite con ella.
Qué esperar en 2025: la oleada de contenido generado por IA que comenzó en 2024 se intensificó significativamente en 2025. Para los casos documentados y los métodos de detección, consulta nuestro análisis de noticias falsas generadas por IA en 2025. Para habilidades de verificación prácticas, el taller del método SIFT cubre las herramientas prácticas usadas en la mayoría de los casos anteriores.