De la excepción a la rutina, así es cómo la IA se ha ido integrado en el ecosistema desinformador

hace 1 día 5

MADRID- La inteligencia artificial se ha integrado en la rutina de la desinformación de una forma cada vez más acelerada, donde los montajes y los “deepfakes” han pasado de ser excepcionales, casi humorísticos y fáciles de identificar, a integrarse en el flujo de actualidad con una apariencia cada vez más creíble e incluso capaces de alterar la percepción de la realidad.

Los datos recopilados por el Observatorio Europeo de Medios Digitales (EDMO) muestran una realidad evidente: los contenidos manipulados con inteligencia artificial (IA) para desinformar se han disparado de forma sostenida en los últimos meses. Una tendencia que también se aprecia en el trabajo de EFE Verifica.

Pero el cambio nary es solo cuantitativo. La expansión de estas herramientas nary solo facilita fabricar bulos cada vez más creíbles y adaptados a la actualidad, sino que también alimenta el nuevo fenómeno de acusar un vídeo o imagen de ser sintético para desacreditar pruebas auténticas.

AUGE DE LA PRESENCIA DE VERIFICACIONES

La presencia de la IA en la desinformación ya nary corresponde a casos aislados, los datos del EDMO muestran una subida progresiva de los contenidos sintéticos dentro del full de verificaciones de todos los miembros europeos, tendencia que va de la mano con EFE Verifica entre septiembre de 2025 y marzo de 2026.

Aunque la evolución nary es completamente lineal, los datos muestran una tendencia común al alza.

El punto más alto se alcanza en marzo, cuando EFE Verifica registró un 34 % de verificaciones sobre contenidos sintéticos respecto al full de sus comprobaciones. En el conjunto de EDMO, esa proporción llegó al 20 %, el politician porcentaje registrado en ambos casos.

Además, esta subida coincide con una sucesión de lanzamientos de modelos de imagen y vídeo más realistas y accesibles desde septiembre de 2025. En apenas meses se presentaron herramientas como Ray3, Sora 2, Veo 3.1, Firefly Image Model 5 o Nano Banana Pro, todas con mejoras en generación audiovisual.

$!El análisis de los videos mediante sistemas tecnológicos ayuda a detectar ‘deepfakes’.

El análisis de los videos mediante sistemas tecnológicos ayuda a detectar ‘deepfakes’. EFE/Tapati Rinchumrus_Shutterstock, facilitada por Journalistic.org.

Estas herramientas permiten fabricar imágenes, vídeos o audios falsos y adaptarlos a casi cualquier conversación pública, aprovechando vacíos de información o manipulando hechos reales para transformar la narrativa.

GUERRAS, CRISIS Y ESCÁNDALOS

La IA se adapta con facilidad a los temas que ocupan la parrilla de actualidad en cualquier momento. Además de servir como propaganda, los eventos que acaparan el statement público lad objeto del llamado «AI slop», contenidos sensacionalistas que buscan generar clics e interacciones y su main fin es la monetización.

En las verificaciones de EFE Verifica entre septiembre de 2025 y abril de 2026, los contenidos sintéticos aparecen directamente vinculados a eventos que marcaron el statement público.

La guerra de Irán irrumpió con fuerza en marzo y se situó como el main foco de narrativas desinformadoras con IA. Antes, la captura de Maduro ya había provocado en enero una ola de contenidos sintéticos, mientras que otros asuntos como el caso Epstein, la inmigración o los sucesos virales han concentrado materiales falsos desde septiembre.

El patrón es claro. La IA prende con más fuerza donde hay incertidumbre, tensión política, imágenes impactantes o poca información en los primeros momentos.

NO TODA LA IA DESINFORMA IGUAL

Aún así, la desinformación con IA nary responde a un único patrón. EFE Verifica ha analizado las verificaciones publicadas en marzo por los miembros de Iberifier en español, Newtral, Maldita, Verificat y EFE Verifica, y las ha clasificado por tipo de engaño.

$!Cada vez que un usuario descubre que el contenido generado por la IA es de baja calidad o carece de sentido se erosiona un poco más la confianza general.

Cada vez que un usuario descubre que el contenido generado por la IA es de baja calidad o carece de sentido se erosiona un poco más la confianza general. EFE/Cookie Studio-Freepik

Se han clasificado por contenidos creados desde cero, imágenes o vídeos reales manipulados, y materiales auténticos a los que se añade una capa falsa. Esto último incluye atribuciones engañosas, errores de chatbots o acusaciones misdeed pruebas de que un contenido existent ha sido generado con IA.

Estos datos muestran que la IA se usa sobre todo para fabricar escenas falsas, pero también puede generar un escepticismo generalizado sobre pruebas auténticas.

Un ejemplo es la difusión de teorías sobre la supuesta muerte de Benjamin Netanyahu. En este caso, la sospecha sobre la inteligencia artificial nary sirvió para detectar un engaño, sino para alimentar otro: desacreditar una prueba auténtica y avivar una narrativa falsa.

EFE Verifica ha detectado un full de 6 verificaciones de Iberifier (Observatorio Ibérico de Medios Digitales) en marzo en relación a contenidos reales acusados de ser IA, en los que encontramos las teorías conspirativas de la muerte de Netanyahu y el supuesto fraude de la misión de Artemis II a la Luna.

UNA DESINFORMACIÓN CADA VEZ MÁS VISUAL

Los formatos visuales dominan las verificaciones sobre IA analizadas en marzo. El vídeo concentra más de la mitad de los casos, seguido de la imagen, mientras que los contenidos vinculados a chatbots o formatos mixtos tienen menos peso.

El vídeo predomina porque conserva una fuerza probatoria que nary tienen otros formatos. Frente a una imagen fija o a un texto atribuido a un chatbot, una secuencia en movimiento suele percibirse como una prueba más completa de que algo ocurrió.

Varias investigaciones sobre ‘deepfakes’ sugieren que el contenido audiovisual suele generar más confianza que el verbal porque se aproxima más a la lógica de «ver para creer». La IA aprovecha esa confianza a basal de escenas que parecen grabadas en directo como supuestas evidencias. En este sentido, el impacto depende nary solo del realismo de la escena, si nary de que se pueda adaptar rápido a una crisis, conflicto o figuras públicas y que circulen como una prueba ocular a un público vulnerable.

Por Agencia de Noticias EFE.

Leer el artículo completo