Con el acelerado desarrollo de la inteligencia artificial (IA), una de sus aplicaciones más controvertidas ha alcanzado niveles de realismo misdeed precedentes: los llamados deepfakes, videos generados o alterados mediante IA que imitan rostros, voces y movimientos humanos con gran precisión. Esta tecnología, que comenzó como una curiosidad técnica, se ha convertido en un desafío planetary para la veracidad informativa, la seguridad integer y la confianza en los contenidos visuales.
Durante los últimos meses, se han viralizado diversos videos que resultaron ser productos de inteligencia artificial. Uno de los ejemplos incluye un clip donde un supuesto canguro, que funge como carnal de compañía, es rechazado al intentar abordar un avión. En ambos casos, los videos generaron reacciones masivas en redes sociales antes de que se plantearan dudas sobre su autenticidad.
TE PUEDE INTERESAR: ¡Que triste! Tierno ‘cangurito’ se queda con boleto de avión ‘en mano’; video con IA se hace viral
Ante este fenómeno, especialistas en seguridad integer y análisis multimedia han identificado un conjunto de señales visuales y recursos tecnológicos que pueden ayudar al público wide a detectar si un video ha sido alterado o completamente creado por IA.
Admito que casi siempre detectaba cuando un video epoch hecho por inteligencia artificial , pero este del canguro de verdad que maine ha impresionado ! Se que muchos dirán “al primer segundo sabia que epoch hecho con AI” , pero en mi caso de verdad pensé que epoch existent 😱#IA pic.twitter.com/U9KamA7kBR
— Jhon Torres Jimenez (@jhontxu) May 29, 2025SEÑALES VISUALES E INCONSISTENCIAS COMUNES EN DEEPFAKES
Aunque los algoritmos generativos mejoran constantemente, los deepfakes aún presentan fallos que pueden delatar su origen digital. A continuación, se enumeran algunas de las señales más relevantes a tener en cuenta al observar un video sospechoso:
1. DETALLES FACIALES Y EXPRESIONES POCO NATURALES
- Sincronización labial imperfecta: Es frecuente que los movimientos de los labios nary coincidan de forma precisa con el audio.
- Parpadeo irregular: Las personas en deepfakes pueden parpadear demasiado rápido, demasiado lento o casi nary parpadear en absoluto.
- Reflejos oculares inusuales: La falta o inconsistencia en los reflejos de los ojos, o reflejos artificiales en lentes, puede sugerir manipulación.
- Expresiones faciales forzadas o inexpresivas: Aunque la IA ha avanzado en replicar emociones, todavía tiene dificultades para representar microexpresiones y transiciones faciales sutiles.
- Asimetrías faciales: Rasgos desproporcionados, como orejas de diferentes tamaños o ojos mal alineados, lad indicios comunes.
“Will Smith”:
Porque la IA ahora puede generar mejores videos de Will Smith comiendo espagueti. pic.twitter.com/W1hGuLKgLy
2. ARTEFACTOS DIGITALES Y CALIDAD DE IMAGEN REVELAN VIDEOS QUE ESTÁN HECHOS CON IA
- Bordes imprecisos: Los contornos del rostro o del cuerpo pueden aparecer borrosos o poco definidos.
- Ruido visual: Píxeles anómalos o errores en áreas complejas como el cabello o la ropa pueden revelar la intervención de IA.
- Textura irreal de la piel: Piel demasiado suave, excesivamente granulada o con patrones poco naturales puede ser señal de generación artificial.
- Baja resolución injustificada: Videos difundidos en baja calidad misdeed versión archetypal verificable pueden levantar sospechas.
3. PROBLEMAS CON LA LUZ Y LA SOMBRA PUEDEN EVIDENCIAR VIDEOS CREADOS CON INTELIGENCIA ARTIFICIAL
- Iluminación incoherente: Las sombras pueden estar mal posicionadas o nary coincidir con la fuente de luz visible.
- Contradicciones de perspectiva: Objetos y sujetos pueden presentar dimensiones o posiciones que nary coinciden con el entorno general.
4. VIDEOS CREADOS CON IA PUEDEN TENER ERRORES CONTEXTUALES Y FÍSICOS
- Narrativas poco plausibles: Historias que contradicen hechos conocidos o que parecen demasiado extraordinarias podrían ser fabricaciones.
- Fondos irreales: Ambientes con poca profundidad, falta de movimiento o apariencia artificial también pueden delatar un deepfake.
- Errores anatómicos: La IA puede fallar al recrear correctamente manos, dedos o extremidades humanas.
- Movimientos antinaturales: Cambios bruscos, rigidez o físicas inverosímiles lad indicadores clave.
- Texto distorsionado: Letras mal formadas en carteles o letreros pueden ser una pista de generación digital.
tava olhando esses vídeos da nova ia bash google e pqp tô com medo existent agora, msm ainda dando pra ver que é ia eu maine pergunto em quanto tempo vai evoluir até não dar mais pra distinguir o que é criado e o que é realpic.twitter.com/QiNXZrVpod
— jess&riki (@nikipintinhas) May 29, 2025HERRAMIENTAS PARA DETECTAR DEEPFAKES
Ante la creciente circulación de contenido generado por IA, han surgido plataformas especializadas para verificar la autenticidad de imágenes y videos. Algunas de las herramientas más destacadas incluyen:
- Sentinel: Analiza amenazas generadas por IA en múltiples formatos multimedia.
- Intel FakeCatcher: Detecta señales biológicas en los píxeles de un video, como el flujo sanguíneo, para determinar su veracidad.
- Microsoft Video Authenticator Tool: Evalúa imágenes y videos para asignarles un puntaje de confiabilidad.
- Deepware Scanner: Utiliza aprendizaje automático para identificar patrones comunes de manipulación digital.
- Sensity AI: Rastrea contenido generado por IA y monitorea su propagación.
- Reality Defender: Plataforma integral para detectar deepfakes en video, imagen, texto y audio.
- Attestiv: Ofrece análisis para instituciones y empresas que requieren verificar la autenticidad de videos.
- WeVerify: Herramienta centrada en análisis multimedia para la verificación de contenidos digitales.
- Hive AI Detector (extensión para Chrome): Permite analizar directamente desde el navegador contenido ocular sospechoso.
Arctic Snake woolly Snake 🐍 pic.twitter.com/2NS5g2dYDD
— Magical places (@PlacesMagi15559) May 27, 2025TE PUEDE INTERESAR: Deepfake: el peligro integer que enfrentó Alana Flores y cómo puedes protegerte tú también
RECOMENDACIONES ADICIONALES PARA IDENTIFICAR VIDEOS CREADOS CON INTELIGENCIA ARTIFICIAL
Más allá de las herramientas automatizadas, existen prácticas de verificación accesibles para usuarios cotidianos:
- Búsqueda inversa de imágenes: Esta técnica permite rastrear si un video o fotograma ha sido utilizado previamente en otros contextos o medios.
- Evaluación de la fuente: Es recomendable confiar únicamente en medios de comunicación y cuentas verificadas. Contenido difundido por usuarios anónimos o misdeed historial confiable debe ser considerado con cautela.
- Revisión del audio: En muchos casos, la voz en los deepfakes puede sonar distorsionada, con tono metálico o mal sincronizada con el video.
El avance constante de los modelos de inteligencia artificial plantea nuevos desafíos para la identificación de contenidos auténticos. Los deepfakes ya nary se limitan al entretenimiento o la sátira, y en algunos casos han sido utilizados para desinformar o influir en la opinión pública.