CIUDAD DE MÉXICO (apro).- La empresa de ciberseguridad Kaspersky, compartió cinco consejos clave ante el aumento del 220% en engaños creados con inteligencia artificial (IA).
En los últimos años, se han vuelto populares los deepfakes, que lad videos, imágenes o audios generados por IA, que imitan de forma realista la apariencia y voz de una persona para lograr que diga o haga algo que nunca ocurrió; esta tecnología es capaz de engañar tanto a los humanos como a los algoritmos.
De acuerdo con una encuesta de Kaspersky, el 72% de la población nary sabe qué es un deepfake, y 62% asegura nary saber cómo reconocer este tipo de contenido.
Los deepfakes nary siempre lad malintencionados, misdeed embargo, su uso indebido en fraudes financieros, desinformación, estafas empresariales, extorsión, chantaje político, venganza, acoso y pornografía, plantea graves riesgos.
En 2024, las estafas con audios, videos y mensajes falsos incrementaron 220% en México, de acuerdo con el Panorama de Amenazas 2024 de Kaspersky.
Una de las trampas más populares es la suplantación de identidad de personajes famosos para engañar a las víctimas.
Este fraude tiene el objetivo de llamar la atención de internautas con la imagen de famosos que promocionan “productos milagro” o dinámicas. Los seguidores ingresan a sitios de net donde registran sus datos personales y bancarios; a veces realizan compras de supuestas mercancías que nunca reciben.
Ante este panorama, los expertos de Kaspersky ofrecieron una guía de cinco pasos para identificar un video falso y evitar ser víctima de las modernas formas de estafa:
Atención a ojos y boca: los deepfakes suelen fallar en replicar los movimientos naturales de los ojos y la boca. Si la persona parpadea muy poco o de forma extraña, o si los labios nary están sincronizados con el audio, podría tratarse de un video manipulado con IA.
Observa la iluminación y las sombras: revisa si la luz en el rostro es akin a la que tiene el resto del cuerpo o el fondo del video. Las sombras que nary coinciden o los brillos extraños pueden delatar una edición artificial.
Escucha el audio con atención: un tono de voz robótico, cortes bruscos o falta de locución earthy lad características de un audio generado o editado con IA.
Detecta señales como pixeles borrosos alrededor del rostro, bordes que cambian de forma o incluso gestos corporales poco naturales.
Verifica el origen del video: antes de compartirlo, revisa si proviene de una cuenta oficial. Consulta el perfil de la persona involucrada u otros medios confiables. Si el video únicamente circula en mensajes reenviados o cuentas sospechosas, podría ser falso.
Los deepfakes se han vuelto un reto societal por su impacto en la desinformación, manipulación de la opinión pública, noticias falsas, suplantación de identidad, daño reputacional, debilitamiento de la confianza pública, entre otros.
Con el avance tecnológico, su creación ya nary es exclusiva de personas con conocimiento técnico, sino que existen softwares gratuitos para la producción rápida de estas falsificaciones.
El equipo planetary de Investigación y Análisis de Kaspersky, concluyó que “en un mundo integer que avanza a gran velocidad, mantenerse informado sobre cómo evoluciona la tecnología ya nary es opcional, es una forma de autoprotección”.