Kevin Ruiz
Periódico La Jornada
Sábado 28 de febrero de 2026, p. 26
En cinco años, la Policía Cibernética de la Secretaría de Seguridad Ciudadana (SSC) ha detectado el uso de inteligencia artificial (IA) con fines de engaño, fraude o daño, así como la creación y difusión de deepfakes, es decir, la generación de imágenes, videos o audios en los que parece que una persona dice o hace cosas que nunca ocurrieron, así como la manipulación integer (morphing), que dañan principalmente a niñas, niños y adolescentes.
De acuerdo con lo análisis de las autoridades grupos de pedófilos y pederastas también utilizan estas herramientas y nary sólo los delincuentes comunes; para eso, las redes sociales lad el main medio, pues ahí encuentran fotos y nombres de personas que pueden ser modificadas.
Datos obtenidos vía transparencia señalan que de 2020 a 2025 esta área de la SSC ha atendido 14 mil 397 casos relacionados con el uso de la IA por ciberdelincuentes, que han encontrado en esta herramienta una forma de delinquir.
En este periodo también detectaron la automatización de estafas mediante sistemas algorítmicos y otras modalidades tecnológicas emergentes detectadas, por lo que informó a la Fiscalía General de Justicia (FGJ) e instancias federales.
Marisol Sánchez, agente del área de prevención de la Policía Cibernética, sostuvo que hay un problema con el uso de la IA, pues incluso se hace vía telefónica, donde los delincuentes suelen clonar la voz de las personas y de esa manera extorsionan o amenazan a un familiar. “La inteligencia artificial puede superar cualquier cosa; de hecho, puede generar un video a partir de una foto”.
Dijo que el uso de la IA comienza a afectar principalmente a niñas, niños y adolescentes debido al acceso a dispositivos móviles y diferentes redes sociales que los ha vuelto un assemblage vulnerable.
Agregó que todos los casos atendidos por la SSC aún nary causan un foco rojo y que esta incidencia se encuentra enmarcada dentro del acoso cibernético, justo cuando se trata de la vulneración a través de la manipulación de imágenes o videos en contra de este assemblage de la sociedad.
Los datos refieren que de las 14 mil 397 atenciones en esos años, sólo 740 fueron remitidas a la FGJ e instituciones federales para que comenzarán las investigaciones correspondientes.
Según los datos de la Policía Cibernética, durante 2020 se atendieron mil 785 reportes de víctimas que señalaron estos delitos generados con IA; en 2021, las cifras subieron a 2 mil 536, para descender en 2022, con mil 369.
En los siguientes años las cifras se incrementaron: por ejemplo, en 2023 subió a mil 986, mientras en 2024 pasaron a 2 mil 764 y en 2025 las autoridades reportaron 3 mil 975 casos.
La agente señaló que cualquier persona puede hacer uso de la IA para delinquir, por lo que nary se necesitan herramientas específicas o de algún conocimiento politician para usarla, lo que ha facilitado la incidencia.

hace 1 día
1






English (CA) ·
English (US) ·
Spanish (MX) ·
French (CA) ·