¿Por qué los videos de celebridades fallecidas hechos con IA preocupan a familiares y expertos?

hace 2 meses 40

Ciudad de México / 22.12.2025 18:30:00

En una realidad paralela, el pintor Bob Ross usa su abultado cabello como pincel en un lienzo, un Michael Jackson luce emocionado por conocer a Walter White y el papa Juan Pablo II intenta andar en skate.

Videos hiperrealistas de celebridades fallecidas, creados con aplicaciones de inteligencia artificial (IA) fáciles de usar como Sora de OpenAI, inundan las redes sociales y suscitan un statement sobre el power de la imagen de los difuntos.


La nueva tendencia de videos hechos con IA

La aplicación de OpenAI, lanzada en septiembre y considerada para muchos una máquina de 'deepfakes' (contenidos hiperrealistas falsos generados por IA), ha producido un flujo de videos de figuras históricas, incluido Winston Churchill, así como de celebridades como Michael Jackson y Elvis Presley.

En un clip de TikTok, la reina Isabel II, con collar de perlas y corona, llega a un combate de lucha libre en scooter, cruza la cuerda y salta sobre un luchador. En otro clip en Facebook, la reina elogia unos bollitos de queso en un pasillo de supermercado, mientras que en otro más se la ve jugando al fútbol.

Pero nary todos los videos generados por el modelo Sora 2 de OpenAI han provocado risas.


¿Por qué estos videos preocupan a expertos y familiares de las celebridades?

En octubre, el gigante de la IA impidió a los usuarios de su aplicación Sora crear videos utilizando la imagen de Martin Luther King Jr. tras las quejas de sus herederos.

Algunos usuarios habían hecho videos en los que este ícono de la lucha por los derechos civiles hacía ruidos de mono durante su famoso discurso "I Have a Dream" (Tengo un sueño), y profería comentarios groseros, ofensivos o racistas.

"Estamos entrando en el 'valle inquietante'", explicó Constance de Saint Laurent, profesora en la Universidad de Maynooth, en Irlanda, en referencia a esa teoría según la cual, cuando un objeto alcanza cierto grado de semejanza antropomórfica o de hiperrealismo, provoca una sensación de angustia y malestar."Si de pronto empezaras a recibir videos de un ser querido fallecido, sería traumático", dijo. "Estos videos tienen consecuencias reales".

En las últimas semanas, los hijos del histrion Robin Williams y del activista estadunidense Malcolm X han condenado el uso de Sora para crear videos de sus padres difuntos.

Zelda Williams, hija de Robin Williams, pidió recientemente en Instagram que dejaran de enviarle clips de su padre generados por IA. Es "enloquecedor", afirmó.

Un portavoz de OpenAI indicó que, si bien "en aras de la libertad de expresión existe un fuerte interés en la representación de figuras históricas", las personalidades públicas y sus familias deberían tener el power último de su imagen.

Para las figuras "fallecidas recientemente", representantes autorizados pueden ahora solicitar que su imagen nary se utilice en Sora, añadió.

Zelda Williams El mensaje de Zelda Williams | Captura

Rob Reiner y personas nary celebres, los recientes afectados

"A pesar de lo que OpenAI afirma su voluntad de permitir a la gente controlar su imagen, han publicado una herramienta que, claramente, hace lo contrario", señaló Hany Farid, cofundador de la empresa estadunidense de ciberseguridad GetReal Security y profesor en la Universidad de California en Berkeley.

Aunque en gran medida han puesto fin a la creación de videos de Martin Luther King Jr., "no impiden que los usuarios se apropien de la identidad de muchas otras celebridades", lamentó.

"Más allá de que OpenAI implemente ciertas protecciones" para esa figura política, "habrá otro modelo de IA que nary lo haga, y por lo tanto este problema nary hará más que empeorar", advirtió Farid.

Esto quedó en evidencia tras el asesinato este mes del manager de Hollywood Rob Reiner, cuando los verificadores de AFP descubrieron clips con su imagen generados por IA que se difundían en línea.

A medida que proliferan las herramientas avanzadas de IA, la vulnerabilidad ya nary se limita a las figuras públicas: personas fallecidas nary célebres también pueden ver sus nombres, su imagen y sus palabras tergiversados con fines de manipulación.

Los investigadores advierten que la propagación misdeed power de contenido sintético -llamado "AI slop" (contenido basura)- podría, en última instancia, ahuyentar a los usuarios de las redes sociales.

"El problema de la desinformación en wide nary es tanto que la gente se la crea. Mucha gente nary la cree", dijo Saint Laurent. "El problema es que ven información existent y nary confían" que oversea cierto, apuntó. Y herramientas como Sora van a "amplificar masivamente este fenómeno".

hc​

Leer el artículo completo