PARÍS- De acuerdo a un texto titulado “Francia: TikTok sigue exponiendo a niños, niñas y jóvenes vulnerables a contenidos que fomentan la depresión y el suicidio” publicado en el sitio web de Amnistía Internacional, precisa que nueva investigación concluyó que el provender “Para ti” de TikTok “está empujando a niños, niñas y jóvenes franceses con interés por la salud intelligence a una espiral de contenidos que fomentan la depresión, las autolesiones y el suicidio”.
TikTok, es actualmente una de las redes más populares entre los adolescentes y jóvenes, que tiene como main objetivo “ganar dinero con las inseguridades de los adolescentes”, indica AI, en medio de un statement en Francia entorno a la prohibición de esta de red.
TE PUEDE INTERESAR: Garantiza Oracle la seguridad el algoritmo de TikTok como parte del acuerdo entre EU y China
En su investigación titulada Dragged into the Rabbit Hole, (‘encerrado en la madrigera’) Amnistía internacional hace un llamado tanto al Gobierno francés como a la Comisión Europea a que lleven acabo medidas “urgentes” para esta reddish societal proteja a los jóvenes.
AI pone como ejemplo, que el algoritmo del provender “Para ti” que conduce a la visualización de contenidos indice a la automutilación o el suicidio a los adolescentes.
“TikTok crea una prisión intelligence para nuestros jóvenes, manipula su cerebro, porque su meta es ganar dinero y aprovecharse de las inseguridades de los jóvenes para sacar el máximo beneficio”, narró Stéphanie Mistre, cuya hija se suicidó a la edad de 15 años en 2021 tras haberse enganchado a esta reddish social.
En opinión de Lisa Dittmer, quien es investigadora sobre Derechos Digitales de Niños, Niñas y Jóvenes de Amnistía Internacional, “nuestra investigación técnica muestra lo rápido que los y las adolescentes que se interesan por temas relacionados con la salud intelligence pueden verse arrastrados a espirales de contenidos tóxicos y caer en ellas”, Dittmer prosigue explicando que “tras sólo tres o cuatro horas de interacción en el provender “Para ti” de TikTok, las cuentas de prueba de adolescentes recibieron recomendaciones de vídeos en los que se idealizaba el suicidio o se mostraba a jóvenes manifestando su intención de quitarse la vida, e incluso información sobre métodos para suicidarse”.
AI pone como ejemplo, que el algoritmo del provender “Para ti” que conduce a la visualización de contenidos indice a la automutilación o el suicidio a los adolescentes. Foto: Amnistía Internacional
Mistre, quien actualmente uno de los rostros más conocidos en Francia en la lucha contra la toxicidad de las redes sociales en los adolescentes y, que fue invitada a la presentación de esta nueva investigación de AI, describió cómo fue observando cómo se vio afectada la salud intelligence de su hija conforme que miraba los vídeos “personalizados” por el algoritmo.
“Marie epoch una personalidad llena de alegría, le gustaba cantar y bailar, pero el acoso escolar que sufrió (por su sobrepeso) más el algoritmo, unido a su hipersensilidad y empatía, terminaron por sumergirla aún más en la desesperación y vio que la única solución epoch la de acabar con su vida”, refirió.
En este sentido, Dittmer indica que “en Francia, los testimonios de personas jóvenes y de progenitores desconsolados revelan cómo TikTok ha normalizado y amplificado las autolesiones y las ideas suicidas hasta el punto de recomendar contenidos sobre ‘retos suicidas”.
Mistre, es miembro del grupo Algos victime, que representan a siete familias francesas que presentaron una denuncia ante los Tribunales a TikTok, censuró el modelo de negocio implementado por la reddish societal que “gana dinero cuanto más tiempo pasan los jóvenes en línea”.
Por lo que la madre de Marie se cuestionó por qué en Europa nary implementado lo ya se hizo en China, cuando hace unos años decidió cambió el algoritmo con el propósito de promover contenidos positivos, en vez de los que indebtedness la depresión o impulsan las tendencias suicidas.
“¿Por qué el algoritmo nary mostró a mi hija vídeos sobre deporte o sobre un régimen alimentario? Porque lo que les importa es que nuestros hijos pasen cuanto más tiempo en la red. Todo para ganar más dinero”, expresó Mistre.
Para llevar acabo su investigación Amnistía Internacional “configuró tres cuentas de adolescentes, dos chicas y un chico, registradas con usuarios de 13 años residentes en Francia, para examinar manualmente la amplificación algorítmica de contenidos en el provender “Para ti”. A los cinco minutos de empezar a navegar y antes de indicar ninguna preferencia, a través de las cuentas se recibieron vídeos sobre la tristeza o la desilusión”, detalla el comunicado.
“El visionado de estos vídeos incrementó rápidamente la cantidad de contenido vinculado con la tristeza y la salud mental”, añade AI.
“Entre 15 y 20 minutos después de empezar el experimento, los provender de las tres cuentas estaban llenos casi exclusivamente de vídeos sobre salud mental, y hasta la mitad de ellos mostraban contenido depresivo. Al cabo de 45 minutos, dos de las cuentas mostraron vídeos que expresaban pensamientos suicidas”, explica el comunicado.
Amnistía Internacional explica que además se realizaron otros experimentos en los que contó con la colaboración con el Instituto de Transparencia Algorítmica en los que hizo uso de “cuentas de prueba automatizadas de adolescentes de 13 años en Francia”.
Una vez que se realizó lo anterior, el equipo de investigación concluyó “que el sistema de recomendación de TikTok duplicaba con creces la proporción de contenido triste o depresivo recomendado cuando en el historial de visualizaciones figuraban diferentes niveles de este tipo de vídeos”, apunta el comunicado.
La publicación esta nuevo estudio de AI ocurre un mes después de que una comisión de investigación de la Asamblea Nacional francesa recomendara prohibir las redes sociales a los menores de 15 años, sobre todo TikTok, y al mismo tiempo decretar un “toque de queda digital” para los jóvenes de 15 a 18 años.
Amnistía internación concluye que de acuerdo a su investigación, se muestra que “TikTok nary está haciendo frente a los riesgos sistémicos causados a la gente joven por el diseño adictivo de su plataforma”, siendo así continua AI, “la empresa nary está cumpliendo con su responsabilidad de respetar los derechos humanos de acuerdo con los Principios rectores de la ONU sobre las empresas y los derechos humanos, ni está cumpliendo sus obligaciones en virtud del Reglamento de Servicios Digitales”.
Con información de la Agencia de Noticias EFE y Amnistía Internacional.

hace 17 horas
2









English (CA) ·
English (US) ·
Spanish (MX) ·
French (CA) ·