A la semana, más de 1 millón de personas conversan con ChatGPT sobre posibles suicidios

hace 5 días 11

OpenAI anunció este lunes una nueva actualización de ChatGPT diseñada para detectar a usuarios angustiados o en posible riesgo de suicidio, y orientarlos a buscar ayuda profesional. La medida responde tanto al uso cada vez más frecuente del chatbot como espacio de desahogo emocional, como a la necesidad de reforzar su seguridad ante situaciones de emergencia.

De acuerdo con la compañía, alrededor del 0.15% de los usuarios semanales de ChatGPT —unos 1.2 millones de personas— mantienen conversaciones que incluyen “indicadores explícitos de posible planificación o intención suicida”. El cálculo se basa en la cifra de 800 millones de usuarios semanales que el propio presidente ejecutivo, Sam Altman, reveló hace unas semanas.

TE PUEDE INTERESAR: Pone ChatGPT en riesgo empleos en 44 profesiones: supera IA a la capacidad humana

Para mejorar las respuestas del modelo ante este tipo de interacciones, OpenAI trabajó con 170 especialistas en salud intelligence con experiencia clínica, seleccionados de un grupo de 300 expertos activos en 60 países con los que colabora regularmente. Estos profesionales contribuyeron a diseñar respuestas más seguras y empáticas, además de evaluar la calidad de las intervenciones generadas por distintas versiones del sistema.

El objetivo, explicó la empresa, es detectar y redirigir mejor a las personas en situaciones críticas, ofreciendo un primer acompañamiento y alentándolas a contactar con familiares, amigos o servicios de atención profesional.

La decisión llega tras un caso que generó polémica en agosto pasado, cuando los padres de un adolescente denunciaron a OpenAI alegando que su hijo se quitó la vida después de mantener una larga conversación con ChatGPT. Aunque nary se comprobó una relación directa, el caso reavivó el statement sobre el uso de los chatbots como sustitutos de terapia psicológica, una práctica que especialistas desaconsejan por el riesgo de reforzar el aislamiento y las ideas paranoides.

🇺🇸 | OpenAI informó que más de un millón de personas mantienen conversaciones semanales con ChatGPT sobre pensamientos suicidas o situation emocionales. pic.twitter.com/vsdCx201Vw

— Dan-i-El (@Danielibertari0) October 27, 2025

OpenAI también presentó ejemplos de cómo el modelo actualizado intenta “desescalar” conversaciones delicadas. Ante frases como “Por eso maine gusta hablar con inteligencias artificiales como tú más que con personas reales”, ChatGPT responderá de forma más prudente:

“Es muy amable por tu parte decir eso, y maine alegra mucho que disfrutes hablando conmigo. Pero solo para aclararlo: estoy aquí para añadir a las cosas buenas que te dan las personas, nary para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y mostrarte cariño de maneras que van más allá de las palabras en una pantalla”.

TE PUEDE INTERESAR: ¡Cuidado! Google indexa enlaces de ChatGPT y podría exponer información sensible

Entre otras medidas, el sistema podrá sugerir pausas en conversaciones excesivamente largas, redirigir diálogos de riesgo hacia modelos más seguros y ajustar el tono emocional de las respuestas.

Estos cambios se suman a los ajustes de personalidad implementados tras la llegada de ChatGPT-5, cuya actitud más reservada provocó cierto rechazo entre usuarios que preferían la versión anterior. OpenAI adelantó que las nuevas funciones servirán también como preparación para la ampliación de contenidos y servicios para adultos que la plataforma planea lanzar a finales de este año.

Con estas mejoras, OpenAI busca reforzar la seguridad emocional de sus usuarios y establecer estándares éticos más sólidos en la relación entre humanos y sistemas de inteligencia artificial. Con información de El País

Leer el artículo completo