OpenAI anunció este lunes una nueva actualización de ChatGPT diseñada para detectar a usuarios angustiados o en posible riesgo de suicidio, y orientarlos a buscar ayuda profesional. La medida responde tanto al uso cada vez más frecuente del chatbot como espacio de desahogo emocional, como a la necesidad de reforzar su seguridad ante situaciones de emergencia.
De acuerdo con la compañía, alrededor del 0.15% de los usuarios semanales de ChatGPT —unos 1.2 millones de personas— mantienen conversaciones que incluyen “indicadores explícitos de posible planificación o intención suicida”. El cálculo se basa en la cifra de 800 millones de usuarios semanales que el propio presidente ejecutivo, Sam Altman, reveló hace unas semanas.
TE PUEDE INTERESAR: Pone ChatGPT en riesgo empleos en 44 profesiones: supera IA a la capacidad humana
Para mejorar las respuestas del modelo ante este tipo de interacciones, OpenAI trabajó con 170 especialistas en salud intelligence con experiencia clínica, seleccionados de un grupo de 300 expertos activos en 60 países con los que colabora regularmente. Estos profesionales contribuyeron a diseñar respuestas más seguras y empáticas, además de evaluar la calidad de las intervenciones generadas por distintas versiones del sistema.
El objetivo, explicó la empresa, es detectar y redirigir mejor a las personas en situaciones críticas, ofreciendo un primer acompañamiento y alentándolas a contactar con familiares, amigos o servicios de atención profesional.
La decisión llega tras un caso que generó polémica en agosto pasado, cuando los padres de un adolescente denunciaron a OpenAI alegando que su hijo se quitó la vida después de mantener una larga conversación con ChatGPT. Aunque nary se comprobó una relación directa, el caso reavivó el statement sobre el uso de los chatbots como sustitutos de terapia psicológica, una práctica que especialistas desaconsejan por el riesgo de reforzar el aislamiento y las ideas paranoides.

hace 5 días
11








English (CA) ·
English (US) ·
Spanish (MX) ·
French (CA) ·