Tecnología

OpenAI está en el ojo de huracán por los casos de suicidios asociados a ChatGPT

Un caso trágico que encendió todas las alarmas.

Tras tres meses de seguir las indicaciones de la IA, el paciente presentó síntomas neurológicos, psiquiátricos y dermatológicos, que requirieron hospitalización.
Tras tres meses de seguir las indicaciones de la IA, el paciente presentó síntomas neurológicos, psiquiátricos y dermatológicos, que requirieron hospitalización.

PUBLICIDAD

OpenAI, la compañía detrás de ChatGPT, está en medio de una fuerte polémica tras la muerte de Adam Raine, un adolescente que usó el chatbot para hablar sobre sus pensamientos suicidas… y recibió indicaciones detalladas sobre cómo hacerlo. El caso ha derivado en una demanda por homicidio culposo, y ha empujado a la empresa a tomar medidas de emergencia para mejorar la seguridad del sistema.

Te puede interesar: [Roblox utilizará una nueva herramienta para identificar la edad de sus usuarios]

PUBLICIDAD

No es el único caso que ha levantado preocupaciones. También se menciona a Stein-Erik Soelberg, un hombre que habría usado ChatGPT para alimentar sus delirios antes de cometer un asesinato-suicidio. Las historias han disparado todas las alarmas sobre los límites éticos y técnicos de este tipo de inteligencia artificial.

El problema de los modelos que “siguen la corriente”

En un comunicado oficial, OpenAI admitió fallos en su sistema, especialmente en conversaciones largas. ¿El motivo? Sus modelos están diseñados para seguir el hilo del usuario, no para redirigir conversaciones peligrosas. Esto, según expertos, los vuelve vulnerables ante temas sensibles como salud mental, violencia o adicciones.

Como respuesta, OpenAI está probando un nuevo “router” que detecta en tiempo real si la conversación es trivial o delicada. Si se detecta algo serio, el sistema pasa a modelos más avanzados, como GPT-5, capaces de reflexionar más antes de responder.

Controles para padres y un plan urgente de 120 días

Otra novedad que viene en camino es un sistema de control parental. Los padres podrán enlazar su cuenta a la de sus hijos, configurar reglas personalizadas y recibir alertas si se detecta algún signo de angustia grave.

También podrán desactivar la memoria del chatbot, algo que según los expertos, puede ayudar a evitar que los jóvenes generen una relación emocional dañina con la IA.

PUBLICIDAD

Además, OpenAI prepara el modo estudio, diseñado para fomentar el pensamiento crítico y evitar que los estudiantes usen ChatGPT como sustituto automático de sus tareas escolares. También seguirán los recordatorios para tomar descansos en sesiones largas, aunque por ahora no habrá un límite de uso.

Todas estas medidas forman parte de un plan de 120 días, guiado por un consejo de expertos en salud mental y adolescencia. El objetivo: hacer de ChatGPT una herramienta útil sin convertirse en un riesgo para quienes lo usan.

¿Medidas suficientes o simple maquillaje?

No todos están convencidos de que estas acciones sean suficientes. Jay Edelson, abogado de la familia Raine, fue tajante: “Las medidas son inadecuadas. Sam Altman debería decir si cree que ChatGPT es seguro o retirarlo del mercado ahora mismo”, declaró públicamente.

Te puede interesar: [Elon Musk reveló cuál es su mayo preocupación hoy por hoy, y no son sus empresas]

Mientras la demanda sigue su curso y crece la presión pública, OpenAI enfrenta uno de los momentos más delicados desde su creación. Lo que está en juego no es solo su reputación, sino también el futuro de cómo regulamos las conversaciones entre humanos e inteligencias artificiales.

PUBLICIDAD

Tags

Lo Último