Tecnología

¿Buena idea? Una persona siguió una dieta creada por ChatGPT

Spoiler: la IA no es tu médico

Las conversaciones con el chatbot no tienen protección legal. (Foto: Redes sociales)
ChatGPT. Las conversaciones con el chatbot no tienen protección legal. (Foto: Redes sociales)

PUBLICIDAD

La revista Annals of Internal Medicine documentó el caso de un paciente que, durante tres meses, eliminó el cloruro sódico y lo sustituyó por sales de bromuro tras consultar a un sistema de IA. Acabó con intoxicación severa: paranoia, alucinaciones, desorientación y una internación de tres semanas, tratada con antipsicóticos e hidratación intravenosa.

Te puede interesar: [Sam Altman lo reconoce: La IA está en una búrbuja económica]

PUBLICIDAD

Al replicar consultas similares, el mismo modelo volvió a producir respuestas peligrosas y sin advertencias claras.

El bromuro: un “sustituto” con historia oscura

Las sales de bromuro se usaron en el siglo XX como ansiolíticos y para el insomnio; llegaron a causar entre el 5% y el 10% de las hospitalizaciones psiquiátricas por “bromismo”. La FDA prohibió su uso médico en 1975, pero hoy reaparece en algunos suplementos no regulados.

No es un reemplazo inocuo de la sal: su toxicidad puede provocar desde náuseas y problemas de coordinación hasta cuadros neurológicos graves.

Cómo se manifestó la intoxicación

El paciente llegó a urgencias convencido de que un vecino lo había envenenado, rechazaba beber agua y mostraba síntomas paranoides y psicóticos. Con diagnóstico de intoxicación por bromuro, requirió manejo psiquiátrico y soporte intravenoso.

Se recuperó, pero el caso evidencia lo rápido que una “recomendación” mal fundamentada puede comprometer la salud.

PUBLICIDAD

Por qué la IA no es tu médico

Un chatbot puede sonar convincente, pero no evalúa tu historia clínica, no confirma dosis ni contraindicaciones y puede inventar respuestas plausibles que son falsas. A diferencia de un profesional, no aplica criterios diagnósticos ni te advierte de riesgos reales.

Sirve para informarte y preparar preguntas, no para indicar tratamientos o dietas extremas.

Más allá de la salud, la IA complica la detección de phishing, facilita desinformación y deepfakes, y abre debates éticos aún sin regulación clara. Incluso voces líderes del sector reconocen que existe hype y riesgos si se adopta sin cautelas.

Qué hacer antes de cambiar tu alimentación

Las decisiones sobre nutrición, suplementos o medicación deben pasar por personal sanitario. Si una “dieta” propone eliminar un nutriente esencial o reemplazarlo por compuestos poco comunes, detente y consulta. Verifica fuentes, revisa permisos de apps y desconfía de atajos milagrosos.

Si usas IA, úsala para entender conceptos, no para autotratarte.

Te puede interesar: [Sam Altman va por donde más le duele a Elon Musk: Prepara competencia para Neuralink]

La tecnología puede ayudar, pero sin criterio clínico puede hacer daño. Este caso lo deja claro: seguir al pie de la letra recomendaciones sanitarias de un chatbot puede costarte la salud.

PUBLICIDAD

Tags

Lo Último