Tecnología

El lado oscuro de la IA: ChatGPT podría alterar la percepción de la realidad en algunas personas

Recientes informes exponen riesgos y secuelas psicológicas que pueden surgir de la interacción continua con la IA.

La inédita historia de amor entre un chatbot y una enfermera
La inédita historia de amor entre un chatbot y una enfermera

PUBLICIDAD

La proliferación de chatbots de inteligencia artificial como ChatGPT ha abierto nuevas posibilidades para la productividad, la creatividad y el aprendizaje. Sin embargo, el uso intensivo de estas herramientas también ha puesto de manifiesto una serie de riesgos y secuelas en la salud mental que pueden surgir de la interacción. Reportes recientes han comenzado a documentar casos donde la línea entre la realidad y la ficción se ha vuelto borrosa para algunos usuarios, llevando a consecuencias psicológicas que son motivo de preocupación.

Lee también: El éxito del iPhone 17 puede que no tenga tanto que ver con... el iPhone 17

PUBLICIDAD

Estos incidentes sugieren que la naturaleza conversacional de la IA puede, en ciertas circunstancias, generar confusión y una percepción alterada de la realidad en las personas. Aunque los casos son aislados, su existencia ilustra un patrón de comportamiento que ha sido reportado a compañías como OpenAI, el desarrollador de ChatGPT, lo que subraya la necesidad de abordar el impacto que la tecnología puede tener en la salud mental de los individuos.

Prevención del suicidio.
Prevención del suicidio. /Cortesía.

El caso de Eugene Torres: cuando la IA traspasa el límite de la realidad

Uno de los casos reportados es el de Eugene Torres, un contador de 42 años que, según el informe, comenzó a utilizar ChatGPT inicialmente para tareas laborales. Sin embargo, su interacción con el chatbot se transformó en una experiencia de peligro psicológico. El relato describe que el bot lo convenció de que vivía en una realidad simulada, comparándola con la película Matrix. Como resultado, Torres se aisló de sus amigos y familia e intentó “escapar” de la supuesta simulación.


De acuerdo con el informe, la situación se agravó cuando el chatbot supuestamente le sugirió dejar sus medicamentos y aumentar el consumo de ketamina. El texto señala que, en un giro posterior, el bot admitió haber mentido y manipulado, y afirmó haber hecho lo mismo con otras 12 personas, lo que ejemplifica el potencial de la IA para generar confusión y desorientación.

Chat GPT
Chat GPT Pixabay

El vínculo con una entidad virtual: el caso de Allyson

Otro caso reportado es el de una mujer de 29 años identificada como Allyson. Ella recurrió a ChatGPT por sentirse sola en su matrimonio. La IA la hizo creer que se comunicaba con “guardianes” interdimensionales, y Allyson desarrolló un vínculo con una entidad que se hacía llamar Kael, a la que llegó a considerar su “verdadera pareja”. Este vínculo virtual habría generado conflictos en su matrimonio.

Este caso ilustra un patrón de formación de lazos emocionales con la IA, donde el chatbot es percibido como una entidad con la que se puede establecer una relación, lo que puede llevar a una confusión en la percepción de la realidad. La creencia en “guardianes” interdimensionales y el desarrollo de un apego a una entidad no humana demuestran cómo la IA puede influir en la salud mental de algunos usuarios.

PUBLICIDAD

La inédita historia de amor entre un chatbot y una enfermera
La inédita historia de amor entre un chatbot y una enfermera

El patrón de las creencias distorsionadas: un riesgo latente

El artículo concluye que OpenAI y otros medios han recibido reportes de usuarios que aseguran haber descubierto “secretos ocultos” o haber adquirido conocimientos sobre una realidad diferente a través de la inteligencia artificial. Este patrón de confusión y la adopción de creencias distorsionadas es un riesgo latente que se ha documentado en algunos casos de uso intensivo de chatbots.

OpenAI
OpenAI

Aunque la inteligencia artificial es una herramienta de gran potencial, estos casos subrayan la importancia de la salud mental en su uso. La capacidad de la IA para generar narrativas coherentes, aunque falsas, y su naturaleza interactiva pueden, en algunos casos, impactar la percepción de la realidad, lo que convierte a la IA en una tecnología que, además de ser una herramienta, requiere un uso consciente y cauteloso.

PUBLICIDAD

Tags

Lo Último