Ciencia

Científicos alertan que la IA podría reducir la diversidad del pensamiento humano

Un estudio de la Universidad del Sur de California alerta de que los modelos de lenguaje están provocando que las personas piensen y se expresen de igual forma

DeepSeek, el asistente de IA chino que ha desbancado a ChatGPT
La diversidad cognitiva está disminuyendo a medida que miles de millones de personas utilizan los mismos chatbots para tareas cada vez más diversas, dicen los cientéificos. (Eduardo Parra / Europa Press/Europa Press)

Los chatbots de inteligencia artificial están estandarizando la forma en que las personas hablan, escriben y piensan, según un trabajo de la Universidad del Sur de California (Estados Unidos).

Si esta homogeneización continúa sin control, podría reducir la sabiduría colectiva y la capacidad de adaptación de la humanidad, advierten científicos informáticos y psicólogos en un artículo de opinión publicado en la revista Trends in Cognitive Sciences, de Cell Press.

Los expertos sostienen que los desarrolladores de modelos de lenguaje de gran tamaño (LLM) deberían incorporar una mayor diversidad del mundo real en los conjuntos de entrenamiento, no solo para preservar la diversidad cognitiva humana, sino también para mejorar la capacidad de razonamiento de los chatbots.

“Las personas difieren en su forma de escribir, razonar y ver el mundo”, explica el científico informático Zhivar Sourati, primer autor del estudio e investigador de la Universidad del Sur de California. “Cuando estas diferencias son mediadas por los mismos LLM, su estilo lingüístico, perspectiva y estrategias de razonamiento distintivos se homogeneizan, produciendo expresiones y pensamientos estandarizados”.

Según los investigadores, la diversidad cognitiva dentro de grupos y sociedades impulsa la creatividad y la resolución de problemas. Sin embargo, advierten de que esta diversidad está disminuyendo a medida que miles de millones de personas utilizan los mismos chatbots para tareas cada vez más diversas.

Por ejemplo, cuando los usuarios emplean estos sistemas para pulir sus textos, la escritura puede perder su individualidad estilística y disminuir la sensación de responsabilidad sobre la producción creativa.

“La preocupación no es solo que los LLM moldeen la forma en que la gente escribe o habla, sino que redefinen sutilmente lo que cuenta como un discurso creíble, una perspectiva correcta o incluso un buen razonamiento”, señala Sourati.

El equipo cita varios estudios que muestran que los textos generados por LLM tienden a reflejar el lenguaje, los valores y los estilos de razonamiento de sociedades occidentales, educadas, industrializadas, ricas y democráticas.

“Dado que los LLM están entrenados para capturar regularidades estadísticas en sus datos de entrenamiento, que a menudo sobrerrepresentan idiomas e ideologías dominantes, sus resultados reflejan una porción estrecha y sesgada de la experiencia humana”, añade el investigador.

Los científicos también indican que, aunque los individuos pueden generar más ideas al utilizar LLM, los grupos producen menos ideas y menos creativas cuando dependen de estos sistemas que cuando combinan directamente sus capacidades colectivas.

Además, advierten que incluso quienes no utilizan directamente estos modelos pueden verse influidos por ellos. “Si mucha gente a mi alrededor piensa y habla de cierta manera, sentiría la presión de alinearme con ellos, porque parecería una forma más creíble o socialmente aceptable de expresar mis ideas”, explica Sourati.

Más allá del lenguaje, estudios muestran que tras interactuar con LLM sesgados las opiniones de las personas pueden acercarse a las del propio modelo. También destacan que estos sistemas favorecen el razonamiento lineal paso a paso, lo que puede reducir el uso de estilos intuitivos o abstractos que en algunos casos resultan más eficientes.

Asimismo, los investigadores advierten que los usuarios tienden a aceptar las sugerencias de los modelos como opciones “suficientemente buenas”, lo que puede trasladar gradualmente la iniciativa creativa desde el usuario hacia el sistema.

Ante este escenario, el equipo propone que los desarrolladores incorporen deliberadamente diversidad lingüística, cultural y de razonamiento en los modelos. Según Sourati, esta diversidad debería basarse en la pluralidad real existente entre los seres humanos y no en variaciones aleatorias.

“Si los LLM tuvieran formas más diversas de abordar ideas y problemas, apoyarían mejor la inteligencia colectiva y la capacidad de resolución de problemas de nuestras sociedades”, concluye.

Tags