El gigante tecnológico Google se encuentra en el centro de una nueva controversia sobre la neutralidad de sus sistemas de inteligencia artificial. Reportes recientes señalan que la herramienta AI Overviews (Resúmenes de IA), que genera respuestas automáticas en la parte superior del motor de búsqueda, mostró un comportamiento selectivo al responder preguntas sensibles sobre el estado cognitivo de los principales líderes políticos de Estados Unidos.
Lee también: ¿Domótica de pago? Google convierte el hogar inteligente en un servicio por suscripción mensual
PUBLICIDAD
La inconsistencia algorítmica se hizo evidente al comparar las respuestas para consultas idénticas. Mientras el sistema de IA optaba por bloquear la función y no generar un resumen para las búsquedas que involucraban al Presidente Donald Trump, ofrecía sin problema una respuesta automática para las búsquedas que mencionaban al expresidente Joe Biden. Este desequilibrio ha puesto nuevamente en relieve el desafío de las grandes tecnológicas para garantizar la imparcialidad en la moderación de contenidos generados por IA, especialmente en temas de alto impacto político.

Google AI en el Centro de la Controversia por Inconsistencia en Búsquedas Políticas
El medio tecnológico The Verge fue el primero en documentar la discrepancia. El informe indica que al ingresar consultas que combinaban el nombre del Presidente Donald Trump con términos como “demencia” o “declive cognitivo”, la función de IA arrojaba consistentemente un mensaje estándar: “Un Resumen de IA no está disponible para esta búsqueda.”

Sin embargo, al ingresar exactamente la misma consulta, pero sustituyendo el nombre de Trump por el del expresidente Joe Biden, el sistema procedía a generar y mostrar el resumen de IA sin restricciones.
La Respuesta de la Compañía y el Problema de la Consistencia
La evidente diferencia en las respuestas generadas por el algoritmo ha provocado un debate sobre el posible sesgo o filtro selectivo que podría estar integrado en los sistemas de IA. Ante los cuestionamientos, Google emitió una declaración señalando que sus sistemas automáticos determinan cuándo un resumen de IA puede ser útil y que su rendimiento “no siempre es 100% consistente.”
Un portavoz de la compañía explicó que los sistemas están diseñados para evitar generar resúmenes automáticos en ciertas búsquedas, como aquellas relacionadas con temas médicos especulativos o eventos sensibles, optando por mostrar solo enlaces tradicionales en esos casos. No obstante, el problema medular, como señalan los críticos, es la falta de uniformidad en la aplicación de esta regla, lo que da la impresión de una moderación activa específica para un candidato.
PUBLICIDAD

El impacto de los filtros de IA en la información política
Este incidente subraya el desafío inherente al desplegar herramientas de inteligencia artificial en el contexto político y electoral. Los modelos de lenguaje grande (LLM), que alimentan estos resúmenes, son propensos a la desinformación y a reproducir sesgos presentes en sus datos de entrenamiento.
Si bien Google ha tomado medidas en el pasado para ser cauteloso con las consultas políticas y médicas, la aparente selectividad en la respuesta al buscar al Presidente Trump plantea interrogantes sobre la neutralidad de las plataformas. El diseño algorítmico, o la ausencia de él en ciertos casos, tiene un impacto directo en cómo millones de usuarios reciben la información, intensificando el debate sobre cómo las grandes tecnológicas manejan la moderación de contenido sensible y si esta afecta la percepción pública de las figuras políticas.