Olvídate de pensar que ChatGPT es un genio que entiende el mundo como tú, que razona y que es capaz de pensar por sí mismo. El CEO de OpenAI, Sam Altman, ha revelado una serie de secretos sobre cómo funciona realmente la inteligencia artificial, y te aseguramos que te dejará helado. Detrás de sus respuestas fluidas y coherentes, hay una serie de procesos mecánicos que demuestran que no tiene ni conciencia, ni sentimientos, ni siquiera entiende las palabras. Conocer cómo opera realmente este chatbot es clave para entender por qué a veces acierta, y por qué otras simplemente se lo inventa todo.
Lee también: Los Sims 4 ha sido tan exitoso que le generó un problema a EA
PUBLICIDAD
1. No piensa sola, detrás hay un equipo de humanos
Aunque pueda parecer que ChatGPT lo sabe todo por sí mismo, la realidad es que para que el chatbot responda con naturalidad, hay un equipo de personas que lo han “entrenado”. Este proceso se llama alineación, y es el motivo por el que, si preguntas cómo fabricar un arma, el sistema no solo no te da una respuesta, sino que te redirige a una fuente fiable. Sin ese filtro humano, la IA sería una caja de Pandora, sin ningún tipo de control o ética.

2. No aprenden con palabras, lo hacen con tokens
Cuando lees una frase, la entiendes como una unidad con sentido, pero para ChatGPT eso no existe. El sistema lo que hace es dividir cada texto en piezas más pequeñas llamadas tokens. Por ejemplo, la frase “ChatGPT es maravilloso” se divide en Chat-G-PT-es-mar-vellous. Este sistema explica por qué a veces la IA interpreta mal una pregunta, mezcla significados o responde de forma extraña. Lo que ve no son ideas, sino trozos sueltos que intenta recomponer.
3. Viven atrapados en el pasado
Aunque parezca que el chatbot lo sabe todo, su conocimiento está limitado a una fecha concreta: junio de 2024. Después de esa fecha, no tiene ni idea de lo que ha pasado en el mundo. Si le preguntas por algo reciente, necesita hacer una búsqueda en internet y utiliza el motor de Bing. Si el contenido que encuentra es escaso, contradictorio o poco claro, su respuesta también lo será. Actualizar un modelo de lenguaje no es tan fácil como instalar una app; es un proceso complejo, costoso y lento. Por eso, hasta que se entrena una nueva versión, ChatGPT vive atrapado en el pasado.

4. Las famosas “alucinaciones” que te cuentan mentiras
Uno de los fallos más serios de esta IA es su capacidad para “alucinar”, es decir, darte respuestas que suenan convincentes, pero que son completamente falsas. No lo hace a propósito, simplemente rellena los huecos para que la respuesta parezca completa y fluida. Esto ocurre porque su prioridad es sonar coherente, no tener razón. Si una frase suena lógica y sigue el patrón de millones de textos que ha leído, la generará aunque no tenga ninguna base real. Por eso, hay que tener cuidado al usarlo para buscar información, porque puede darte ideas, pero nunca deberías tomar sus respuestas como definitivas.
5. Las operaciones matemáticas las hace con una calculadora, no con su ‘cerebro’
ChatGPT no sabe matemáticas. Si bien puede darte el resultado correcto, lo que en realidad hace es delegar esa operación a una herramienta interna que actúa como calculadora. Tú escribes la pregunta, el sistema identifica que se trata de un cálculo, lo resuelve con esa app y luego te muestra el resultado como si lo hubiera pensado el chatbot. Por eso, a veces puede fallar en sumas simples, pero acertar en problemas complicados. Todo depende de si ha activado su herramienta de razonamiento o no.