Cómo piensa una IA: Sistema 1 y Sistema 2 en los LLMs
TL;DR
- Los LLMs operan como Sistema 1 de Kahneman: rápido, intuitivo, basado en patrones
- Los modelos “razonadores” (o1, DeepSeek R1) añaden un pseudo-Sistema 2 al escribir su razonamiento
- Entender esto mejora cómo usamos estas herramientas y explica sus fallos
- El futuro va hacia híbridos que combinan intuición estadística con razonamiento deliberado
Si has usado ChatGPT, Claude o cualquier otro LLM, probablemente te has preguntado: ¿esto realmente “piensa” o solo predice palabras? La respuesta corta es: ambas cosas, y ninguna. Pero para entenderlo necesitamos hablar de Daniel Kahneman.
El marco de Kahneman: dos sistemas, una mente
En su libro “Pensar rápido, pensar despacio”, Kahneman describe dos modos de pensamiento humano. El Sistema 1 es rápido, intuitivo y automático: es lo que usas cuando reconoces una cara o esquivas un obstáculo. El Sistema 2 es lento, deliberado y lógico: es lo que activas cuando calculas 17 × 24 o planificas unas vacaciones.
Durante años asumimos que la IA aspiraba a ser Sistema 2 puro: lógica fría, razonamiento paso a paso. Pero los LLMs funcionan de forma radicalmente diferente.
Los LLMs son máquinas de Sistema 1
Aquí está la revelación que está cambiando nuestra comprensión de la IA: los modelos de lenguaje operan fundamentalmente como Sistema 1. No “razonan” en el sentido clásico. Lo que hacen es algo que podríamos llamar evolución por fuerza bruta.
El proceso de entrenamiento es brutalmente simple: predecir la siguiente palabra, miles de millones de veces, ajustando pesos en cada iteración. No hay un momento “eureka” donde el modelo entiende gramática o matemáticas. Simplemente, de esta tarea aparentemente trivial emergen capacidades sorprendentes.
Un modelo entrenado solo para predecir texto acaba “aprendiendo” geografía (porque los textos mencionan que París está en Francia), matemáticas básicas (porque aparecen operaciones en los datos), e incluso algo parecido a teoría de la mente (porque los diálogos humanos la reflejan).
Es emergencia pura: comportamiento complejo surgiendo de reglas simples.
El truco de los modelos “razonadores”
Entonces, ¿qué pasa con modelos como DeepSeek R1, o1 de OpenAI, o Claude cuando activa su modo de razonamiento extendido?
Estos modelos añaden una capa de Sistema 2, pero de una forma ingeniosa: escriben su razonamiento. Literalmente generan una “cadena de pensamiento” (chain-of-thought) antes de dar la respuesta final.
No es que el modelo piense internamente y luego escriba. El acto de escribir ES el pensamiento. Al obligarse a articular pasos intermedios, el modelo puede resolver problemas que de otro modo fallaría.
Es como si le pidieras a alguien que resuelva un problema complejo de cabeza versus dándole papel y boli. El papel no piensa, pero permite un tipo de cognición que sin él no existiría.
Si te interesa profundizar en cómo aprovechar esto, tengo una guía completa de prompt engineering donde explico técnicas como chain-of-thought en detalle.
Implicaciones prácticas
Entender esto tiene consecuencias directas para cómo usamos estas herramientas:
Para obtener mejores resultados, pide al modelo que razone paso a paso. No es magia: estás activando ese pseudo-Sistema 2 que mejora la precisión en tareas complejas.
No confíes ciegamente en respuestas rápidas sobre temas que requieren razonamiento lógico. El Sistema 1 del modelo puede “intuir” mal igual que lo hacemos los humanos.
Los errores de los LLMs tienen sentido cuando entiendes que son máquinas de intuición, no de lógica. Alucinan porque completan patrones, no porque verifiquen hechos.
El futuro: ¿híbridos cognitivos?
La tendencia actual es clara: combinar la velocidad del Sistema 1 con la precisión del Sistema 2. Los modelos razonadores son solo el principio.
Empresas como Anthropic, OpenAI y DeepSeek están explorando arquitecturas donde un modelo rápido genera candidatos y otro más lento los evalúa. O donde el modelo decide dinámicamente cuándo necesita “pensar más”.
No es inteligencia general. No es consciencia. Pero es algo genuinamente nuevo: sistemas que combinan intuición estadística con razonamiento simbólico de formas que apenas empezamos a entender.
Si quieres ver cómo se comparan los principales modelos en la práctica, echa un vistazo a mi comparativa de ChatGPT, Gemini y Claude.
¿Te ha resultado útil este artículo? En NeuralFlow exploramos la intersección entre IA, datos y aplicaciones prácticas.
También te puede interesar
ChatGPT ahora bebe de la fuente de Elon Musk (y nadie te lo ha contado)
Se ha descubierto que ChatGPT está usando datos de Grokipedia, la enciclopedia de xAI. La pregunta incómoda: ¿quién decide qué es 'verdad' para tu asistente de IA?
Yann LeCun abandona Meta: Los LLMs no van a llegar a inteligencia humana
El padrino de la IA deja Meta para apostar 3.500 millones a una arquitectura diferente: los World Models.
AI Slop: por qué estamos hartos del contenido generado por IA
Internet se está llenando de basura producida en masa por IA. Qué es el AI Slop, por qué es un problema, y cómo distinguir contenido real del ruido.