El prompt que resuelve problemas ambiguos
TL;DR
- Prompt v17b: metodología para resolver problemas con ambigüedad interpretativa
- Tres claves: “no asumas lo estándar”, verificar como propiedad emergente, “tienes obligación de descartar”
- Funciona para ambigüedad, no para errores conceptuales o falta de conocimiento
- Mejor en multi-turno: primero envías metodología, luego el problema
El problema que resuelve
Este prompt es el resultado de 17 iteraciones probando un problema de probabilidad donde el modelo encontraba la respuesta correcta y la descartaba.
Los LLMs tienen un sesgo hacia la interpretación “estándar” de un problema. Cuando hay ambigüedad, eligen lo más común y lo resuelven bien… pero era la interpretación incorrecta.
Ejemplo:
“3 monedas, P(cara)=1/3, el número de cruces es siempre par. ¿P(todas caras)?”
- Interpretación estándar: Probabilidad condicional → 1/13
- Interpretación correcta: Restricción estructural → 0
El prompt v17b
Metodología para resolver problemas con condiciones:
1. IDENTIFICAR AMBIGÜEDADES: No asumas la interpretación "estándar"
2. GENERAR INTERPRETACIONES: Lista TODAS las formas posibles de
modelar matemáticamente cada condición
3. RESOLVER CADA UNA: Calcula la solución completa para cada
interpretación
4. VERIFICAR CONSISTENCIA: Para cada interpretación, comprueba que
tu modelo cumple TODAS las condiciones como propiedad emergente.
"Usé el dato" ≠ "El resultado cumple el dato"
5. DESCARTAR: Elimina interpretaciones donde una condición del
enunciado NO se cumpla en el modelo final
6. RESPONDER: La que quede
IMPORTANTE: Tienes permiso y obligación de descartar.
No preguntes cuál prefiero. Decide tú.
Por qué funciona
Tres elementos clave:
1. “No asumas lo estándar”
El modelo tiene permiso para considerar alternativas. Normalmente no lo hace porque “lo estándar” es seguro.
2. “Propiedad emergente”
El modelo típicamente verifica: “¿Usé P(cara)=1/3 en mis cálculos?”
Pero eso no es verificar. Debería comprobar: “¿Mi resultado da P(cara)=1/3 cuando calculo la marginal?”
3. “Tienes permiso y obligación de descartar”
Sin esta frase, el modelo presenta ambas interpretaciones y pregunta cuál prefieres. No se atreve a elegir. Esto lo documenté en detalle en cómo el modelo llega a la respuesta correcta y la llama contradicción.
Cuándo NO funciona
| Tipo de problema | Funciona v17b? |
|---|---|
| Ambigüedad interpretativa | Si |
| Cálculo puro | Innecesario (el modelo ya lo hace bien) |
| Error conceptual profundo | No (no sabe que no sabe) |
| Conocimiento técnico externo | No (necesita herramientas) |
Para entender cuando aplicar cada técnica, consulta mi taxonomía de fallos de LLMs.
Cómo usarlo
Opción A: System prompt
Pon la metodología como contexto previo, luego haz la pregunta.
Opción B: Multi-turno
- Envía la metodología
- Modelo responde “Entendido”
- Envías el problema
La opción B funciona mejor porque el modelo “confirma” la metodología antes de ver el problema.
También descubrí que más tokens no implica mejor resultado: si el modelo no entiende el problema de fondo, un prompt más largo solo le da más espacio para racionalizar.
Sigue explorando
- 50+ prompts de ChatGPT que funcionan - Ejemplos prácticos que puedes usar hoy
- Mejores IA gratis en 2026 - Dónde aplicar estas técnicas
- ¿Qué son los agentes de IA? - Cuando los prompts no son suficientes
También te puede interesar
Más tokens no es mejor resultado
Cómo un meta-prompt exhaustivo causó overflow de contexto y llegó al mismo error en un problema de random walk
Taxonomía de fallos de LLMs
Los cuatro tipos de error en modelos de lenguaje y qué técnica usar para cada uno
Guía de Prompt Engineering: Cómo hablar con LLMs
Todo lo que necesitas saber para escribir prompts efectivos. De principiante a avanzado, con ejemplos prácticos y los límites que nadie te cuenta.