La mayoría de la gente usa la IA como si fuera un buscador. Escribe una pregunta, cruza los dedos y espera algo útil. A veces funciona. Casi nunca lo bastante bien.
Mientras tanto, los equipos que saben lo que hacen construyen sistemas completos sobre los mismos modelos. La diferencia no está en el modelo. Está en lo que le das al modelo. La instrucción, la estructura, el contexto que lo rodea.
El campo ha cambiado mucho en los últimos dos años. Hemos pasado de "prompt engineering" -- formular bien una pregunta -- a lo que ahora se llama context engineering: diseñar todo lo que un modelo ve antes de dar su respuesta. System prompt, herramientas, documentos, memoria, historial de conversación. El prompt ya es solo una pieza de un sistema más grande.
En este artículo recorremos las técnicas más importantes, desde lo básico hasta producción. Cada una con ejemplos que puedes aplicar mañana.
Lo básico que nadie hace bien
El error más común es la vaguedad. "Escribe algo sobre satisfacción del cliente" te da un texto genérico. No porque el modelo sea malo, sino porque no tiene información suficiente para producir algo mejor.
Anthropic lo llama el test del "empleado nuevo": si le dieras tu prompt a un colega brillante que acaba de entrar y no tiene contexto sobre tu empresa, ¿sabría exactamente qué hacer? Si la respuesta es no, el modelo tiene el mismo problema.
Escribe algo sobre satisfacción del cliente.
Escribe un email profesional de 150 palabras dirigido a un cliente que la semana pasada presentó una queja por un envío tardío. Agradece el feedback, ofrece disculpas y proporciona un descuento único del 10% en su próximo pedido. Tono: cálido pero profesional.
La diferencia no es sutil. El primer prompt deja que el modelo improvise. El segundo define exactamente lo que necesitas: formato, longitud, audiencia, contenido, tono. Cuanto más específico seas, menos tiene que adivinar el modelo.
Reglas prácticas: indica siempre el formato deseado (email, lista, JSON, resumen). Menciona la audiencia. Da restricciones (longitud, tono, qué no debe incluirse). Y si la tarea tiene múltiples pasos, numéralos.
Estructura: el prompt como contrato
En cuanto tus prompts se vuelven más complejos, no basta con meter todo en un párrafo. Necesitas estructura. Piensa en un prompt como un contrato: tiene secciones claras para el rol, la instrucción, los datos y el resultado esperado.
La forma más efectiva de hacerlo es separando claramente cada parte. Anthropic recomienda etiquetas XML para separar instrucciones, contexto y datos. Pero el principio funciona con cualquier modelo: deja explícito dónde termina la instrucción y dónde empiezan los datos.
Rol: Eres un analista financiero experimentado.
Instrucción: Analiza las cifras trimestrales siguientes
y genera un resumen de máximo 200 palabras.
Enfócate en crecimiento de ingresos, márgenes y riesgos.
Contexto:
- Empresa: TechCorp S.L.
- Periodo: Q4 2025
- Sector: SaaS
Datos:
[Pega aquí las cifras trimestrales]
Formato de salida:
- Resumen (máx. 200 palabras)
- Top 3 riesgos (numerados)
- Recomendación (1 frase)
Cuatro bloques claros: rol, instrucción, contexto, formato de salida. El modelo sabe exactamente qué tiene que hacer, con qué datos y cómo debe verse el resultado. Sin margen para la interpretación.
La asignación de rol merece atención especial. "Eres un analista financiero experimentado" hace más de lo que piensas. Activa un registro específico de conocimiento y estilo en el modelo. Un asesor jurídico escribe de forma diferente a un marketero. Define siempre la experiencia que necesitas.
Si trabajas con APIs: usa el system prompt para el rol y las instrucciones fijas, y el user prompt para los datos variables. Eso separa configuración de input y hace tus prompts reutilizables.
Few-shot y chain-of-thought
A veces explicar no es suficiente. Tienes que mostrar cómo se hace. Ese es el principio detrás del few-shot prompting: das dos o tres ejemplos del input y output deseados, y el modelo aprende el patrón.
Clasifica las siguientes reseñas de clientes como
Positiva, Neutra o Negativa.
Reseña: "Producto genial, hace exactamente lo que necesitaba."
Clasificación: Positiva
Reseña: "El envío tardó mucho, pero el producto está bien."
Clasificación: Neutra
Reseña: "No funciona. Pedí la devolución."
Clasificación: Negativa
Reseña: "El color es diferente al de la foto, pero la
calidad es buena."
Clasificación:
Dos o tres ejemplos suelen ser suficientes. Más importante que la cantidad es la diversidad: cubre los casos límite. Si todos tus ejemplos son claramente positivos o negativos, el modelo no sabrá cómo manejar la ambigüedad.
Luego está chain-of-thought: hacer que el modelo razone paso a paso antes de dar una respuesta. Para tareas complejas -- cálculos matemáticos, puzzles lógicos, análisis de datos -- esto mejora la precisión de forma drástica.
Modelos como OpenAI o3 y Claude Opus con pensamiento adaptativo hacen chain-of-thought de forma interna. Ya razonan paso a paso entre bambalinas. Pedirles explícitamente que "piensen paso a paso" puede empeorar su rendimiento. OpenAI recomienda usar prompts más simples con modelos de razonamiento y dejar que el modelo determine su propia secuencia de pensamiento. Usa chain-of-thought manual solo con modelos estándar (GPT-4o, Claude Sonnet) que no razonan por sí mismos.
Prompt chaining: del prompt al pipeline
Un único prompt está bien para una única tarea. Pero en cuanto quieres algo más complejo -- analizar un documento, clasificarlo y ejecutar una acción en función del resultado -- te topas con límites. La solución: prompt chaining. Divides una tarea compleja en múltiples pasos, donde el output del paso 1 se convierte en el input del paso 2.
El patrón más usado es self-correction: generar, revisar, refinar. El paso 1 produce una primera versión. El paso 2 la evalúa contra criterios definidos. El paso 3 mejora en base a la evaluación. Cada paso es un prompt separado (o una llamada API), de modo que puedes inspeccionar y ajustar los resultados intermedios.
Un ejemplo práctico de nuestros proyectos: procesamiento de facturas. La cadena tiene este aspecto:
- Entrada de PDF por email (trigger)
- El modelo de IA extrae proveedor, importe, fecha, IVA (structured output)
- Validación contra la lista de proveedores y reglas contables
- Si hay coincidencia: crear asiento contable en borrador en el sistema
- Si hay desviación: notificación al departamento financiero
Cada paso tiene su propio prompt, su propia validación y su propio manejo de errores. Si el paso 2 no puede extraer un campo, la factura no pasa al paso 3 sino a una cola de revisión manual. Esa es la diferencia entre una demo y un sistema en producción.
Para una extracción de datos fiable en este tipo de pipelines, el structured output es esencial. En lugar de texto libre, le pides al modelo que devuelva JSON siguiendo un esquema fijo. Tanto OpenAI como Anthropic ofrecen APIs de structured output que validan el esquema, garantizando que siempre recibas JSON válido.
Context engineering: la visión global
Todo lo anterior se centra en el prompt en sí. Pero en 2026, el prompt es solo una fracción de lo que determina el rendimiento de un sistema de IA. El resto es contexto.
Context engineering es diseñar todo lo que el modelo ve: el system prompt, las herramientas disponibles, los documentos recuperados, la memoria de conversaciones anteriores y el historial del chat. No solo la instrucción, sino el panorama completo.
Por qué importa: según el informe State of Agent Engineering de LangChain, el 57% de las organizaciones ya tiene agentes de IA en producción. Pero el 32% señala la calidad como el mayor obstáculo. Y esos problemas de calidad casi nunca vienen del modelo en sí. Vienen de un contexto deficiente: el modelo no tiene la información necesaria, recibe documentos irrelevantes o no tiene acceso a las herramientas adecuadas.
En la práctica, context engineering significa:
- RAG (Retrieval-Augmented Generation) -- recuperar documentos relevantes y pasárselos al modelo, en vez de meterlo todo en el prompt
- Definición de herramientas -- indicarle al modelo qué herramientas puede usar (buscar, calcular, llamar APIs) y cuándo
- Memoria -- conservar información de conversaciones anteriores para que el modelo no empiece desde cero cada vez
- System prompts -- instrucciones fijas, reglas de comportamiento y conocimiento del dominio que acompañan cada interacción
La diferencia entre un chatbot que dice "lo siento, no lo sé" y uno que realmente responde tu pregunta, rara vez está en el modelo. Está en si alguien se tomó la molestia de hacer disponible el contexto correcto.
Un ejemplo concreto: un asistente de atención al cliente. Solo con un prompt obtienes respuestas genéricas. Añade RAG con tu base de conocimiento, acceso a herramientas de tu CRM y memoria de la conversación en curso, y tendrás un asistente que conoce al cliente por su nombre, puede consultar el historial de pedidos y programar una devolución. El mismo modelo. Una experiencia completamente diferente.
Empieza mañana
Tres cosas que puedes aplicar ya mismo:
- Testea tus prompts con el test del "empleado nuevo". Dale tu prompt a alguien sin contexto. Si no sabe qué hacer, reescribe el prompt.
- Estructura los prompts complejos. Separa rol, instrucción, datos y formato de salida. Usa la plantilla de este artículo como punto de partida.
- Piensa más allá del prompt. Si usas IA para un proceso empresarial, hazte la pregunta: ¿qué información le falta al modelo? ¿Qué herramientas debería tener? Ahí es donde está la verdadera diferencia.
Para profundizar:
- Anthropic -- Prompting Best Practices
- OpenAI -- Prompt Engineering Guide
- Lakera -- The Ultimate Guide to Prompt Engineering (2026)
- Elastic -- Context Engineering vs. Prompt Engineering
- LangChain -- State of Agent Engineering 2025
¿Quieres aplicar estas técnicas en tu organización? Hablemos -- ayudamos a equipos a usar la IA de forma estructural y efectiva, no como juguete sino como herramienta de trabajo.


