Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Cuatro técnicas de ‘prompting’ con ejemplos reales para sacarle partido a GPT-5

La gran velocidad a la que avanza la inteligencia artificial generativa puede hacernos pensar que ya es capaz de darnos la respuesta perfecta a la primera, sin importar la calidad de las instrucciones (‘prompts’) que le introduzcamos. Pero su mayor poder no reside en su primer resultado, sino en la colaboración iterativa que se puede alcanzar con ella. Para sacarle el máximo provecho al nuevo ChatGPT con GPT-5, OpenAI ha compartido cuatro técnicas clave y, además, un útil optimizador de ‘prompts’.

Estas cuatro técnicas no son trucos sueltos, sino un modo de colaboración. Funcionan porque respetan la forma en la que GPT-5 procesa la información y permiten al usuario sacarle el máximo partido sin desperdiciar recursos. En la práctica implican usar el contexto justo, mejorar lo que ya se ha obtenido, ajustar lo esencial e iterar hasta llegar al resultado óptimo.

Cuando aplicamos este enfoque subimos un nivel en nuestra relación con los modelos de lenguaje, ya que dejamos de verlos como generadores de respuestas perfectas y pasamos a tratarlos como copilotos inteligentes que, con la dirección adecuada, puede ayudarnos a producir mejor y más rápido.

1. ‘Context gathering’: menos es más

Define un contexto breve y claro. GPT-5 tiene una gran capacidad para manejar información, pero no conviene sobrecargarlo. Así como en una reunión sobre un asunto concreto nadie necesita escuchar todos los detalles desde el principio, el modelo funciona mejor si le das solo el contexto necesario. Esto significa explicar brevemente la tarea y aportar lo esencial: ni más, ni menos. Por ejemplo:

  • ‘Prompt’ inicial: “Quiero entender mejor el manual de instrucciones de mi nuevo móvil”.
  • Refinamiento tipo ‘context gathering’: “Actúa como un experto en tecnología para usuarios principiantes. Voy a pasarte fragmentos del manual y quiero que los resumas en un lenguaje claro y sencillo, como si se lo explicaras a alguien que nunca ha usado un smartphone”.
  • Resultado: Resúmenes fáciles de seguir que permiten a cualquier persona configurar y usar su móvil sin tener que leer todas las páginas del manual ni enfrentarse a términos técnicos.

2. ‘Depth control’: ajustes quirúrgicos

Céntrate solo en lo que realmente quieres cambiar. Cuando necesitas hacer un pequeño ajuste en tu caja de herramientas, no desordenas la caja entera. Del mismo modo, esta técnica consiste en pedir ajustes puntuales sin alterar lo que ya funciona. Así mantienes el control y evitas que el modelo cambie partes que no querías tocar. Por ejemplo:

  • ‘Prompt’ inicial: “Resume este artículo de 10 páginas sobre alimentación saludable. Dame solo los tres consejos más relevantes”.
  • Refinamiento tipo ‘depth control’: “Concéntrate en hábitos fáciles de aplicar en el día a día; no incluyas datos científicos complejos”.
  • Resultado: Un resumen que destaca recomendaciones claras como beber suficiente agua al día, incluir verduras en cada comida y reducir el consumo de ultraprocesados.

3. ‘Escalate once’: mejorar, no reiniciar

Si la primera respuesta no encaja del todo con lo que buscas, no la descartes. Lo más útil es pedirle una segunda versión refinada. De esta manera, no pierdes tiempo ni recursos repitiendo instrucciones desde cero y el modelo conserva la coherencia de la conversación. Por ejemplo:

  • ‘Prompt’ inicial: “Redacta un mensaje para invitar a las personas suscritas a una newsletter a unirse a una nueva ‘app’ de recetas”.
  • Refinamiento tipo ‘escalate once’: “Reescríbelo con foco en confianza y cercanía, evitando tecnicismos”.
  • Resultado: “Descubre recetas fáciles y sabrosas en una sola ‘app’. Únete y comparte tus platos favoritos con nosotros, ¡es gratis y muy sencillo!”.

4. ‘Looping’: trabajar en ciclos

GPT-5 está entrenado para brillar en la iteración. El objetivo es convertir la conversación en un ciclo: el modelo propone y el usuario lo va ajustando con sucesivas peticiones concretas. Al cabo de unos ciclos, el resultado se adapta mejor a lo que realmente se está buscando. Por ejemplo:

  • ‘Prompt’ inicial: “Haz un itinerario de 3 días para visitar Roma”. En su primera respuesta, el modelo propone un plan genérico (visitar el Coliseo, el Vaticano y la Plaza de España).
  • Refinamiento tipo ‘looping’ 1: “Está bien, pero ajusta el plan pensando que viajo con niños pequeños”.
  • Refinamiento 2: “Perfecto, ahora añade también restaurantes con opciones vegetarianas”.
  • Refinamiento 3: “Reduce las caminatas largas e introduce tiempo de descanso por la tarde”.
  • Resultado final: Un itinerario adaptado a las necesidades y estilo de vida del usuario.

La diferencia con la técnica anterior reside en que ‘escalate once’ busca un único ajuste puntual, mientras que ‘looping’ encadena varios refinamientos sucesivos.

Bonus: una ayuda extra para optimizar el ‘prompting’

En paralelo a su recomendación de usar estas técnicas, OpenAI ha desarrollado un optimizador de ‘prompts’ adaptado a GPT-5. Esta herramienta funciona como un asistente extra que revisa y pule las instrucciones del usuario antes de enviárselas al modelo, con una redacción y formato adaptados a su entrenamiento que le permite comprenderlas mejor.

Además de ser una ayuda valiosa para quienes redactan muchos ‘prompts’ o buscan resultados más consistentes sin tener que iterar muchas veces, el uso del optimizador permite aprender de primera mano cómo se redactan los ‘prompts’ que mejor funcionan.

En definitiva, tanto con las técnicas como con el optimizador, la clave no está en esperar que GPT-5 nos dé el resultado correcto en respuesta a un solo ‘prompt’, sino en trabajar con él con contexto y diálogo, tal como hacemos con un compañero de trabajo.