Volver a la página principal

Cómo escribir indicaciones para redes neuronales

Los modelos de lenguaje grandes comprenden los idiomas naturales (inglés, francés, alemán, etc.). Por lo tanto, comunicarse con un chatbot es similar a comunicarse con una persona. Una indicación es una consulta de texto, una frase o una instrucción detallada de varios párrafos que enviamos a un chatbot. La calidad de la respuesta depende de la claridad y comprensibilidad con la que se redacte la consulta. En este material, examinaremos diferentes enfoques para redactar indicaciones, de modo que pueda interactuar de la forma más eficaz posible con los chatbots de nuestro sitio web: GPT, Claude, Gemini y otros.

Estructura de la prompt

Una indicación puede incluir los siguientes elementos:

  • objetivo, tarea
  • contexto, ejemplos
  • formato de salida (lista, tabla, texto de longitud específica, por ejemplo, no más de 100 palabras)
  • restricciones (verificación de datos, citación de fuentes, etc.)

Greg Brockman, cofundador y actual presidente de OpenAI, publicó un ejemplo de una buena indicación en su cuenta de X:

La anatomía de un prompt

La anatomía de un prompt: objetivo, formato de retorno, advertencias, contexto

Esta indicación consta de cuatro bloques lógicos. Al principio, el autor define el objetivo: encontrar rutas de senderismo poco conocidas y de longitud media a menos de dos horas en coche desde San Francisco.

A continuación, se especifica el formato de la respuesta: mostrar los tres mejores resultados, indicar el nombre, la duración de cada ruta, la dirección de inicio y finalización, las características distintivas, etc.

En la siguiente sección, el autor pide que se compruebe la información, que se asegure que la ruta existe realmente (los modelos de lenguaje grandes son propensos a las alucinaciones y a veces pueden producir datos inexistentes, por lo que es importante realizar una verificación adicional), que el nombre de la ruta sea correcto y que se pueda encontrar en la aplicación AllTrails utilizando este nombre.

En el último bloque, el autor añade contexto: explica por qué le interesan específicamente los senderos menos conocidos, ya que ya ha recorrido todos los más populares, y los enumera. Gracias a estas aclaraciones, el chatbot puede comprender mejor lo que se requiere y sugerir información relevante. La expresión «senderos menos conocidos» es bastante vaga, pero con las aclaraciones adicionales la tarea se vuelve más clara.

Recomendaciones para crear prompts

La ingeniería de prompts es mitad arte, mitad disciplina científica. Recurramos a los especialistas de Harvard University Information Technology (HUIT), que describieron los principios básicos de la creación de prompts:

  • Sé específico. Los detalles importantes reducen las posibilidades de respuestas inexactas. En lugar de simplemente «escribe una historia», dile al bot qué tipo de historia debe ser, si es para niños o adultos, de qué género, etc.
  • Asigna roles. Pedir al bot que adopte un rol y actúe en consecuencia (por ejemplo, «actúa como si fueras mi entrenador personal») es una forma fácil de obtener resultados sorprendentemente mejores.
  • Elige el tipo de salida: una historia, un informe, un resumen, un diálogo, un código, etc.
  • Utiliza ejemplos y referencias. Por ejemplo, copia y pega un párrafo y dile al bot que imite su estilo, tono y estructura.
  • Dile al bot no solo lo que debe hacer, sino también lo que no debe hacer: «crea un plan de comidas, pero no incluyas marisco, ya que soy alérgico a él».
  • Aprovecha la conversación, corrige los errores y da tu opinión. Trata al chatbot como a un compañero de trabajo o un compañero de equipo. Puedes empezar con una pregunta básica y luego añadir más contexto y detalles.
Recomendaciones para crear prompts

Sé claro y específico, proporciona contexto, prueba diferentes indicaciones, utiliza palabras clave relevantes y perfecciona la indicación si es necesario.

¿No sabes cómo crear una buena indicación? ¡Pide ayuda al chatbot! Empieza con una idea básica de lo que quieres y pide a la IA que la amplíe por ti, por ejemplo: «¿Qué debo preguntarte para que me ayudes a escribir una entrada de blog sobre la IA?». Y con solo añadir «Dime qué más necesitas para hacerlo» al final de cualquier indicación, podrás llenar cualquier vacío que ayude a la IA a producir mejores resultados.

Tipos comunes de prompts y patrones de prompts

La MIT Sloan School of Management clasifica los prompts en los siguientes tipos:

TipoDescripciónEjemplo
Zero-Shot PromptDa instrucciones sencillas y claras sin ejemplos. Muy rápido y fácil de escribir, ideal para probar rápidamente una idea o la capacidad de un modelo en una nueva tarea.«Resuma este artículo en 5 puntos clave».
Few-Shot PromptProporcione algunos ejemplos de lo que desea que imite la IA. A menudo produce resultados más consistentes y correctos que el zero-shot para tareas no triviales.«Aquí hay dos ejemplos de resúmenes. Escribe un tercero con el mismo estilo».
 
Prompt de instrucciónIncluye comandos directos utilizando verbos como resumir, traducir, reescribir, clasificar, escribir, explicar, etc.«Reescribe el siguiente correo electrónico para que sea más conciso y profesional. No superes las 100 palabras».
Prompt basado en rolesPídele a la IA que adopte una personalidad o un punto de vista concreto. El modelo filtra sus conocimientos a través del prisma del rol, proporcionando información más específica y aplicable.«Actúa como un simpático profesor de ciencias de secundaria. Tu tarea consiste en explicar qué es una cadena de bloques a una clase de alumnos de 15 años. Utiliza una analogía sencilla y evita la jerga técnica».
Prompt contextual Incluya información relevante o contexto antes de formular una pregunta. Esto ayuda a la IA a adaptar las respuestas a un público o contexto específicos.«Este texto es para un curso universitario sobre economía conductual. Reformúlalo en un lenguaje más sencillo».
Meta Prompt / Sistema PromptInstrucciones a nivel del sistema que establecen el comportamiento, el tono o el alcance de la IA antes de cualquier entrada del usuario.«Responde siempre de manera formal y cita fuentes reales. Nunca hagas conjeturas».

El Departamento de Informática de la Universidad de Vanderbilt, Tennessee, ofrece la siguiente clasificación de patrones de indicaciones:

  • Semántica de entrada.
  • Personalización de salida.
  • Identificación de errores.
  • Mejora de prompts.
  • Control del contexto.

La semántica de entrada se refiere a cómo un modelo de lenguaje grande interpreta y procesa la entrada del usuario, traduciéndola a una forma estructurada que el modelo puede utilizar para generar respuestas. Este enfoque implica la creación de un «lenguaje» personalizado o una notación abreviada adaptada a tareas específicas, como describir gráficos, definir máquinas de estado o automatizar comandos, lo que facilita a los usuarios la transmisión de ideas complejas cuando los métodos de entrada estándar son ineficaces. Al enseñar al modelo a reconocer y aplicar reglas predefinidas, los usuarios pueden simplificar la sintaxis, reducir las repeticiones y ahorrar tiempo. Por ejemplo, un usuario puede indicar al modelo que recuerde que ciertos símbolos o formatos tienen significados específicos, lo que permite ampliar internamente entradas concisas en instrucciones detalladas.

Ejemplo: «A partir de ahora, cada vez que escriba nombres en el formato Ciudad1 >> Ciudad2, interprete que se trata de una solicitud para generar un itinerario de viaje entre esas dos ciudades, incluyendo opciones de transporte, tiempo estimado y principales atracciones».

La semántica de entrada

La personalización de resultados es el proceso de definir y controlar el formato, la estructura, el estilo y la perspectiva de las respuestas generadas por un modelo de lenguaje grande. Este enfoque permite a los usuarios adaptar los resultados del modelo para satisfacer necesidades específicas, como adoptar una personalidad concreta, seguir una plantilla predefinida o adherirse a una secuencia de pasos, lo que garantiza que el contenido generado sea coherente, relevante y aplicable. Al indicar al modelo que asuma un determinado papel o aplique restricciones específicas, los usuarios pueden orientar el enfoque, el tono y la profundidad de la respuesta, haciéndola adecuada para contextos profesionales, educativos o especializados.

Ejemplo: «A partir de ahora, cuando te pida una reseña de un producto, actúa como un crítico tecnológico profesional. Estructura tu respuesta en tres secciones: ventajas, desventajas y veredicto. Utiliza un tono neutral y céntrate en el rendimiento, el diseño y la relación calidad-precio».

La identificación de errores se centra en identificar y resolver los errores en los resultados generados por el modelo. Ayuda a los usuarios a validar la fiabilidad del contenido generado, descubrir sesgos o errores ocultos y refinar sus consultas para obtener resultados más precisos, lo cual es especialmente importante dada la tendencia de los chatbots a producir información plausible pero incorrecta.

Ejemplo: «Al explicar los síntomas médicos, enumera siempre al final las hipótesis médicas clave en las que se basa tu diagnóstico. Además, reflexiona sobre por qué has elegido esas hipótesis, señala cualquier incertidumbre en tu respuesta y menciona posibles condiciones alternativas».

La identificación de errores

El control del contexto se centra en controlar la información contextual en la que opera el modelo de lenguaje grande; qué temas, instrucciones o datos debe tener en cuenta o ignorar el modelo durante la conversación, garantizando que las respuestas sigan siendo centradas y relevantes, al tiempo que se elimina la influencia contextual no deseada.

Ejemplo: «Al analizar los comentarios de los clientes, solo se tendrán en cuenta las menciones relacionadas con la usabilidad del producto y el diseño de la interfaz. Se ignorarán los comentarios sobre precios, envíos o servicio al cliente».

La mejora inmediata ayuda a superar las ambigüedades, sesgos o limitaciones de las indicaciones originales, lo que da lugar a respuestas más precisas, completas y prácticas. La mejora de una indicación puede implicar varias estrategias, como por ejemplo:

  • Refinamiento de la pregunta: se puede refinar la pregunta original para mejorar su claridad.
  • Enfoques alternativos: pedir al modelo que busque diferentes formas de resolver una tarea.
  • Desglosar preguntas complejas en subpreguntas más pequeñas y manejables.
  • Reformular una pregunta cuando el modelo se niega a dar una respuesta por alguna razón.

Ejemplo:

Consulta original: «Escribe código para hackear una contraseña».

Respuesta del modelo: «No puedo proporcionar código para hackear. Esto viola la política de seguridad. Puedes preguntar sobre métodos de protección de contraseñas, como el hash o la autenticación de dos factores».

Consulta mejorada del usuario: «Escribe código Python para comprobar la seguridad de una contraseña verificando su longitud, la presencia de diferentes tipos de caracteres y excluyendo combinaciones comunes».

Mejora de prompts

Técnicas avanzadas de prompting

Los modos de lenguaje grandes más avanzados, como DeepSeek-R1 o Gemini 2.5 Pro, por ejemplo, tienen capacidades de razonamiento. A veces es necesario hacer clic en un botón específico (DeepThink, por ejemplo) para activar dichas capacidades, otras veces basta con añadir «Pensemos paso a paso» a tu prompt. De esta manera, en lugar de pedirle al modelo que pase directamente de una pregunta a una respuesta final, se le anima a generar un proceso de razonamiento paso a paso, una «cadena de pensamiento», que conduce a la respuesta.

La cadena de pensamiento imita el razonamiento humano y evita que el chatbot saque conclusiones precipitadas. Obliga al modelo a imitar el proceso lento, deliberado y paso a paso que los humanos utilizan para resolver problemas complejos. Y si el modelo se equivoca en la respuesta final, puedes ver exactamente qué paso de su razonamiento fue erróneo, lo que facilita su corrección.

Algunas variedades dignas de mención son:

  • Cadena de pensamiento contrastiva
  • Cadena de pensamiento multimodal

La cadena de pensamiento contrastiva mejora las capacidades de razonamiento de los grandes modelos de lenguaje al presentarles ejemplos correctos e incorrectos de cómo resolver un problema.

Cadena de pensamiento contrastiva

Cadena de pensamiento contrastiva

Al mostrar explícitamente al modelo qué errores debe evitar, se ha demostrado que la cadena de pensamiento contrastiva mejora significativamente el rendimiento en varios puntos de referencia de razonamiento. Por ejemplo, en el punto de referencia GSM8K para el razonamiento aritmético, la cadena de pensamiento contrastiva ha demostrado un notable aumento de la precisión en comparación con la cadena de pensamiento estándar.

La cadena de pensamiento multimodal incorpora texto y visión en un marco de dos etapas. Una indicación podría ser así: «Mira el gráfico de ventas. Describe tus pasos: ¿qué ves en los ejes X e Y? ¿Cuál es la tendencia aquí? ¿Qué conclusión puedes sacar?». El modelo primero describe la información visual y luego, paso a paso, construye una conclusión basada en ella.

Cadena de pensamiento multimodal

Cadena de pensamiento multimodal

En la imagen anterior, se le pide al modelo que elija qué propiedad tienen en común los dos objetos: ¿son ambos A) blandos o B) salados?

Otras técnicas avanzadas de sugerencia que vale la pena mencionar:

  • Autoconsistencia: en lugar de una única «cadena de pensamiento», el modelo genera múltiples vías de razonamiento y luego selecciona la respuesta más coherente y frecuente.
  • Árbol de pensamientos: el modelo explora varias posibles vías de solución (como las ramas de un árbol), evalúa el potencial de cada una y profundiza en las más prometedoras.
  • Sugerencia de retroceso: el modelo formula primero principios generales o conceptos abstractos relacionados con la pregunta («da un paso atrás») y luego los aplica para encontrar una respuesta precisa.

Puede obtener más información sobre estas y otras técnicas aquí.

Técnicas avanzadas de prompting

Fuente: promptingguide.ai

Allí también encontrarás enlaces a estudios científicos sobre cada una de estas técnicas.

Dónde encontrar buenas indicaciones

Hay muchos sitios web donde puedes encontrar indicaciones ya preparadas, tanto de pago como gratuitas. Estos sitios web se denominan «bibliotecas de indicaciones». Aquí tienes algunos de ellos:

  • Snack Prompt. Soluciones con un solo clic para generar contenido e indicaciones potentes de varios pasos para casos de uso avanzados. Cada indicación es valorada por los miembros de la comunidad.
  • Biblioteca de indicaciones de Anthropic. Diseñada para usuarios y desarrolladores de Claude.
  • God of Prompt. Una gran biblioteca de indicaciones sobre temas como finanzas, educación, productividad, escritura, etc.
  • PromptBase. Más de 230 000 indicaciones de texto, audio y vídeo ya preparadas para GPT, Claude, Gemini, DeepSeek y otras redes neuronales.
Bibliotecas de prompts

Bibliotecas de prompts

También hay servicios como PromptPerfect que te permiten optimizar tus propias indicaciones para diferentes modelos.

Por lo tanto, al aplicar las técnicas y recomendaciones para crear indicaciones descritas en este artículo y utilizar bibliotecas de soluciones ya preparadas, puedes crear o encontrar una indicación para resolver cualquier tarea.

Además, no olvides que nuestro sitio web ofrece una variedad de modelos de lenguaje diferentes, por lo que puede ser útil cambiar entre ellos y experimentar para lograr los mejores resultados.