Agent
El componente Agent permite ejecutar cualquier agente de LangChain dentro del dashboard de Nappai sin necesidad de escribir código. Solo tienes que elegir el agente, configurar el modelo de lenguaje, los instrumentos (herramientas) y el mensaje de entrada, y el componente se encarga de todo el proceso de conversación y de la interacción con las herramientas.
¿Cómo funciona?
El componente crea internamente un prompt que incluye:
- Un mensaje de sistema (por defecto: “You are a helpful assistant…”) que indica al modelo de lenguaje cómo debe comportarse.
- El historial de chat (si se proporciona) para mantener la continuidad de la conversación.
- El mensaje del usuario, que puede contener una plantilla con
{input}
que será reemplazada por el texto que ingreses. - Un espacio reservado para el “scratchpad” del agente, donde el agente escribe sus pasos intermedios.
Con estos datos, el componente llama a la función del agente seleccionado (por ejemplo, “Chat”, “Tool Calling”, etc.) y le pasa:
- El modelo de lenguaje (LLM) que hayas elegido.
- La lista de herramientas que el agente puede usar.
- La plantilla de prompt y una función que renderiza la descripción de cada herramienta.
El agente procesa la conversación, decide qué herramienta usar (si es necesario), llama a la herramienta y devuelve el resultado final. El componente devuelve ese resultado como texto que puedes usar en otras partes del flujo de trabajo.
Entradas
Campos de Entrada
-
Agent: Selecciona el agente de LangChain que quieres usar (por ejemplo, “Chat”, “Tool Calling”, etc.).
Visible en: Todas -
LLM: El modelo de lenguaje que alimentará al agente (por ejemplo, OpenAI GPT‑4, Claude, etc.).
Visible en: Todas -
Tools: Lista de herramientas que el agente puede invocar. Cada herramienta tiene un nombre y una descripción.
Visible en: Todas -
Prompt: Plantilla de mensaje del usuario. Debe incluir las claves
tools
yagent_scratchpad
.
Visible en: Todas -
System Message: Mensaje que se envía al modelo antes de la conversación para establecer el tono y las reglas.
Visible en: Todas -
Tool Template: Plantilla que se usa para mostrar la lista de herramientas en el prompt.
Visible en: Todas -
Handle Parsing Errors: Si está activado, el agente intentará corregir errores de análisis; si no, lanzará una excepción.
Visible en: Todas -
Message History: Historial de mensajes anteriores que se pasa al agente para mantener el contexto.
Visible en: Todas -
Input: Texto que quieres que el agente procese (por ejemplo, una pregunta del usuario).
Visible en: Todas -
LangChain Hub API Key: Clave de API opcional para descargar plantillas de prompts directamente desde LangChain Hub.
Visible en: Todas
Salidas
El componente devuelve un texto que contiene la respuesta final del agente. Este texto puede ser usado como entrada para otros componentes, mostrado en la interfaz de usuario o guardado en una base de datos.
Ejemplo de Uso
- Selecciona el agente: Elige “Chat” en el campo Agent.
- Configura el LLM: Selecciona “OpenAI GPT‑4” en el campo LLM.
- Añade herramientas: Conecta el componente Tool que permita buscar en la web y añade esa herramienta al campo Tools.
- Define el prompt: Usa el valor por defecto
{input}
o personaliza el mensaje del usuario. - Introduce la pregunta: En el campo Input escribe “¿Cuál es la capital de Francia?”.
- Ejecuta: El componente enviará la pregunta al agente, el agente decidirá usar la herramienta de búsqueda, obtendrá la respuesta y devolverá el texto final.
El resultado aparecerá en la salida del componente y podrá ser mostrado en un cuadro de texto o usado para disparar otras acciones.
Componentes Relacionados
- LLM – Selecciona y configura el modelo de lenguaje que alimentará al agente.
- Tool – Define las herramientas que el agente puede usar (por ejemplo, búsqueda web, cálculo, acceso a bases de datos).
- ChatPromptTemplate – Herramienta interna que construye el prompt que se envía al LLM.
Consejos y Mejores Prácticas
- Usa prompts claros: El mensaje de sistema debe establecer reglas simples y el prompt del usuario debe ser directo.
- Controla el historial: Limita la longitud del Message History para evitar que el LLM se sobrecargue.
- Activa la gestión de errores: Si tu flujo de trabajo no puede manejar excepciones, activa Handle Parsing Errors.
- Aprovecha LangChain Hub: Si tienes una clave API, puedes descargar plantillas predefinidas y mantener tus prompts actualizados.
- Revisa las herramientas: Asegúrate de que cada herramienta tenga una descripción clara; esto ayuda al agente a elegir la correcta.
Consideraciones de Seguridad
- Protege tu API Key: La clave de LangChain Hub y las credenciales del LLM deben guardarse en variables de entorno seguras.
- Control de acceso: Limita quién puede ejecutar agentes que llamen a herramientas externas para evitar abusos.
- Revisión de datos: Si el agente procesa información sensible, revisa que el modelo y las herramientas no expongan datos a terceros.