Saltearse al contenido

Agent

Agent

El Agent es el componente de orquestación de IA más potente y flexible de la plataforma NappAI. Su diseño modular permite la construcción de agentes personalizados capaces de ejecutar lógica compleja, interactuar con herramientas externas y operar bajo estrictas políticas de control y seguridad.

A diferencia de los componentes estándar que siguen una ruta de ejecución fija, el Agent actúa como un sistema de razonamiento que analiza las solicitudes, diseña un plan de acción y utiliza los recursos a su disposición para alcanzar un objetivo.

Casos de Uso Principales

Utilice el Agent para desarrollar soluciones que requieran:

  • Orquestación de Múltiples Herramientas: Cuando un agente necesita acceder a diversas fuentes de datos o APIs y decidir cuál usar en función del contexto.
  • Control de Costes y Recursos: Para implementar límites precisos en el uso de modelos de lenguaje (LLMs) y herramientas externas.
  • Supervisión y Seguridad: En flujos de trabajo donde ciertas acciones críticas (ej. modificar una base de datos) requieren aprobación humana o donde la información sensible debe ser protegida.
  • Alta Fiabilidad: Para construir sistemas resilientes que puedan manejar fallos de red o errores de servicios externos mediante políticas de reintento y modelos de respaldo.

Configuración Fundamental

Estos parámetros constituyen la base del comportamiento de cualquier Agent.

ParámetroDescripción TécnicaPropósito en el Flujo
InputEl mensaje o payload inicial que desencadena la ejecución del agente.Representa la solicitud del usuario o el dato de entrada que el agente debe procesar.
System PromptLa instrucción persistente que define el rol, las reglas de comportamiento y el objetivo principal del agente. Este prompt se envía al LLamado de Lenguaje (LLM) en cada ciclo de razonamiento.Actúa como la “constitución” del agente, guiando todas sus decisiones y asegurando que su comportamiento sea consistente y alineado con su propósito.
Model (llm)La conexión al componente de Modelo de Lenguaje (LLM) que el agente utilizará para su ciclo de razonamiento.Es el “motor cognitivo” principal. El agente delega en este modelo la tarea de entender la solicitud, planificar los pasos y decidir qué herramientas usar.
ToolsUna lista de componentes o funcionalidades externas que el agente tiene permitido invocar.Constituyen el “equipo de especialistas” del agente. Cada herramienta representa una capacidad específica (ej. buscar en la web, consultar una API, acceder a una base de datos).
Use short term memoryActiva el sistema de memoria conversacional basado en checkpointer.Habilita al agente para que recuerde interacciones pasadas dentro de la misma sesión, permitiendo la construcción de diálogos coherentes y contextuales.

Funcionalidades Avanzadas (Plug in advanced features)

Al activar este interruptor, se despliega un conjunto de “middlewares” (capas de software intermediario) que interceptan y modifican el comportamiento del agente. Estas capacidades están organizadas por categorías funcionales.

Agent Capabilities: Mejorando el Razonamiento

  • Add Planning (TodoList): Proporciona al agente una herramienta interna de gestión de tareas. Antes de ejecutar un plan complejo, el agente puede crear una lista de pasos (To-Do list). Esto no solo estructura su propio razonamiento, sino que también ofrece visibilidad sobre su progreso. Es ideal para tareas que requieren múltiples acciones secuenciales.

Supervision and Security: Control y Aprobación Humana

  • Human-in-the-Loop (HITL): Implementa un punto de interrupción para supervisión humana. Puede configurar qué herramientas específicas requieren la aprobación de un humano antes de su ejecución. Para cada herramienta, puede definir las decisiones permitidas (aprobar, editar, rechazar). Esta funcionalidad es crítica para operaciones sensibles como el envío de comunicaciones masivas, la modificación de datos maestros o la ejecución de transacciones financieras.

  • Enable PII Detection: Activa un módulo de detección y tratamiento de Información de Identificación Personal (PII). Este middleware inspecciona los datos de entrada y salida para identificar información sensible (emails, tarjetas de crédito, IPs, etc.). Puede configurar una estrategia de tratamiento para cada tipo de dato detectado:

    • block: Detiene la ejecución.
    • redact: Reemplaza la información con un marcador genérico.
    • mask: Enmascara parcialmente el dato.
    • hash: Reemplaza el dato con un hash determinista.

Resource and Cost Control: Gestión del Consumo

  • Tool call limit: Establece un límite en el número de veces que una herramienta puede ser invocada. Este límite puede ser global (para todas las herramientas) o específico para una herramienta en particular. Ayuda a prevenir bucles no deseados y a controlar los costes asociados a APIs de terceros.

  • Model call limit: Limita el número total de llamadas al LLM que el agente puede realizar durante una única ejecución. Es una medida de seguridad esencial para prevenir un consumo de tokens descontrolado y garantizar que los costes se mantengan dentro de lo esperado.

Reliability: Construyendo un Agente a Prueba de Fallos

  • Enable Model Fallback: Configura una cadena de modelos de respaldo. Si el modelo principal falla, el agente intentará automáticamente ejecutar la misma tarea con los modelos secundarios en el orden de prioridad que usted defina.

  • Model retry / Tool retry: Define una política de reintentos automáticos para llamadas fallidas al modelo o a una herramienta. Puede configurar el número máximo de intentos, el tiempo de espera inicial y el factor de backoff exponencial para gestionar fallos transitorios de red o sobrecargas de servicio.

Tool Optimization: Afinación del Uso de Herramientas

  • Optimize tool selection: Cuando un agente dispone de un gran número de herramientas, esta funcionalidad utiliza un LLM secundario para pre-seleccionar el subconjunto de herramientas más relevante para la solicitud actual. Esto reduce el tamaño del contexto enviado al LLM principal, lo que puede mejorar la precisión de la decisión y reducir los costes de tokens.

  • LLM tool emulator: Permite simular la respuesta de una herramienta utilizando un LLM. Es una capacidad diseñada para el desarrollo y la depuración. Permite probar la lógica de razonamiento de un agente sin necesidad de ejecutar las herramientas reales, lo que acelera los ciclos de desarrollo y evita costes en entornos de prueba.

Context and Memory: Gestión Avanzada del Contexto

  • Context editing: Implementa una estrategia de poda automática de la memoria. Permite configurar reglas para limpiar el historial de la conversación cuando supera un umbral de tokens. Por ejemplo, puede definir que se mantengan siempre los últimos 3 resultados de herramientas y se elimine el resto, optimizando el contexto enviado al LLM.

  • Custom State: Permite extender el estado interno del agente con campos de memoria personalizados. A través de un esquema JSON, puede definir variables adicionales que el agente puede leer y escribir durante su ejecución (ej: task_id, customer_name). Esto habilita la construcción de flujos de trabajo altamente stateful y personalizados.

Puedes ver un video que muestra el Agente con intervencion humana en el flujo aquí.