Sequential Crew
El Sequential Crew es una herramienta que agrupa varios agentes de IA y les asigna tareas que se ejecutan una tras otra. En el dashboard de Nappai, puedes usarlo para crear flujos de trabajo donde cada paso depende del resultado del anterior, garantizando que la información se procese en el orden correcto.
¿Cómo funciona?
El componente utiliza la librería CrewAI para crear un Crew (equipo de agentes). Cada agente tiene una tarea específica y el proceso se ejecuta de forma secuencial: el siguiente agente solo comienza cuando el anterior ha terminado.
- Function Calling LLM: Si está activado, los agentes pueden invocar funciones externas (por ejemplo, llamar a una API) directamente desde el modelo de lenguaje.
- Memory: Guarda el contexto entre tareas, de modo que los agentes no tengan que repetir información.
- Cache: Si se habilita, los resultados de tareas idénticas se almacenan y se reutilizan, ahorrando tiempo y costos.
- Max RPM: Limita cuántas peticiones por minuto se envían al modelo de lenguaje, ayudando a controlar el gasto y evitar bloqueos.
- Share Crew: Permite reutilizar la configuración del equipo en otros flujos de trabajo.
- Verbose: Muestra información detallada de cada paso, útil para depurar.
Al final, el componente devuelve un objeto Message que contiene el resultado completo del proceso.
Entradas
- Function Calling LLM: Activa la capacidad de los agentes para llamar a funciones externas mediante el modelo de lenguaje.
- Tasks: Lista de tareas que los agentes deben ejecutar. Cada tarea incluye un agente y la acción que debe realizar.
- Max RPM: Limita la cantidad de peticiones por minuto que el sistema puede enviar al modelo de lenguaje, ayudando a controlar costos y evitar bloqueos.
- Memory: Permite que el sistema recuerde información entre tareas, manteniendo contexto y evitando repetir trabajo.
- Share Crew: Indica si el grupo de agentes (Crew) puede ser compartido entre diferentes flujos de trabajo, reutilizando la configuración.
- Cache: Activa la caché de resultados para que tareas idénticas no se vuelvan a ejecutar, ahorrando tiempo y recursos.
- Verbose: Controla la verbosidad de los logs; cuando está activado, se muestra información detallada de cada paso.
Salidas
- Output: Un objeto Message que contiene el resultado final del proceso. Puede incluir texto, datos estructurados o cualquier otro formato que el modelo haya generado.
Ejemplo de Uso
- Crear el componente: Arrastra el bloque Sequential Crew al lienzo del dashboard.
- Configurar tareas:
- Tarea 1: DataCollector – recopila datos de tu CRM.
- Tarea 2: DataProcessor – limpia y transforma los datos.
- Tarea 3: ReportGenerator – genera un informe en PDF.
- Ajustar parámetros:
- Habilita Function Calling LLM para que los agentes puedan usar funciones de la API de tu CRM.
- Establece Max RPM a 60 para evitar sobrecargar el modelo.
- Activa Memory para que el informe tenga acceso a los datos procesados.
- Activa Cache si planeas ejecutar el flujo varias veces con los mismos datos.
- Ejecutar: Haz clic en Run y observa cómo cada tarea se ejecuta en orden. El resultado final aparecerá en la salida Output.
Componentes Relacionados
- Crew – Grupo de agentes que trabajan juntos.
- SequentialTask – Representa una tarea individual dentro de la secuencia.
- CrewAI – Biblioteca que facilita la creación de agentes y tareas.
Consejos y Mejores Prácticas
- Define claramente cada tarea para evitar ambigüedades.
- Usa la caché cuando las tareas sean repetitivas.
- Ajusta Max RPM según el plan de tu LLM para evitar costos inesperados.
- Revisa los permisos de los agentes para limitar el acceso a funciones críticas.
Consideraciones de Seguridad
- Evita exponer datos sensibles en las tareas sin cifrar.
- Revisa los permisos de los agentes para limitar el acceso a funciones críticas.
- Si usas Function Calling LLM, asegúrate de que las funciones externas estén bien validadas y no expongan vulnerabilidades.