BasicChain
BasicChain es un componente sencillo que permite a los usuarios enviar un mensaje a un modelo de lenguaje, recibir la respuesta y formatearla como JSON. Se usa en dashboards de Nappai para integrar fácilmente la inteligencia artificial en flujos de trabajo sin necesidad de escribir código.
¿Cómo funciona?
El componente toma un prompt (mensaje del usuario) y un system prompt (instrucciones del sistema) y los combina en un formato de chat. Luego envía esta conversación al modelo de lenguaje que se le pasa como entrada. El modelo devuelve una respuesta que el componente interpreta y convierte en un objeto JSON. Si la respuesta ya es un diccionario, se convierte a texto con formato legible; si no, se devuelve tal cual. El resultado se muestra en la salida Result, y también se expone la cadena completa como Runnable para que pueda reutilizarse en otros componentes.
Entradas
- Model: Language Model to be passed as input.
- Disable Streaming: Disable streaming for the LLM.
- Input Data: Input data to be passed as input.
- Prompt: Prompt to be passed as input.
- System Prompt: System prompt to be passed as input.
Salidas
- Result: Devuelve la respuesta del modelo en formato JSON (tipo
Message
). - Runnable: Devuelve la cadena construida (tipo
Runnable
) que puede ser reutilizada en otros flujos.
Ejemplo de Uso
- Añade el componente BasicChain al lienzo de tu dashboard.
- Conecta un componente LanguageModel al puerto Model.
- Escribe en System Prompt algo como:
Eres un asistente que responde en formato JSON con los campos "respuesta" y "palabras_clave".
- Escribe en Prompt la pregunta del usuario, por ejemplo:
¿Cuáles son las tendencias de ventas de este trimestre?
- Si quieres que la respuesta se entregue sin streaming, marca Disable Streaming.
- Ejecuta el flujo. La salida Result mostrará algo parecido a:
{"respuesta": "Las ventas han aumentado un 12% respecto al trimestre anterior.","palabras_clave": ["ventas", "trimestre", "aumento"]}
Componentes Relacionados
- LanguageModel: Selecciona el modelo de IA que usarás (OpenAI, Anthropic, etc.).
- JSON Output Parser: Si necesitas manipular la respuesta JSON en pasos posteriores.
Consejos y Mejores Prácticas
- Mantén los prompts claros: Un system prompt bien definido reduce respuestas ambiguas.
- Usa la salida Runnable cuando necesites reutilizar la misma cadena en varios lugares del flujo.
- Desactiva streaming en entornos donde la latencia sea crítica o el ancho de banda sea limitado.
- Valida la respuesta JSON antes de usarla en pasos posteriores para evitar errores de formato.
Consideraciones de Seguridad
- Protege la información sensible: Evita incluir datos confidenciales directamente en los prompts.
- Control de acceso: Asegúrate de que solo usuarios autorizados puedan ejecutar flujos que utilicen modelos de IA.
- Registros: Si habilitas logging, revisa que no se almacenen respuestas completas que contengan datos personales.