ConversationChain
⚠️ ADVERTENCIA DE DEPRECACIÓN
Este componente está deprecado y será eliminado en una versión futura de Nappai.
Por favor, migra a los componentes alternativos recomendados.
¿Cómo funciona?
El componente ConversationChain permite que tu dashboard mantenga una conversación con un modelo de lenguaje (LLM) y recuerde el contexto de las interacciones anteriores. Cuando envías un mensaje, el componente:
- Recibe el texto que quieres enviar al modelo.
- Conecta con el LLM que hayas seleccionado (por ejemplo, GPT‑4, Claude, etc.).
- Usa la memoria que hayas configurado para recordar lo que ya se ha dicho en la conversación.
- Devuelve la respuesta del modelo como un mensaje de texto.
Todo esto se hace dentro de Nappai, sin necesidad de escribir código. El componente se encarga de enviar la solicitud al LLM, recibir la respuesta y actualizar la memoria automáticamente.
Entradas
Campos de Entrada
-
Model
Selecciona el modelo de lenguaje que quieres usar. Este es el motor que generará las respuestas. -
Memory
Conecta un componente de memoria (por ejemplo,BaseChatMemory
) para que el modelo recuerde lo que ya se ha dicho. -
Input
Escribe el texto que quieres enviar al modelo. Este es el mensaje que inicia o continúa la conversación.
Salidas
-
Text
La respuesta generada por el modelo, entregada como un objetoMessage
. Puedes usarla para mostrar el texto en tu dashboard o para pasarla a otro componente. -
Runnable
Un objetoRunnable
que representa la cadena completa. Útil si quieres ejecutar la cadena de forma programática desde otro componente.
Ejemplo de Uso
- Añade el componente
ConversationChain
al flujo de tu dashboard. - Conecta el campo Model con el componente de LLM que prefieras (por ejemplo,
OpenAI GPT-4
). - Conecta el campo Memory con un componente de memoria (por ejemplo,
ChatMemory
). - Escribe un mensaje en el campo Input, como:
¿Cuál es el estado actual de las ventas del último trimestre?
- Ejecuta el flujo.
- El componente devolverá la respuesta del modelo en la salida Text, que puedes mostrar en un cuadro de texto o usar en otro componente.
Componentes Relacionados
- LLM – Selecciona el modelo de lenguaje que usarás.
- Memory – Componentes que almacenan el historial de la conversación (por ejemplo,
ChatMemory
). - ConversationChain – Este propio componente, que combina LLM y Memory para mantener el contexto.
Consejos y Mejores Prácticas
- Usa memoria persistente si quieres que la conversación continúe entre sesiones.
- Limita la longitud del mensaje de entrada para evitar costos innecesarios.
- Revisa la política de uso del LLM que elijas para asegurarte de que cumples con las restricciones de contenido.
- Prueba con mensajes cortos primero para verificar que la conexión al LLM funciona correctamente.
Consideraciones de Seguridad
- Protege tus claves API: Asegúrate de que las credenciales del LLM estén almacenadas de forma segura en Nappai.
- Control de acceso: Limita quién puede editar o ejecutar este componente para evitar usos indebidos.
- Revisa los logs: Si el modelo devuelve información sensible, revisa los registros de actividad para detectar accesos no autorizados.