Retrieval QA
⚠️ ADVERTENCIA DE DEPRECACIÓN
Este componente está deprecado y será eliminado en una versión futura de Nappai. Por favor, migra a los componentes alternativos recomendados.
¿Cómo funciona?
El componente Retrieval QA combina tres piezas clave de la inteligencia artificial:
- Modelo de lenguaje (LLM) – Genera respuestas basadas en el texto que recibe.
- Retriever – Busca documentos relevantes dentro de tu base de datos o archivos.
- Memoria (opcional) – Guarda el historial de preguntas y respuestas para que el modelo pueda recordar el contexto.
Cuando introduces una pregunta en el campo Input, el componente:
- Envía la pregunta al Retriever para obtener los documentos más relevantes.
- Pasa esos documentos y la pregunta al LLM para que genere una respuesta coherente.
- Si se activa la opción Return Source Documents, también devuelve los documentos que sirvieron de referencia, lo que permite al usuario verificar la fuente de la información.
El proceso se ejecuta de forma asíncrona y registra eventos para que puedas ver el historial de ejecución en el dashboard.
Entradas
-
Model
El modelo de lenguaje que se usará para generar las respuestas. Debe ser un componente de tipo LanguageModel. -
Memory
Un componente de memoria (BaseChatMemory) que guarda el historial de la conversación. Es opcional. -
Retriever
El componente que busca documentos relevantes. Debe ser de tipo Retriever y es obligatorio. -
Chain Type
Selecciona el algoritmo de combinación de respuestas. Puedes elegir entre Stuff, Map Reduce, Refine o Map Rerank. -
Input
La pregunta o consulta que quieres que el modelo responda. Es obligatorio. -
Return Source Documents
Si se marca, el componente devuelve también los documentos que se usaron para generar la respuesta.
Salidas
-
Text
La respuesta generada por el modelo, en formatoMessage
. Se obtiene al ejecutarinvoke_chain
. -
Runnable
La cadena completa que se puede ejecutar de forma programática, obtenida conbuild_runnable
.
Ejemplo de Uso
Imagina que quieres crear un panel de ayuda para tu equipo de soporte. Con Retrieval QA puedes:
- Conectar un Retriever que busque en la documentación interna de tu empresa.
- Usar un modelo de lenguaje como OpenAI GPT‑4 para generar respuestas claras.
- Activar Return Source Documents para que los agentes de soporte vean la referencia exacta de cada respuesta.
En el dashboard, simplemente arrastra el componente, conecta el Retriever y el Model, escribe tu pregunta en el campo Input y haz clic en Run. El resultado aparecerá en la salida Text, y si lo necesitas, también verás los documentos de origen.
Componentes Relacionados
- LLM – Selecciona el modelo de lenguaje que usarás (por ejemplo, GPT‑4, Claude, etc.).
- Retriever – Configura la fuente de documentos (base de datos, archivos, API externa).
- Memory – Añade contexto persistente a la conversación si tu flujo lo requiere.
Consejos y Mejores Prácticas
- Usa un Retriever bien indexado: La calidad de las respuestas depende de la relevancia de los documentos recuperados.
- Limita la longitud de la respuesta: Si tu modelo permite, ajusta el parámetro de longitud para evitar respuestas demasiado extensas.
- Activa la memoria solo cuando sea necesario: Guardar todo el historial puede consumir recursos; úsala solo si el contexto es crítico.
- Revisa las fuentes: Cuando habilites Return Source Documents, verifica que los documentos sean confiables antes de mostrarlos al usuario final.
Consideraciones de Seguridad
- Control de acceso: Asegúrate de que solo usuarios autorizados puedan ejecutar consultas que accedan a datos sensibles.
- Privacidad de datos: Si el Retriever consulta bases de datos con información confidencial, revisa las políticas de retención y anonimización.
- Rate limiting: Configura límites de uso para evitar sobrecargar el modelo de lenguaje o el servicio de búsqueda.