LLMCheckerChain
⚠️ ADVERTENCIA DE DEPRECACIÓN
Este componente está deprecado y será eliminado en una versión futura de Nappai. Por favor, migra a los componentes alternativos recomendados.
¿Cómo funciona?
El componente LLMCheckerChain permite enviar una pregunta o un texto a un modelo de lenguaje (LLM) y recibir una respuesta que incluye una auto‑verificación. Internamente, utiliza la clase LLMCheckerChain
de LangChain, que envuelve al modelo con una lógica de comprobación de coherencia. Cuando se invoca, el componente:
- Recibe el texto que quieres procesar (el campo Input).
- Llama al modelo de lenguaje que has seleccionado (el campo Model).
- Ejecuta la cadena de verificación: el modelo genera una respuesta y, simultáneamente, se genera una segunda respuesta que revisa la primera para detectar inconsistencias o errores.
- Devuelve el resultado como un objeto
Message
(texto) y también expone la cadena completa como unRunnable
para que puedas reutilizarla en otros flujos.
No se necesita ninguna configuración adicional; el componente se conecta automáticamente al modelo que hayas configurado en el panel de Nappai.
Entradas
Campos de Entrada
-
Model
Selecciona el modelo de lenguaje que quieres usar (por ejemplo, GPT‑4, Claude, etc.). Este modelo será el que genere la respuesta y la verificación. -
Input
Escribe el texto o la pregunta que deseas enviar al modelo. Puedes introducir cualquier contenido que necesites que el LLM procese y verifique.
Salidas
-
Text
Devuelve la respuesta final del modelo, ya verificada, encapsulada en un objetoMessage
. Puedes usar este texto directamente en tu dashboard o en otros componentes. -
Runnable
Exponer la cadena completa como un objetoRunnable
permite reutilizarla en flujos más complejos o combinarla con otras cadenas de LangChain dentro de Nappai.
Ejemplo de Uso
Imagina que quieres crear un asistente que responda preguntas sobre la política de tu empresa y que garantice que las respuestas no contengan información incorrecta. En el dashboard:
- Arrastra el componente LLMCheckerChain a tu flujo.
- Conecta el campo Model al modelo GPT‑4 que ya tienes configurado.
- Escribe en el campo Input algo como:
¿Cuál es la política de vacaciones para empleados de tiempo completo?
- Conecta la salida Text a un componente de visualización de texto para mostrar la respuesta al usuario.
El asistente enviará la pregunta al modelo, recibirá la respuesta y la verificará automáticamente antes de mostrársela al usuario.
Componentes Relacionados
- LLMChain – Para generar respuestas sin verificación adicional.
- PromptTemplate – Para crear plantillas de preguntas que se pueden pasar a la cadena.
- AgentExecutor – Para ejecutar agentes que pueden usar esta cadena como parte de su flujo de trabajo.
Consejos y Mejores Prácticas
- Usa modelos actualizados: Elige siempre la última versión disponible del modelo para aprovechar mejoras de precisión y seguridad.
- Limita la longitud del Input: Los modelos tienen límites de tokens; si tu texto es muy largo, considera resumirlo antes de enviarlo.
- Revisa la salida: Aunque la cadena verifica la respuesta, siempre es buena idea revisar manualmente las respuestas críticas.
- Combina con filtros: Puedes usar un componente de filtrado de texto para eliminar información sensible antes de mostrarla al usuario.
Consideraciones de Seguridad
- Control de acceso: Asegúrate de que solo usuarios autorizados puedan enviar consultas sensibles al modelo.
- Registros de auditoría: Habilita el registro de llamadas al modelo para poder rastrear y revisar las interacciones en caso de problemas.
- Política de retención: Configura la retención de datos de las respuestas según las políticas de tu organización para evitar almacenamiento innecesario de información confidencial.