Saltearse al contenido

LLMCheckerChain

⚠️ ADVERTENCIA DE DEPRECACIÓN

Este componente está deprecado y será eliminado en una versión futura de Nappai. Por favor, migra a los componentes alternativos recomendados.

¿Cómo funciona?

El componente LLMCheckerChain permite enviar una pregunta o un texto a un modelo de lenguaje (LLM) y recibir una respuesta que incluye una auto‑verificación. Internamente, utiliza la clase LLMCheckerChain de LangChain, que envuelve al modelo con una lógica de comprobación de coherencia. Cuando se invoca, el componente:

  1. Recibe el texto que quieres procesar (el campo Input).
  2. Llama al modelo de lenguaje que has seleccionado (el campo Model).
  3. Ejecuta la cadena de verificación: el modelo genera una respuesta y, simultáneamente, se genera una segunda respuesta que revisa la primera para detectar inconsistencias o errores.
  4. Devuelve el resultado como un objeto Message (texto) y también expone la cadena completa como un Runnable para que puedas reutilizarla en otros flujos.

No se necesita ninguna configuración adicional; el componente se conecta automáticamente al modelo que hayas configurado en el panel de Nappai.

Entradas

Campos de Entrada

  • Model
    Selecciona el modelo de lenguaje que quieres usar (por ejemplo, GPT‑4, Claude, etc.). Este modelo será el que genere la respuesta y la verificación.

  • Input
    Escribe el texto o la pregunta que deseas enviar al modelo. Puedes introducir cualquier contenido que necesites que el LLM procese y verifique.

Salidas

  • Text
    Devuelve la respuesta final del modelo, ya verificada, encapsulada en un objeto Message. Puedes usar este texto directamente en tu dashboard o en otros componentes.

  • Runnable
    Exponer la cadena completa como un objeto Runnable permite reutilizarla en flujos más complejos o combinarla con otras cadenas de LangChain dentro de Nappai.

Ejemplo de Uso

Imagina que quieres crear un asistente que responda preguntas sobre la política de tu empresa y que garantice que las respuestas no contengan información incorrecta. En el dashboard:

  1. Arrastra el componente LLMCheckerChain a tu flujo.
  2. Conecta el campo Model al modelo GPT‑4 que ya tienes configurado.
  3. Escribe en el campo Input algo como:
    ¿Cuál es la política de vacaciones para empleados de tiempo completo?
  4. Conecta la salida Text a un componente de visualización de texto para mostrar la respuesta al usuario.

El asistente enviará la pregunta al modelo, recibirá la respuesta y la verificará automáticamente antes de mostrársela al usuario.

Componentes Relacionados

  • LLMChain – Para generar respuestas sin verificación adicional.
  • PromptTemplate – Para crear plantillas de preguntas que se pueden pasar a la cadena.
  • AgentExecutor – Para ejecutar agentes que pueden usar esta cadena como parte de su flujo de trabajo.

Consejos y Mejores Prácticas

  • Usa modelos actualizados: Elige siempre la última versión disponible del modelo para aprovechar mejoras de precisión y seguridad.
  • Limita la longitud del Input: Los modelos tienen límites de tokens; si tu texto es muy largo, considera resumirlo antes de enviarlo.
  • Revisa la salida: Aunque la cadena verifica la respuesta, siempre es buena idea revisar manualmente las respuestas críticas.
  • Combina con filtros: Puedes usar un componente de filtrado de texto para eliminar información sensible antes de mostrarla al usuario.

Consideraciones de Seguridad

  • Control de acceso: Asegúrate de que solo usuarios autorizados puedan enviar consultas sensibles al modelo.
  • Registros de auditoría: Habilita el registro de llamadas al modelo para poder rastrear y revisar las interacciones en caso de problemas.
  • Política de retención: Configura la retención de datos de las respuestas según las políticas de tu organización para evitar almacenamiento innecesario de información confidencial.