Saltearse al contenido

LLMMathChain

LLMMathChain es un componente que permite a los usuarios pedirle a un modelo de lenguaje que resuelva cálculos matemáticos. El usuario escribe una pregunta o una expresión matemática, el modelo la interpreta y genera código Python que se ejecuta para obtener el resultado. El resultado se devuelve como un mensaje de texto que puede usarse en el resto del flujo de trabajo.

⚠️ ADVERTENCIA DE DEPRECACIÓN

Este componente está deprecado y será eliminado en una versión futura de Nappai. Por favor, migra a los componentes alternativos recomendados.

¿Cómo funciona?

  1. Entrada: El usuario escribe una pregunta o expresión matemática en el campo Input.
  2. Modelo: Se selecciona un modelo de lenguaje (por ejemplo, OpenAI GPT‑4) en el campo Model.
  3. Procesamiento:
    • El componente crea una instancia de LLMMathChain de LangChain, pasando el modelo y un manejador de callbacks para la ejecución asíncrona.
    • El modelo interpreta la entrada y genera código Python que realiza el cálculo.
    • LangChain ejecuta ese código y devuelve el resultado.
  4. Salida: El resultado se envuelve en un objeto Message y se muestra en el campo Text.

El componente no hace llamadas a APIs externas aparte de la que ya se usa el modelo de lenguaje. Todo el procesamiento ocurre dentro de la infraestructura de Nappai y LangChain.

Entradas

Model

  • Tipo: HandleInput (requerido)
  • Descripción: Selecciona el modelo de lenguaje que interpretará la pregunta y generará el código Python.
  • Nota: Este campo no aparece en ninguna operación porque el componente no tiene operaciones distintas.

Input

  • Tipo: MultilineInput (requerido)
  • Descripción: Escribe la pregunta o expresión matemática que deseas resolver.
  • Nota: Este campo tampoco aparece en operaciones distintas.

Salidas

Text

  • Tipo: Message (método: invoke_chain)
  • Descripción: Contiene el resultado del cálculo como texto. Puedes usarlo directamente en otros componentes, por ejemplo, para mostrarlo en un panel de resultados o para guardarlo en una base de datos.

Ejemplo de Uso

  1. Añade el componente LLMMathChain al flujo de trabajo.
  2. Configura el modelo: selecciona “OpenAI GPT‑4” en el campo Model.
  3. Escribe la pregunta en el campo Input:
    What is 12 * 7?
  4. Ejecuta el flujo.
  5. Resultado: el campo Text mostrará 84.

Este flujo sencillo muestra cómo el componente convierte una pregunta natural en código Python, lo ejecuta y devuelve el resultado.

Componentes Relacionados

  • LLMChain – Ejecuta cualquier cadena de prompts con un modelo de lenguaje.
  • PythonComponent – Permite ejecutar código Python directamente sin usar un modelo.
  • MathComponent – Realiza operaciones matemáticas básicas sin necesidad de un modelo de lenguaje.

Consejos y Mejores Prácticas

  • Usa un modelo confiable: Los resultados dependen de la calidad del modelo.
  • Mantén las preguntas simples: Evita ambigüedades que puedan generar código incorrecto.
  • Revisa el resultado: Aunque el componente devuelve un mensaje, siempre verifica que el cálculo sea correcto.
  • Evita datos sensibles: No incluyas información confidencial en las preguntas, ya que el modelo puede procesarla.
  • Planifica la migración: Dado que el componente está deprecado, considera usar LLMChain con una función de cálculo personalizada.

Consideraciones de Seguridad

  • Ejecutar código Python: El componente genera y ejecuta código Python. Asegúrate de que el modelo no genere código que pueda comprometer la seguridad del sistema.
  • Control de acceso: Limita quién puede usar este componente en flujos críticos.
  • Validación de entrada: Si la entrada proviene de usuarios finales, valida que no contenga expresiones peligrosas.

Con estas precauciones, podrás aprovechar la potencia de LLMMathChain de forma segura y eficiente en tu dashboard de Nappai.