LLMMathChain
LLMMathChain es un componente que permite a los usuarios pedirle a un modelo de lenguaje que resuelva cálculos matemáticos. El usuario escribe una pregunta o una expresión matemática, el modelo la interpreta y genera código Python que se ejecuta para obtener el resultado. El resultado se devuelve como un mensaje de texto que puede usarse en el resto del flujo de trabajo.
⚠️ ADVERTENCIA DE DEPRECACIÓN
Este componente está deprecado y será eliminado en una versión futura de Nappai. Por favor, migra a los componentes alternativos recomendados.
¿Cómo funciona?
- Entrada: El usuario escribe una pregunta o expresión matemática en el campo Input.
- Modelo: Se selecciona un modelo de lenguaje (por ejemplo, OpenAI GPT‑4) en el campo Model.
- Procesamiento:
- El componente crea una instancia de
LLMMathChain
de LangChain, pasando el modelo y un manejador de callbacks para la ejecución asíncrona. - El modelo interpreta la entrada y genera código Python que realiza el cálculo.
- LangChain ejecuta ese código y devuelve el resultado.
- El componente crea una instancia de
- Salida: El resultado se envuelve en un objeto
Message
y se muestra en el campo Text.
El componente no hace llamadas a APIs externas aparte de la que ya se usa el modelo de lenguaje. Todo el procesamiento ocurre dentro de la infraestructura de Nappai y LangChain.
Entradas
Model
- Tipo: HandleInput (requerido)
- Descripción: Selecciona el modelo de lenguaje que interpretará la pregunta y generará el código Python.
- Nota: Este campo no aparece en ninguna operación porque el componente no tiene operaciones distintas.
Input
- Tipo: MultilineInput (requerido)
- Descripción: Escribe la pregunta o expresión matemática que deseas resolver.
- Nota: Este campo tampoco aparece en operaciones distintas.
Salidas
Text
- Tipo: Message (método: invoke_chain)
- Descripción: Contiene el resultado del cálculo como texto. Puedes usarlo directamente en otros componentes, por ejemplo, para mostrarlo en un panel de resultados o para guardarlo en una base de datos.
Ejemplo de Uso
- Añade el componente LLMMathChain al flujo de trabajo.
- Configura el modelo: selecciona “OpenAI GPT‑4” en el campo Model.
- Escribe la pregunta en el campo Input:
What is 12 * 7?
- Ejecuta el flujo.
- Resultado: el campo Text mostrará
84
.
Este flujo sencillo muestra cómo el componente convierte una pregunta natural en código Python, lo ejecuta y devuelve el resultado.
Componentes Relacionados
- LLMChain – Ejecuta cualquier cadena de prompts con un modelo de lenguaje.
- PythonComponent – Permite ejecutar código Python directamente sin usar un modelo.
- MathComponent – Realiza operaciones matemáticas básicas sin necesidad de un modelo de lenguaje.
Consejos y Mejores Prácticas
- Usa un modelo confiable: Los resultados dependen de la calidad del modelo.
- Mantén las preguntas simples: Evita ambigüedades que puedan generar código incorrecto.
- Revisa el resultado: Aunque el componente devuelve un mensaje, siempre verifica que el cálculo sea correcto.
- Evita datos sensibles: No incluyas información confidencial en las preguntas, ya que el modelo puede procesarla.
- Planifica la migración: Dado que el componente está deprecado, considera usar
LLMChain
con una función de cálculo personalizada.
Consideraciones de Seguridad
- Ejecutar código Python: El componente genera y ejecuta código Python. Asegúrate de que el modelo no genere código que pueda comprometer la seguridad del sistema.
- Control de acceso: Limita quién puede usar este componente en flujos críticos.
- Validación de entrada: Si la entrada proviene de usuarios finales, valida que no contenga expresiones peligrosas.
Con estas precauciones, podrás aprovechar la potencia de LLMMathChain de forma segura y eficiente en tu dashboard de Nappai.