MistralAI
El componente MistralAI permite a los usuarios generar texto utilizando los modelos de lenguaje de MistralAI. Se conecta a la API de Mistral y devuelve respuestas que pueden ser usadas en flujos de trabajo de automatización dentro del dashboard de Nappai.
¿Cómo funciona?
Cuando configuras el componente, Nappai envía una solicitud HTTP a la API de Mistral (por defecto https://api.mistral.ai/v1). El cuerpo de la solicitud incluye el texto que quieres procesar, el modelo seleccionado y los parámetros de generación (temperatura, top‑p, número máximo de tokens, etc.). La API devuelve la respuesta generada, que Nappai entrega como un mensaje de tipo Text. Además, el componente expone el objeto del modelo (LanguageModel
) para que pueda ser reutilizado por otros componentes que necesiten enviar consultas al mismo modelo.
Entradas
Modo de Mapeo (Mapping Mode)
Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:
- Fixed (Fijo): Escribes el valor directamente en el campo.
- Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
- Javascript: Escribes código Javascript para calcular el valor dinámicamente.
Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.
Campos de Entrada
- Input: Texto que se enviará al modelo para generar una respuesta.
- Mapping Mode: Activa el modo de mapeo para procesar múltiples registros en lote.
- Max Concurrent Requests: Número máximo de solicitudes concurrentes que se enviarán al modelo.
- Max Retries: Número máximo de reintentos en caso de error.
- Max Tokens: Número máximo de tokens que generará el modelo. 0 significa ilimitado.
- Mistral API Base: URL base de la API de Mistral. Por defecto https://api.mistral.ai/v1. Puedes cambiarla para usar otros servicios como JinaChat, LocalAI o Prem.
- Model Name: Nombre del modelo de Mistral que se utilizará (por ejemplo,
codestral-latest
). - Random Seed: Semilla aleatoria para reproducibilidad de resultados.
- Safe Mode: Activa modo seguro para evitar contenido inapropiado.
- Stream: Transmitir la respuesta del modelo en tiempo real. Streaming funciona solo en modo chat.
- System Message: Mensaje del sistema que se pasa al modelo para guiar su comportamiento.
- Temperature: Controla la aleatoriedad de la respuesta. Valores más altos generan respuestas más creativas.
- Timeout: Tiempo máximo de espera (en segundos) para recibir una respuesta del modelo.
- Top P: Controla la diversidad de la respuesta mediante la técnica de filtrado de núcleo.
Credencial
Este componente requiere una credencial de tipo Mistral AI API.
- Configura primero la credencial en la sección de credenciales de Nappai.
- Selecciona esa credencial en el campo Credential del componente.
La credencial necesita el Mistral API Key, que puedes obtener en la consola oficial de Mistral: https://console.mistral.ai/.
Salidas
- Text: Mensaje generado por el modelo (método:
text_response
). - Model: Objeto
LanguageModel
que representa el modelo configurado (método:build_model
).
Estas salidas pueden ser conectadas a otros componentes, como un componente de Prompt para enviar consultas o a un componente de Logger para registrar la respuesta.
Ejemplo de Uso
- Configura la credencial: En la sección de credenciales de Nappai, crea una credencial llamada
Mistral AI API
y pega tu API Key. - Añade el componente MistralAI al flujo.
- Selecciona la credencial en el campo Credential.
- Elige el modelo (
codestral-latest
) y ajusta la Temperature a 0.7 para respuestas más creativas. - Conecta la salida
Model
a un componente Prompt. - En el Prompt, escribe la pregunta o el texto que quieres procesar y conecta su salida
Text
a un componente de Display o Logger. - Ejecuta el flujo y observa la respuesta generada en tiempo real.
Componentes Relacionados
- Prompt – Envía texto al modelo y recibe la respuesta.
- Chat – Permite conversaciones continuas con el modelo.
- LLMCallbackHandler – Registra eventos y métricas de la llamada al modelo.
Consejos y Mejores Prácticas
- Usa modelos más pequeños (
mistral-small-latest
) para pruebas rápidas y reduce costos. - Ajusta la Temperature y Top P para equilibrar creatividad y coherencia.
- Configura un Timeout adecuado (por ejemplo, 60 s) para evitar bloqueos en flujos largos.
- Activa Safe Mode cuando trabajes con contenido sensible o público.
- Si necesitas procesar muchos registros, habilita Mapping Mode y ajusta Max Concurrent Requests según la capacidad de tu entorno.
Consideraciones de Seguridad
- La API Key debe mantenerse confidencial; nunca la expongas en el código fuente ni en logs públicos.
- Utiliza la gestión de credenciales de Nappai para almacenar y acceder a la clave de forma segura.
- Revisa los límites de uso de la API de Mistral para evitar sobrecargas y posibles bloqueos.