Groq
El componente Groq permite a los usuarios generar texto con los modelos de Groq directamente desde el dashboard de Nappai. Conecta tu flujo de trabajo con la API de Groq, enviando prompts y recibiendo respuestas de manera sencilla y segura.
¿Cómo funciona?
Cuando activas el componente, Nappai envía una solicitud HTTP a la API de Groq (por defecto a https://api.groq.com/openai/v1
). La petición incluye el prompt, el modelo seleccionado y los parámetros de generación (máximo de tokens, temperatura, etc.). La respuesta se devuelve como un mensaje de texto que puedes usar en cualquier parte de tu flujo. Si habilitas el modo de streaming, la respuesta se entrega en tiempo real, lo que es útil para chats interactivos.
Entradas
Modo de Mapeo (Mapping Mode)
Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:
- Fixed (Fijo): Escribes el valor directamente en el campo.
- Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
- Javascript: Escribes código Javascript para calcular el valor dinámicamente.
Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.
Campos de Entrada
Los siguientes campos están disponibles para configurar este componente. Cada campo puede ser configurado de forma fija, mapeada o mediante Javascript.
- Groq API Base: La URL base para las peticiones a la API de Groq. Si no usas un proxy o emulador, déjalo en blanco para usar el valor por defecto (
https://api.groq.com
). - Groq API Key: La clave secreta que autoriza el acceso a la API de Groq. Esta clave se almacena de forma segura en la credencial.
- Input: El prompt o mensaje que quieres enviar al modelo. Puede ser un texto fijo o provenir de otro componente.
- Mapping Mode: Interruptor que habilita el modo de mapeo para procesar múltiples registros en lote.
- Max Output Tokens: El número máximo de tokens que el modelo puede generar en respuesta.
- Model: El nombre del modelo de Groq que deseas usar (por ejemplo,
llama3-70b-8192
). - N: Número de completions que quieres generar por cada prompt. Si la API devuelve duplicados, es posible que recibas menos completions.
- Stream: Si está activado, la respuesta se envía en tiempo real (útil para chats).
- System Message: Mensaje de sistema que se pasa al modelo para guiar su comportamiento.
- Temperature: Controla la aleatoriedad de la generación. Un valor cercano a 0 produce respuestas más determinísticas, mientras que valores más altos generan respuestas más creativas.
Nota sobre credenciales
Este componente requiere una credencial de tipo Groq API.
- Configura primero la credencial en la sección de credenciales de Nappai.
- Luego selecciona esa credencial en el campo Credential del componente.
Los campos de la credencial (Groq API Base y Groq API Key) no aparecen en la lista de entradas porque ya están gestionados por la credencial.
Salidas
- Text: Mensaje de texto generado por el modelo. Se puede usar directamente en otros componentes o mostrarlo al usuario.
- Model: Objeto
LanguageModel
que representa la configuración del modelo. Útil si quieres reutilizar el mismo modelo en otro componente.
Ejemplo de Uso
- Configura la credencial: Ve a Credenciales → Agregar credencial → Groq API y completa la Base y la Key.
- Añade el componente Groq al flujo.
- Selecciona la credencial en el campo Credential.
- Elige un modelo (por ejemplo,
llama3-70b-8192
) y ajusta la temperatura a 0.1 para respuestas coherentes. - Introduce un prompt en el campo Input, por ejemplo:
“Escribe un breve resumen de la reunión de hoy.”
- Ejecuta el flujo. El componente devolverá el texto generado en la salida Text.
Si necesitas procesar varios prompts a la vez, activa Mapping Mode y conecta una lista de prompts al campo Input usando la opción Mapped.
Componentes Relacionados
- OpenAIModel – Genera texto usando la API de OpenAI.
- AnthropicModel – Usa modelos de Claude para generación de texto.
- AzureOpenAIModel – Conecta con la API de Azure OpenAI.
- ChatCompletion – Envía mensajes en formato de chat a cualquier modelo compatible.
Consejos y Mejores Prácticas
- Mantén tu API Key segura: Usa credenciales y evita exponer la clave en el flujo.
- Controla la longitud: Ajusta Max Output Tokens según la necesidad para evitar respuestas demasiado largas.
- Usa temperatura baja para tareas que requieran precisión y coherencia.
- Prueba en modo no streaming cuando no necesites respuesta en tiempo real, ya que reduce la latencia inicial.
- Aprovecha el modo de mapeo para procesar listas de prompts sin crear flujos separados.
Consideraciones de Seguridad
- La clave de API se almacena de forma cifrada en la credencial; no se muestra en el flujo.
- Evita enviar datos sensibles directamente al modelo sin anonimizar, ya que la respuesta se devuelve en texto plano.
- Si usas Stream, asegúrate de que el canal de comunicación esté protegido (HTTPS).