Gemini
Gemini es un componente de Nappai que permite generar texto de forma automática usando la tecnología de Google Gemini. Con él, puedes crear resúmenes, redactar correos, generar ideas o cualquier otro contenido textual que necesites, sin escribir código.
¿Cómo funciona?
Cuando activas Gemini, el componente envía tu solicitud a la API de Google Generative AI. Primero, Nappai verifica que tengas una credencial válida (Google Gemini API) y que la clave esté configurada. Luego, el componente construye un modelo de lenguaje con los parámetros que hayas elegido (modelo, temperatura, número de respuestas, etc.) y envía el mensaje de entrada. La respuesta se devuelve como un objeto de tipo Message que contiene el texto generado. Si habilitas la opción Include Thoughts, el modelo también devuelve su razonamiento interno, útil para depurar o explicar decisiones.
Entradas
Modo de Mapeo (Mapping Mode)
Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:
- Fixed (Fijo): Escribes el valor directamente en el campo.
- Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
- Javascript: Escribes código Javascript para calcular el valor dinámicamente.
Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.
Campos de Entrada
Campo | Explicación |
---|---|
Include Thoughts ( only works with thinking_budget > 0 ) | Si lo activas, el modelo incluirá su razonamiento interno en la respuesta. Requiere que Thinking Budget sea mayor que 0. |
Input | El texto o pregunta que quieres que Gemini procese. |
Mapping Mode | Interruptor que habilita el modo de mapeo para procesar varios registros a la vez. |
Max Output Tokens | Máximo número de tokens que el modelo puede generar. |
Model | Nombre del modelo Gemini que quieres usar (por ejemplo, gemini-1.5-pro ). Este campo es obligatorio. |
N | Número de respuestas distintas que quieres que el modelo genere para cada entrada. |
Stream | Si lo activas, la respuesta se enviará en tiempo real, útil para chats. |
System Message | Mensaje de contexto que se pasa al modelo (por ejemplo, “Eres un asistente de marketing”). |
Temperature | Controla la aleatoriedad de la generación; valores más altos producen respuestas más creativas. |
Thinking Budget | Cantidad de tokens que el modelo puede usar para pensar antes de responder. 0 significa que no piensa. |
Top K | Número de tokens más probables que el modelo considera al generar cada palabra. |
Top P | Umbral de probabilidad acumulada que limita los tokens considerados. |
Credencial
Este componente necesita una credencial de tipo Google Gemini API.
- Ve a la sección Credenciales de Nappai y crea una nueva credencial llamada Google Gemini API.
- Ingresa tu Google Api Key (es una contraseña).
- En el componente, selecciona esa credencial en el campo Credential.
Los datos de la credencial (clave, token, etc.) no aparecen en la lista de campos de entrada.
Salidas
Salida | Tipo | Descripción |
---|---|---|
Text | Message (método: text_response ) | El texto generado por Gemini. Puedes usarlo directamente en otros componentes o mostrarlo al usuario. |
Model | LanguageModel (método: build_model ) | El objeto del modelo configurado, útil si quieres reutilizarlo en otro flujo o en un componente que requiera un modelo. |
Ejemplo de Uso
Supongamos que quieres generar un resumen breve de un artículo de noticias.
- Añade el componente Gemini al flujo.
- En Input, escribe:
Resume el siguiente artículo en 3 párrafos: <texto del artículo>
- Selecciona el modelo
gemini-1.5-pro
en Model. - Deja Max Output Tokens en 500, Temperature en 0.7 y N en 1.
- Si quieres ver el razonamiento interno, activa Include Thoughts y pon Thinking Budget a 50.
- Conecta la salida Text a un componente de visualización (por ejemplo, un cuadro de texto) para mostrar el resumen al usuario.
Al ejecutar el flujo, Gemini enviará la solicitud a Google, recibirá el resumen y lo mostrará en tu dashboard.
Componentes Relacionados
- OpenAI LLM – Genera texto usando la API de OpenAI.
- ChatGoogleGenerativeAI – Versión de chat de Gemini que permite conversaciones continuas.
- Text Analyzer – Analiza el texto generado para extraer métricas o sentimientos.
Consejos y Mejores Prácticas
- Usa un modelo adecuado: Los modelos más recientes suelen ofrecer mejor calidad, pero pueden costar más.
- Controla la longitud: Ajusta Max Output Tokens para evitar respuestas demasiado largas.
- Prueba con diferentes temperaturas: Valores bajos (0.2‑0.4) generan respuestas más coherentes; valores altos (0.8‑1.0) son más creativos.
- Aprovecha el mapeo: Si necesitas procesar una lista de artículos, activa Mapping Mode y conecta la lista a la entrada Input.
- Revisa la política de uso: Asegúrate de que tu uso de Gemini cumpla con las políticas de Google y de Nappai.
Consideraciones de Seguridad
- Protege tu clave: La credencial Google Gemini API contiene tu clave de acceso. No la compartas públicamente.
- Limita el acceso: Configura permisos de usuario en Nappai para que solo personas autorizadas puedan usar el componente.
- Monitorea el uso: Revisa los logs de Nappai para detectar patrones inusuales o excesivo consumo de tokens.