Vertex AI
Vertex AI es un componente de Nappai que permite a los usuarios generar texto con los modelos de lenguaje de Google Vertex AI. Con él, puedes enviar una pregunta o un mensaje y recibir una respuesta generada por la IA, todo dentro del mismo dashboard de Nappai.
¿Cómo funciona?
Cuando activas el componente, Nappai envía tu solicitud a la API de Vertex AI. Si has subido un archivo de credenciales JSON, el componente lo usa para autenticarse; de lo contrario, se apoya en las variables de entorno configuradas en tu entorno. El modelo seleccionado (por defecto gemini-2.0-flash
) recibe el texto de entrada y devuelve una respuesta. Puedes ajustar parámetros como la temperatura, el número máximo de tokens y la estrategia de muestreo (top_k
, top_p
) para controlar la creatividad y la longitud de la respuesta.
Entradas
Modo de Mapeo (Mapping Mode)
Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:
- Fixed (Fijo): Escribes el valor directamente en el campo.
- Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
- Javascript: Escribes código Javascript para calcular el valor dinámicamente.
Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.
Campos de Entrada
- Credentials: Archivo JSON con las credenciales de Google Cloud. Si lo dejas vacío, Nappai usará las variables de entorno configuradas.
- Input: El texto que quieres que el modelo procese. Puede ser un mensaje fijo, un dato mapeado o generado por Javascript.
- Location: Región donde se ejecuta el modelo (ej.
us-central1
). Se usa para dirigir la solicitud a la instancia correcta de Vertex AI. - Mapping Mode: Interruptor que habilita el modo de mapeo para procesar varios registros a la vez.
- Max Output Tokens: Máximo número de tokens que el modelo puede devolver. Si lo dejas vacío, se usa el valor por defecto del modelo.
- Max Retries: Número de veces que Nappai intentará la solicitud si falla. Por defecto es 1.
- Model Name: Nombre del modelo de Vertex AI que quieres usar. El valor por defecto es
gemini-2.0-flash
. - Project: ID del proyecto de Google Cloud. Si no lo indicas, se usará el ID que aparece en las credenciales.
- Stream: Si se activa, la respuesta se enviará en tiempo real (solo funciona en modo chat).
- System Message: Mensaje de contexto que se pasa al modelo para guiar su comportamiento.
- Temperature: Controla la aleatoriedad de la respuesta. Un valor bajo (ej. 0.0) hace que la respuesta sea más determinista.
- Top K: Número de tokens más probables que el modelo considerará al generar la respuesta.
- Top P: Umbral de probabilidad acumulada que limita la diversidad de la respuesta.
- Verbose: Si se activa, se mostrará información adicional de depuración.
Salidas
- Text: La respuesta generada por el modelo, disponible como un mensaje de texto.
- Model: El objeto del modelo de lenguaje configurado, que puede ser reutilizado en otros componentes.
Ejemplo de Uso
- Objetivo: Obtener una respuesta breve a la pregunta “¿Qué es Nappai?”.
- Configuración:
- Input:
¿Qué es Nappai?
- Model Name:
gemini-2.0-flash
- Temperature:
0.2
- Max Output Tokens:
50
- Input:
- Resultado: El componente devuelve un mensaje de texto con una explicación concisa de Nappai.
Componentes Relacionados
- ChatOpenAI – Genera texto usando modelos de OpenAI (ChatGPT, GPT‑4, etc.).
- LLM – Un componente genérico que permite usar cualquier modelo de lenguaje compatible con LangChain.
- PromptTemplate – Permite crear plantillas de texto que se pueden pasar como entrada al modelo.
Consejos y Mejores Prácticas
- Usa credenciales seguras: Si subes un archivo JSON, asegúrate de que no se comparta públicamente.
- Controla la longitud: Ajusta
Max Output Tokens
para evitar respuestas demasiado largas que consuman recursos. - Prueba con diferentes temperaturas: Un valor bajo produce respuestas más coherentes, mientras que valores más altos generan respuestas más creativas.
- Activa
Verbose
solo cuando necesites depurar: Muestra información útil pero puede generar ruido en la interfaz.
Consideraciones de Seguridad
- Protege tus credenciales: No compartas el archivo JSON en repositorios públicos ni lo incluyas en flujos que se compartan sin cifrar.
- Limita el acceso a la API: Configura políticas de IAM en Google Cloud para que solo los usuarios autorizados puedan usar el modelo.
- Revisa los logs: Si habilitas
Verbose
, revisa los registros para asegurarte de que no se exponga información sensible.