Saltearse al contenido

Azure OpenAI

El componente Azure OpenAI permite a los usuarios generar texto con los modelos de lenguaje de Azure OpenAI. Puedes usarlo para crear respuestas automáticas, resúmenes, traducciones y más, todo dentro del dashboard de Nappai.

¿Cómo funciona?

El componente se conecta a la API de Azure OpenAI. Cuando envías un mensaje (el campo Input) el componente construye una solicitud HTTP con los parámetros que configures: versión de la API, nombre del despliegue, temperatura, número máximo de tokens, etc. La API devuelve el texto generado, que el componente entrega como salida Text. Si habilitas Stream, la respuesta se envía en tiempo real, lo que es útil para chats o respuestas largas. El componente también permite usar un System Message para guiar el comportamiento del modelo.

Entradas

Modo de Mapeo (Mapping Mode)

Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:

  • Fixed (Fijo): Escribes el valor directamente en el campo.
  • Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
  • Javascript: Escribes código Javascript para calcular el valor dinámicamente.

Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.

Nota importante
Este componente requiere una credencial de tipo Azure OpenAI API.

  1. Configura primero la credencial en la sección de credenciales de Nappai.
  2. Luego selecciona esa credencial en el campo Credential del componente.
    Los datos de la credencial (como la clave API) no aparecen en la lista de campos de entrada.

Campos de Entrada

  • API Version: Selecciona la versión de la API de Azure OpenAI que usarás.
  • Deployment Name: El nombre del despliegue de modelo que has creado en Azure.
  • Azure Endpoint: La URL de tu recurso de Azure OpenAI, por ejemplo https://example-resource.azure.openai.com/.
  • Input: El texto que quieres que el modelo procese (prompt).
  • Mapping Mode: Interruptor para activar el modo de mapeo.
  • Max Tokens: Máximo número de tokens que el modelo puede generar. Pon 0 para ilimitado.
  • Stream: Activa la transmisión de la respuesta en tiempo real. Solo funciona en modo chat.
  • System Message: Mensaje de sistema que se pasa al modelo para guiar su comportamiento.
  • Temperature: Controla la aleatoriedad de la respuesta; valores bajos (p. ej. 0.2) hacen que sea más determinista, valores altos (p. ej. 0.8) generan más variedad.

Salidas

  • Text: El texto generado por el modelo. Se puede usar directamente en otros componentes o mostrarlo al usuario.
  • Model: El objeto del modelo de lenguaje que se ha construido; útil si quieres reutilizar la misma configuración en otro lugar del flujo.

Ejemplo de Uso

  1. Objetivo: Resumir un párrafo largo.
  2. Configuración:
    • Deployment Name: gpt-35-turbo
    • Azure Endpoint: https://mi-recurso.azure.openai.com/
    • Input: "Input: {texto_largo}"
    • System Message: "You are a helpful assistant that summarizes text."
    • Temperature: 0.3
    • Max Tokens: 150
  3. Resultado: El componente devuelve el resumen en la salida Text, que puedes pasar a un componente de visualización o a un flujo de correo.

Plantillas

(No se incluyen plantillas que utilicen este componente.)

Componentes Relacionados

  • Azure OpenAI: Este mismo componente que permite generar texto con Azure OpenAI.

Consejos y Mejores Prácticas

  • Usa Mapping Mode cuando necesites procesar varios registros a la vez.
  • Ajusta Temperature según la necesidad: valores bajos para respuestas coherentes, valores altos para creatividad.
  • Limita Max Tokens para evitar costos innecesarios y respuestas demasiado largas.
  • Activa Stream cuando quieras mostrar la respuesta en tiempo real, especialmente en chats.
  • Proporciona un System Message claro para guiar el tono y el estilo del modelo.

Consideraciones de Seguridad

  • La clave API se almacena de forma segura en la credencial Azure OpenAI API; no la expongas en el flujo.
  • Usa la credencial con los permisos mínimos necesarios.
  • Evita enviar datos sensibles directamente al modelo sin anonimizar o cifrar.
  • Revisa los logs de uso para detectar accesos no autorizados.