Saltearse al contenido

OpenRouter

OpenRouter es un componente que te permite acceder a una amplia gama de modelos de IA de diferentes proveedores mediante una única API. Con él, puedes elegir el modelo que mejor se adapte a tu tarea, ajustar parámetros como la temperatura o el número máximo de tokens, y aprovechar la capacidad de streaming para respuestas en tiempo real. Además, el modo de mapeo te permite procesar varios registros a la vez, lo que es ideal para flujos de trabajo que manejan grandes volúmenes de datos.

¿Cómo funciona?

Cuando activas el componente, Nappai primero consulta la API de OpenRouter (https://openrouter.ai/api/v1/models) para obtener la lista de modelos disponibles, agrupados por proveedor. Luego, el usuario selecciona un proveedor y un modelo específico. El componente construye internamente un objeto ChatOpenAI con la configuración proporcionada: clave API (obtenida de la credencial), modelo, temperatura, máximo de tokens y, opcionalmente, encabezados de sitio y nombre de aplicación. Cuando envías una solicitud, el modelo devuelve una respuesta de texto que se expone como la salida Text. Si necesitas reutilizar el modelo en otros componentes, la salida Model te entrega el objeto LanguageModel listo para usar.

Entradas

Modo de Mapeo (Mapping Mode)

Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:

  • Fixed (Fijo): Escribes el valor directamente en el campo.
  • Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
  • Javascript: Escribes código Javascript para calcular el valor dinámicamente.

Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.

Campos de Entrada

  • App Name: Tu nombre de aplicación para las clasificaciones de OpenRouter. Se envía en el encabezado X-Title cuando se hace la llamada a la API.
  • Input: El texto que quieres procesar con el modelo. Se envía como mensaje de chat al modelo.
  • Mapping Mode: Habilita el modo de mapeo para procesar múltiples registros en lote.
  • Max Tokens: Número máximo de tokens que el modelo puede generar en la respuesta.
  • Customized Model Name: Permite asignar un nombre personalizado al modelo seleccionado, útil cuando quieres referenciarlo más tarde en el flujo.
  • Model: El modelo de chat que usarás (por ejemplo, gpt-4o-mini). Se selecciona después de elegir el proveedor.
  • Provider (REQUIRED): El proveedor de IA (por ejemplo, OpenAI, Anthropic). Debes seleccionarlo antes de elegir el modelo.
  • Site URL: Tu URL de sitio para las clasificaciones de OpenRouter. Se envía en el encabezado HTTP-Referer.
  • Stream: Si se activa, la respuesta del modelo se envía en tiempo real, lo que es útil para chats interactivos.
  • System Message: Mensaje de sistema que se pasa al modelo para guiar su comportamiento (por ejemplo, “Eres un asistente útil”).
  • Temperature: Controla la aleatoriedad de la respuesta. Valores bajos (p. ej. 0.2) hacen que el modelo sea más determinista; valores altos (p. ej. 0.8) generan respuestas más creativas.

Credencial

Para usar este componente necesitas una credencial de tipo OpenRouter API:

  1. Ve a la sección de credenciales de Nappai y crea una nueva credencial llamada “OpenRouter API”.
  2. Ingresa tu OpenRouter API Key en el campo correspondiente.
  3. En el componente, selecciona la credencial recién creada en el campo Credential.

Salidas

  • Text: La respuesta generada por el modelo en formato de mensaje de texto. Puedes usarla directamente en un componente de visualización o como entrada para otro proceso.
  • Model: El objeto LanguageModel construido por el componente. Útil si quieres reutilizar el mismo modelo en otros componentes sin volver a configurarlo.

Ejemplo de Uso

  1. Añade el componente OpenRouter al flujo de trabajo.
  2. Configura la credencial: Selecciona la credencial “OpenRouter API” que ya has creado.
  3. Elige el proveedor: Por ejemplo, OpenAI.
  4. Selecciona el modelo: gpt-4o-mini.
  5. Ajusta parámetros:
    • Temperature: 0.5
    • Max Tokens: 200
    • Stream: desactivado
    • System Message: “Eres un asistente que resume textos.”
  6. Conecta la entrada: Conecta la salida de un componente de texto (por ejemplo, un bloque que lee un documento) al campo Input.
  7. Conecta la salida: Conecta la salida Text a un componente de visualización para mostrar el resumen.

Con estos pasos, cada vez que el flujo se ejecute, el componente enviará el texto al modelo seleccionado y mostrará la respuesta generada.

Componentes Relacionados

  • Text Input: Para proporcionar el texto que será procesado por el modelo.
  • Display: Para mostrar la respuesta generada.
  • Mapping Data: Si necesitas procesar varios textos a la vez, conecta la salida de un componente de lista a la entrada Mapping Data del modo de mapeo.

Consejos y Mejores Prácticas

  • Usa la opción de streaming cuando necesites respuestas en tiempo real, como en chats interactivos.
  • Ajusta la temperatura según la tarea: baja para tareas de clasificación o generación de código, alta para creatividad o brainstorming.
  • Limita los tokens para controlar el coste y la velocidad de respuesta.
  • Reutiliza el modelo: Si vas a usar el mismo modelo en varios lugares, conecta la salida Model a los componentes que lo necesiten.
  • Prueba con diferentes proveedores: OpenRouter te permite cambiar de proveedor sin cambiar la lógica de tu flujo.

Consideraciones de Seguridad

  • Clave API: La clave se almacena en la credencial y no se muestra en el flujo. Asegúrate de que solo usuarios autorizados tengan acceso a la sección de credenciales.
  • Encabezados opcionales: Si incluyes Site URL o App Name, estos se envían en los encabezados HTTP; evita exponer información sensible en estos campos.
  • Control de acceso: Configura permisos adecuados en Nappai para limitar quién puede editar o ejecutar flujos que usan este componente.