Perplexity
El componente Perplexity te permite generar texto con los modelos de lenguaje de Perplexity directamente desde tu dashboard de Nappai. Solo necesitas tu clave de API y configurar algunos parámetros, y el componente se encargará de enviar la solicitud al servicio de Perplexity y devolver la respuesta.
¿Cómo funciona?
Cuando activas el componente, Nappai toma la clave de API que le has proporcionado y la envía a la API de Perplexity junto con el modelo seleccionado y los parámetros que hayas configurado (temperatura, top‑p, top‑k, etc.). La API devuelve el texto generado, que el componente entrega como salida. Todo el proceso se realiza en la nube, por lo que no necesitas instalar nada adicional en tu máquina local.
Modo de Mapeo (Mapping Mode)
Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:
- Fixed (Fijo): Escribes el valor directamente en el campo.
- Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
- Javascript: Escribes código Javascript para calcular el valor dinámicamente.
Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.
Campos de Entrada
Los siguientes campos están disponibles para configurar este componente. Cada campo puede estar visible en diferentes operaciones:
- Perplexity API Key: La clave de API de Perplexity que se utiliza para autenticar las solicitudes al modelo.
- Input: El texto o la pregunta que quieres que el modelo procese y genere una respuesta.
- Mapping Mode: Habilita el modo de mapeo para procesar múltiples registros en lote.
- Max Output Tokens: El número máximo de tokens que el modelo puede generar en la respuesta.
- Model Name: El nombre del modelo de Perplexity que quieres usar (por ejemplo,
llama-3.1-sonar-small-128k-online
). - N: Número de respuestas de chat que se generan para cada prompt. La API puede devolver menos si hay duplicados.
- Stream: Si se activa, la respuesta se envía en tiempo real (solo funciona en modo chat).
- System Message: Mensaje de sistema que se pasa al modelo para guiar su comportamiento.
- Temperature: Controla la aleatoriedad de la generación; valores más altos producen respuestas más creativas.
- Top K: Número de tokens más probables que se consideran al generar la respuesta.
- Top P: Umbral de probabilidad acumulada que limita los tokens considerados.
Salidas
- Text: El texto generado por el modelo, entregado como mensaje.
- Model: El objeto del modelo de lenguaje configurado, que puede ser reutilizado en otros componentes.
Ejemplo de Uso
Imagina que quieres generar un resumen breve de un artículo de noticias. En el dashboard:
- Arrastra el componente Perplexity a tu flujo.
- Conecta la salida de un componente que extrae el contenido del artículo al campo Input.
- En Perplexity API Key, introduce tu clave de API (puedes guardarla como variable segura).
- Selecciona el modelo
llama-3.1-sonar-small-128k-online
. - Ajusta Max Output Tokens a 150 para limitar el resumen.
- Deja Temperature en 0.5 para obtener un texto coherente y preciso.
- Conecta la salida Text a un componente de visualización o a un paso de almacenamiento.
Al ejecutar el flujo, el componente enviará el contenido del artículo a Perplexity y mostrará el resumen generado en la salida Text.
Componentes Relacionados
- OpenAI Model – Genera texto usando la API de OpenAI. Útil si prefieres modelos como GPT‑4.
- Anthropic Claude – Otra opción de LLM con enfoque en seguridad y cumplimiento.
- Text Splitter – Divide textos largos en fragmentos antes de enviarlos a un LLM.
Consejos y Mejores Prácticas
- Mantén tu clave de API segura: Usa variables de entorno o el gestor de secretos de Nappai.
- Elige el modelo correcto: Los modelos más grandes ofrecen mayor calidad, pero cuestan más y tardan más.
- Ajusta la temperatura: Valores bajos (≈0.2) generan respuestas más determinísticas; valores altos (≈0.8) son más creativos.
- Limita los tokens: Evita exceder el límite de tokens para reducir costos y tiempo de respuesta.
- Prueba en modo de mapeo: Si necesitas procesar listas de prompts, activa Mapping Mode y conecta una fuente de datos.
Consideraciones de Seguridad
- Protege tu API Key: No la expongas en el código fuente ni la compartas públicamente.
- Controla los límites de uso: Configura alertas de consumo para evitar sorpresas en la facturación.
- Revisa los términos de servicio: Asegúrate de cumplir con las políticas de uso de Perplexity, especialmente si manejas datos sensibles.