Saltearse al contenido

Anthropic

El componente Anthropic permite a los usuarios de Nappai generar texto con los modelos de lenguaje de Anthropic. Se integra directamente con la API de Anthropic y ofrece opciones de configuración avanzadas, como el control de tokens, temperatura y un modo de “pensamiento” que permite al modelo planificar antes de responder.

¿Cómo funciona?

Cuando configuras el componente, Nappai envía tu solicitud al endpoint de Anthropic (https://api.anthropic.com por defecto). El componente construye un objeto ChatAnthropic de LangChain, pasando los parámetros que hayas elegido: modelo, número máximo de tokens, temperatura, etc. Si habilitas el modo de streaming, la respuesta se envía en tiempo real a medida que el modelo la genera. El componente también puede usar un “prefill” para guiar la respuesta y un “thinking budget” que permite al modelo planificar internamente antes de responder.

Entradas

Modo de Mapeo (Mapping Mode)

Este componente cuenta con un modo especial llamado “Mapping Mode” (Modo de Mapeo). Cuando activas este modo mediante el interruptor, se habilita una entrada adicional llamada “Mapping Data” y cada campo de entrada te ofrece tres formas diferentes de proporcionar datos:

  • Fixed (Fijo): Escribes el valor directamente en el campo.
  • Mapped (Mapeado): Conectas la salida de otro componente para usar su resultado como valor.
  • Javascript: Escribes código Javascript para calcular el valor dinámicamente.

Esta flexibilidad te permite crear flujos de trabajo más dinámicos y conectados.

Campos de Entrada

  • Anthropic API URL: Endpoint de la API de Anthropic. Si no lo indicas, se usará https://api.anthropic.com.
  • Input: Texto o prompt que quieres enviar al modelo.
  • Mapping Mode: Activa el modo de mapeo para procesar varios registros en lote.
  • Max Tokens: Número máximo de tokens que el modelo puede generar. Pon 0 para ilimitado.
  • Model Name: Selecciona el modelo de Anthropic que deseas usar (por ejemplo, claude-3-haiku-20240307).
  • Prefill: Texto de prellenado que guía la respuesta del modelo.
  • Stream: Si lo activas, la respuesta se enviará en tiempo real (solo funciona en modo chat).
  • System Message: Mensaje del sistema que se pasa al modelo para establecer el contexto.
  • Temperature: Controla la aleatoriedad de la respuesta. Valores bajos hacen la respuesta más determinista.
  • Thinking Budget: Cantidad de tokens que el modelo puede usar para “pensar” antes de responder. 0 significa sin pensamiento.
  • Credential: Selecciona la credencial “Anthropic API” que ya has configurado en Nappai. Esta credencial contiene la clave API necesaria para autenticarte con Anthropic.

Nota sobre credenciales

  1. Ve a la sección de credenciales de Nappai y crea una credencial de tipo Anthropic API.
  2. Ingresa tu Anthropic Api Key (es una contraseña).
  3. En el componente, selecciona esa credencial en el campo Credential.

Salidas

  • Text: Mensaje generado por el modelo (tipo Message, método text_response).
  • Model: Instancia del modelo de lenguaje configurado (tipo LanguageModel, método build_model).

Ejemplo de Uso

  1. Configura la credencial: En la sección de credenciales, crea una credencial “Anthropic API” con tu clave.
  2. Añade el componente: Arrastra el componente Anthropic al flujo de trabajo.
  3. Selecciona la credencial: En el campo Credential, elige la credencial que acabas de crear.
  4. Elige el modelo: En Model Name, selecciona claude-3-haiku-20240307.
  5. Define el prompt: En Input, escribe “¿Cuál es la capital de Francia?”.
  6. Ajusta parámetros:
    • Max Tokens: 50
    • Temperature: 0.2
    • Stream: activado (opcional)
  7. Ejecuta: Conecta la salida Text a un componente de visualización (por ejemplo, un cuadro de texto) y ejecuta el flujo. El modelo responderá con “La capital de Francia es París.”

Componentes Relacionados

  • ChatAnthropic: La clase subyacente que se usa para comunicarse con la API de Anthropic.
  • LLMCallbackHandler: Maneja los eventos de respuesta y permite registrar el progreso en el dashboard.

Consejos y Mejores Prácticas

  • Usa modelos adecuados: Los modelos más grandes generan respuestas más ricas pero consumen más tokens. Ajusta Max Tokens según tu presupuesto.
  • Controla la aleatoriedad: Si necesitas respuestas consistentes, baja la temperatura a 0.1 o 0.2.
  • Aprovecha el modo de mapeo: Cuando trabajes con listas de preguntas, activa “Mapping Mode” para procesar todas en una sola ejecución.
  • Monitorea el uso de tokens: La salida Text incluye el número de tokens usados; úsalo para optimizar costos.

Consideraciones de Seguridad

  • Clave API: La clave de Anthropic debe mantenerse confidencial. No la compartas en el flujo ni la expongas en logs.
  • Control de acceso: Limita quién puede crear y usar credenciales de Anthropic en tu organización.
  • Revisión de datos: Si envías información sensible al modelo, revisa las políticas de privacidad de Anthropic y asegúrate de cumplirlas.