Saltar al contenido principal

Configurar Modelos LLM en Dify

dify · guide · setup · 🟢 Principiante · ⏱️ ~15 min

Conecta OpenAI, Claude, Azure y modelos locales

Descripción

Guía para configurar diferentes proveedores de LLM en Dify.

Proveedores soportados

  • OpenAI (GPT-4, GPT-3.5)
  • Anthropic (Claude)
  • Azure OpenAI
  • Ollama (modelos locales)
  • Hugging Face
  • Y muchos más...

Requisitos

  • ✅ Una instancia de dify desplegada en Deployalo
  • ✅ Acceso al panel de administración

Pasos de Configuración

1. Ir a Settings

En Dify, ve a Settings (icono de engranaje) > Model Providers.

2. OpenAI

Haz clic en OpenAI > Setup. Ingresa tu API key de OpenAI.

3. Anthropic

Haz clic en Anthropic > Setup. Ingresa tu API key de Anthropic.

4. Modelo por Defecto

En Settings > Model Settings, selecciona el modelo por defecto para nuevas apps.

5. Probar

Ve a Studio, crea una app de prueba y verifica que el modelo responda.

Tags

modelos llm openai claude


¿Necesitas ayuda?

Si tienes problemas configurando este recurso, puedes:

  1. Usar Deply - Nuestro asistente IA te guía paso a paso desde el panel de tu deployment
  2. Contactar soporte - Escríbenos a [email protected]

¿Listo para automatizar?

Despliega dify y configura este guide en minutos.

Desplegar dify →