Configurar Modelos LLM en Dify
dify · guide · setup · 🟢 Principiante · ⏱️ ~15 min
Conecta OpenAI, Claude, Azure y modelos locales
Descripción
Guía para configurar diferentes proveedores de LLM en Dify.
Proveedores soportados
- OpenAI (GPT-4, GPT-3.5)
- Anthropic (Claude)
- Azure OpenAI
- Ollama (modelos locales)
- Hugging Face
- Y muchos más...
Requisitos
- ✅ Una instancia de dify desplegada en Deployalo
- ✅ Acceso al panel de administración
¿No tienes dify?
Pasos de Configuración
1. Ir a Settings
En Dify, ve a Settings (icono de engranaje) > Model Providers.
2. OpenAI
Haz clic en OpenAI > Setup. Ingresa tu API key de OpenAI.
3. Anthropic
Haz clic en Anthropic > Setup. Ingresa tu API key de Anthropic.
4. Modelo por Defecto
En Settings > Model Settings, selecciona el modelo por defecto para nuevas apps.
5. Probar
Ve a Studio, crea una app de prueba y verifica que el modelo responda.
Tags
modelos llm openai claude
¿Necesitas ayuda?
Si tienes problemas configurando este recurso, puedes:
- Usar Deply - Nuestro asistente IA te guía paso a paso desde el panel de tu deployment
- Contactar soporte - Escríbenos a [email protected]
¿Listo para automatizar?
Despliega dify y configura este guide en minutos.