Conectar con Ollama (Modelos Locales)
open-webui · guide · configuration · 🟡 Intermedio · ⏱️ ~20 min
Usa modelos de IA en tu propio servidor sin enviar datos a la nube.
Descripción
Configura Open WebUI para usar modelos como Llama, Mistral, o CodeLlama corriendo localmente.
Requisitos
- ✅ Una instancia de open-webui desplegada en Deployalo
- ✅ Acceso al panel de administración
¿No tienes open-webui?
Pasos de Configuración
1. Verificar Ollama
Asegúrate de que Ollama está corriendo. Por defecto está en http://localhost:11434.
2. Configurar URL
En Open WebUI, ve a Settings > Connections > Ollama y configura la URL.
3. Descargar modelo
En la terminal de Ollama, ejecuta: ollama pull llama2 (o el modelo que prefieras).
4. Seleccionar modelo
En Open WebUI, el modelo descargado aparecerá disponible para usar.
5. Probar
Inicia una conversación y verifica que funcione sin conexión a internet.
Tags
ollama local privacidad modelos
¿Necesitas ayuda?
Si tienes problemas configurando este recurso, puedes:
- Usar Deply - Nuestro asistente IA te guía paso a paso desde el panel de tu deployment
- Contactar soporte - Escríbenos a [email protected]
¿Listo para automatizar?
Despliega open-webui y configura este guide en minutos.