Skip to main content

Conectar con Ollama (Modelos Locales)

open-webui · guide · configuration · 🟡 Intermedio · ⏱️ ~20 min

Usa modelos de IA en tu propio servidor sin enviar datos a la nube.

Descripción

Configura Open WebUI para usar modelos como Llama, Mistral, o CodeLlama corriendo localmente.

Requisitos

  • ✅ Una instancia de open-webui desplegada en Deployalo
  • ✅ Acceso al panel de administración

Pasos de Configuración

1. Verificar Ollama

Asegúrate de que Ollama está corriendo. Por defecto está en http://localhost:11434.

2. Configurar URL

En Open WebUI, ve a Settings > Connections > Ollama y configura la URL.

3. Descargar modelo

En la terminal de Ollama, ejecuta: ollama pull llama2 (o el modelo que prefieras).

4. Seleccionar modelo

En Open WebUI, el modelo descargado aparecerá disponible para usar.

5. Probar

Inicia una conversación y verifica que funcione sin conexión a internet.

Tags

ollama local privacidad modelos


¿Necesitas ayuda?

Si tienes problemas configurando este recurso, puedes:

  1. Usar Deply - Nuestro asistente IA te guía paso a paso desde el panel de tu deployment
  2. Contactar soporte - Escríbenos a [email protected]

¿Listo para automatizar?

Despliega open-webui y configura este guide en minutos.

Desplegar open-webui →