Configurar Modelos de IA
Ollama (local)
Modelos disponibles
| Modelo | RAM requerida | Uso |
|---|---|---|
| llama3.2 | 4GB | Chat general |
| mistral | 8GB | Código, análisis |
| codellama | 8GB | Programación |
| phi3 | 4GB | Ligero, rápido |
Descargar modelo
En la terminal del servidor:
ollama pull llama3.2
ollama pull mistral
Los modelos aparecen automáticamente en Open WebUI.
OpenAI API
Configurar
- Settings > Connections
- OpenAI API
- Ingresa API Key
- Modelos disponibles:
- gpt-4o
- gpt-4o-mini
- gpt-3.5-turbo
Anthropic (Claude)
- Settings > Connections
- Add Connection
- URL: https://api.anthropic.com
- API Key de Anthropic
Configuración por modelo
System prompt
Define personalidad:
Eres un asistente experto en programación. Respondes en español y das ejemplos de código cuando es útil.
Parámetros
- Temperature: 0.7 (creatividad)
- Max tokens: 4096 (longitud respuesta)
- Top P: 0.9 (variedad)
Modelos por defecto
- Settings > Interface
- Selecciona modelo default
- Los usuarios pueden cambiar por chat