Saltar al contenido principal

Configurar Modelos de IA

Ollama (local)

Modelos disponibles

ModeloRAM requeridaUso
llama3.24GBChat general
mistral8GBCódigo, análisis
codellama8GBProgramación
phi34GBLigero, rápido

Descargar modelo

En la terminal del servidor:

ollama pull llama3.2
ollama pull mistral

Los modelos aparecen automáticamente en Open WebUI.

OpenAI API

Configurar

  1. Settings > Connections
  2. OpenAI API
  3. Ingresa API Key
  4. Modelos disponibles:
    • gpt-4o
    • gpt-4o-mini
    • gpt-3.5-turbo

Anthropic (Claude)

  1. Settings > Connections
  2. Add Connection
  3. URL: https://api.anthropic.com
  4. API Key de Anthropic

Configuración por modelo

System prompt

Define personalidad:

Eres un asistente experto en programación. Respondes en español y das ejemplos de código cuando es útil.

Parámetros

  • Temperature: 0.7 (creatividad)
  • Max tokens: 4096 (longitud respuesta)
  • Top P: 0.9 (variedad)

Modelos por defecto

  1. Settings > Interface
  2. Selecciona modelo default
  3. Los usuarios pueden cambiar por chat