Dify
Dify es una plataforma open-source para crear aplicaciones de IA. Conecta modelos como GPT-4, Claude, Llama y más. Crea chatbots, asistentes con RAG, agentes autónomos y workflows de IA sin programar.
Para qué sirve
- Chatbots inteligentes - Conecta cualquier LLM y crea conversaciones naturales
- RAG (Retrieval Augmented Generation) - Tu IA responde usando tus documentos privados
- Agentes autónomos - Asistentes que ejecutan tareas, buscan info y usan herramientas
- Workflows visuales - Conecta pasos de IA como bloques de Lego
- API para producción - Integra tus apps de IA en cualquier sistema
Casos de uso comunes
Soporte al cliente
- Chatbot que responde con tu base de conocimientos
- Escala a humanos cuando no puede resolver
- Integra con WhatsApp, web, Slack
Asistentes empresariales
- Bot interno que conoce tus procesos y documentos
- Genera reportes, resume emails, extrae datos
- Conecta con tu CRM, ERP, bases de datos
Automatización con IA
- Workflows que procesan documentos automáticamente
- Extracción de datos de facturas, contratos
- Clasificación y enrutamiento inteligente
Productos SaaS
- Agrega IA a tu producto existente vía API
- White-label: tu marca, nuestra infraestructura
- Escala sin preocuparte por la complejidad
Primeros pasos
1. Accede a tu Dify
Después de crear tu deployment, ve a:
https://tu-subdominio.deployalo.com/install
2. Crea tu cuenta de administrador
- Ingresa tu email y contraseña
- Este será el admin principal
- Podrás invitar más usuarios después
3. Configura tu primer modelo
- Ve a Settings → Model Provider
- Elige tu proveedor (OpenAI, Anthropic, etc.)
- Ingresa tu API key
- Guarda la configuración
Puedes usar múltiples proveedores. Dify selecciona el mejor modelo para cada tarea.
4. Crea tu primera app
- Clic en Create App
- Elige el tipo:
- Chatbot: Conversación simple
- Agent: Con herramientas y acciones
- Workflow: Proceso multi-paso
- Configura y prueba en el Playground
Tipos de aplicaciones
Chatbot básico
El tipo más simple. Configura:
- Modelo: GPT-4, Claude, Llama, etc.
- Prompt del sistema: Personalidad y contexto
- Temperatura: Creatividad de las respuestas
Ejemplo de prompt:
Eres un asistente de ventas para [Tu Empresa].
Respondes preguntas sobre productos y precios.
Siempre eres amable y profesional.
Si no sabes algo, lo admites.
Chatbot con RAG (Knowledge Base)
Agrega documentos para que el chatbot responda con tu información:
- En tu app → Knowledge
- Create Knowledge → Sube archivos:
- PDFs, Word, Excel
- Páginas web (URL)
- Texto plano
- Dify los indexa automáticamente
- El chatbot busca y cita tus fuentes
Casos de uso:
- FAQ con documentos de soporte
- Asistente legal con contratos
- Onboarding con manuales de procesos
Agentes con herramientas
Los agentes pueden ejecutar acciones:
- Crea un Agent en lugar de Chatbot
- Agrega Tools:
- Web Search: Busca en internet
- Calculator: Operaciones matemáticas
- Code Interpreter: Ejecuta código Python
- API Call: Conecta servicios externos
Ejemplo: Un agente que:
- Busca información en la web
- La procesa y resume
- La guarda en tu CRM vía API
Workflows
Procesos visuales multi-paso:
- Create Workflow
- Arrastra nodos:
- LLM: Procesa con IA
- Knowledge Retrieval: Busca en docs
- HTTP Request: Llama APIs
- Code: Ejecuta Python/JavaScript
- Condition: If/else
- Loop: Repetir pasos
- Conecta los nodos
- Prueba y publica
Ejemplo de workflow:
Input → Clasificar intent →
Si es pregunta → Buscar en KB → Responder
Si es queja → Crear ticket en Zendesk → Confirmar
Configuración de modelos
OpenAI (GPT-4, GPT-3.5)
- Settings → Model Provider → OpenAI
- Ingresa tu API key de platform.openai.com
- Modelos disponibles:
gpt-4o: El más capaz, multimodalgpt-4-turbo: Rápido y potentegpt-3.5-turbo: Económico y rápido
Anthropic (Claude)
- Settings → Model Provider → Anthropic
- API key de console.anthropic.com
- Modelos:
claude-3-opus: El más potenteclaude-3-sonnet: Balance calidad/costoclaude-3-haiku: El más rápido
Modelos locales (Ollama)
Corre modelos en tu propio servidor:
- Instala Ollama en el VPS
- Settings → Model Provider → Ollama
- URL:
http://localhost:11434 - Modelos: Llama 3, Mistral, Phi-3, etc.
Los modelos locales requieren GPU o mucha RAM. Contacta soporte para configurar.
Otros proveedores
Dify soporta 20+ proveedores:
- Azure OpenAI
- Google (Gemini)
- Cohere
- Replicate
- Hugging Face
- Y más...
Knowledge Base (RAG)
Crear una Knowledge Base
- Knowledge → Create Knowledge
- Nombra tu base (ej: "Documentos de Soporte")
- Configura:
- Embedding Model: Modelo para vectorizar
- Chunk Size: Tamaño de segmentos (recomendado: 500-1000)
- Retrieval Mode: Hybrid (mejor resultados)
Subir documentos
Formatos soportados:
- PDF, DOCX, TXT, MD
- CSV, XLSX
- HTML, URLs
Proceso:
- Add Files → Selecciona archivos
- Dify los procesa y segmenta
- Crea embeddings (vectores)
- Indexa para búsqueda rápida
Sincronizar con Notion/Web
- En Knowledge → Add Data Source
- Notion: Conecta tu workspace
- Web: Ingresa URLs para crawlear
- Configura sincronización automática
Mejores prácticas
- Documentos limpios: Elimina headers/footers repetitivos
- Títulos claros: Ayudan a la IA a entender el contexto
- Segmentación lógica: Un tema por sección
- Actualiza regularmente: Mantén la info al día
API y SDKs
Obtener API Key
- En tu app → API Access
- Create API Key
- Guarda la key de forma segura
Endpoint de chat
curl -X POST 'https://tu-subdominio.deployalo.com/v1/chat-messages' \
-H 'Authorization: Bearer {api_key}' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {},
"query": "¿Cuál es tu horario de atención?",
"response_mode": "streaming",
"user": "user-123"
}'
SDKs disponibles
- Python:
pip install dify-client - JavaScript:
npm install dify-client - Go, Java, Ruby: Disponibles en GitHub
Ejemplo en Python
from dify_client import Client
client = Client(
api_key="tu-api-key",
base_url="https://tu-subdominio.deployalo.com/v1"
)
response = client.chat_messages.create(
query="¿Cuál es el precio del plan Pro?",
user="user-123"
)
print(response.answer)
Integraciones
Embed en tu sitio web
- En tu app → Overview → Embed
- Copia el código:
<script
src="https://tu-subdominio.deployalo.com/embed.min.js"
id="tu-app-id"
defer>
</script>
- Aparece un widget de chat en tu sitio
Conectar con n8n
- En n8n, usa el nodo HTTP Request
- Configura:
- URL:
https://tu-subdominio.deployalo.com/v1/chat-messages - Method: POST
- Headers:
Authorization: Bearer {api_key}
- URL:
- Envía el mensaje y procesa la respuesta
Webhooks
Recibe notificaciones cuando:
- Se crea una conversación
- Un usuario envía feedback
- Se completa un workflow
Configura en Settings → Webhooks
Administración
Usuarios y permisos
- Settings → Members
- Invite → Ingresa email
- Roles:
- Admin: Acceso total
- Editor: Crear y editar apps
- Viewer: Solo ver y probar
Monitoreo
En Logs puedes ver:
- Todas las conversaciones
- Tokens usados por mensaje
- Latencia de respuestas
- Errores y fallos
Límites y cuotas
Configura límites por app:
- Mensajes por minuto
- Tokens por conversación
- Usuarios concurrentes
Preguntas frecuentes
¿Qué modelos puedo usar?
Cualquiera que tenga API compatible con OpenAI o que esté integrado nativamente (20+ proveedores).
¿Mis datos están seguros?
Sí, todo corre en tu servidor de Deployalo. Tus documentos y conversaciones nunca salen de tu instancia.
¿Puedo usar modelos locales?
Sí, con Ollama u otros servidores de inferencia local. Requiere configuración adicional.
¿Cuántos documentos puedo subir?
Depende de tu plan:
- Básico: Hasta 100 MB
- Avanzado: Hasta 500 MB
- Pro: Ilimitado
¿Hay límite de conversaciones?
- Básico: 1,000 mensajes/día
- Avanzado: Ilimitado
- Pro: Ilimitado + API dedicada
¿Puedo personalizar la interfaz?
Sí, el widget embebido es customizable. Para cambios mayores, Dify es open-source.