Parte 1: Instalacion, primeros pasos y configuracion de Ollama
AIAnalytics - Tu consultor empresarial con IA
Que es AIAnalytics
AIAnalytics es un plugin para FacturaScripts 2025+ que convierte tu ERP en un sistema de inteligencia empresarial. Analiza automaticamente facturacion, finanzas, clientes, stock, procesos, anomalias, horarios, RRHH y previsiones, con dos opciones de IA: Ollama (100% local) o Groq (nube ultrarapida con Zero Data Retention).
Caracteristicas principales
- 9 modulos de analisis: Facturacion, Finanzas, Clientes, Stock, Procesos, Anomalias, Horarios, RRHH y Prevision
- Doble backend de IA: Ollama (local, privado) y Groq (nube, rapido)
- Selector inteligente (AIClient): Modo auto elige el mejor backend disponible con fallback automatico
- Dashboard con KPIs en tiempo real: Indicadores clave siempre visibles
- Health Score: Puntuacion de salud empresarial de 0 a 100
- Chat conversacional: Pregunta lo que quieras sobre tu negocio en lenguaje natural
- Prevision con regresion lineal: Proyeccion de facturacion a 3 meses
- Analisis automatico diario: Cron configurable que analiza tu empresa cada dia
- Sistema de alertas por severidad: critico, alto, medio, bajo, info
- Exportacion PDF y email: Envia el resumen ejecutivo por correo o descarga como PDF
- Cumplimiento RGPD y AI Act: Auditoria de uso IA, consentimiento, transparencia
- Funciona sin IA: Modo reglas inteligentes como fallback
- Compatible MySQL y PostgreSQL: Consultas SQL adaptadas a ambos motores
Requisitos previos
- FacturaScripts 2025.71 o superior
- PHP 8.0 o superior
- Extensiones PHP:
curl,json - Opcional: Ollama instalado en el servidor (para IA local)
- Opcional: API Key de Groq (para IA en la nube)
Instalacion del plugin
- Descarga el archivo
AIAnalytics.zip - Ve a Panel de Control > Plugins en FacturaScripts
- Pulsa Subir plugin y selecciona el ZIP
- Activa el plugin y espera a que se complete la instalacion
- Veras el mensaje: "AIAnalytics instalado. Ve a Informes > IA Analytics."
El plugin crea automaticamente:
- Tabla
ai_configcon 13 parametros de configuracion predeterminados (incluyendo 3 de privacidad RGPD) - Tabla
ai_reportspara almacenar los informes generados - Tabla
ai_chatpara el historial de conversaciones - Tabla
ai_metricspara metricas historicas - Tabla
ai_audit_logpara el log de auditoria de uso de IA (AI Act Art. 12)
Acceso al plugin
Una vez instalado, accede desde el menu:
Informes > IA Analytics
Veras el panel principal con:
- Cabecera con indicador de estado de la IA y el backend activo (badge verde/amarillo/azul)
- Dos pestanas: Dashboard y Chat IA
- Boton de configuracion (engranaje)
Modos de funcionamiento
Modo Reglas (sin IA)
Es el modo por defecto. El plugin analiza tus datos usando reglas estadisticas inteligentes:
- Detecta facturas vencidas y calcula morosidad
- Identifica clientes inactivos y concentracion de cartera
- Revisa stock bajo minimo y sin rotacion
- Analiza margenes, flujo de caja y tendencias
- Detecta duplicados, descuentos excesivos y anomalias
- Calcula prevision por regresion lineal
El badge mostrara: Modo reglas (azul)
Modo IA con Ollama (local)
IA 100% privada ejecutada en tu propio servidor:
- Analisis contextual con recomendaciones accionables
- Chat conversacional sobre cualquier aspecto del negocio
- Tus datos NUNCA salen del servidor
- Requiere hardware con recursos (minimo 4 GB RAM libre)
Modo IA con Groq (nube)
IA ultrarapida a traves de la API de Groq:
- Modelos potentes como
llama-3.3-70b-versatile - Respuestas en segundos, sin necesidad de hardware potente
- Zero Data Retention: Groq no almacena tus datos
- Requiere API Key gratuita de Groq
- Fallback automatico de modelos si se agota la cuota
- Las narrativas enviadas son agregadas, sin datos personales (privacidad por diseno)
Modo Auto (recomendado)
El selector inteligente AIClient gestiona automaticamente los backends:
- Intenta usar Ollama primero (si esta online)
- Si Ollama no esta disponible, cambia a Groq automaticamente
- Si ninguno esta disponible, usa las reglas inteligentes
Asi siempre tienes cobertura de IA sin intervencion manual.
El badge mostrara: IA Activa (verde) con el nombre del backend activo y modelo
Instalar y configurar Ollama
Que es Ollama
Ollama es un servidor de IA local que ejecuta modelos de lenguaje en tu propio servidor. No envia datos a ningun servicio externo. Es completamente gratuito.
Instalacion en Linux
Desde el propio plugin puedes instalar Ollama:
- Ve a Configuracion (icono engranaje) > pestana IA Local (Ollama)
- Pulsa Instalar Ollama (solo Linux)
- Espera 1-2 minutos a que termine la instalacion
O manualmente desde terminal:
curl -fsSL https://ollama.com/install.sh | sh
Descargar un modelo
Una vez instalado Ollama, necesitas descargar un modelo de IA:
- En Configuracion > IA Local, selecciona el modelo deseado
- Pulsa Descargar Modelo
- Espera a que se complete la descarga (puede tardar varios minutos)
Modelos recomendados para Ollama
| Modelo | Tamano | Descripcion |
|---|---|---|
| Qwen 2.5 3B | ~2 GB | Rapido, buen espanol. Recomendado para empezar |
| Qwen 2.5 7B | ~4.5 GB | Mejor calidad de analisis |
| Llama 3.2 3B | ~2 GB | Equilibrado |
| Llama 3.1 8B | ~4.7 GB | Muy preciso |
| Mistral 7B | ~4 GB | Buena alternativa |
| Gemma 2 9B | ~5.5 GB | Alto rendimiento |
| Phi-3 3.8B | ~2.3 GB | Compacto |
Verificar conexion
- Pulsa Probar Conexion en la pestana de configuracion
- Si todo esta bien, veras: "Ollama activo. Modelos: qwen2.5:3b"
- Si no detecta Ollama, verifica que el servicio este corriendo:
systemctl status ollama
Configurar Groq (IA en la nube)
Que es Groq
Groq es un servicio de IA en la nube que ofrece inferencia ultrarapida. Tiene una capa gratuita generosa y politica de Zero Data Retention (tus datos no se almacenan en sus servidores).
Obtener una API Key
- Ve a console.groq.com y crea una cuenta gratuita
- Accede a API Keys y genera una nueva key
- Copia la key (empieza por
gsk_...)
Configurar en el plugin
- Ve a Configuracion (engranaje) > seccion de backends
- Introduce tu API Key de Groq en el campo correspondiente
- Selecciona el modelo deseado (por defecto:
llama-3.3-70b-versatile) - Selecciona backend auto o groq
- Pulsa Guardar
Modelos disponibles en Groq
| Modelo | Descripcion |
|---|---|
| llama-3.3-70b-versatile | Modelo principal, muy potente. Recomendado |
| llama-3.1-8b-instant | Rapido, menor consumo de cuota |
| gemma2-9b-it | Alternativa de Google |
Fallback automatico de modelos
Si el modelo principal agota su cuota diaria (tokens per day), el plugin cambia automaticamente al siguiente modelo disponible:
llama-3.3-70b-versatile → llama-3.1-8b-instant → gemma2-9b-it
Tambien gestiona rate limits por minuto (TPM): si Groq dice "espera 3 segundos", el plugin espera y reintenta automaticamente.
Selector de backend (AIClient)
El parametro backend_ia en configuracion controla que backend se usa:
| Valor | Comportamiento |
|---|---|
| auto | Intenta Ollama primero, si falla usa Groq. Recomendado |
| ollama | Solo Ollama. Si esta offline, sin IA |
| groq | Solo Groq API. Ignora Ollama |
| off | Desactivado. Solo reglas inteligentes |
Primeros pasos recomendados
- Sin IA: Pulsa "Analisis Completo" para ver que detectan las reglas inteligentes con tus datos reales
- Opcion A — Ollama: Instala Ollama, descarga Qwen 2.5 3B, activa la IA
- Opcion B — Groq: Crea una cuenta en Groq, pega tu API Key, selecciona backend "groq" o "auto"
- Opcion ideal: Configura ambos y usa modo auto para maxima disponibilidad
- Prueba el Chat: Pregunta "Como van las ventas este mes?" para ver la diferencia
- Activa el Cron: Para recibir analisis automaticos cada dia
- Revisa RGPD: Acepta el aviso de privacidad y activa la auditoria de uso de IA