Parte 1: Instalacion, primeros pasos y configuracion de Ollama

AIAnalytics - Tu consultor empresarial con IA

Que es AIAnalytics

AIAnalytics es un plugin para FacturaScripts 2025+ que convierte tu ERP en un sistema de inteligencia empresarial. Analiza automaticamente facturacion, finanzas, clientes, stock, procesos, anomalias, horarios, RRHH y previsiones, con dos opciones de IA: Ollama (100% local) o Groq (nube ultrarapida con Zero Data Retention).

Caracteristicas principales

  • 9 modulos de analisis: Facturacion, Finanzas, Clientes, Stock, Procesos, Anomalias, Horarios, RRHH y Prevision
  • Doble backend de IA: Ollama (local, privado) y Groq (nube, rapido)
  • Selector inteligente (AIClient): Modo auto elige el mejor backend disponible con fallback automatico
  • Dashboard con KPIs en tiempo real: Indicadores clave siempre visibles
  • Health Score: Puntuacion de salud empresarial de 0 a 100
  • Chat conversacional: Pregunta lo que quieras sobre tu negocio en lenguaje natural
  • Prevision con regresion lineal: Proyeccion de facturacion a 3 meses
  • Analisis automatico diario: Cron configurable que analiza tu empresa cada dia
  • Sistema de alertas por severidad: critico, alto, medio, bajo, info
  • Exportacion PDF y email: Envia el resumen ejecutivo por correo o descarga como PDF
  • Cumplimiento RGPD y AI Act: Auditoria de uso IA, consentimiento, transparencia
  • Funciona sin IA: Modo reglas inteligentes como fallback
  • Compatible MySQL y PostgreSQL: Consultas SQL adaptadas a ambos motores

Requisitos previos

  • FacturaScripts 2025.71 o superior
  • PHP 8.0 o superior
  • Extensiones PHP: curl, json
  • Opcional: Ollama instalado en el servidor (para IA local)
  • Opcional: API Key de Groq (para IA en la nube)

Instalacion del plugin

  1. Descarga el archivo AIAnalytics.zip
  2. Ve a Panel de Control > Plugins en FacturaScripts
  3. Pulsa Subir plugin y selecciona el ZIP
  4. Activa el plugin y espera a que se complete la instalacion
  5. Veras el mensaje: "AIAnalytics instalado. Ve a Informes > IA Analytics."

El plugin crea automaticamente:

  • Tabla ai_config con 13 parametros de configuracion predeterminados (incluyendo 3 de privacidad RGPD)
  • Tabla ai_reports para almacenar los informes generados
  • Tabla ai_chat para el historial de conversaciones
  • Tabla ai_metrics para metricas historicas
  • Tabla ai_audit_log para el log de auditoria de uso de IA (AI Act Art. 12)

Acceso al plugin

Una vez instalado, accede desde el menu:

Informes > IA Analytics

Veras el panel principal con:

  • Cabecera con indicador de estado de la IA y el backend activo (badge verde/amarillo/azul)
  • Dos pestanas: Dashboard y Chat IA
  • Boton de configuracion (engranaje)

Modos de funcionamiento

Modo Reglas (sin IA)

Es el modo por defecto. El plugin analiza tus datos usando reglas estadisticas inteligentes:

  • Detecta facturas vencidas y calcula morosidad
  • Identifica clientes inactivos y concentracion de cartera
  • Revisa stock bajo minimo y sin rotacion
  • Analiza margenes, flujo de caja y tendencias
  • Detecta duplicados, descuentos excesivos y anomalias
  • Calcula prevision por regresion lineal

El badge mostrara: Modo reglas (azul)

Modo IA con Ollama (local)

IA 100% privada ejecutada en tu propio servidor:

  • Analisis contextual con recomendaciones accionables
  • Chat conversacional sobre cualquier aspecto del negocio
  • Tus datos NUNCA salen del servidor
  • Requiere hardware con recursos (minimo 4 GB RAM libre)

Modo IA con Groq (nube)

IA ultrarapida a traves de la API de Groq:

  • Modelos potentes como llama-3.3-70b-versatile
  • Respuestas en segundos, sin necesidad de hardware potente
  • Zero Data Retention: Groq no almacena tus datos
  • Requiere API Key gratuita de Groq
  • Fallback automatico de modelos si se agota la cuota
  • Las narrativas enviadas son agregadas, sin datos personales (privacidad por diseno)

Modo Auto (recomendado)

El selector inteligente AIClient gestiona automaticamente los backends:

  1. Intenta usar Ollama primero (si esta online)
  2. Si Ollama no esta disponible, cambia a Groq automaticamente
  3. Si ninguno esta disponible, usa las reglas inteligentes

Asi siempre tienes cobertura de IA sin intervencion manual.

El badge mostrara: IA Activa (verde) con el nombre del backend activo y modelo

Instalar y configurar Ollama

Que es Ollama

Ollama es un servidor de IA local que ejecuta modelos de lenguaje en tu propio servidor. No envia datos a ningun servicio externo. Es completamente gratuito.

Instalacion en Linux

Desde el propio plugin puedes instalar Ollama:

  1. Ve a Configuracion (icono engranaje) > pestana IA Local (Ollama)
  2. Pulsa Instalar Ollama (solo Linux)
  3. Espera 1-2 minutos a que termine la instalacion

O manualmente desde terminal:

curl -fsSL https://ollama.com/install.sh | sh

Descargar un modelo

Una vez instalado Ollama, necesitas descargar un modelo de IA:

  1. En Configuracion > IA Local, selecciona el modelo deseado
  2. Pulsa Descargar Modelo
  3. Espera a que se complete la descarga (puede tardar varios minutos)

Modelos recomendados para Ollama

Modelo Tamano Descripcion
Qwen 2.5 3B ~2 GB Rapido, buen espanol. Recomendado para empezar
Qwen 2.5 7B ~4.5 GB Mejor calidad de analisis
Llama 3.2 3B ~2 GB Equilibrado
Llama 3.1 8B ~4.7 GB Muy preciso
Mistral 7B ~4 GB Buena alternativa
Gemma 2 9B ~5.5 GB Alto rendimiento
Phi-3 3.8B ~2.3 GB Compacto

Verificar conexion

  1. Pulsa Probar Conexion en la pestana de configuracion
  2. Si todo esta bien, veras: "Ollama activo. Modelos: qwen2.5:3b"
  3. Si no detecta Ollama, verifica que el servicio este corriendo:
systemctl status ollama

Configurar Groq (IA en la nube)

Que es Groq

Groq es un servicio de IA en la nube que ofrece inferencia ultrarapida. Tiene una capa gratuita generosa y politica de Zero Data Retention (tus datos no se almacenan en sus servidores).

Obtener una API Key

  1. Ve a console.groq.com y crea una cuenta gratuita
  2. Accede a API Keys y genera una nueva key
  3. Copia la key (empieza por gsk_...)

Configurar en el plugin

  1. Ve a Configuracion (engranaje) > seccion de backends
  2. Introduce tu API Key de Groq en el campo correspondiente
  3. Selecciona el modelo deseado (por defecto: llama-3.3-70b-versatile)
  4. Selecciona backend auto o groq
  5. Pulsa Guardar

Modelos disponibles en Groq

Modelo Descripcion
llama-3.3-70b-versatile Modelo principal, muy potente. Recomendado
llama-3.1-8b-instant Rapido, menor consumo de cuota
gemma2-9b-it Alternativa de Google

Fallback automatico de modelos

Si el modelo principal agota su cuota diaria (tokens per day), el plugin cambia automaticamente al siguiente modelo disponible:

llama-3.3-70b-versatilellama-3.1-8b-instantgemma2-9b-it

Tambien gestiona rate limits por minuto (TPM): si Groq dice "espera 3 segundos", el plugin espera y reintenta automaticamente.

Selector de backend (AIClient)

El parametro backend_ia en configuracion controla que backend se usa:

Valor Comportamiento
auto Intenta Ollama primero, si falla usa Groq. Recomendado
ollama Solo Ollama. Si esta offline, sin IA
groq Solo Groq API. Ignora Ollama
off Desactivado. Solo reglas inteligentes

Primeros pasos recomendados

  1. Sin IA: Pulsa "Analisis Completo" para ver que detectan las reglas inteligentes con tus datos reales
  2. Opcion A — Ollama: Instala Ollama, descarga Qwen 2.5 3B, activa la IA
  3. Opcion B — Groq: Crea una cuenta en Groq, pega tu API Key, selecciona backend "groq" o "auto"
  4. Opcion ideal: Configura ambos y usa modo auto para maxima disponibilidad
  5. Prueba el Chat: Pregunta "Como van las ventas este mes?" para ver la diferencia
  6. Activa el Cron: Para recibir analisis automaticos cada dia
  7. Revisa RGPD: Acepta el aviso de privacidad y activa la auditoria de uso de IA
Cookies
Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Al hacer clic en "Aceptar", aceptas el uso de TODAS las cookies necesarias.
Copyright (c) 2013-2026 FacturaScripts
0.04463s

Soporte