LurNova AI Model Hub

ARQUITECTURA PARA EJECUCIÓN Y GESTIÓN DE MODELOS IA

LurNova AI Model Hub

Es la solución para cualquier organización que quiera desplegar IA a escala, de forma responsable, eficiente y controlada

LurNova AI Model Hub es una solución de infraestructura y software diseñada para actuar como puente lógico entre las capas de negocio y los motores de inteligencia artificial

Esta arquitectura permite a empresas ejecutar, enrutar y monitorizar modelos IA de lenguaje de gran tamaño (LLMs), ya sean desplegados internamente (como modelos privados) o consumidos desde proveedores externos como OpenAI, Anthropic o Google.

gobernar un ecosistema heterogéneo de modelos con diferentes costes, capacidades,

Está diseñada para integrarse en entornos de producción exigentes, LurNova Model Hub permite desplegar modelos de inteligencia artificial en condiciones reales de negocio, ofreciendo flexibilidad de integración, control granular por cliente, y un sistema de enrutamiento inteligente de peticiones.

LurNova Model Hub resuelve uno de los principales retos actuales en IA empresarial: gobernar un ecosistema heterogéneo de modelos con diferentes costes, capacidades, normativas y comportamientos, desde una única interfaz programable y segura.

gobernar un ecosistema heterogéneo de modelos

Arquitectura general

LurNova Model Hub está construido como una plataforma modular y containerizada, diseñada para operar en entornos productivos empresariales. Su arquitectura sigue principios de escalabilidad horizontal, aislamiento funcional y gobernanza avanzada. Es una solución nativa basada en Kubernetes, con soporte para despliegues en tanto en la nube como on-premise.

El sistema se organiza en cinco capas funcionales que trabajan de forma desacoplada pero coordinada, permitiendo un alto nivel de flexibilidad, resiliencia y control.

Capa de Entrada (API Gateway)

Gestiona la recepción de peticiones a través de interfaces REST seguras. Implementa autenticación, validación inicial, control de carga por cliente y distribución hacia el router central. 

Capa de Enrutamiento Inteligente (Router Engine)

El cerebro de la arquitectura. Esta capa interpreta la petición y decide, según reglas configurables, a qué modelo dirigirla (local o externo), aplicando lógica de negocio, política de uso y condiciones del cliente. 

Capa de Gobernanza (Prompt Filter & Guard Rails)

Aplica políticas de control semántico y sintáctico sobre los inputs. Se pueden definir filtros personalizados por entorno o cliente, bloqueos automáticos, sanitización, transformaciones de prompts o incluso alertas en tiempo real. 

Capa de Inferencia (Model Executors & API Connectors)

Responsable de ejecutar las peticiones sobre modelos propios (LurNova IA Models, LLaMA, DeepSeek, Mistral entre otros) desplegados en pods especializados con acceso a GPU, o bien sobre servicios de terceros (OpenAI, Claude, Gemini) mediante conectores encapsulados. Estos pods especializados para servir modelos propios son auto escalables según la demanda de tokens o carga concurrente

Capa de Observabilidad y Facturación (Logging & Billing Engine)

Todos los eventos, respuestas y metadatos de las inferencias son registrados en esta capa, que permite trazabilidad completa, cálculo de costes, cuotas por cliente, integración con sistemas externos de auditoría y generación de informes.