USP arquitectónico · Soberanía IA

Vuestro modelo.
Vuestra clave.
Vuestro tenant.

Las funciones IA del EMS no pasan por nuestra cuenta de proveedor. Cada inquilino configura su propio endpoint LLM y clave API — Azure OpenAI en el datacenter EU-West, Mistral AI en París o un modelo alojado localmente en vuestro clúster GPU. El proxy LiteLLM unifica la API. En endpoint propio rige: Hard-Fail en lugar de Silent-Fallback — el control de datos se queda con vosotros, también ante errores.

30+ modelos en la base de capacidades
4 familias de proveedores listas de fábrica
0 fallback silencioso en endpoint propio

Anatomía

Cinco bloques para una verdadera soberanía de datos IA

«BYO-LLM» es en muchos SaaS una casilla en los ajustes — en nosotros, un principio de arquitectura aplicado de cabo a rabo, desde el ajuste del tenant hasta la capa de inferencia.

Endpoint & clave por tenant

Cada inquilino decide en los ajustes IA: proxy estándar o endpoint propio con clave API propia. Con endpoint propio, el proveedor nunca ve los prompts ni las respuestas.

  • endpointUrl
  • apiKey (verschlüsselt)
  • fallbackToGlobalProxy: false

Proxy LiteLLM como adaptador universal

Una API unificada compatible con OpenAI delante de todos los proveedores. Cambiar de OpenAI a Mistral u Ollama es un cambio de configuración, no un cambio de código en EMS.

  • OpenAI
  • Azure OpenAI
  • Anthropic
  • Mistral
  • Ollama
  • LocalAI

Hard-Fail en lugar de Silent-Fallback

Si vuestro endpoint propio falla, el sistema rechaza la solicitud — no redirige en secreto a la cuenta global del proveedor. El control de datos queda intacto, también ante errores.

  • if (tenant.hasCustomEndpoint && !ok)
  • throw new InferenceUnavailableException();
  • // kein Fallback. Kein „opportunistisches" Routing.

Tool Calling con validación de esquema

Cada editor entrega su propio JSON-Schema, generado a partir del modelo TypeScript. El LLM no puede devolver campos inexistentes en el editor — sin alucinaciones, sin rotura de formato.

  • structuredOutput: true
  • toolCalling: true
  • capabilityCheck pro Modell

Transparencia de tokens en vivo por tenant

Una barra resumen en los ajustes del tenant muestra tokens consumidos y costes en vivo — desglosados por función. Sin «AI-Credits» ocultos, sin factura mensual sorpresa.

  • tokens.in · tokens.out
  • cost.eur live
  • aiFeature-Aufschlüsselung

Escenario 1 · Soberanía de datos

Clave Azure propia. El proveedor nunca ve vuestros prompts.

Un despacho de abogados con secreto profesional no puede enviar datos del cliente a LLMs de terceros sin DPA. Despliega Azure OpenAI en EU-West (Suecia), crea un Service Principal propio con clave API propia — y la registra en los ajustes IA de su tenant EMS.

Desde el siguiente clic en «AI Paste» o «Mejorar con IA», todas las solicitudes pasan exclusivamente por su propia tenancy de Azure. El proveedor (Consiliari) no tiene acceso a los prompts, ni a logs, ni a contadores de tokens. La evaluación de impacto RGPD solo abarca un encargado del tratamiento — Azure UE — en lugar de una cadena de proveedores.

  • DPA solo con Microsoft, no con el proveedor SaaS
  • Región EU-West forzable (Sweden Central, France Central)
  • Inventario de cumplimiento Microsoft propio aplicable

Escenario 2 · Air-Gap

Ollama self-hosted. Investigación air-gapped. La IA funciona igualmente.

Un instituto de investigación opera EMS en una red aislada sin Internet — típico en investigación farmacéutica y de defensa. En lugar de contactar con un LLM externo, el proxy LiteLLM apunta a un endpoint Ollama interno con Llama 3.3 70B en el clúster GPU propio.

AI Paste, AI Grid Filter y Text Enhancement siguen funcionando — solo que contra vuestro modelo. Ningún bit de datos de investigación abandona la red. Sin caja negra cloud. Sin factura mensual de tokens.

  • Ollama, LocalAI, vLLM o API propia compatible con OpenAI
  • El control de capacidad se adapta: Vision off → AI-Paste-PDF off
  • Cambiar a un LLM cloud después es una línea de configuración

Escenario 3 · Enrutado de modelo

Un modelo por función IA — adecuado a la tarea.

No toda función IA necesita el modelo más caro. AI Paste con upload PDF necesita Vision — entonces GPT-5.5. Text Enhancement se beneficia de Claude Sonnet por una tonalidad más natural. AI Grid Filter es una tarea simple y rápida de tool-call — basta un modelo local de 8B.

Configurable por tenant y por función. El control de capacidad evita errores: quien elija un modelo más antiguo sin tool-calling para AI Paste obtiene un mensaje de error claro, no una respuesta alucinada.

Escenario 4 · EU AI Act

Conformidad EU AI Act, Off-Switch y costes en vivo — por tenant.

Las funciones IA están por tenant desactivadas por defecto. La activación es una decisión consciente del inquilino — no una actualización oculta del proveedor. Cada función puede activarse por separado. Tokens y costes aparecen en vivo en los ajustes, desglosados por función.

Ninguna decisión autónoma del modelo afecta a las imputaciones, las tarifas o las aprobaciones — la IA solo prerrellena campos y solo redacta borradores de textos. El derecho a sobrescribir y el audit-log se conservan en su totalidad.

  • Opt-In por función en lugar de un interruptor global «AI on/off»
  • Barra de tokens y costes en vivo (sin créditos ocultos)
  • Sin decisiones autónomas — la IA es sugerencia, no veredicto

Comparativa

BYO-LLM versus LLM Vendor-Bound

La mayoría de funciones IA en SaaS pasan por una cuenta central de proveedor — Salesforce Einstein, HubSpot Breeze, Personio AI. Vuestros datos pasan por su contrato, su región, su política de cambio de modelo. Nuestro enfoque es distinto.

DimensiónTemporalis EMSSuites Vendor-Bound
Elección de proveedor LLM OpenAI · Azure · Anthropic · Mistral · Ollama · LocalAI · API OpenAI propia fijado por el proveedor — habitualmente OpenAI tras el telón
Propiedad de la clave APIEl inquilino registra clave propiaCuenta del proveedor, el inquilino paga «AI-Credits»
Opción self-hostedOllama, vLLM, LocalAI — air-gap posibleno contemplado, cloud forzado
Fallo de endpoint propioHard-Fail (control de datos se mantiene)irrelevante — no hay endpoint propio
Validación de esquema (Tool Calling)en 10 editores · esquema generado desde el modelo TSa veces texto libre, a veces plantillas, raras veces tool-calling
Modelo por funcióncada función IA elige su propio modeloun único modelo para todas las funciones
Transparencia de tokensen vivo en los ajustes del tenant · por funciónPaquetes de «AI-Credits», sin vista en tiempo real
Off-Switch por funcióncada modo IA desactivable individualmenteglobal «AI on/off» o nada

¿Queréis IA en vuestro EMS — sin entregar vuestros datos a nuestra cuenta de proveedor?

14 días de prueba gratis, usar clave propia, disparar vosotros mismos el comportamiento Hard-Fail. Sin tarjeta de crédito, sin llamada comercial.