USP architectural · Souveraineté IA

Votre modèle.
Votre clé.
Votre tenant.

Les fonctionnalités IA dans EMS ne passent pas par notre compte fournisseur. Chaque tenant configure son propre endpoint LLM et sa clé API — Azure OpenAI dans le datacenter EU-West, Mistral AI à Paris ou un modèle hébergé localement sur votre cluster GPU. Le proxy LiteLLM unifie l'API. Pour un endpoint personnalisé : Hard-Fail au lieu de Silent-Fallback — le contrôle des données reste chez vous, même en cas d'erreur.

30+ modèles dans la base de capacités
4 familles de fournisseurs prêtes à l'emploi
0 bascule silencieuse en cas d'endpoint personnalisé

Anatomie

Cinq éléments pour une vraie souveraineté des données IA

Le « BYO-LLM » est, pour beaucoup de SaaS, une simple case à cocher dans les réglages — chez nous, c'est un principe d'architecture appliqué bout en bout, du paramétrage du tenant jusqu'à la couche d'inférence.

Endpoint & clé par tenant

Chaque tenant décide dans les paramètres IA : proxy standard ou endpoint propre avec clé API propre. Avec un endpoint propre, le fournisseur ne voit jamais les prompts ni les retours.

  • endpointUrl
  • apiKey (verschlüsselt)
  • fallbackToGlobalProxy: false

Proxy LiteLLM comme adaptateur universel

Une API unifiée, compatible OpenAI, devant tous les fournisseurs. Passer d'OpenAI à Mistral ou à Ollama est un changement de configuration, pas un changement de code dans EMS.

  • OpenAI
  • Azure OpenAI
  • Anthropic
  • Mistral
  • Ollama
  • LocalAI

Hard-Fail au lieu de Silent-Fallback

Si votre endpoint personnalisé tombe, le système refuse la requête — il ne bascule pas secrètement vers le compte fournisseur global. Le contrôle des données reste intact, même en cas d'erreur.

  • if (tenant.hasCustomEndpoint && !ok)
  • throw new InferenceUnavailableException();
  • // kein Fallback. Kein „opportunistisches" Routing.

Tool Calling avec validation de schéma

Chaque éditeur fournit son propre JSON-Schema, généré depuis le modèle TypeScript. Le LLM ne peut pas retourner de champs inexistants dans l'éditeur — pas d'hallucination, pas de rupture de format.

  • structuredOutput: true
  • toolCalling: true
  • capabilityCheck pro Modell

Transparence des tokens en direct par tenant

Une barre de synthèse dans les paramètres tenant montre les tokens consommés et les coûts en direct — détaillés par fonctionnalité. Pas d'« AI-Credits » cachés, pas de facture mensuelle surprise.

  • tokens.in · tokens.out
  • cost.eur live
  • aiFeature-Aufschlüsselung

Scénario 1 · Souveraineté des données

Clé Azure propre. Le fournisseur ne voit jamais vos prompts.

Un cabinet d'avocats avec secret professionnel ne peut pas envoyer de données mandant à des LLMs tiers sans DPA. Il déploie Azure OpenAI en EU-West (Suède), crée un Service Principal dédié avec sa propre clé API — et la configure dans les paramètres IA de son tenant EMS.

Dès le prochain clic sur « AI Paste » ou « Améliorer avec l'IA », toutes les requêtes passent exclusivement par leur propre tenancy Azure. Le fournisseur (Consiliari) n'a aucun accès aux prompts, aucun log, aucun compteur de tokens. L'analyse d'impact RGPD ne couvre plus que un sous-traitant — Azure UE — au lieu d'une chaîne de fournisseurs.

  • DPA uniquement avec Microsoft, pas avec le fournisseur SaaS
  • Région EU-West imposable (Sweden Central, France Central)
  • Inventaire de conformité Microsoft propre applicable

Scénario 2 · Air-Gap

Ollama self-hosted. Recherche air-gappée. L'IA fonctionne quand même.

Un institut de recherche exploite EMS dans un réseau isolé sans Internet — typique de la recherche pharmaceutique et de défense. Au lieu de contacter un LLM externe, le proxy LiteLLM pointe vers un endpoint Ollama interne avec Llama 3.3 70B sur le cluster GPU maison.

AI Paste, AI Grid Filter et Text Enhancement continuent de fonctionner — simplement contre votre modèle. Aucun bit de données de recherche ne quitte le réseau. Pas de cloud boîte noire. Pas de facture mensuelle de tokens.

  • Ollama, LocalAI, vLLM ou API propre compatible OpenAI
  • Le contrôle de capacité s'adapte : Vision off → AI Paste PDF off
  • Bascule vers un LLM cloud plus tard : une ligne de configuration

Scénario 3 · Routage de modèle

Un modèle par fonctionnalité IA — adapté à la tâche.

Toutes les fonctionnalités IA n'ont pas besoin du modèle le plus cher. AI Paste avec upload PDF a besoin de Vision — donc GPT-5.5. Text Enhancement profite de Claude Sonnet pour une tonalité plus naturelle. AI Grid Filter est une tâche de tool-call simple et rapide — un modèle local 8B suffit.

Configurable par tenant et par fonctionnalité. Le contrôle de capacité empêche les erreurs : choisir un modèle plus ancien sans tool-calling pour AI Paste donne un message d'erreur clair, pas une réponse hallucinée.

Scénario 4 · EU AI Act

Conformité EU AI Act, Off-Switch et coûts en direct — par tenant.

Les fonctionnalités IA sont par tenant désactivées par défaut. L'activation est une décision consciente du tenant — pas une mise à jour silencieuse du fournisseur. Chaque fonctionnalité peut être activée séparément. Tokens et coûts apparaissent en direct dans les paramètres, détaillés par fonctionnalité.

Aucune décision autonome du modèle ne concerne les saisies, les taux horaires ou les approbations — l'IA ne fait que pré-remplir des champs et que rédiger des brouillons de textes. Le droit de réécriture et l'audit-log restent intégralement préservés.

  • Opt-in par fonctionnalité au lieu d'un interrupteur global « AI on/off »
  • Barre de tokens et coûts en direct (pas de credits cachés)
  • Pas de décisions autonomes — l'IA est une suggestion, pas un jugement

Comparaison

BYO-LLM versus LLM Vendor-Bound

La plupart des fonctionnalités IA SaaS passent par un compte fournisseur central — Salesforce Einstein, HubSpot Breeze, Personio AI. Vos données passent par leur contrat fournisseur, dans leur région, avec leur politique de changement de modèle. Notre approche est différente.

DimensionTemporalis EMSSuites Vendor-Bound
Choix du fournisseur LLM OpenAI · Azure · Anthropic · Mistral · Ollama · LocalAI · API OpenAI propre fixé par le fournisseur — souvent OpenAI derrière le rideau
Propriété de la clé APILe tenant configure sa propre cléCompte fournisseur, le tenant paie des « AI-Credits »
Option self-hostedOllama, vLLM, LocalAI — air-gap possiblenon prévu, cloud imposé
Échec d'endpoint personnaliséHard-Fail (le contrôle des données reste)non pertinent — pas d'endpoint personnalisé possible
Validation de schéma (Tool Calling)dans 10 éditeurs · schéma généré depuis le modèle TSparfois texte libre, parfois templates, rarement tool-calling
Modèle par fonctionnalitéchaque fonctionnalité IA choisit son propre modèleun seul modèle pour toutes les fonctionnalités
Transparence des tokensen direct dans les paramètres tenant · par fonctionnalitéForfaits « AI-Credits », pas de vue temps réel
Off-Switch par fonctionnalitéchaque mode IA désactivable individuellementglobal « AI on/off » ou rien du tout

Vous voulez de l'IA dans votre EMS — sans donner vos données à notre compte fournisseur ?

14 jours d'essai gratuit, configurez votre propre clé, déclenchez vous-même le comportement Hard-Fail. Sans carte bancaire, sans appel commercial.