| Choix du fournisseur LLM | OpenAI · Azure · Anthropic · Mistral · Ollama · LocalAI · API OpenAI propre | fixé par le fournisseur — souvent OpenAI derrière le rideau |
|---|
| Propriété de la clé API | Le tenant configure sa propre clé | Compte fournisseur, le tenant paie des « AI-Credits » |
|---|
| Option self-hosted | Ollama, vLLM, LocalAI — air-gap possible | non prévu, cloud imposé |
|---|
| Échec d'endpoint personnalisé | Hard-Fail (le contrôle des données reste) | non pertinent — pas d'endpoint personnalisé possible |
|---|
| Validation de schéma (Tool Calling) | dans 10 éditeurs · schéma généré depuis le modèle TS | parfois texte libre, parfois templates, rarement tool-calling |
|---|
| Modèle par fonctionnalité | chaque fonctionnalité IA choisit son propre modèle | un seul modèle pour toutes les fonctionnalités |
|---|
| Transparence des tokens | en direct dans les paramètres tenant · par fonctionnalité | Forfaits « AI-Credits », pas de vue temps réel |
|---|
| Off-Switch par fonctionnalité | chaque mode IA désactivable individuellement | global « AI on/off » ou rien du tout |
|---|