| Elección de proveedor LLM | OpenAI · Azure · Anthropic · Mistral · Ollama · LocalAI · API OpenAI propia | fijado por el proveedor — habitualmente OpenAI tras el telón |
|---|
| Propiedad de la clave API | El inquilino registra clave propia | Cuenta del proveedor, el inquilino paga «AI-Credits» |
|---|
| Opción self-hosted | Ollama, vLLM, LocalAI — air-gap posible | no contemplado, cloud forzado |
|---|
| Fallo de endpoint propio | Hard-Fail (control de datos se mantiene) | irrelevante — no hay endpoint propio |
|---|
| Validación de esquema (Tool Calling) | en 10 editores · esquema generado desde el modelo TS | a veces texto libre, a veces plantillas, raras veces tool-calling |
|---|
| Modelo por función | cada función IA elige su propio modelo | un único modelo para todas las funciones |
|---|
| Transparencia de tokens | en vivo en los ajustes del tenant · por función | Paquetes de «AI-Credits», sin vista en tiempo real |
|---|
| Off-Switch por función | cada modo IA desactivable individualmente | global «AI on/off» o nada |
|---|