| LLM-Provider-Wahl | OpenAI · Azure · Anthropic · Mistral · Ollama · LocalAI · eigene OpenAI-API | fix vom Anbieter — meist OpenAI hinter dem Vorhang |
|---|
| API-Key-Eigentum | Mandant hinterlegt eigenen Key | Anbieter-Konto, Mandant zahlt „AI-Credits" |
|---|
| Self-Hosted-Option | Ollama, vLLM, LocalAI — Air-Gap möglich | nicht vorgesehen, Cloud erzwungen |
|---|
| Custom-Endpoint-Failure | Hard-Fail (Datenkontrolle bleibt) | irrelevant — kein Custom-Endpoint möglich |
|---|
| Schema-Enforcement (Tool Calling) | in 10 Editoren · Schema aus TS-Modell generiert | teils Freitext, teils Templates, selten Tool-Calling |
|---|
| Modell pro Feature | jedes KI-Feature wählt eigenes Modell | ein Modell für alle Features |
|---|
| Token-Transparenz | live in Mandanten-Settings · pro Feature | „AI-Credits"-Bündel, keine Echtzeit-Sicht |
|---|
| Per-Feature-Off-Switch | jeder KI-Mode einzeln deaktivierbar | global „AI on/off" oder gar nichts |
|---|