Orchestrateur des flux LLM — sécurité transparente pour VS Code + Continue
Reverse proxy intelligent orchestrant tous les appels LLM (Ollama, OpenAI, Anthropic, Mistral). Injecte le pipeline de sécurité sur chaque requête : scoring d'injection automatique, redaction PII multi-patterns, logging asynchrone SIAP. Interface primaire du scénario VS Code + Continue.
Scoring automatique — blocage des requêtes à risque
Détection et masquage automatique avant envoi au LLM
Routing dynamique Ollama / OpenAI / Anthropic / Mistral
Gestion tokens API · whitelisting providers
Log structuré chaque requête/réponse · événements SIAP
Throttling par utilisateur et par provider