Sécurité by design, conformité native et réponses en temps réel
Résumé exécutif. Les approches RAG (Retrieval-Augmented Generation) ont accéléré les POC IA, mais leur centralisation des données (vectordb, index externes) heurte la sécurité, la fraîcheur de l’information et la conformité. Les entreprises basculent vers des architectures agentiques, où des agents logiciels interrogent les systèmes à l’exécution avec les droits existants, tout en orchestrant planification, outillage et traçabilité. Résultat : moins de risques, plus d’impact opérationnel. TechRadarMcKinsey & Company
1) Le RAG a tenu ses promesses… et atteint ses limites
- Risque de “re-centralisation” : extraire et vectoriser des documents internes bypasse les contrôles historiques (ACL, ABAC) et crée un nouveau point d’attaque. Les ensembles indexés vieillissent, la gouvernance s’alourdit. TechRadar
- Coûts d’industrialisation : pipelines d’extraction multiples, rafraîchissements, déduplication, masquage … le MCO d’un RAG d’entreprise devient rapidement coûteux. TechRadar
- Conformité : dans les secteurs régulés, l’indexation hors périmètre peut contrevenir aux politiques d’accès et de rétention. À l’inverse, des solutions comme Microsoft 365 Copilot montrent la voie : les réponses respectent les permissions effectives et l’indexation demeure bornée par l’identité et les politiques du tenant. Microsoft Learn
2) Le paradigme agentique : des agents qui travaillent « au plus près » des sources
Une architecture à base d’agents orchestre plusieurs rôles : sélectionneur (choix des sources/outils), exécutants spécialisés (recherche, calcul, synthèse), planificateur (séquencement, reprise sur erreur), agrégateur (réponse finale et citations). Ce modèle, popularisé par la recherche (p. ex. AutoGen de Microsoft Research) et par les cabinets (p. ex. McKinsey), découple compétences et ressources, et rend l’IA évolutive. arXivMicrosoft+1McKinsey & Company+1
Conséquence clé : au lieu de constituer un dépôt parallèle, les agents appellent les API des systèmes de référence (ERP, data lake, M365, CRM, moteurs de recherche, etc.) au moment de la requête, sous l’identité et les politiques en vigueur. TechRadar
3) Sécurité & conformité by design
- Accès “just-in-time” : authentification forte, délégations courtes, scopes minimaux. Les accès restent dans les systèmes qui font foi. TechRadar
- Garde-fous NIST AI RMF : journalisation complète, évaluation continue, gestion des biais, DLP et masquage avant sortie du périmètre. Le profile Générative IA de NIST (2024) fournit une grille concrète d’exigences. NISTnvlpubs.nist.gov
- Respect des permissions existantes (ex. Copilot / Graph) plutôt que redéfinition ad-hoc : moins d’erreurs de configuration, meilleure auditabilité. Microsoft Learn
4) Blueprint d’architecture (aligné sur votre schéma « Cross-Resource Bot »)
- Refineur de question : clarifie l’intention, détecte la sensibilité potentielle (PII/secret), ajoute les métadonnées de contexte.
- Sélecteur de ressources : choisit dynamiquement les outils et sources (connecteurs/API) selon politiques, coût/latence et fraîcheur.
- Agents spécialistes : exécutent les appels (recherche, code, analytics), sans exfiltrer la donnée hors des frontières de chaque système.
- Synthétiseur/Agrégateur : compile, cite les sources, trace les appels, applique DLP et politiques de sortie.
- Observabilité & évaluation : métriques de qualité, coûts, dérives, red-teaming continu.
Des offres managed (ex. Vertex AI Agent Engine / Agent Builder, OCI Generative AI Agents) fournissent runtime, connecteurs, mémoire contrôlée, évaluation et guardrails prêts à l’emploi. Google Cloud+1blogs.oracle.com+2blogs.oracle.com+2
5) Où le RAG reste pertinent (et comment l’intégrer proprement)
- Recherche locale à l’intérieur d’une application ou d’un espace documentaire borné.
- Hybridation : un agent peut choisir un RAG interne et borné (index par domaine + permissions natives) quand cela réduit coût/latence, et l’éviter quand la conformité n’est pas garantie. TechRadar
6) Indicateurs d’impact à suivre
- Taux de réponses sourçables (avec citations) et taux d’accès refusés justifiés (policy-hits).
- Âge moyen des données utilisées (fraîcheur).
- Coût par tâche résolue vs. RAG équivalent.
- MTTR des incidents liés aux accès/permissions.
- Couverture de garde-fous NIST AI RMF (contrôles opérés / contrôles requis). nvlpubs.nist.gov
7) Feuille de route 90 jours
Semaine 1–2 — Cadrage
- Cartographier 5–10 cas “haute valeur” impliquant plusieurs systèmes, et leurs politiques d’accès.
- Définir les règles de garde (DLP, masquage, journaux, conservation) selon NIST AI RMF + profil GenAI. NISTnvlpubs.nist.gov
Semaine 3–6 — POC agentique
- Implémenter question-refiner, selector, 2–3 agents spécialistes + agrégateur.
- Tester Copilot-like permission-checks et deny-by-default. Microsoft Learn
- Évaluer en parallèle un runtime managé (Vertex/OCI) pour accélérer connecteurs et évaluation. Google Cloudblogs.oracle.com
Semaine 7–12 — Pré-prod
- Ajout d’observabilité (coût/latence/qualité), red-teaming, procédures d’escalade humaine.
- Passage en pilotage limité sur 2 processus réels (ex. service client, orchestration supply chain). McKinsey & Company+1
Encadré — Bonnes pratiques
- Toujours citer les systèmes interrogés et l’horodatage.
- Aucune persistance hors mémoire contrôlée ; si mémoire, alors chiffrement, TTL et purge.
- Contrôles d’accès en dernier ressort à l’agrégateur (policy-as-code).
- Évaluez avec des eval sets métier et des rubrics qualité (exactitude, traçabilité, actionnabilité).
- Éducation des équipes : l’IA agentique augmente l’humain ; elle ne court-circuit pas les métiers. nvlpubs.nist.gov
Conclusion
Le message clé n’est pas « RAG contre agents », mais “sécurité et gouvernance d’abord”. Les architectures agentiques s’imposent parce qu’elles utilisent les contrôles existants, interrogent les bonnes sources au bon moment et tracent chaque décision. C’est ce qui transforme l’IA d’entreprise en actif fiable — et non en dérive technologique. TechRadarMicrosoft Learn
Références clés (sélection)
- TechRadar — « RAG is dead: why enterprises are shifting to agent-based AI architectures ». TechRadar
- McKinsey — « Seizing the agentic AI advantage » & « The future of customer experience: embracing agentic AI ». McKinsey & Company+1
- Microsoft Research — AutoGen (paper & project). arXivMicrosoft+1
- Google Cloud — Vertex AI Agent Engine / Agent Builder (overview & connectors). Google Cloud+1
- Oracle — OCI Generative AI Agents / AI Agent Platform. blogs.oracle.com+2blogs.oracle.com+2
- NIST — AI Risk Management Framework & Generative AI Profile (NIST AI 600-1, 2024). NISTnvlpubs.nist.gov
- Microsoft — Data, Privacy, and Security for Microsoft 365 Copilot. Microsoft Learn