- ▸ Quoi : plateforme managée d'exécution d'agents IA avec sandboxes par session
- ▸ Pourquoi : industrialiser les agents sans assumer seul la sécurité d'exécution
- ▸ Chiffre clé : 42 % d'entreprises prévoient un agent en production sous 12 mois
- ▸ À surveiller : maturité des connecteurs et coût total face aux concurrents AWS et Google
Points clés
- Microsoft a ouvert l’accès au Foundry Agent Service, sa nouvelle infrastructure d’hébergement d’agents pour les entreprises.
- Le service propose des sandboxes par session, un compute « agent-optimisé » et des garanties production que beaucoup d’équipes peinaient à reproduire en interne.
- L’offre vise les directions IT qui multiplient les pilotes d’agents sans cadre opérationnel cohérent et qui veulent industrialiser sans tout reconstruire.
- Microsoft revendique un alignement direct avec Azure AI Foundry pour le déploiement, l’observabilité et la facturation à l’usage.
- Gartner anticipe 42 % d’entreprises avec un agent IA en production sous douze mois, ce qui place ce type de service sur la trajectoire d’un standard.
Microsoft a sorti cette semaine son Foundry Agent Service, une plateforme hébergée pour exécuter des agents IA en production avec des sandboxes par session, du compute spécialisé et une intégration native à Azure AI Foundry. La promesse : permettre aux équipes IT de passer du prototype au déploiement industriel sans recoder l’infrastructure d’orchestration, et sans assumer seules la sécurité d’exécution d’agents qui ouvrent des fichiers, appellent des API et écrivent dans des bases.
Pourquoi Microsoft pousse une infrastructure dédiée aux agents
Depuis dix-huit mois, les directions IT empilent les pilotes d’agents conversationnels, d’agents copilotes ou d’agents de back-office. Le passage en production se heurte presque toujours aux mêmes obstacles : isolation entre sessions, gestion fine des secrets, traçabilité des appels d’outils, limites de coût par tâche, reprise après incident. Microsoft estime qu’il s’agit d’un domaine d’infrastructure à part entière, distinct de l’hébergement d’API LLM classiques. Foundry Agent Service hérite directement de la marque Azure AI Foundry, le hub central qui agrège modèles, datasets, évaluations et déploiements selon la couverture publiée par InfoWorld.
Concrètement, chaque agent reçoit un environnement d’exécution éphémère, recyclé après chaque session, ce qui élimine les risques d’effets de bord entre utilisateurs et limite la surface d’attaque pour les exfiltrations de données. Microsoft a aussi mis l’accent sur les « per-session sandboxes » comme barrière contre les injections de prompt qui transforment un agent légitime en outil d’attaque latérale. Pour les régulateurs européens, en particulier dans le cadre de l’AI Act et des exigences DORA pour le secteur financier, ce type de garantie devient un prérequis contractuel.
Le terrain choisi : un marché agent à 42 % d’adoption
Gartner a publié en avril son premier rapport dédié spécifiquement aux agents IA. Le cabinet retient un chiffre déjà cité partout : 42 % des entreprises interrogées prévoient un déploiement d’agent IA dans les douze mois selon la synthèse Crescendo AI sur les annonces 2026. Microsoft cible cette vague avec un argumentaire simple : si vous êtes déjà sur Azure, vous avez déjà la facturation, l’IAM, les logs et les certifications de conformité ; ajouter une couche d’orchestration d’agents prend l’apparence d’une mise à jour d’abonnement, pas d’un projet d’infrastructure de douze mois.
Cette stratégie s’inscrit en miroir de Google, qui a rebrandé Vertex AI en Gemini Enterprise Agent Platform la semaine précédente, et d’AWS qui pousse Bedrock AgentCore en parallèle. Le marché de l’hébergement d’agents se structure autour des trois hyperscalers, avec une bataille frontale sur les coûts de compute par tâche et la latence d’exécution.
Ce que change le sandbox par session
Côté pratique, les équipes plateforme qui maintenaient leurs propres orchestrateurs maison (souvent autour de LangGraph, AutoGen ou de scripts Python custom) doivent désormais arbitrer. Garder le contrôle et continuer à porter la charge opérationnelle, ou basculer vers une offre managée et accepter un certain verrouillage à l’écosystème Microsoft. Les premiers retours indiquent que le service réduit le temps de mise en production de plusieurs semaines à quelques jours pour les agents simples, mais que la complexité reste élevée pour les workflows multi-agents avec mémoire partagée.
Le pricing n’a pas encore été publié dans son intégralité, mais Microsoft a confirmé un modèle à l’usage avec une granularité par session, en plus du coût des modèles consommés. Pour une équipe qui exécute des milliers de sessions courtes, le calcul ne sera pas identique à celui d’un usage où chaque session dépasse plusieurs minutes et appelle de multiples outils.
Ce que les DSI doivent vérifier avant de basculer
Foundry Agent Service ne dispense pas d’une gouvernance interne. Les sandboxes isolent l’exécution mais n’empêchent pas un agent d’appeler un endpoint critique avec les mauvaises permissions si les rôles IAM sont mal configurés. La traçabilité des décisions reste à instrumenter, et l’équipe Microsoft renvoie pour cela vers Azure Monitor et les hooks d’audit standard. Le service propose une « Inbox d’activité » comparable à celle annoncée par Google, qui centralise les exécutions d’agents en cours et permet aux administrateurs d’intervenir manuellement, mais cette fonctionnalité reste en preview.
Les équipes qui pilotent des agents en environnement réglementé devront aussi clarifier le périmètre de résidence des données. Microsoft maintient un déploiement régional sur ses datacenters européens, mais certaines fonctions (en particulier l’évaluation et la télémétrie) peuvent transiter par des régions globales selon les paramètres choisis. Pour la santé, la défense ou la banque, ce niveau de détail conditionne l’éligibilité du service. Les responsables conformité devront aussi prêter attention aux clauses contractuelles types qui encadrent les transferts hors Union européenne, tout particulièrement pour les agents qui manipulent des données personnelles ou des éléments couverts par le secret professionnel.
Un autre point d’attention concerne la gestion des secrets. Les agents qui appellent des API métiers ont besoin de jetons, de clés ou de credentials OAuth. Foundry Agent Service propose une intégration directe avec Azure Key Vault, mais la rotation automatique reste à la charge de l’équipe d’exploitation. Les premiers déploiements en production ont fait remonter des incidents liés à des jetons expirés en cours de session, sans mécanisme de reprise gracieuse. Microsoft a annoncé travailler sur un système de renouvellement transparent, mais sans calendrier précis. En attendant, les équipes plateforme doivent prévoir des fenêtres de maintenance compatibles avec les TTL des credentials utilisés.
Comparaison avec les alternatives open source
Pour les équipes qui hésitent à basculer sur une plateforme managée, l’écosystème open source reste actif. LangGraph propose désormais un mode serveur avec persistance, AutoGen Studio offre une interface web pour orchestrer des agents multi-rôles, et CrewAI met l’accent sur la collaboration entre agents spécialisés. Ces outils ne fournissent pas de sandbox d’exécution natif, mais peuvent être combinés avec Kubernetes ou Firecracker pour reproduire l’isolation par session. Le coût opérationnel reste néanmoins significatif, et seules les organisations avec une équipe plateforme mature parviennent à le maintenir sans dérive.
Le différenciateur de Foundry Agent Service n’est donc pas tant la technique que l’intégration : un seul fournisseur pour le modèle, l’orchestration, l’isolation, la facturation et la conformité. Cette logique de bundle séduit les directions financières qui veulent réduire le nombre de prestataires, mais elle inquiète les architectes qui redoutent un verrouillage difficile à inverser une fois plusieurs centaines d’agents en production. Le choix devient stratégique, et il mérite un arbitrage explicite plutôt qu’une dérive par défaut vers le fournisseur déjà installé.
Premiers cas d’usage et retours du terrain
Microsoft a mis en avant trois cas d’usage emblématiques lors de l’annonce. Une banque internationale utilise Foundry Agent Service pour automatiser le tri des demandes de réclamation client, avec un agent qui qualifie le motif, vérifie la cohérence des pièces jointes et route le dossier vers la bonne file. L’éditeur cite une réduction de 60 % du temps de traitement initial, sans préciser le périmètre exact de la mesure. Un acteur de la grande distribution déploie quant à lui un agent qui génère des fiches produits enrichies à partir de descriptions fournisseurs, avec validation humaine en bout de chaîne.
Le troisième exemple concerne une administration publique européenne qui s’appuie sur le service pour orchestrer des agents d’aide à la rédaction réglementaire. Les sandboxes par session jouent ici un rôle central, puisque les rédacteurs travaillent sur des documents classifiés et que la séparation entre dossiers ne peut souffrir aucune ambiguïté. Microsoft refuse de communiquer le nom du client, mais les équipes Azure Government ont confirmé l’existence de plusieurs déploiements en cours dans le secteur public. Ces premiers retours suggèrent que le service est prêt pour des charges de production sérieuses, à condition d’investir dans la phase de cadrage et de ne pas sous-estimer la dette d’observabilité que tout déploiement d’agents accumule rapidement.
FAQ
Foundry Agent Service remplace-t-il Copilot Studio ?
Non. Copilot Studio reste l’outil low-code pour configurer des copilotes métier dans l’écosystème Microsoft 365. Foundry Agent Service s’adresse aux équipes développeurs qui codent leurs agents, et fournit l’infrastructure d’exécution. Les deux outils peuvent coexister, et Microsoft a indiqué qu’un agent construit côté Foundry pouvait être exposé via Copilot Studio.
Faut-il être client Azure pour utiliser le service ?
Oui, le service s’inscrit dans Azure AI Foundry et nécessite un abonnement Azure actif avec les rôles adaptés. Microsoft n’a pas annoncé de version standalone hors Azure. Pour les entreprises multi-cloud, cela peut compliquer l’arbitrage avec Bedrock AgentCore d’AWS ou la nouvelle Gemini Enterprise Agent Platform de Google.
À suivre
La bataille des plateformes d’agents va se jouer sur les benchmarks de coût par tâche et sur la richesse des connecteurs vers les systèmes d’entreprise. Pour aller plus loin, lisez notre analyse de Workspace Agents ChatGPT et son premier déploiement en 30 minutes et notre dossier sur les sept étapes pour déployer un agent IA en PME sans surcharge.



