Une défaillance de Microsoft 365 Copilot a fait résumer des courriels « confidentiels » malgré les politiques DLP

Bankinter intègre l'intelligence artificielle de Microsoft 365 Copilot pour améliorer l'efficacité dans divers domaines de la banque

La promesse de l’Intelligence Artificielle d’entreprise est simple à expliquer mais difficile à réaliser : aider à travailler plus rapidement sans que des données sensibles ne sortent du périmètre de l’organisation. Cette semaine, Microsoft a dû reconnaître qu’une partie de cet équilibre s’était fragilisé pendant plusieurs semaines en raison d’une faille dans Microsoft 365 Copilot, son assistant intégré dans des outils comme Outlook et la suite Office. Selon la société, un bug a permis à Copilot de lire et résumer des e-mails étiquetés comme “confidentiels”, même lorsque des politiques de Prévention de Perte de Données (DLP) avaient été activées, précisément pour empêcher cela.

Cet incident, suivi en interne sous le code CW1226324, a été détecté le 21 janvier et concernait une fonctionnalité spécifique : le chat de Copilot dans l’onglet de travail (work tab). Le comportement anormal consistait en ce que le système recueillait et traitait des messages situés dans Messages Envoyés (Sent Items) et Brouillons (Drafts), y compris ceux portant des étiquettes de confidentialité, habituellement utilisées pour imposer des restrictions aux outils automatisés et renforcer la conformité réglementaire.

Précision sur la défaillance : quand l’étiquette existe mais la barrière ne s’applique pas

Dans les environnements Microsoft 365, les étiquettes de confidentialité (sensitivity labels) ne sont pas de simples “avis” visuels. Elles font partie de Microsoft Purview et servent à classer l’information et, en fonction du niveau de sensibilité, à appliquer des protections qui voyagent avec le contenu (par exemple, limites d’accès ou restrictions d’utilisation).

Ce niveau s’ajoute à DLP, qui dans de nombreuses entreprises agit comme une dernière ligne de défense : des politiques visant à empêcher que des informations sensibles (documents, e-mails, identifiants, etc.) soient traitées ou partagées dans des contextes non autorisés. Pour Copilot et le chat Copilot, Microsoft propose des emplacements de politiques spécifiques pour limiter le traitement lorsque le contenu possède certaines étiquettes ou correspond à des règles de protection.

Le problème, selon Microsoft, provenait d’un erreur de codage qui a permis à Copilot Chat d’intégrer des éléments issus de Messages Envoyés et Brouillons même si des étiquettes de confidentialité et une politique DLP étaient en place. La conséquence pratique est critique : si un employé posait une question au chat, l’assistant pouvait résumer un contenu, alors que celui-ci devait, par conception, rester hors de portée de l’automatisation.

Un incident survenu en pleine expansion de Copilot Chat

Ce cas possède une dimension temporelle importante. Microsoft a commencé à déployer Copilot Chat (Microsoft 365 Copilot Chat) dans des applications comme Word, Excel, PowerPoint, Outlook et OneNote pour des clients professionnels payants en septembre 2025, intensifiant ainsi l’intégration de l’Intelligence Artificielle dans le flux de travail quotidien.

Ce déploiement massif a transformé Copilot en un “nouvel employé” interagissant avec des contenus internes. C’est là que tout défaut de contrôle — même limité — devient particulièrement critique pour des secteurs réglementés (santé, juridique, finance), pour les équipes manipulant des NDA, les ressources humaines ou les départements traitant des données stratégiques (plans commerciaux, fusions, incidents de sécurité). Il ne s’agit pas seulement d’un problème technique : c’est une question de confiance.

Ce que dit Microsoft sur l’étendue et l’état de la correction

Microsoft considère l’incident comme un avis de sécurité, une catégorie souvent utilisée pour des problèmes qui, selon l’éditeur, ont un impact limité ou circonscrit. Toutefois, la société n’a pas précisé combien d’organisations ou d’utilisateurs ont été affectés, et a indiqué que la portée pouvait évoluer à mesure que la recherche progresse.

Elle a également indiqué avoir commencé à déployer un correctif début février et, à la date de la dernière mise à jour rapportée par des sources spécialisées, suivre l’état de la correction et contacter un sous-ensemble d’utilisateurs pour vérifier que la solution fonctionne comme prévu.

Une autre source d’inquiétude pour les responsables conformité concerne le fait que des informations sur l’incident aient circulé via des notifications de service client, alimentant l’impression que le marché s’habitue à gérer des “ incidents d’IA” comme des problèmes opérationnels, alors qu’ils touchent en réalité à des politiques que de nombreuses entreprises considèrent comme non négociables.

Leçons pour le marché : la sécurité ne peut reposer sur une seule barrière

Au-delà du cas concret, cette affaire rappelle de manière gênante que les organisations construisent leur gouvernance des données pour l’Intelligence Artificielle à partir d’une combinaison de tagging, de politiques DLP et de contrôles d’accès. Si l’une de ces composantes échoue en raison d’une erreur d’implémentation, la sécurité passe du statut d’un système fiable à une simple attente.

Dans la stratégie d’entreprise, cela n’implique pas de renoncer à l’automatisation, mais souligne une idée essentielle : l’Intelligence Artificielle ne peut être imposée comme une “couche magique” sans prévoir qu’il y aura des incidents et que la réponse doit être rapide, mesurable et auditable. En pratique, beaucoup d’entreprises abordent ces épisodes comme elles le feraient pour un changement de comportement dans un système critique : elles vérifient l’état du service, valident les politiques, documentent les tests internes et surveillent la conformité après chaque mise à jour.

À une époque où la productivité et l’automatisation dictent le rythme, ce qui est en jeu n’est pas uniquement la capacité de Copilot à bien résumer un e-mail. C’est la validité des règles que toute entreprise définit comme “confidentielles” quand la Intelligence Artificielle entre en scène.


Questions fréquemment posées

Qu’est-ce qu’une politique DLP dans Microsoft 365 et à quoi sert-elle avec Copilot ?
La DLP (Prévention de Perte de Données) regroupe un ensemble de politiques de Microsoft Purview visant à empêcher que des informations sensibles soient utilisées ou partagées de manière inappropriée. Avec Copilot, elle peut être configurée pour restreindre le traitement de certains contenus, comme des e-mails ou des fichiers portant des étiquettes spécifiques.

Quelles boîtes Outlook ont été impliquées dans la défaillance de Copilot ?
D’après les informations disponibles, le dysfonctionnement concernait les e-mails situés dans Envoyés et Brouillons, qui pouvaient être collectés par le chat Copilot malgré leur étiquette de confidentialité.

Comment savoir si une organisation a été affectée par CW1226324 ?
Microsoft a géré cet incident comme un avis de service. Dans un environnement d’entreprise, il convient généralement de consulter le Centre d’administration Microsoft 365 et les communications relatives à l’état du service concernant Copilot pour déterminer si le tenant (tenant) est impacté.

Quelle est la différence entre “étiquette de confidentialité” et “DLP” dans Microsoft Purview ?
L’étiquette sert à classer et peut appliquer des protections au contenu (par exemple, restrictions liées à sa sensibilité). La DLP applique des règles pour éviter que des usages ou flux de données non autorisés se produisent. Dans des scénarios avec l’Intelligence Artificielle, elles travaillent souvent de concert pour empêcher que du contenu marqué comme sensible ne soit traité dans des réponses ou résumés.

le dernier