Attaquer un agent d’IA en lui envoyant un mail

Une attaque sur Copilot • Qant avec GPT-4o

Une faille expose Microsoft 365 Copilot à des attaques sans interaction avec l’utilisateur, révélant un risque plus large pour les agents d’IA.

  • La start-up Aim Security a identifié la première faille “zero-click”, baptisée EchoLeak, affectant un agent d’intelligence artificielle, permettant d’exfiltrer des données sensibles sans clic ni action de l’utilisateur, uniquement par l’envoi d’un email.
  • Le mécanisme repose sur une “LLM Scope Violation”, c’est-à-dire la manipulation d’un agent fondé sur un grand modèle de langage (LLM), qui le pousse à accéder ou à divulguer des données hors de son périmètre autorisé.
  • L’attaque s’appuie sur du code markdown, un langage de balisage utilisé pour formater du texte dans des emails ou des documents. Il a permis de dissimuler des commandes malveillantes en contournant les filtres de sécurité de Copilot.
  • Les contenus piégés exploitent des liens ou images hébergés sur des domaines Microsoft de confiance comme SharePoint ou Teams, ce qui permet à l’agent Copilot d’envoyer automatiquement des données vers un serveur contrôlé par l’attaquant.
  • EN FILIGRANE : Même pas peur. Microsoft, qui a corrigé la vulnérabilité cinq mois après sa découverte en janvier 2025, assure qu’aucun client n’a été affecté et qu’aucune exploitation active n'a été détectée.
  • À SURVEILLER : La sécurité des agents et assistants IA s’est beaucoup inquiété, jusqu’à présent, de l’alignement des agents et des modèles. Mais toute plateforme combinant des données internes avec des contenus extérieurs non vérifiés pourrait être exposée à des attaques similaires à EchoLeak, rendant urgente une refonte de leur architecture de sécurité.

L’essentiel