Icônes SCW
héros bg sans séparateur
Blog

Lorsque les bons outils tournent mal : empoisonnement des outils d'IA et comment empêcher votre IA d'agir en tant qu'agent double

Pieter Danhieux
Publié le 09 juillet 2025
Dernière mise à jour le 6 mars 2026

Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours souhaité créer leurs propres logiciels mais qui ne disposent pas de l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promette d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui rend possible ce que l'on a surnommé les « attaques par empoisonnement des outils ». », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.

Dans l'état actuel des choses, le résultat de ces outils n' est pas suffisamment sécurisé pour les qualifier de prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : «À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »

Les systèmes d'IA agentique et le profil de risque du Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration et une interaction plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de commencer à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.

Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.

InvariantLabs souligne qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions inappropriées non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est avantageux pour les acteurs de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
  • Créez un décalage entre ce que l'utilisateur perçoit et ce que fait le modèle d'IA en dissimulant les arguments et les résultats des outils derrière des représentations d'interface utilisateur d'une simplicité trompeuse.

Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous rencontrerons certainement de plus en plus fréquemment à mesure que l'utilisation des MCP continuera inévitablement de croître. Il sera nécessaire de prendre des mesures minutieuses pour détecter et atténuer cette menace à mesure que les programmes de sécurité de l'entreprise évolueront, et il est essentiel de préparer correctement les développeurs à participer à la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient utiliser les outils d'IA agentiques

Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.

Les développeurs représentent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel de maintenir à la fois les compétences en matière de sécurité et de pensée critique pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Il est toutefois essentiel de travailler en binôme, dans un environnement de programmation où l'expert humain est en mesure d'évaluer et de modéliser les menaces, et, en fin de compte, d'approuver le travail produit par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences et accroître leur productivité grâce à l'IA ici.

Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche

Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y engager avant d'avoir évalué le terrain.

Le document Narajala et Habler détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique permettent de résoudre des problèmes et de prendre des décisions de manière autonome afin d'atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
  • Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de réviser efficacement les processus de sécurité et d'examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.

Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Nous vous invitons à le découvrir et à nous contacter pour renforcer votre équipe de développement dès aujourd'hui.

Afficher la ressource
Afficher la ressource

Souhaitez-vous obtenir davantage d'informations ?

Directeur général, président et cofondateur

En savoir plus

Secure Code Warrior là pour aider votre organisation à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité informatique ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Veuillez réserver une démonstration.
Partager sur :
marques LinkedInSocialLogo x
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager sur :
marques LinkedInSocialLogo x

Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours souhaité créer leurs propres logiciels mais qui ne disposent pas de l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promette d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui rend possible ce que l'on a surnommé les « attaques par empoisonnement des outils ». », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.

Dans l'état actuel des choses, le résultat de ces outils n' est pas suffisamment sécurisé pour les qualifier de prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : «À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »

Les systèmes d'IA agentique et le profil de risque du Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration et une interaction plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de commencer à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.

Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.

InvariantLabs souligne qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions inappropriées non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est avantageux pour les acteurs de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
  • Créez un décalage entre ce que l'utilisateur perçoit et ce que fait le modèle d'IA en dissimulant les arguments et les résultats des outils derrière des représentations d'interface utilisateur d'une simplicité trompeuse.

Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous rencontrerons certainement de plus en plus fréquemment à mesure que l'utilisation des MCP continuera inévitablement de croître. Il sera nécessaire de prendre des mesures minutieuses pour détecter et atténuer cette menace à mesure que les programmes de sécurité de l'entreprise évolueront, et il est essentiel de préparer correctement les développeurs à participer à la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient utiliser les outils d'IA agentiques

Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.

Les développeurs représentent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel de maintenir à la fois les compétences en matière de sécurité et de pensée critique pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Il est toutefois essentiel de travailler en binôme, dans un environnement de programmation où l'expert humain est en mesure d'évaluer et de modéliser les menaces, et, en fin de compte, d'approuver le travail produit par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences et accroître leur productivité grâce à l'IA ici.

Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche

Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y engager avant d'avoir évalué le terrain.

Le document Narajala et Habler détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique permettent de résoudre des problèmes et de prendre des décisions de manière autonome afin d'atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
  • Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de réviser efficacement les processus de sécurité et d'examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.

Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Nous vous invitons à le découvrir et à nous contacter pour renforcer votre équipe de développement dès aujourd'hui.

Afficher la ressource
Afficher la ressource

Veuillez remplir le formulaire ci-dessous pour télécharger le rapport.

Nous souhaiterions obtenir votre autorisation pour vous envoyer des informations sur nos produits et/ou sur des sujets liés au codage sécurisé. Nous traiterons toujours vos données personnelles avec le plus grand soin et ne les transmettrons jamais à d'autres entreprises à des fins de marketing.

Soumettre
icône de réussite scw
icône d'erreur scw
Pour soumettre le formulaire, veuillez activer les cookies « Analytics ». N'hésitez pas à les désactiver à nouveau une fois que vous aurez terminé.

Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours souhaité créer leurs propres logiciels mais qui ne disposent pas de l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promette d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui rend possible ce que l'on a surnommé les « attaques par empoisonnement des outils ». », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.

Dans l'état actuel des choses, le résultat de ces outils n' est pas suffisamment sécurisé pour les qualifier de prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : «À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »

Les systèmes d'IA agentique et le profil de risque du Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration et une interaction plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de commencer à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.

Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.

InvariantLabs souligne qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions inappropriées non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est avantageux pour les acteurs de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
  • Créez un décalage entre ce que l'utilisateur perçoit et ce que fait le modèle d'IA en dissimulant les arguments et les résultats des outils derrière des représentations d'interface utilisateur d'une simplicité trompeuse.

Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous rencontrerons certainement de plus en plus fréquemment à mesure que l'utilisation des MCP continuera inévitablement de croître. Il sera nécessaire de prendre des mesures minutieuses pour détecter et atténuer cette menace à mesure que les programmes de sécurité de l'entreprise évolueront, et il est essentiel de préparer correctement les développeurs à participer à la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient utiliser les outils d'IA agentiques

Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.

Les développeurs représentent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel de maintenir à la fois les compétences en matière de sécurité et de pensée critique pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Il est toutefois essentiel de travailler en binôme, dans un environnement de programmation où l'expert humain est en mesure d'évaluer et de modéliser les menaces, et, en fin de compte, d'approuver le travail produit par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences et accroître leur productivité grâce à l'IA ici.

Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche

Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y engager avant d'avoir évalué le terrain.

Le document Narajala et Habler détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique permettent de résoudre des problèmes et de prendre des décisions de manière autonome afin d'atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
  • Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de réviser efficacement les processus de sécurité et d'examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.

Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Nous vous invitons à le découvrir et à nous contacter pour renforcer votre équipe de développement dès aujourd'hui.

Afficher le webinaire
Veuillez commencer
En savoir plus

Veuillez cliquer sur le lien ci-dessous et télécharger le PDF de cette ressource.

Secure Code Warrior là pour aider votre organisation à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité informatique ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Veuillez consulter le rapportVeuillez réserver une démonstration.
Télécharger le PDF
Afficher la ressource
Partager sur :
marques LinkedInSocialLogo x
Souhaitez-vous obtenir davantage d'informations ?

Partager sur :
marques LinkedInSocialLogo x
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager sur :
marques LinkedInSocialLogo x

Le développement assisté par l'IA (ou, dans sa version la plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours souhaité créer leurs propres logiciels mais qui ne disposent pas de l'expérience requise en tirent également parti pour créer des actifs qui, auparavant, auraient été prohibitifs en termes de coûts et de temps. Bien que cette technologie promette d'inaugurer une nouvelle ère d'innovation, elle introduit toute une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité critique dans le Model Context Protocol (MCP), un framework de type API permettant à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données, qui rend possible ce que l'on a surnommé les « attaques par empoisonnement des outils ». », une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences nécessaires pour gérer ce problème de sécurité émergent sont primordiales.

Dans l'état actuel des choses, le résultat de ces outils n' est pas suffisamment sécurisé pour les qualifier de prêts à être utilisés en entreprise, comme indiqué dans un article de recherche récent de Vineeth Sai Narajala et Idan Habler, chercheurs en sécurité chez AWS et Intuit : «À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel via des outils tels que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »

Les systèmes d'IA agentique et le profil de risque du Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration et une interaction plus fluide entre les agents IA LLM (Large Language Model) et les autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de commencer à définir les directives concernant la façon dont vous souhaitez qu'il fonctionne et dans quel but.

Les implications de la technologie MCP en matière de sécurité sont en fait essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la technologie utilisée par les professionnels de la sécurité est trop alléchante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par MCP représente une perspective intéressante pour la sécurité des entreprises, étant donné qu'une visibilité et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces possibles, élargissant considérablement la surface d'attaque des entreprises à moins d'être gérée avec soin. Comme l'a noté Laboratoires invariants, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilité qui peut entraîner l'exfiltration de données sensibles et des actions non autorisées de la part de modèles d'IA. À partir de là, les implications en matière de sécurité s'estompent très rapidement.

InvariantLabs souligne qu'une attaque par empoisonnement d'outils est rendue possible lorsque des instructions malveillantes sont intégrées dans les descriptions des outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions inappropriées non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui est avantageux pour les acteurs de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • Diriger les modèles d'IA pour accéder à des fichiers sensibles (tels que des clés SSH, des fichiers de configuration, des bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement cachées à l'utilisateur non averti ;
  • Créez un décalage entre ce que l'utilisateur perçoit et ce que fait le modèle d'IA en dissimulant les arguments et les résultats des outils derrière des représentations d'interface utilisateur d'une simplicité trompeuse.

Il s'agit d'une catégorie de vulnérabilité émergente préoccupante, que nous rencontrerons certainement de plus en plus fréquemment à mesure que l'utilisation des MCP continuera inévitablement de croître. Il sera nécessaire de prendre des mesures minutieuses pour détecter et atténuer cette menace à mesure que les programmes de sécurité de l'entreprise évolueront, et il est essentiel de préparer correctement les développeurs à participer à la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient utiliser les outils d'IA agentiques

Les outils de codage Agentic AI sont considérés comme la prochaine évolution du codage assisté par l'IA, car ils renforcent leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et les intentions les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que les injections rapides, les hallucinations ou la manipulation du comportement de la part des attaquants.

Les développeurs représentent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel de maintenir à la fois les compétences en matière de sécurité et de pensée critique pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs expérimentés en matière de sécurité qui appliquent une pensée contextuelle et critique qui peuvent tirer parti en toute sécurité des gains de productivité offerts par cette technologie. Il est toutefois essentiel de travailler en binôme, dans un environnement de programmation où l'expert humain est en mesure d'évaluer et de modéliser les menaces, et, en fin de compte, d'approuver le travail produit par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences et accroître leur productivité grâce à l'IA ici.

Techniques d'atténuation pratiques et lectures complémentaires dans notre dernier article de recherche

Les outils de codage basés sur l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas nous y engager avant d'avoir évalué le terrain.

Le document Narajala et Habler détaille les stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il est centré sur les principes de défense en profondeur et de confiance zéro, ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à un environnement d'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique permettent de résoudre des problèmes et de prendre des décisions de manière autonome afin d'atteindre les objectifs qui leur ont été fixés, de la même manière qu'un humain aborderait les tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine qualifiée de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels accès ils ont, quelles données ils récupèrent ou sont susceptibles d'exposer, et où elles peuvent être partagées.
  • Détection et atténuation générales des menaces: Comme c'est le cas pour la plupart des processus d'IA, pour détecter les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit maîtriser lui-même la tâche. Les développeurs doivent bénéficier d'une mise à niveau et d'une vérification continues de ces compétences afin de réviser efficacement les processus de sécurité et d'examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Harmonisation avec la politique de sécurité et la gouvernance de l'IA: Les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'y accéder. Le développeur et l'outil doivent tous deux être soumis à une analyse comparative de sécurité avant que les commits ne soient approuvés.

Nous avons récemment publié un document de recherche sur l'émergence du codage par vibration et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels alimentés par l'IA. Nous vous invitons à le découvrir et à nous contacter pour renforcer votre équipe de développement dès aujourd'hui.

Table des matières

Télécharger le PDF
Afficher la ressource
Souhaitez-vous obtenir davantage d'informations ?

Directeur général, président et cofondateur

En savoir plus

Secure Code Warrior là pour aider votre organisation à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité informatique ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Veuillez réserver une démonstration.Télécharger
Partager sur :
marques LinkedInSocialLogo x
Centre de ressources

Ressources pour vous aider à démarrer

Plus de publications
Centre de ressources

Ressources pour vous aider à démarrer

Plus de publications