
Lorsque les outils performants deviennent inefficaces : l'empoisonnement des outils d'IA et comment éviter que votre IA ne devienne un agent double
Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.
Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.
Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »
Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.
Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.
Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.
InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.
Vous constatez les conséquences possibles suivantes d'un outil compromis :
- Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
- Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.
Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle
Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.
Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.
Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.
Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.
Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :
- Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
- Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
- Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.
Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.
Directeur général, président et cofondateur

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.
Réserver une démonstrationDirecteur général, président et cofondateur
Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.


Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.
Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.
Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »
Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.
Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.
Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.
InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.
Vous constatez les conséquences possibles suivantes d'un outil compromis :
- Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
- Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.
Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle
Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.
Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.
Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.
Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.
Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :
- Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
- Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
- Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.
Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.
Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.
Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »
Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.
Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.
Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.
InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.
Vous constatez les conséquences possibles suivantes d'un outil compromis :
- Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
- Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.
Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle
Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.
Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.
Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.
Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.
Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :
- Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
- Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
- Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.
Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.

Veuillez cliquer sur le lien ci-dessous et télécharger le PDF de cette ressource.
Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.
Consulter le rapportRéserver une démonstrationDirecteur général, président et cofondateur
Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.
Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.
Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.
Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »
Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.
Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.
Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.
InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.
Vous constatez les conséquences possibles suivantes d'un outil compromis :
- Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
- Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.
Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle
Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.
Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.
Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.
Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.
Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.
Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :
- Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
- Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
- Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.
Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.
Table des matières
Directeur général, président et cofondateur

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.
Réserver une démonstrationTéléchargerRessources pour débuter
Thèmes et contenus de la formation Securecode
Nos contenus de pointe sont constamment développés afin de s'adapter à l'évolution constante du paysage du développement logiciel, en tenant compte de votre rôle. Les thèmes abordés couvrent tous les domaines, de l'IA à l'injection XQuery, et sont proposés pour une multitude de rôles, des architectes et ingénieurs aux chefs de produit et responsables assurance qualité. Nous vous invitons à découvrir un aperçu de notre catalogue de contenus classés par thème et par rôle.
La Chambre de commerce établit la norme en matière de sécurité à grande échelle axée sur les développeurs
La Chambre de commerce néerlandaise explique comment elle a intégré le codage sécurisé dans le développement quotidien grâce à des certifications basées sur les rôles, à l'évaluation comparative du Trust Score et à une culture de responsabilité partagée en matière de sécurité.
Modélisation des menaces avec l'IA : transformer chaque développeur en modélisateur de menaces
Vous repartirez mieux équipé pour aider les développeurs à combiner les idées et les techniques de modélisation des menaces avec les outils d'IA qu'ils utilisent déjà pour renforcer la sécurité, améliorer la collaboration et créer des logiciels plus résilients dès le départ.
Ressources pour débuter
Cybermon est de retour : les missions KI « Beat the Boss » sont désormais disponibles sur demande.
Cybermon 2025 Beat the Boss est désormais disponible toute l'année dans SCW. Il utilise des exigences de sécurité IA/LLM avancées pour renforcer le développement sécurisé de l'IA à grande échelle.
Explication de la loi sur la cyber-résilience : implications pour le développement de logiciels sécurisés dès la conception
Découvrez les exigences de la loi européenne sur la cyber-résilience (CRA), à qui elle s'applique et comment les équipes de développement peuvent s'y préparer en adoptant des méthodes sécurisées, en prévenant les failles de sécurité et en renforçant les compétences des développeurs.
Facteur 1 : Critères de réussite définis et mesurables
Le catalyseur n° 1 inaugure notre série en dix parties intitulée « Les catalyseurs de la réussite » et démontre comment un codage sécurisé peut être associé à des résultats commerciaux tels que la réduction des risques et la rapidité afin d'atteindre une maturité programmatique à long terme.




%20(1).avif)
.avif)
