
Lorsque les outils efficaces deviennent inefficaces : comment éviter la dépendance aux outils d'IA et empêcher l'IA de jouer un double rôle.
Le développement assisté par l'IA (ou sa version plus tendance, le « codage vibrant ») a un impact considérable et révolutionnaire sur la génération de code. Les développeurs établis adoptent massivement ces outils, et ceux qui souhaitaient créer des logiciels mais ne disposaient pas de l'expérience nécessaire les utilisent pour construire des actifs qui, auparavant, auraient nécessité beaucoup de temps et d'argent. Cette technologie devrait ouvrir une nouvelle ère d'innovation, mais elle engendre également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent de mitiger.
Récemment, InvariantLabs a identifié une vulnérabilité significative dans le protocole MCP (Model Context Protocol), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cette vulnérabilité ouvre la voie à une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par instrumentation d'outils » (Tool Instrumentation Attacks).Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer de la sensibilisation et des compétences nécessaires pour gérer ces nouveaux problèmes de sécurité.
Actuellement, les résultats de ces outils sont les suivants. Comme mentionné précédemment, ils sont suffisamment sûrs pour être classés parmi les produits de niveau entreprise. Selon un récent article de recherche rédigé par les chercheurs en sécurité AWS et Intuit, Vinish Sainarajala et Idan Habler: «À mesure que l'autonomie des systèmes d'IA s'améliore et qu'ils commencent à interagir directement avec des outils externes et des données en temps réel grâce à des fonctionnalités telles que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Profil de risque du système d'agent IA et du protocole de contexte du modèle
Le protocole Model Context est un logiciel pratique développé par Anthropos. Il permet une intégration plus fluide et transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre la voie à des interactions entre des solutions IA de pointe et des applications propriétaires ou des outils SaaS critiques pour l'entreprise, tels que GitHub. Il suffit de commencer par créer un serveur MCP et de définir des directives sur le fonctionnement et l'objectif souhaités.
En réalité, l'impact de la technologie MCP sur la sécurité est largement positif. La promesse d'une intégration plus directe entre la pile technologique utilisée par les experts en sécurité et le LLM est indéniablement attrayante et démontre qu'il est possible d'automatiser les tâches de sécurité avec un niveau de précision auparavant impossible, sans avoir à écrire et déployer du code personnalisé pour chaque tâche.Compte tenu du fait qu'une visibilité et une connectivité étendues entre les données, les outils et les ressources humaines constituent la base d'une défense et d'une planification efficaces en matière de sécurité, l'interopérabilité améliorée des LLM offerte par le MCP représente une perspective intéressante pour la sécurité des entreprises.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces qui, s'ils ne sont pas gérés avec prudence, peuvent considérablement élargir la portée des attaques contre l'entreprise. Comme mentionné précédemment, les attaques par outil poison d'Invariant Labs constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données sensibles et des activités non autorisées des modèles d'IA, ce qui peut rapidement avoir des conséquences graves sur la sécurité.
Selon InvariantLabs, une attaque par intoxication des outils peut se produire lorsque des commandes malveillantes sont incluses dans la description d'un outil MCP, qui est entièrement lisible et exécutable par le modèle d'IA, mais invisible pour l'utilisateur. Cela permet de tromper l'outil afin qu'il effectue des tâches incorrectes sans que l'utilisateur ne s'en aperçoive. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils doivent être fiables. C'est une situation qui présente un intérêt pour les acteurs malveillants.
Ces derniers soulignent les conséquences suivantes pouvant résulter de l'utilisation d'outils endommagés.
- Autoriser l'accès aux fichiers sensibles (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) aux modèles d'IA.
- Dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'IA est programmée pour extraire et transmettre ces données.
- Derrière l'interface utilisateur incroyablement simple pour l'acquisition et la sortie des outils, il est possible de créer une séparation entre ce que voit l'utilisateur et ce que fait le modèle d'IA.
Il s'agit d'une catégorie de vulnérabilité préoccupante, qui deviendra certainement plus fréquente à mesure que l'utilisation des MCP continuera d'augmenter inévitablement. À mesure que les programmes de sécurité des entreprises évoluent, il sera essentiel de prendre des mesures prudentes pour détecter et atténuer ces menaces, et de se préparer de manière adéquate afin que les développeurs puissent participer à leur résolution.
Pourquoi seuls les développeurs disposant de compétences en sécurité informatique devraient utiliser les outils d'agent IA
Les outils de codage IA agentique sont considérés comme la prochaine génération de codage assisté par IA et offrent des fonctionnalités qui améliorent l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité améliorée à comprendre le contexte et l'intention, mais ils ne sont pas exempts de menaces telles que l'injection immédiate, les hallucinations ou la manipulation du comportement par des attaquants.
Les développeurs constituent une ligne de défense permettant de distinguer les bons commits de code des mauvais. Il sera essentiel pour l'avenir du développement de logiciels de sécurité de maintenir à la fois une sécurité et une pensée critique rigoureuses.
Les résultats de l'IA ne doivent en aucun cas être mis en œuvre avec une confiance aveugle. Les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique adapté à chaque situation, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, il est nécessaire de disposer d'un environnement de programmation en binôme dans lequel des experts humains peuvent évaluer les tâches générées par l'outil, modéliser les menaces et, enfin, donner leur approbation.
Découvrez comment les développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.
Veuillez consulter les techniques d'atténuation pratiques et les derniers articles de recherche pour plus d'informations.
Les outils de codage IA et la technologie MCP devraient jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de bien se renseigner avant de se lancer.
Nous détaillons une stratégie d'atténuation complète pour mettre en œuvre le MCP au niveau de l'entreprise et gérer les risques de manière continue. En fin de compte, cette nouvelle stratégie vise explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise, en se concentrant sur les principes de défense en profondeur et de confiance zéro. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.
- Certification et contrôle d'accès: les outils d'IA agentique ont la capacité de prendre des décisions autonomes pour résoudre des problèmes et atteindre des objectifs planifiés, à l'instar de la manière dont les humains abordent les tâches d'ingénierie. Cependant, comme nous l'avons établi jusqu'à présent, la supervision d'une personne expérimentée dans ces processus ne doit pas être négligée. Les développeurs qui utilisent ces outils dans leur flux de travail doivent comprendre précisément quels sont leurs droits d'accès, quelles données ils peuvent rechercher ou exposer, et où celles-ci peuvent être partagées.
- Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent être compétents pour détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et être certifiés sur ces technologies afin de pouvoir examiner efficacement les processus de sécurité. Ils peuvent également examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
- Coordination avec les politiques de sécurité et la gouvernance de l'IA: il est nécessaire d'informer les développeurs des outils approuvés, de leur permettre d'acquérir les compétences nécessaires et de leur donner accès à ces outils. Pour garantir la fiabilité des commits, les développeurs et les outils doivent être soumis à des tests de sécurité.
Notre récente publication scientifique examine l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que les mesures que les entreprises doivent prendre pour améliorer la prochaine génération d'ingénieurs logiciels basés sur l'IA. Nous vous invitons à la consulter et à nous contacter dès maintenant pour renforcer votre équipe de développement.
Directeur général, président et cofondateur

Secure Code Warrior est là pour aider les organisations à protéger leur code tout au long du cycle de vie du développement logiciel et à instaurer une culture qui accorde la priorité à la cybersécurité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou tout autre professionnel de la sécurité, nous pouvons aider votre organisation à réduire les risques liés au code non sécurisé.
Veuillez prendre rendez-vous pour une démonstration.Directeur général, président et cofondateur
Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.


Le développement assisté par l'IA (ou sa version plus tendance, le « codage vibrant ») a un impact considérable et révolutionnaire sur la génération de code. Les développeurs établis adoptent massivement ces outils, et ceux qui souhaitaient créer des logiciels mais ne disposaient pas de l'expérience nécessaire les utilisent pour construire des actifs qui, auparavant, auraient nécessité beaucoup de temps et d'argent. Cette technologie devrait ouvrir une nouvelle ère d'innovation, mais elle engendre également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent de mitiger.
Récemment, InvariantLabs a identifié une vulnérabilité significative dans le protocole MCP (Model Context Protocol), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cette vulnérabilité ouvre la voie à une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par instrumentation d'outils » (Tool Instrumentation Attacks).Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer de la sensibilisation et des compétences nécessaires pour gérer ces nouveaux problèmes de sécurité.
Actuellement, les résultats de ces outils sont les suivants. Comme mentionné précédemment, ils sont suffisamment sûrs pour être classés parmi les produits de niveau entreprise. Selon un récent article de recherche rédigé par les chercheurs en sécurité AWS et Intuit, Vinish Sainarajala et Idan Habler: «À mesure que l'autonomie des systèmes d'IA s'améliore et qu'ils commencent à interagir directement avec des outils externes et des données en temps réel grâce à des fonctionnalités telles que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Profil de risque du système d'agent IA et du protocole de contexte du modèle
Le protocole Model Context est un logiciel pratique développé par Anthropos. Il permet une intégration plus fluide et transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre la voie à des interactions entre des solutions IA de pointe et des applications propriétaires ou des outils SaaS critiques pour l'entreprise, tels que GitHub. Il suffit de commencer par créer un serveur MCP et de définir des directives sur le fonctionnement et l'objectif souhaités.
En réalité, l'impact de la technologie MCP sur la sécurité est largement positif. La promesse d'une intégration plus directe entre la pile technologique utilisée par les experts en sécurité et le LLM est indéniablement attrayante et démontre qu'il est possible d'automatiser les tâches de sécurité avec un niveau de précision auparavant impossible, sans avoir à écrire et déployer du code personnalisé pour chaque tâche.Compte tenu du fait qu'une visibilité et une connectivité étendues entre les données, les outils et les ressources humaines constituent la base d'une défense et d'une planification efficaces en matière de sécurité, l'interopérabilité améliorée des LLM offerte par le MCP représente une perspective intéressante pour la sécurité des entreprises.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces qui, s'ils ne sont pas gérés avec prudence, peuvent considérablement élargir la portée des attaques contre l'entreprise. Comme mentionné précédemment, les attaques par outil poison d'Invariant Labs constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données sensibles et des activités non autorisées des modèles d'IA, ce qui peut rapidement avoir des conséquences graves sur la sécurité.
Selon InvariantLabs, une attaque par intoxication des outils peut se produire lorsque des commandes malveillantes sont incluses dans la description d'un outil MCP, qui est entièrement lisible et exécutable par le modèle d'IA, mais invisible pour l'utilisateur. Cela permet de tromper l'outil afin qu'il effectue des tâches incorrectes sans que l'utilisateur ne s'en aperçoive. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils doivent être fiables. C'est une situation qui présente un intérêt pour les acteurs malveillants.
Ces derniers soulignent les conséquences suivantes pouvant résulter de l'utilisation d'outils endommagés.
- Autoriser l'accès aux fichiers sensibles (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) aux modèles d'IA.
- Dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'IA est programmée pour extraire et transmettre ces données.
- Derrière l'interface utilisateur incroyablement simple pour l'acquisition et la sortie des outils, il est possible de créer une séparation entre ce que voit l'utilisateur et ce que fait le modèle d'IA.
Il s'agit d'une catégorie de vulnérabilité préoccupante, qui deviendra certainement plus fréquente à mesure que l'utilisation des MCP continuera d'augmenter inévitablement. À mesure que les programmes de sécurité des entreprises évoluent, il sera essentiel de prendre des mesures prudentes pour détecter et atténuer ces menaces, et de se préparer de manière adéquate afin que les développeurs puissent participer à leur résolution.
Pourquoi seuls les développeurs disposant de compétences en sécurité informatique devraient utiliser les outils d'agent IA
Les outils de codage IA agentique sont considérés comme la prochaine génération de codage assisté par IA et offrent des fonctionnalités qui améliorent l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité améliorée à comprendre le contexte et l'intention, mais ils ne sont pas exempts de menaces telles que l'injection immédiate, les hallucinations ou la manipulation du comportement par des attaquants.
Les développeurs constituent une ligne de défense permettant de distinguer les bons commits de code des mauvais. Il sera essentiel pour l'avenir du développement de logiciels de sécurité de maintenir à la fois une sécurité et une pensée critique rigoureuses.
Les résultats de l'IA ne doivent en aucun cas être mis en œuvre avec une confiance aveugle. Les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique adapté à chaque situation, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, il est nécessaire de disposer d'un environnement de programmation en binôme dans lequel des experts humains peuvent évaluer les tâches générées par l'outil, modéliser les menaces et, enfin, donner leur approbation.
Découvrez comment les développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.
Veuillez consulter les techniques d'atténuation pratiques et les derniers articles de recherche pour plus d'informations.
Les outils de codage IA et la technologie MCP devraient jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de bien se renseigner avant de se lancer.
Nous détaillons une stratégie d'atténuation complète pour mettre en œuvre le MCP au niveau de l'entreprise et gérer les risques de manière continue. En fin de compte, cette nouvelle stratégie vise explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise, en se concentrant sur les principes de défense en profondeur et de confiance zéro. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.
- Certification et contrôle d'accès: les outils d'IA agentique ont la capacité de prendre des décisions autonomes pour résoudre des problèmes et atteindre des objectifs planifiés, à l'instar de la manière dont les humains abordent les tâches d'ingénierie. Cependant, comme nous l'avons établi jusqu'à présent, la supervision d'une personne expérimentée dans ces processus ne doit pas être négligée. Les développeurs qui utilisent ces outils dans leur flux de travail doivent comprendre précisément quels sont leurs droits d'accès, quelles données ils peuvent rechercher ou exposer, et où celles-ci peuvent être partagées.
- Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent être compétents pour détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et être certifiés sur ces technologies afin de pouvoir examiner efficacement les processus de sécurité. Ils peuvent également examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
- Coordination avec les politiques de sécurité et la gouvernance de l'IA: il est nécessaire d'informer les développeurs des outils approuvés, de leur permettre d'acquérir les compétences nécessaires et de leur donner accès à ces outils. Pour garantir la fiabilité des commits, les développeurs et les outils doivent être soumis à des tests de sécurité.
Notre récente publication scientifique examine l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que les mesures que les entreprises doivent prendre pour améliorer la prochaine génération d'ingénieurs logiciels basés sur l'IA. Nous vous invitons à la consulter et à nous contacter dès maintenant pour renforcer votre équipe de développement.

Le développement assisté par l'IA (ou sa version plus tendance, le « codage vibrant ») a un impact considérable et révolutionnaire sur la génération de code. Les développeurs établis adoptent massivement ces outils, et ceux qui souhaitaient créer des logiciels mais ne disposaient pas de l'expérience nécessaire les utilisent pour construire des actifs qui, auparavant, auraient nécessité beaucoup de temps et d'argent. Cette technologie devrait ouvrir une nouvelle ère d'innovation, mais elle engendre également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent de mitiger.
Récemment, InvariantLabs a identifié une vulnérabilité significative dans le protocole MCP (Model Context Protocol), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cette vulnérabilité ouvre la voie à une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par instrumentation d'outils » (Tool Instrumentation Attacks).Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer de la sensibilisation et des compétences nécessaires pour gérer ces nouveaux problèmes de sécurité.
Actuellement, les résultats de ces outils sont les suivants. Comme mentionné précédemment, ils sont suffisamment sûrs pour être classés parmi les produits de niveau entreprise. Selon un récent article de recherche rédigé par les chercheurs en sécurité AWS et Intuit, Vinish Sainarajala et Idan Habler: «À mesure que l'autonomie des systèmes d'IA s'améliore et qu'ils commencent à interagir directement avec des outils externes et des données en temps réel grâce à des fonctionnalités telles que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Profil de risque du système d'agent IA et du protocole de contexte du modèle
Le protocole Model Context est un logiciel pratique développé par Anthropos. Il permet une intégration plus fluide et transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre la voie à des interactions entre des solutions IA de pointe et des applications propriétaires ou des outils SaaS critiques pour l'entreprise, tels que GitHub. Il suffit de commencer par créer un serveur MCP et de définir des directives sur le fonctionnement et l'objectif souhaités.
En réalité, l'impact de la technologie MCP sur la sécurité est largement positif. La promesse d'une intégration plus directe entre la pile technologique utilisée par les experts en sécurité et le LLM est indéniablement attrayante et démontre qu'il est possible d'automatiser les tâches de sécurité avec un niveau de précision auparavant impossible, sans avoir à écrire et déployer du code personnalisé pour chaque tâche.Compte tenu du fait qu'une visibilité et une connectivité étendues entre les données, les outils et les ressources humaines constituent la base d'une défense et d'une planification efficaces en matière de sécurité, l'interopérabilité améliorée des LLM offerte par le MCP représente une perspective intéressante pour la sécurité des entreprises.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces qui, s'ils ne sont pas gérés avec prudence, peuvent considérablement élargir la portée des attaques contre l'entreprise. Comme mentionné précédemment, les attaques par outil poison d'Invariant Labs constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données sensibles et des activités non autorisées des modèles d'IA, ce qui peut rapidement avoir des conséquences graves sur la sécurité.
Selon InvariantLabs, une attaque par intoxication des outils peut se produire lorsque des commandes malveillantes sont incluses dans la description d'un outil MCP, qui est entièrement lisible et exécutable par le modèle d'IA, mais invisible pour l'utilisateur. Cela permet de tromper l'outil afin qu'il effectue des tâches incorrectes sans que l'utilisateur ne s'en aperçoive. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils doivent être fiables. C'est une situation qui présente un intérêt pour les acteurs malveillants.
Ces derniers soulignent les conséquences suivantes pouvant résulter de l'utilisation d'outils endommagés.
- Autoriser l'accès aux fichiers sensibles (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) aux modèles d'IA.
- Dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'IA est programmée pour extraire et transmettre ces données.
- Derrière l'interface utilisateur incroyablement simple pour l'acquisition et la sortie des outils, il est possible de créer une séparation entre ce que voit l'utilisateur et ce que fait le modèle d'IA.
Il s'agit d'une catégorie de vulnérabilité préoccupante, qui deviendra certainement plus fréquente à mesure que l'utilisation des MCP continuera d'augmenter inévitablement. À mesure que les programmes de sécurité des entreprises évoluent, il sera essentiel de prendre des mesures prudentes pour détecter et atténuer ces menaces, et de se préparer de manière adéquate afin que les développeurs puissent participer à leur résolution.
Pourquoi seuls les développeurs disposant de compétences en sécurité informatique devraient utiliser les outils d'agent IA
Les outils de codage IA agentique sont considérés comme la prochaine génération de codage assisté par IA et offrent des fonctionnalités qui améliorent l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité améliorée à comprendre le contexte et l'intention, mais ils ne sont pas exempts de menaces telles que l'injection immédiate, les hallucinations ou la manipulation du comportement par des attaquants.
Les développeurs constituent une ligne de défense permettant de distinguer les bons commits de code des mauvais. Il sera essentiel pour l'avenir du développement de logiciels de sécurité de maintenir à la fois une sécurité et une pensée critique rigoureuses.
Les résultats de l'IA ne doivent en aucun cas être mis en œuvre avec une confiance aveugle. Les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique adapté à chaque situation, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, il est nécessaire de disposer d'un environnement de programmation en binôme dans lequel des experts humains peuvent évaluer les tâches générées par l'outil, modéliser les menaces et, enfin, donner leur approbation.
Découvrez comment les développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.
Veuillez consulter les techniques d'atténuation pratiques et les derniers articles de recherche pour plus d'informations.
Les outils de codage IA et la technologie MCP devraient jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de bien se renseigner avant de se lancer.
Nous détaillons une stratégie d'atténuation complète pour mettre en œuvre le MCP au niveau de l'entreprise et gérer les risques de manière continue. En fin de compte, cette nouvelle stratégie vise explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise, en se concentrant sur les principes de défense en profondeur et de confiance zéro. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.
- Certification et contrôle d'accès: les outils d'IA agentique ont la capacité de prendre des décisions autonomes pour résoudre des problèmes et atteindre des objectifs planifiés, à l'instar de la manière dont les humains abordent les tâches d'ingénierie. Cependant, comme nous l'avons établi jusqu'à présent, la supervision d'une personne expérimentée dans ces processus ne doit pas être négligée. Les développeurs qui utilisent ces outils dans leur flux de travail doivent comprendre précisément quels sont leurs droits d'accès, quelles données ils peuvent rechercher ou exposer, et où celles-ci peuvent être partagées.
- Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent être compétents pour détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et être certifiés sur ces technologies afin de pouvoir examiner efficacement les processus de sécurité. Ils peuvent également examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
- Coordination avec les politiques de sécurité et la gouvernance de l'IA: il est nécessaire d'informer les développeurs des outils approuvés, de leur permettre d'acquérir les compétences nécessaires et de leur donner accès à ces outils. Pour garantir la fiabilité des commits, les développeurs et les outils doivent être soumis à des tests de sécurité.
Notre récente publication scientifique examine l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que les mesures que les entreprises doivent prendre pour améliorer la prochaine génération d'ingénieurs logiciels basés sur l'IA. Nous vous invitons à la consulter et à nous contacter dès maintenant pour renforcer votre équipe de développement.

Veuillez cliquer sur le lien ci-dessous pour télécharger le PDF de cette ressource.
Secure Code Warrior est là pour aider les organisations à protéger leur code tout au long du cycle de vie du développement logiciel et à instaurer une culture qui accorde la priorité à la cybersécurité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou tout autre professionnel de la sécurité, nous pouvons aider votre organisation à réduire les risques liés au code non sécurisé.
Consulter le rapportVeuillez prendre rendez-vous pour une démonstration.Directeur général, président et cofondateur
Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.
Le développement assisté par l'IA (ou sa version plus tendance, le « codage vibrant ») a un impact considérable et révolutionnaire sur la génération de code. Les développeurs établis adoptent massivement ces outils, et ceux qui souhaitaient créer des logiciels mais ne disposaient pas de l'expérience nécessaire les utilisent pour construire des actifs qui, auparavant, auraient nécessité beaucoup de temps et d'argent. Cette technologie devrait ouvrir une nouvelle ère d'innovation, mais elle engendre également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent de mitiger.
Récemment, InvariantLabs a identifié une vulnérabilité significative dans le protocole MCP (Model Context Protocol), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cette vulnérabilité ouvre la voie à une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par instrumentation d'outils » (Tool Instrumentation Attacks).Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer de la sensibilisation et des compétences nécessaires pour gérer ces nouveaux problèmes de sécurité.
Actuellement, les résultats de ces outils sont les suivants. Comme mentionné précédemment, ils sont suffisamment sûrs pour être classés parmi les produits de niveau entreprise. Selon un récent article de recherche rédigé par les chercheurs en sécurité AWS et Intuit, Vinish Sainarajala et Idan Habler: «À mesure que l'autonomie des systèmes d'IA s'améliore et qu'ils commencent à interagir directement avec des outils externes et des données en temps réel grâce à des fonctionnalités telles que le MCP, il devient absolument essentiel de garantir la sécurité de ces interactions. »
Profil de risque du système d'agent IA et du protocole de contexte du modèle
Le protocole Model Context est un logiciel pratique développé par Anthropos. Il permet une intégration plus fluide et transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre la voie à des interactions entre des solutions IA de pointe et des applications propriétaires ou des outils SaaS critiques pour l'entreprise, tels que GitHub. Il suffit de commencer par créer un serveur MCP et de définir des directives sur le fonctionnement et l'objectif souhaités.
En réalité, l'impact de la technologie MCP sur la sécurité est largement positif. La promesse d'une intégration plus directe entre la pile technologique utilisée par les experts en sécurité et le LLM est indéniablement attrayante et démontre qu'il est possible d'automatiser les tâches de sécurité avec un niveau de précision auparavant impossible, sans avoir à écrire et déployer du code personnalisé pour chaque tâche.Compte tenu du fait qu'une visibilité et une connectivité étendues entre les données, les outils et les ressources humaines constituent la base d'une défense et d'une planification efficaces en matière de sécurité, l'interopérabilité améliorée des LLM offerte par le MCP représente une perspective intéressante pour la sécurité des entreprises.
Cependant, l'utilisation du MCP peut introduire d'autres vecteurs de menaces qui, s'ils ne sont pas gérés avec prudence, peuvent considérablement élargir la portée des attaques contre l'entreprise. Comme mentionné précédemment, les attaques par outil poison d'Invariant Labs constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données sensibles et des activités non autorisées des modèles d'IA, ce qui peut rapidement avoir des conséquences graves sur la sécurité.
Selon InvariantLabs, une attaque par intoxication des outils peut se produire lorsque des commandes malveillantes sont incluses dans la description d'un outil MCP, qui est entièrement lisible et exécutable par le modèle d'IA, mais invisible pour l'utilisateur. Cela permet de tromper l'outil afin qu'il effectue des tâches incorrectes sans que l'utilisateur ne s'en aperçoive. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils doivent être fiables. C'est une situation qui présente un intérêt pour les acteurs malveillants.
Ces derniers soulignent les conséquences suivantes pouvant résulter de l'utilisation d'outils endommagés.
- Autoriser l'accès aux fichiers sensibles (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) aux modèles d'IA.
- Dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'IA est programmée pour extraire et transmettre ces données.
- Derrière l'interface utilisateur incroyablement simple pour l'acquisition et la sortie des outils, il est possible de créer une séparation entre ce que voit l'utilisateur et ce que fait le modèle d'IA.
Il s'agit d'une catégorie de vulnérabilité préoccupante, qui deviendra certainement plus fréquente à mesure que l'utilisation des MCP continuera d'augmenter inévitablement. À mesure que les programmes de sécurité des entreprises évoluent, il sera essentiel de prendre des mesures prudentes pour détecter et atténuer ces menaces, et de se préparer de manière adéquate afin que les développeurs puissent participer à leur résolution.
Pourquoi seuls les développeurs disposant de compétences en sécurité informatique devraient utiliser les outils d'agent IA
Les outils de codage IA agentique sont considérés comme la prochaine génération de codage assisté par IA et offrent des fonctionnalités qui améliorent l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité améliorée à comprendre le contexte et l'intention, mais ils ne sont pas exempts de menaces telles que l'injection immédiate, les hallucinations ou la manipulation du comportement par des attaquants.
Les développeurs constituent une ligne de défense permettant de distinguer les bons commits de code des mauvais. Il sera essentiel pour l'avenir du développement de logiciels de sécurité de maintenir à la fois une sécurité et une pensée critique rigoureuses.
Les résultats de l'IA ne doivent en aucun cas être mis en œuvre avec une confiance aveugle. Les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique adapté à chaque situation, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, il est nécessaire de disposer d'un environnement de programmation en binôme dans lequel des experts humains peuvent évaluer les tâches générées par l'outil, modéliser les menaces et, enfin, donner leur approbation.
Découvrez comment les développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.
Veuillez consulter les techniques d'atténuation pratiques et les derniers articles de recherche pour plus d'informations.
Les outils de codage IA et la technologie MCP devraient jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de bien se renseigner avant de se lancer.
Nous détaillons une stratégie d'atténuation complète pour mettre en œuvre le MCP au niveau de l'entreprise et gérer les risques de manière continue. En fin de compte, cette nouvelle stratégie vise explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise, en se concentrant sur les principes de défense en profondeur et de confiance zéro. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.
- Certification et contrôle d'accès: les outils d'IA agentique ont la capacité de prendre des décisions autonomes pour résoudre des problèmes et atteindre des objectifs planifiés, à l'instar de la manière dont les humains abordent les tâches d'ingénierie. Cependant, comme nous l'avons établi jusqu'à présent, la supervision d'une personne expérimentée dans ces processus ne doit pas être négligée. Les développeurs qui utilisent ces outils dans leur flux de travail doivent comprendre précisément quels sont leurs droits d'accès, quelles données ils peuvent rechercher ou exposer, et où celles-ci peuvent être partagées.
- Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent être compétents pour détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et être certifiés sur ces technologies afin de pouvoir examiner efficacement les processus de sécurité. Ils peuvent également examiner le code généré par l'IA avec précision et autorité en matière de sécurité.
- Coordination avec les politiques de sécurité et la gouvernance de l'IA: il est nécessaire d'informer les développeurs des outils approuvés, de leur permettre d'acquérir les compétences nécessaires et de leur donner accès à ces outils. Pour garantir la fiabilité des commits, les développeurs et les outils doivent être soumis à des tests de sécurité.
Notre récente publication scientifique examine l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que les mesures que les entreprises doivent prendre pour améliorer la prochaine génération d'ingénieurs logiciels basés sur l'IA. Nous vous invitons à la consulter et à nous contacter dès maintenant pour renforcer votre équipe de développement.
Table des matières
Directeur général, président et cofondateur

Secure Code Warrior est là pour aider les organisations à protéger leur code tout au long du cycle de vie du développement logiciel et à instaurer une culture qui accorde la priorité à la cybersécurité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou tout autre professionnel de la sécurité, nous pouvons aider votre organisation à réduire les risques liés au code non sécurisé.
Veuillez prendre rendez-vous pour une démonstration.TéléchargerRessources utiles pour débuter
Thèmes et contenus de la formation sur les codes de sécurité
Le contenu le plus pertinent du secteur évolue constamment pour s'adapter à l'environnement de développement logiciel en constante évolution, en tenant compte du rôle des clients. Des architectes et ingénieurs aux chefs de produit et responsables de l'assurance qualité, tous les rôles sont couverts, de l'IA à l'injection XQuery. Veuillez consulter le catalogue de contenu pour découvrir ce qui est proposé par thème et par rôle.
La Chambre de commerce établit la norme en matière de sécurité à grande échelle axée sur les développeurs
La Chambre de commerce néerlandaise explique comment elle a intégré le codage sécurisé dans le développement quotidien grâce à des certifications basées sur les rôles, à l'évaluation comparative du Trust Score et à une culture de responsabilité partagée en matière de sécurité.
Modélisation des menaces avec l'IA : transformer chaque développeur en modélisateur de menaces
Vous repartirez mieux équipé pour aider les développeurs à combiner les idées et les techniques de modélisation des menaces avec les outils d'IA qu'ils utilisent déjà pour renforcer la sécurité, améliorer la collaboration et créer des logiciels plus résilients dès le départ.
Ressources utiles pour débuter
Cybermon est de retour : la mission IA de défaite du boss est désormais disponible à la demande.
Cybermon 2025 Bit The Boss est désormais disponible toute l'année sur SCW. Renforcez le développement de l'IA de sécurité à grande échelle en déployant des défis de sécurité IA/LLM avancés.
Explication de la loi sur la cyber-résilience : l'importance de la conception sécurisée dans le développement de logiciels
Découvrez les exigences de la loi européenne sur la résilience des réseaux et des services (CRA), son champ d'application et comment votre équipe d'ingénieurs peut se préparer en toute sécurité grâce à la conception, aux pratiques, à la prévention des vulnérabilités et à la mise en place d'un environnement de développement.
Facteur de réussite n° 1 : des critères de réussite clairement définis et mesurables
Enabler 1 présente une série de dix articles consacrés aux facteurs de réussite, en démontrant comment le codage sécurisé peut améliorer les performances commerciales, notamment en accélérant la réduction des risques et des coûts pour la maturité des programmes à long terme.




%20(1).avif)
.avif)
