Icônes SCW
héros bg sans séparateur
Blog

Lorsque les outils performants deviennent inefficaces : l'empoisonnement des outils d'IA et comment éviter que votre IA ne devienne un agent double

Pieter Danhieux
Publié le 09 juillet 2025
Dernière mise à jour le 8 mars 2026

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.

Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.

Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »

Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.

Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.

Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.

InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.

Vous constatez les conséquences possibles suivantes d'un outil compromis :

  • Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle

Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.

Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.

Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.

Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.

Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :

  • Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
  • Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.

Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.

Consulter la ressource
Consulter la ressource

Souhaitez-vous en savoir davantage ?

Directeur général, président et cofondateur

En savoir plus

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.

Réserver une démonstration
Partager sur :
marques LinkedInSocialLogo x
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager sur :
marques LinkedInSocialLogo x

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.

Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.

Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »

Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.

Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.

Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.

InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.

Vous constatez les conséquences possibles suivantes d'un outil compromis :

  • Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle

Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.

Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.

Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.

Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.

Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :

  • Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
  • Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.

Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.

Consulter la ressource
Consulter la ressource

Veuillez remplir le formulaire ci-dessous pour télécharger le rapport.

Nous sollicitons votre autorisation pour vous envoyer des informations sur nos produits et/ou des sujets connexes liés au codage sécurisé. Nous traitons toujours vos données personnelles avec le plus grand soin et ne les vendons jamais à d'autres entreprises à des fins de marketing.

Soumettre
icône de réussite scw
icône d'erreur scw
Pour envoyer le formulaire, veuillez activer les cookies « Analytics ». Une fois que vous avez terminé, vous pouvez les désactiver à tout moment.

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.

Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.

Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »

Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.

Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.

Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.

InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.

Vous constatez les conséquences possibles suivantes d'un outil compromis :

  • Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle

Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.

Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.

Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.

Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.

Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :

  • Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
  • Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.

Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.

Veuillez consulter le webinaire.
Veuillez commencer
En savoir plus

Veuillez cliquer sur le lien ci-dessous et télécharger le PDF de cette ressource.

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.

Consulter le rapportRéserver une démonstration
Télécharger le PDF
Consulter la ressource
Partager sur :
marques LinkedInSocialLogo x
Souhaitez-vous en savoir davantage ?

Partager sur :
marques LinkedInSocialLogo x
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager sur :
marques LinkedInSocialLogo x

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibe coding ») a un effet transformateur considérable sur la création de code. Les développeurs confirmés utilisent ces outils en grand nombre, et ceux d'entre nous qui ont toujours souhaité développer leurs propres logiciels, mais qui ne disposaient pas de l'expérience nécessaire, les utilisent également pour développer des ressources qui auraient auparavant été coûteuses et chronophages. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle s'accompagne également d'une série de nouvelles failles de sécurité et de profils de risque que les responsables de la sécurité ont du mal à contrer.

Une récente découverte d'InvariantLabs a révélé une faille de sécurité critique dans le Model Context Protocol (MCP), un cadre similaire à une API qui permet à des outils d'IA puissants d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible ce que l'on appelle les « attaques par empoisonnement d'outils », une nouvelle catégorie de vulnérabilités qui pourrait s'avérer particulièrement préjudiciable pour les entreprises. Les grands outils d'IA tels que Windsurf et Cursor ne sont pas à l'abri, et avec des millions d'utilisateurs, la sensibilisation et la capacité à faire face à ce problème de sécurité émergent sont d'une importance capitale.

Il semble que les performances de ces outils ne soient pas suffisamment fiables pour être considérées comme adaptées à une utilisation en entreprise, comme le souligne une étude récente menée par les chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler :« Les systèmes d'IA devenant de plus en plus autonomes et interagissant directement avec des outils externes et des données en temps réel via des éléments tels que le MCP, il est absolument nécessaire de garantir la sécurité de ces interactions. »

Systèmes d'intelligence artificielle agentique et profil de risque du protocole Model Context Protocol

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une intégration plus efficace et plus fluide entre les agents IA des modèles linguistiques à grande échelle (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques pour l'entreprise, tels que GitHub, qui interagissent avec des solutions d'IA de pointe. Il suffit de créer un serveur MCP et de définir les directives relatives à son fonctionnement et à son objectif.

Les effets de la technologie MCP sur la sécurité sont en effet majoritairement positifs. La promesse d'une intégration plus simple entre les LLM et la pile technologique utilisée par les experts en sécurité est trop séduisante pour être ignorée. Elle offre la possibilité d'automatiser avec précision les tâches de sécurité à un niveau qui était auparavant impossible, du moins sans écrire et déployer du code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective intéressante pour la sécurité des entreprises, car une transparence et une connectivité étendues entre les données, les outils et le personnel sont essentielles pour une défense et une planification efficaces en matière de sécurité.

Cependant, l'utilisation du MCP peut entraîner d'autres vecteurs de menaces potentiels et élargir considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme l'a souligné Invariante Labore, les attaques par empoisonnement d'outils constituent une nouvelle catégorie de vulnérabilités qui peuvent conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA. À partir de là, les implications en matière de sécurité peuvent rapidement devenir très préoccupantes.

InvariantLabs souligne qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP, qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela incite l'outil à effectuer des actions malveillantes non autorisées à l'insu de l'utilisateur. Le problème réside dans l'hypothèse du MCP selon laquelle toutes les descriptions d'outils sont fiables. Cela constitue une opportunité pour un acteur malveillant.

Vous constatez les conséquences possibles suivantes d'un outil compromis :

  • Autoriser les modèles d'IA à accéder à des fichiers confidentiels (tels que les clés SSH, les fichiers de configuration, les bases de données, etc.) ;
  • Demander à l'IA d'extraire et de transférer ces données dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Veuillez établir une distinction entre ce que l'utilisateur perçoit et les actions du modèle d'IA en dissimulant les représentations d'interface utilisateur apparemment simples des outils et des résultats.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante, que nous verrons certainement se multiplier à mesure que l'utilisation des MCP continuera inévitablement d'augmenter. À mesure que les programmes de sécurité des entreprises évoluent, celles-ci prendront des mesures rigoureuses pour détecter et contrer cette menace. Il est donc essentiel de préparer adéquatement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs expérimentés en matière de sécurité devraient utiliser des outils d'IA agentielle

Les outils de codage IA d'Agentic sont considérés comme la prochaine évolution du codage assisté par IA et contribuent à leur capacité à offrir plus d'efficacité, de productivité et de flexibilité dans le développement de logiciels. Leur capacité améliorée à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bonnes et les mauvaises validations de code, et il sera essentiel à l'avenir du développement logiciel sécurisé de maintenir à jour leurs compétences en matière de sécurité et leur esprit critique.

Les résultats de l'IA ne doivent jamais être mis en œuvre avec une confiance aveugle, et seuls les développeurs expérimentés en matière de sécurité, qui font preuve d'un esprit critique et contextuel, peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Il doit néanmoins s'agir d'un environnement de programmation en binôme, dans lequel l'expert humain est en mesure d'évaluer, de remettre en question et, finalement, d'approuver le travail effectué par l'outil.

Découvrez comment les développeurs peuvent améliorer leurs compétences grâce à l'IA et augmenter leur productivité ici.

Techniques pratiques pour limiter les dommages et informations complémentaires dans notre dernier document de recherche.

Les outils de codage KI et la technologie MCP constitueront un facteur important pour l'avenir de la cybersécurité, mais il est essentiel de ne pas se lancer sans avoir préalablement évalué la situation.

Le document de Narajala et Habler décrit des stratégies complètes de réduction des risques pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, il s'agit de principes de défense approfondis et de confiance zéro qui visent explicitement le profil de risque unique que cet nouvel écosystème apporte à un environnement d'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants :

  • Authentification et contrôle d'accès: les outils d'IA agents résolvent des problèmes et prennent des décisions autonomes afin d'atteindre les objectifs qui leur sont fixés, de la même manière qu'un être humain aborderait des tâches techniques. Cependant, comme nous l'avons constaté, la supervision humaine experte de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre précisément quel accès ils ont, quelles données ils récupèrent ou peuvent éventuellement rendre disponibles, et où celles-ci pourraient être partagées.
  • Détection et prévention générales des menaces: comme pour la plupart des processus d'IA, l'utilisateur doit maîtriser la tâche lui-même afin de détecter les erreurs et imprécisions potentielles dans les résultats fournis par l'outil. Les développeurs doivent être formés en continu et leurs compétences doivent être évaluées afin de pouvoir vérifier efficacement les processus de sécurité et contrôler le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Conformité avec la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité de se former et d'y avoir accès. Les développeurs et les outils doivent être soumis à une évaluation comparative de la sécurité avant que les commits ne soient considérés comme fiables.

Nous avons récemment publié un document de recherche sur l'émergence du vibe coding et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels spécialisés dans l'IA. Nous vous invitons à le consulter et à nous contacter dès aujourd'hui pour renforcer votre équipe de développement.

Table des matières

Télécharger le PDF
Consulter la ressource
Souhaitez-vous en savoir davantage ?

Directeur général, président et cofondateur

En savoir plus

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.

Réserver une démonstrationTélécharger
Partager sur :
marques LinkedInSocialLogo x
Centre de ressources

Ressources pour débuter

Plus d'articles
Centre de ressources

Ressources pour débuter

Plus d'articles