Icônes SCW
héros bg sans séparateur
Blog

Lorsque les outils efficaces deviennent inefficaces : l'empoisonnement des outils d'IA et comment empêcher l'IA d'agir en tant qu'agent double

Pieter Danhieux
Publié le 09 juillet 2025
Dernière mise à jour le 10 mars 2026

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibecoding ») est en train de révolutionner la création de code. Des développeurs réputés utilisent massivement ces outils, et même ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels, mais qui n'avaient pas l'expérience nécessaire, utilisent désormais ces outils pour construire des actifs qui auraient auparavant été trop coûteux et trop longs à réaliser. Cette technologie est censée annoncer une nouvelle ère d'innovation, mais elle s'accompagne également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité significative dans le protocole de contexte de modèle (MCP), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par empoisonnement d'outils ».Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer des connaissances et des compétences nécessaires pour gérer ce nouveau problème de sécurité.

À l'heure actuelle, les résultats de ces outils ne sont pas suffisamment cohérents et sécurisés pour être considérés comme adaptés aux entreprises, comme indiqué dans le récent article de recherche des chercheurs en sécurité de l'AWS et d'Intuit, Vinesh Sai Narayana et Idan Habar : «À mesure que les systèmes d'IA deviennent plus autonomes et interagissent directement avec des outils externes et des données en temps réel via des MCP,entre autres, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées.»

Profil de risque du système d'intelligence artificielle de l'agence et du protocole de contexte du modèle

Le protocole Model Context Protocol est un logiciel pratique développé par Anthropic. Il permet une intégration plus appropriée et plus transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre de nombreuses possibilités entre les applications propriétaires, les outils SaaS essentiels à l'entreprise tels que GitHub et les solutions IA de pointe.Il suffit d'écrire un serveur MCP pour commencer à définir des directives sur son fonctionnement et son objectif.

L'impact de la technologie MCP sur la sécurité est en réalité très positif. La promesse d'une intégration plus facile entre les LLM et les piles technologiques utilisées par les experts en sécurité est extrêmement attrayante et ne peut être ignorée. Elle ouvre la voie à une automatisation précise des tâches de sécurité à un niveau jusqu'alors impossible, sans avoir à créer et déployer du code personnalisé pour chaque tâche. Compte tenu du fait que la visibilité et la connectivité étendues entre les outils et les responsables constituent la base d'une défense et d'une planification efficaces en matière de sécurité, le renforcement de l'interopérabilité des LLM offert par le MCP représente une perspective prometteuse pour la sécurité d'entreprise.compte tenu du fait que la visibilité et la connectivité étendues entre les données, les outils et les personnes sont essentielles à une défense et une planification efficaces en matière de sécurité, l'amélioration de l'interopérabilité des LLM offerte par le MCP représente une perspective prometteuse pour la sécurité des entreprises.

Cependant, l'utilisation du MCP peut entraîner l'apparition d'autres vecteurs de menaces et, à moins d'être gérée avec prudence, elle peut considérablement élargir la surface d'attaque d'une entreprise. Comme le souligne Invariant Labs, les attaques par empoisonnement des outils constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données confidentielles et des actions malveillantes par les modèles d'IA, ce qui peut rapidement avoir des conséquences très graves en matière de sécurité.

Selon InvariantLabs, les attaques par empoisonnement d'outils sont possibles lorsque des instructions malveillantes, invisibles pour l'utilisateur mais parfaitement lisibles (et exécutables) par le modèle d'IA, sont intégrées dans la description de l'outil MCP. L'outil est alors incité à effectuer des actions malveillantes à l'insu de l'utilisateur. Le problème réside dans l'hypothèse de MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui constitue une opportunité pour les acteurs malveillants.

Ils soulignent que lorsque les outils sont compromis, les conséquences suivantes peuvent survenir.

  • Instruire le modèle d'IA d'accéder aux fichiers confidentiels (clés SSH, fichiers de configuration, bases de données, etc.).
  • Dans un environnement où ces activités malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'intelligence artificielle est programmée pour extraire et transmettre ces données.
  • En dissimulant les arguments et les résultats de l'outil derrière une interface utilisateur apparemment simple, un fossé se crée entre ce que l'utilisateur voit et ce que le modèle d'IA exécute.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante qui deviendra certainement fréquente à mesure que l'utilisation des MCP se généralisera. À mesure que les programmes de sécurité des entreprises évoluent, des mesures prudentes seront prises pour détecter et atténuer cette menace. Il est donc essentiel que les développeurs se préparent suffisamment pour pouvoir participer à la recherche de solutions.

Les raisons pour lesquelles seuls les développeurs possédant des compétences en sécurité devraient utiliser les outils d'IA des agents

Les outils de codage IA agentique sont considérés comme la prochaine évolution du codage assisté par IA, en plus d'améliorer l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité renforcée à comprendre le contexte et l'intention, mais ils ne sont pas à l'abri des menaces telles que l'injection instantanée, les hallucinations et la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bons et les mauvais commits de code. Le perfectionnement des compétences en matière de sécurité et de pensée critique sera essentiel pour l'avenir du développement de logiciels sécurisés.

Les résultats fournis par l'IA ne doivent en aucun cas être implémentés de manière aveugle. Seuls les développeurs dotés de compétences en sécurité et capables de réfléchir de manière critique en fonction de la situation peuvent exploiter en toute sécurité les gains de productivité apportés par cette technologie. Il est toutefois nécessaire de disposer d'un environnement de programmation en binôme, dans lequel des experts humains peuvent évaluer, modéliser les menaces et finalement approuver le travail généré par les outils.

Découvrez commentles développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.

Méthodes pratiques d'atténuation et détails supplémentaires dans les derniers articles de recherche

Les outils de codage IA et la technologie MCP sont susceptibles de devenir des éléments importants pour l'avenir de la cybersécurité. Il est toutefois essentiel de ne pas approfondir la question avant d'avoir évalué la situation.

Narajala et Habra présentent en détail une stratégie d'atténuation complète pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, ils se concentrent sur les principes de défense multicouche et de confiance zéro, et ciblent clairement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.

  • Authentification et contrôle d'accès: les outils d'IA de type agent fonctionnent de manière autonome pour résoudre des problèmes et atteindre les objectifs fixés, à l'instar des ingénieurs humains. Cependant, comme cela a déjà été établi, la supervision de ces processus par des experts humains ne peut être ignorée. Par conséquent, les développeurs qui utilisent ces outils dans leur flux de travail doivent avoir une compréhension précise des droits d'accès dont ils disposent, des données qu'ils sont susceptibles d'obtenir ou de divulguer, et des lieux où ces données sont partagées.
  • Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent maîtriser leurs tâches afin de détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et passer des tests de compétences afin de pouvoir réviser efficacement les processus de sécurité. Ils peuvent ainsi examiner le code généré par l'IA avec précision et fiabilité en matière de sécurité.
  • Coordination entre la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'accéder à ces outils. Avant de faire confiance à un engagement, les développeurs et les outils doivent être soumis à des critères de sécurité.

Nous avons récemment publié un article de recherche sur l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises devraient prendre pour former la prochaine génération d'ingénieurs logiciels utilisant l'IA. Nous vous invitons à le consulter dès maintenant et à nous contacter pour renforcer votre équipe de développement.

Afficher les ressources
Afficher les ressources

Souhaitez-vous en savoir davantage ?

Directeur général, président et cofondateur

En savoir plus

Secure Code Warrior vous assiste dans la protection de votre code tout au long du cycle de vie du développement logiciel et dans la création d'une culture qui accorde la priorité à la cybersécurité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou professionnel de la sécurité, nous vous aidons à réduire les risques liés au code non sécurisé.

Veuillez réserver une démonstration.
Partager :
marques LinkedInSocialLogo x
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager :
marques LinkedInSocialLogo x

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibecoding ») est en train de révolutionner la création de code. Des développeurs réputés utilisent massivement ces outils, et même ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels, mais qui n'avaient pas l'expérience nécessaire, utilisent désormais ces outils pour construire des actifs qui auraient auparavant été trop coûteux et trop longs à réaliser. Cette technologie est censée annoncer une nouvelle ère d'innovation, mais elle s'accompagne également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité significative dans le protocole de contexte de modèle (MCP), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par empoisonnement d'outils ».Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer des connaissances et des compétences nécessaires pour gérer ce nouveau problème de sécurité.

À l'heure actuelle, les résultats de ces outils ne sont pas suffisamment cohérents et sécurisés pour être considérés comme adaptés aux entreprises, comme indiqué dans le récent article de recherche des chercheurs en sécurité de l'AWS et d'Intuit, Vinesh Sai Narayana et Idan Habar : «À mesure que les systèmes d'IA deviennent plus autonomes et interagissent directement avec des outils externes et des données en temps réel via des MCP,entre autres, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées.»

Profil de risque du système d'intelligence artificielle de l'agence et du protocole de contexte du modèle

Le protocole Model Context Protocol est un logiciel pratique développé par Anthropic. Il permet une intégration plus appropriée et plus transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre de nombreuses possibilités entre les applications propriétaires, les outils SaaS essentiels à l'entreprise tels que GitHub et les solutions IA de pointe.Il suffit d'écrire un serveur MCP pour commencer à définir des directives sur son fonctionnement et son objectif.

L'impact de la technologie MCP sur la sécurité est en réalité très positif. La promesse d'une intégration plus facile entre les LLM et les piles technologiques utilisées par les experts en sécurité est extrêmement attrayante et ne peut être ignorée. Elle ouvre la voie à une automatisation précise des tâches de sécurité à un niveau jusqu'alors impossible, sans avoir à créer et déployer du code personnalisé pour chaque tâche. Compte tenu du fait que la visibilité et la connectivité étendues entre les outils et les responsables constituent la base d'une défense et d'une planification efficaces en matière de sécurité, le renforcement de l'interopérabilité des LLM offert par le MCP représente une perspective prometteuse pour la sécurité d'entreprise.compte tenu du fait que la visibilité et la connectivité étendues entre les données, les outils et les personnes sont essentielles à une défense et une planification efficaces en matière de sécurité, l'amélioration de l'interopérabilité des LLM offerte par le MCP représente une perspective prometteuse pour la sécurité des entreprises.

Cependant, l'utilisation du MCP peut entraîner l'apparition d'autres vecteurs de menaces et, à moins d'être gérée avec prudence, elle peut considérablement élargir la surface d'attaque d'une entreprise. Comme le souligne Invariant Labs, les attaques par empoisonnement des outils constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données confidentielles et des actions malveillantes par les modèles d'IA, ce qui peut rapidement avoir des conséquences très graves en matière de sécurité.

Selon InvariantLabs, les attaques par empoisonnement d'outils sont possibles lorsque des instructions malveillantes, invisibles pour l'utilisateur mais parfaitement lisibles (et exécutables) par le modèle d'IA, sont intégrées dans la description de l'outil MCP. L'outil est alors incité à effectuer des actions malveillantes à l'insu de l'utilisateur. Le problème réside dans l'hypothèse de MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui constitue une opportunité pour les acteurs malveillants.

Ils soulignent que lorsque les outils sont compromis, les conséquences suivantes peuvent survenir.

  • Instruire le modèle d'IA d'accéder aux fichiers confidentiels (clés SSH, fichiers de configuration, bases de données, etc.).
  • Dans un environnement où ces activités malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'intelligence artificielle est programmée pour extraire et transmettre ces données.
  • En dissimulant les arguments et les résultats de l'outil derrière une interface utilisateur apparemment simple, un fossé se crée entre ce que l'utilisateur voit et ce que le modèle d'IA exécute.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante qui deviendra certainement fréquente à mesure que l'utilisation des MCP se généralisera. À mesure que les programmes de sécurité des entreprises évoluent, des mesures prudentes seront prises pour détecter et atténuer cette menace. Il est donc essentiel que les développeurs se préparent suffisamment pour pouvoir participer à la recherche de solutions.

Les raisons pour lesquelles seuls les développeurs possédant des compétences en sécurité devraient utiliser les outils d'IA des agents

Les outils de codage IA agentique sont considérés comme la prochaine évolution du codage assisté par IA, en plus d'améliorer l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité renforcée à comprendre le contexte et l'intention, mais ils ne sont pas à l'abri des menaces telles que l'injection instantanée, les hallucinations et la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bons et les mauvais commits de code. Le perfectionnement des compétences en matière de sécurité et de pensée critique sera essentiel pour l'avenir du développement de logiciels sécurisés.

Les résultats fournis par l'IA ne doivent en aucun cas être implémentés de manière aveugle. Seuls les développeurs dotés de compétences en sécurité et capables de réfléchir de manière critique en fonction de la situation peuvent exploiter en toute sécurité les gains de productivité apportés par cette technologie. Il est toutefois nécessaire de disposer d'un environnement de programmation en binôme, dans lequel des experts humains peuvent évaluer, modéliser les menaces et finalement approuver le travail généré par les outils.

Découvrez commentles développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.

Méthodes pratiques d'atténuation et détails supplémentaires dans les derniers articles de recherche

Les outils de codage IA et la technologie MCP sont susceptibles de devenir des éléments importants pour l'avenir de la cybersécurité. Il est toutefois essentiel de ne pas approfondir la question avant d'avoir évalué la situation.

Narajala et Habra présentent en détail une stratégie d'atténuation complète pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, ils se concentrent sur les principes de défense multicouche et de confiance zéro, et ciblent clairement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.

  • Authentification et contrôle d'accès: les outils d'IA de type agent fonctionnent de manière autonome pour résoudre des problèmes et atteindre les objectifs fixés, à l'instar des ingénieurs humains. Cependant, comme cela a déjà été établi, la supervision de ces processus par des experts humains ne peut être ignorée. Par conséquent, les développeurs qui utilisent ces outils dans leur flux de travail doivent avoir une compréhension précise des droits d'accès dont ils disposent, des données qu'ils sont susceptibles d'obtenir ou de divulguer, et des lieux où ces données sont partagées.
  • Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent maîtriser leurs tâches afin de détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et passer des tests de compétences afin de pouvoir réviser efficacement les processus de sécurité. Ils peuvent ainsi examiner le code généré par l'IA avec précision et fiabilité en matière de sécurité.
  • Coordination entre la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'accéder à ces outils. Avant de faire confiance à un engagement, les développeurs et les outils doivent être soumis à des critères de sécurité.

Nous avons récemment publié un article de recherche sur l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises devraient prendre pour former la prochaine génération d'ingénieurs logiciels utilisant l'IA. Nous vous invitons à le consulter dès maintenant et à nous contacter pour renforcer votre équipe de développement.

Afficher les ressources
Afficher les ressources

Pour télécharger le rapport, veuillez remplir le formulaire ci-dessous.

Nous vous prions de bien vouloir nous autoriser à vous envoyer des informations sur nos produits et/ou sur des sujets liés au codage sécurisé. Nous traitons vos informations personnelles avec le plus grand soin et ne les vendons jamais à des tiers à des fins marketing.

Envoi
icône de réussite scw
icône d'erreur scw
Pour envoyer le formulaire, veuillez activer le cookie « Analytics ». Une fois le paramétrage terminé, vous pouvez le désactiver à nouveau.

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibecoding ») est en train de révolutionner la création de code. Des développeurs réputés utilisent massivement ces outils, et même ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels, mais qui n'avaient pas l'expérience nécessaire, utilisent désormais ces outils pour construire des actifs qui auraient auparavant été trop coûteux et trop longs à réaliser. Cette technologie est censée annoncer une nouvelle ère d'innovation, mais elle s'accompagne également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité significative dans le protocole de contexte de modèle (MCP), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par empoisonnement d'outils ».Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer des connaissances et des compétences nécessaires pour gérer ce nouveau problème de sécurité.

À l'heure actuelle, les résultats de ces outils ne sont pas suffisamment cohérents et sécurisés pour être considérés comme adaptés aux entreprises, comme indiqué dans le récent article de recherche des chercheurs en sécurité de l'AWS et d'Intuit, Vinesh Sai Narayana et Idan Habar : «À mesure que les systèmes d'IA deviennent plus autonomes et interagissent directement avec des outils externes et des données en temps réel via des MCP,entre autres, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées.»

Profil de risque du système d'intelligence artificielle de l'agence et du protocole de contexte du modèle

Le protocole Model Context Protocol est un logiciel pratique développé par Anthropic. Il permet une intégration plus appropriée et plus transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre de nombreuses possibilités entre les applications propriétaires, les outils SaaS essentiels à l'entreprise tels que GitHub et les solutions IA de pointe.Il suffit d'écrire un serveur MCP pour commencer à définir des directives sur son fonctionnement et son objectif.

L'impact de la technologie MCP sur la sécurité est en réalité très positif. La promesse d'une intégration plus facile entre les LLM et les piles technologiques utilisées par les experts en sécurité est extrêmement attrayante et ne peut être ignorée. Elle ouvre la voie à une automatisation précise des tâches de sécurité à un niveau jusqu'alors impossible, sans avoir à créer et déployer du code personnalisé pour chaque tâche. Compte tenu du fait que la visibilité et la connectivité étendues entre les outils et les responsables constituent la base d'une défense et d'une planification efficaces en matière de sécurité, le renforcement de l'interopérabilité des LLM offert par le MCP représente une perspective prometteuse pour la sécurité d'entreprise.compte tenu du fait que la visibilité et la connectivité étendues entre les données, les outils et les personnes sont essentielles à une défense et une planification efficaces en matière de sécurité, l'amélioration de l'interopérabilité des LLM offerte par le MCP représente une perspective prometteuse pour la sécurité des entreprises.

Cependant, l'utilisation du MCP peut entraîner l'apparition d'autres vecteurs de menaces et, à moins d'être gérée avec prudence, elle peut considérablement élargir la surface d'attaque d'une entreprise. Comme le souligne Invariant Labs, les attaques par empoisonnement des outils constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données confidentielles et des actions malveillantes par les modèles d'IA, ce qui peut rapidement avoir des conséquences très graves en matière de sécurité.

Selon InvariantLabs, les attaques par empoisonnement d'outils sont possibles lorsque des instructions malveillantes, invisibles pour l'utilisateur mais parfaitement lisibles (et exécutables) par le modèle d'IA, sont intégrées dans la description de l'outil MCP. L'outil est alors incité à effectuer des actions malveillantes à l'insu de l'utilisateur. Le problème réside dans l'hypothèse de MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui constitue une opportunité pour les acteurs malveillants.

Ils soulignent que lorsque les outils sont compromis, les conséquences suivantes peuvent survenir.

  • Instruire le modèle d'IA d'accéder aux fichiers confidentiels (clés SSH, fichiers de configuration, bases de données, etc.).
  • Dans un environnement où ces activités malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'intelligence artificielle est programmée pour extraire et transmettre ces données.
  • En dissimulant les arguments et les résultats de l'outil derrière une interface utilisateur apparemment simple, un fossé se crée entre ce que l'utilisateur voit et ce que le modèle d'IA exécute.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante qui deviendra certainement fréquente à mesure que l'utilisation des MCP se généralisera. À mesure que les programmes de sécurité des entreprises évoluent, des mesures prudentes seront prises pour détecter et atténuer cette menace. Il est donc essentiel que les développeurs se préparent suffisamment pour pouvoir participer à la recherche de solutions.

Les raisons pour lesquelles seuls les développeurs possédant des compétences en sécurité devraient utiliser les outils d'IA des agents

Les outils de codage IA agentique sont considérés comme la prochaine évolution du codage assisté par IA, en plus d'améliorer l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité renforcée à comprendre le contexte et l'intention, mais ils ne sont pas à l'abri des menaces telles que l'injection instantanée, les hallucinations et la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bons et les mauvais commits de code. Le perfectionnement des compétences en matière de sécurité et de pensée critique sera essentiel pour l'avenir du développement de logiciels sécurisés.

Les résultats fournis par l'IA ne doivent en aucun cas être implémentés de manière aveugle. Seuls les développeurs dotés de compétences en sécurité et capables de réfléchir de manière critique en fonction de la situation peuvent exploiter en toute sécurité les gains de productivité apportés par cette technologie. Il est toutefois nécessaire de disposer d'un environnement de programmation en binôme, dans lequel des experts humains peuvent évaluer, modéliser les menaces et finalement approuver le travail généré par les outils.

Découvrez commentles développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.

Méthodes pratiques d'atténuation et détails supplémentaires dans les derniers articles de recherche

Les outils de codage IA et la technologie MCP sont susceptibles de devenir des éléments importants pour l'avenir de la cybersécurité. Il est toutefois essentiel de ne pas approfondir la question avant d'avoir évalué la situation.

Narajala et Habra présentent en détail une stratégie d'atténuation complète pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, ils se concentrent sur les principes de défense multicouche et de confiance zéro, et ciblent clairement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.

  • Authentification et contrôle d'accès: les outils d'IA de type agent fonctionnent de manière autonome pour résoudre des problèmes et atteindre les objectifs fixés, à l'instar des ingénieurs humains. Cependant, comme cela a déjà été établi, la supervision de ces processus par des experts humains ne peut être ignorée. Par conséquent, les développeurs qui utilisent ces outils dans leur flux de travail doivent avoir une compréhension précise des droits d'accès dont ils disposent, des données qu'ils sont susceptibles d'obtenir ou de divulguer, et des lieux où ces données sont partagées.
  • Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent maîtriser leurs tâches afin de détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et passer des tests de compétences afin de pouvoir réviser efficacement les processus de sécurité. Ils peuvent ainsi examiner le code généré par l'IA avec précision et fiabilité en matière de sécurité.
  • Coordination entre la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'accéder à ces outils. Avant de faire confiance à un engagement, les développeurs et les outils doivent être soumis à des critères de sécurité.

Nous avons récemment publié un article de recherche sur l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises devraient prendre pour former la prochaine génération d'ingénieurs logiciels utilisant l'IA. Nous vous invitons à le consulter dès maintenant et à nous contacter pour renforcer votre équipe de développement.

Veuillez consulter le séminaire en ligne.
Commençons
En savoir plus

Veuillez cliquer sur le lien ci-dessous pour télécharger le PDF de cette ressource.

Secure Code Warrior vous assiste dans la protection de votre code tout au long du cycle de vie du développement logiciel et dans la création d'une culture qui accorde la priorité à la cybersécurité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou professionnel de la sécurité, nous vous aidons à réduire les risques liés au code non sécurisé.

Afficher le rapportVeuillez réserver une démonstration.
Télécharger le PDF
Afficher les ressources
Partager :
marques LinkedInSocialLogo x
Souhaitez-vous en savoir davantage ?

Partager :
marques LinkedInSocialLogo x
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager :
marques LinkedInSocialLogo x

Le développement assisté par l'IA (ou, dans sa version plus tendance, le « vibecoding ») est en train de révolutionner la création de code. Des développeurs réputés utilisent massivement ces outils, et même ceux d'entre nous qui ont toujours voulu créer leurs propres logiciels, mais qui n'avaient pas l'expérience nécessaire, utilisent désormais ces outils pour construire des actifs qui auraient auparavant été trop coûteux et trop longs à réaliser. Cette technologie est censée annoncer une nouvelle ère d'innovation, mais elle s'accompagne également de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité ont du mal à atténuer.

Une récente découverte par InvariantLabs a révélé une vulnérabilité significative dans le protocole de contexte de modèle (MCP), un cadre similaire à une API qui permet à de puissants outils d'IA d'interagir de manière autonome avec d'autres logiciels et bases de données. Cela rend possible une nouvelle catégorie d'attaques particulièrement préjudiciables pour les entreprises, appelées « attaques par empoisonnement d'outils ».Les principaux outils d'IA tels que Windsurf et Cursor ne font pas exception. Étant donné qu'ils comptent des millions d'utilisateurs, il est essentiel de disposer des connaissances et des compétences nécessaires pour gérer ce nouveau problème de sécurité.

À l'heure actuelle, les résultats de ces outils ne sont pas suffisamment cohérents et sécurisés pour être considérés comme adaptés aux entreprises, comme indiqué dans le récent article de recherche des chercheurs en sécurité de l'AWS et d'Intuit, Vinesh Sai Narayana et Idan Habar : «À mesure que les systèmes d'IA deviennent plus autonomes et interagissent directement avec des outils externes et des données en temps réel via des MCP,entre autres, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées.»

Profil de risque du système d'intelligence artificielle de l'agence et du protocole de contexte du modèle

Le protocole Model Context Protocol est un logiciel pratique développé par Anthropic. Il permet une intégration plus appropriée et plus transparente entre les agents IA à grand modèle linguistique (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant qui ouvre de nombreuses possibilités entre les applications propriétaires, les outils SaaS essentiels à l'entreprise tels que GitHub et les solutions IA de pointe.Il suffit d'écrire un serveur MCP pour commencer à définir des directives sur son fonctionnement et son objectif.

L'impact de la technologie MCP sur la sécurité est en réalité très positif. La promesse d'une intégration plus facile entre les LLM et les piles technologiques utilisées par les experts en sécurité est extrêmement attrayante et ne peut être ignorée. Elle ouvre la voie à une automatisation précise des tâches de sécurité à un niveau jusqu'alors impossible, sans avoir à créer et déployer du code personnalisé pour chaque tâche. Compte tenu du fait que la visibilité et la connectivité étendues entre les outils et les responsables constituent la base d'une défense et d'une planification efficaces en matière de sécurité, le renforcement de l'interopérabilité des LLM offert par le MCP représente une perspective prometteuse pour la sécurité d'entreprise.compte tenu du fait que la visibilité et la connectivité étendues entre les données, les outils et les personnes sont essentielles à une défense et une planification efficaces en matière de sécurité, l'amélioration de l'interopérabilité des LLM offerte par le MCP représente une perspective prometteuse pour la sécurité des entreprises.

Cependant, l'utilisation du MCP peut entraîner l'apparition d'autres vecteurs de menaces et, à moins d'être gérée avec prudence, elle peut considérablement élargir la surface d'attaque d'une entreprise. Comme le souligne Invariant Labs, les attaques par empoisonnement des outils constituent une nouvelle catégorie de vulnérabilités pouvant entraîner la fuite de données confidentielles et des actions malveillantes par les modèles d'IA, ce qui peut rapidement avoir des conséquences très graves en matière de sécurité.

Selon InvariantLabs, les attaques par empoisonnement d'outils sont possibles lorsque des instructions malveillantes, invisibles pour l'utilisateur mais parfaitement lisibles (et exécutables) par le modèle d'IA, sont intégrées dans la description de l'outil MCP. L'outil est alors incité à effectuer des actions malveillantes à l'insu de l'utilisateur. Le problème réside dans l'hypothèse de MCP selon laquelle toutes les descriptions d'outils sont fiables, ce qui constitue une opportunité pour les acteurs malveillants.

Ils soulignent que lorsque les outils sont compromis, les conséquences suivantes peuvent survenir.

  • Instruire le modèle d'IA d'accéder aux fichiers confidentiels (clés SSH, fichiers de configuration, bases de données, etc.).
  • Dans un environnement où ces activités malveillantes sont intrinsèquement dissimulées aux utilisateurs non avertis, l'intelligence artificielle est programmée pour extraire et transmettre ces données.
  • En dissimulant les arguments et les résultats de l'outil derrière une interface utilisateur apparemment simple, un fossé se crée entre ce que l'utilisateur voit et ce que le modèle d'IA exécute.

Il s'agit d'une nouvelle catégorie de vulnérabilités préoccupante qui deviendra certainement fréquente à mesure que l'utilisation des MCP se généralisera. À mesure que les programmes de sécurité des entreprises évoluent, des mesures prudentes seront prises pour détecter et atténuer cette menace. Il est donc essentiel que les développeurs se préparent suffisamment pour pouvoir participer à la recherche de solutions.

Les raisons pour lesquelles seuls les développeurs possédant des compétences en sécurité devraient utiliser les outils d'IA des agents

Les outils de codage IA agentique sont considérés comme la prochaine évolution du codage assisté par IA, en plus d'améliorer l'efficacité, la productivité et la flexibilité du développement logiciel. Ils sont particulièrement utiles grâce à leur capacité renforcée à comprendre le contexte et l'intention, mais ils ne sont pas à l'abri des menaces telles que l'injection instantanée, les hallucinations et la manipulation du comportement par des attaquants.

Les développeurs constituent la ligne de défense entre les bons et les mauvais commits de code. Le perfectionnement des compétences en matière de sécurité et de pensée critique sera essentiel pour l'avenir du développement de logiciels sécurisés.

Les résultats fournis par l'IA ne doivent en aucun cas être implémentés de manière aveugle. Seuls les développeurs dotés de compétences en sécurité et capables de réfléchir de manière critique en fonction de la situation peuvent exploiter en toute sécurité les gains de productivité apportés par cette technologie. Il est toutefois nécessaire de disposer d'un environnement de programmation en binôme, dans lequel des experts humains peuvent évaluer, modéliser les menaces et finalement approuver le travail généré par les outils.

Découvrez commentles développeurs peuvent utiliser l'IA pour améliorer leurs compétences et accroître leur productivité.

Méthodes pratiques d'atténuation et détails supplémentaires dans les derniers articles de recherche

Les outils de codage IA et la technologie MCP sont susceptibles de devenir des éléments importants pour l'avenir de la cybersécurité. Il est toutefois essentiel de ne pas approfondir la question avant d'avoir évalué la situation.

Narajala et Habra présentent en détail une stratégie d'atténuation complète pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue des risques associés. En fin de compte, ils se concentrent sur les principes de défense multicouche et de confiance zéro, et ciblent clairement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Il est particulièrement important pour les développeurs de combler leurs lacunes dans les domaines suivants.

  • Authentification et contrôle d'accès: les outils d'IA de type agent fonctionnent de manière autonome pour résoudre des problèmes et atteindre les objectifs fixés, à l'instar des ingénieurs humains. Cependant, comme cela a déjà été établi, la supervision de ces processus par des experts humains ne peut être ignorée. Par conséquent, les développeurs qui utilisent ces outils dans leur flux de travail doivent avoir une compréhension précise des droits d'accès dont ils disposent, des données qu'ils sont susceptibles d'obtenir ou de divulguer, et des lieux où ces données sont partagées.
  • Détection et atténuation des menaces générales: comme pour la plupart des processus d'IA, les utilisateurs doivent maîtriser leurs tâches afin de détecter les défauts et inexactitudes potentiels dans les résultats des outils. Les développeurs doivent suivre une formation continue et passer des tests de compétences afin de pouvoir réviser efficacement les processus de sécurité. Ils peuvent ainsi examiner le code généré par l'IA avec précision et fiabilité en matière de sécurité.
  • Coordination entre la politique de sécurité et la gouvernance de l'IA: les développeurs doivent être informés des outils approuvés et avoir la possibilité d'améliorer leurs compétences et d'accéder à ces outils. Avant de faire confiance à un engagement, les développeurs et les outils doivent être soumis à des critères de sécurité.

Nous avons récemment publié un article de recherche sur l'émergence du codage vibrant et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises devraient prendre pour former la prochaine génération d'ingénieurs logiciels utilisant l'IA. Nous vous invitons à le consulter dès maintenant et à nous contacter pour renforcer votre équipe de développement.

Table des matières

Télécharger le PDF
Afficher les ressources
Souhaitez-vous en savoir davantage ?

Directeur général, président et cofondateur

En savoir plus

Secure Code Warrior vous assiste dans la protection de votre code tout au long du cycle de vie du développement logiciel et dans la création d'une culture qui accorde la priorité à la cybersécurité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou professionnel de la sécurité, nous vous aidons à réduire les risques liés au code non sécurisé.

Veuillez réserver une démonstration.[Télécharger]
Partager :
marques LinkedInSocialLogo x
Centre de ressources

Ressources pour débuter

Autres publications
Centre de ressources

Ressources pour débuter

Autres publications