Quand les bons outils tournent mal : L'empoisonnement des outils d'IA et comment empêcher votre IA d'agir comme un agent double
Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer.
InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.
À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."
Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
- Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.
Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique
Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.
Techniques pratiques d'atténuation et lecture de notre dernier document de recherche
Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau.
L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées.
- Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
- Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.
Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.
Directeur général, président et cofondateur

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Réservez une démonstrationDirecteur général, président et cofondateur
Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.


Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer.
InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.
À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."
Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
- Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.
Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique
Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.
Techniques pratiques d'atténuation et lecture de notre dernier document de recherche
Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau.
L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées.
- Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
- Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.
Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer.
InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.
À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."
Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
- Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.
Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique
Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.
Techniques pratiques d'atténuation et lecture de notre dernier document de recherche
Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau.
L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées.
- Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
- Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.
Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Cliquez sur le lien ci-dessous et téléchargez le PDF de cette ressource.
Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Voir le rapportRéservez une démonstrationDirecteur général, président et cofondateur
Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.
Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer.
InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.
À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."
Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel
Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but.
Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.
Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement.
InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.
Ils notent les conséquences possibles d'un outil compromis :
- L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
- Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
- Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.
Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.
Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique
Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants.
Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.
Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil.
Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.
Techniques pratiques d'atténuation et lecture de notre dernier document de recherche
Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau.
L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :
- Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées.
- Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
- Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.
Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.
Table des matières
Directeur général, président et cofondateur

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Réservez une démonstrationTéléchargerRessources pour vous aider à démarrer
AI Coding Assistants : Un guide de navigation sécurisée pour la prochaine génération de développeurs
Les grands modèles linguistiques offrent des avantages irrésistibles en termes de rapidité et de productivité, mais ils présentent également des risques indéniables pour l'entreprise. Les garde-fous traditionnels ne suffisent pas à contrôler le déluge. Les développeurs ont besoin de compétences précises et vérifiées en matière de sécurité pour identifier et prévenir les failles de sécurité dès le début du cycle de développement du logiciel.
Sécurité dès la conception : Définir les meilleures pratiques, permettre aux développeurs et évaluer les résultats de la sécurité préventive
Dans ce document de recherche, les cofondateurs de Secure Code Warrior , Pieter Danhieux et Matias Madou, Ph.D., ainsi que des contributeurs experts, Chris Inglis, ancien directeur national américain de la cybernétique (aujourd'hui conseiller stratégique du Paladin Capital Group), et Devin Lynch, directeur principal du Paladin Global Institute, révèleront les principales conclusions de plus de vingt entretiens approfondis avec des responsables de la sécurité des entreprises, y compris des RSSI, un vice-président de la sécurité des applications et des professionnels de la sécurité des logiciels.
Ressources pour vous aider à démarrer
Définir la norme : SCW publie des règles de sécurité gratuites pour le codage de l'IA sur GitHub
Le développement assisté par IA n'est plus un horizon : il est bel et bien là, et il transforme rapidement la manière dont les logiciels sont écrits. Des outils comme GitHub Copilot, Cline, Roo, Cursor, Aider et Windsurf transforment les développeurs en copilotes, permettant des itérations plus rapides et accélérant tout, du prototypage aux projets de refactorisation majeurs.
Bouclez la boucle des vulnérabilités avec Secure Code Warrior + HackerOne
Secure Code Warrior est heureux d'annoncer sa nouvelle intégration avec HackerOne, un leader dans les solutions de sécurité offensive. Ensemble, nous construisons un écosystème puissant et intégré. HackerOne met le doigt sur les vulnérabilités dans les environnements réels, en exposant le "quoi" et le "où" des problèmes de sécurité.
Révélation : Comment l'industrie du cyberespace définit la notion de "Secure by Design" (sécurité dès la conception)
Dans notre dernier livre blanc, nos cofondateurs, Pieter Danhieux et Matias Madou, Ph.D., ont rencontré plus de vingt responsables de la sécurité d'entreprise, notamment des RSSI, des responsables AppSec et des professionnels de la sécurité, afin d'identifier les principales pièces de ce puzzle et de découvrir la réalité qui se cache derrière le mouvement Secure by Design. Il s'agit d'une ambition partagée par les équipes de sécurité, mais il n'y a pas de manuel de jeu commun.
Vibe Coding va-t-il transformer votre base de code en une fête de fraternité ?
Le codage vibratoire est comme une fête de fraternité universitaire, et l'IA est la pièce maîtresse de toutes les festivités, le tonneau. C'est très amusant de se laisser aller, d'être créatif et de voir où votre imagination peut vous mener, mais après quelques barils, boire (ou utiliser l'IA) avec modération est sans aucun doute la solution la plus sûre à long terme.