Blog

Quand les bons outils tournent mal : L'empoisonnement des outils d'IA et comment empêcher votre IA d'agir comme un agent double

Pieter Danhieux
Publié le 09 juillet 2025

Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer. 

InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.

À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."

Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but. 

Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement. 

InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
  • Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.

Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique

Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants. 

Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil. 

Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.

Techniques pratiques d'atténuation et lecture de notre dernier document de recherche

Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau. 

L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées. 
  • Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.

Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Voir la ressource
Voir la ressource

Vous souhaitez en savoir plus ?

Directeur général, président et cofondateur

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Réservez une démonstration
Partager sur :
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager sur :

Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer. 

InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.

À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."

Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but. 

Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement. 

InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
  • Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.

Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique

Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants. 

Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil. 

Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.

Techniques pratiques d'atténuation et lecture de notre dernier document de recherche

Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau. 

L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées. 
  • Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.

Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Voir la ressource
Voir la ressource

Remplissez le formulaire ci-dessous pour télécharger le rapport

Nous aimerions que vous nous autorisiez à vous envoyer des informations sur nos produits et/ou sur des sujets liés au codage sécurisé. Nous traiterons toujours vos données personnelles avec le plus grand soin et ne les vendrons jamais à d'autres entreprises à des fins de marketing.

Soumettre
Pour soumettre le formulaire, veuillez activer les cookies "Analytics". N'hésitez pas à les désactiver à nouveau une fois que vous aurez terminé.

Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer. 

InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.

À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."

Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but. 

Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement. 

InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
  • Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.

Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique

Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants. 

Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil. 

Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.

Techniques pratiques d'atténuation et lecture de notre dernier document de recherche

Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau. 

L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées. 
  • Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.

Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Commencez

Cliquez sur le lien ci-dessous et téléchargez le PDF de cette ressource.

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Voir le rapportRéservez une démonstration
Télécharger le PDF
Voir la ressource
Partager sur :
Vous souhaitez en savoir plus ?

Partager sur :
Auteur
Pieter Danhieux
Publié le 09 juillet 2025

Directeur général, président et cofondateur

Pieter Danhieux est un expert en sécurité mondialement reconnu, avec plus de 12 ans d'expérience en tant que consultant en sécurité et 8 ans en tant qu'instructeur principal pour SANS, enseignant des techniques offensives sur la façon de cibler et d'évaluer les organisations, les systèmes et les individus pour les faiblesses de sécurité. En 2016, il a été reconnu comme l'une des personnes les plus cool d'Australie dans le domaine de la technologie (Business Insider), a reçu le prix du professionnel de la cybersécurité de l'année (AISA - Australian Information Security Association) et détient les certifications GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Partager sur :

Le développement assisté par l'IA (ou, dans sa version la plus à la mode, le "vibe coding") a un effet transformateur considérable sur la création de code. Les développeurs confirmés adoptent ces outils en masse, et ceux d'entre nous qui ont toujours voulu créer leur propre logiciel, mais qui n'avaient pas l'expérience nécessaire, les utilisent également pour créer des actifs dont le coût et le temps auraient été auparavant prohibitifs. Si cette technologie promet d'ouvrir une nouvelle ère d'innovation, elle introduit une série de nouvelles vulnérabilités et de nouveaux profils de risque que les responsables de la sécurité s'efforcent d'atténuer. 

InvariantLabs a récemment découvert une vulnérabilité critique dans le Model Context Protocol (MCP), un cadre de type API permettant à de puissants outils d'intelligence artificielle d'interagir de manière autonome avec d'autres logiciels et bases de données, qui permet ce que l'on a appelé les "attaques par empoisonnement d'outils", une nouvelle catégorie de vulnérabilité qui pourrait s'avérer particulièrement préjudiciable dans les entreprises. Les principaux outils d'IA, tels que Windsurf et Cursor, ne sont pas à l'abri, et avec plusieurs millions d'utilisateurs, la sensibilisation et les compétences pour gérer ce problème de sécurité émergent sont primordiales.

À l'heure actuelle, les résultats de ces outils ne sont pas toujours suffisamment sûrs pour qu'on puisse les qualifier de prêts pour l'entreprise, comme l'indique un récent document de recherche des chercheurs en sécurité d'AWS et d'Intuit, Vineeth Sai Narajala et Idan Habler : "À mesure que les systèmes d'IA deviennent plus autonomes et commencent à interagir directement avec des outils externes et des données en temps réel par le biais d'éléments tels que MCP, il devient absolument essentiel de s'assurer que ces interactions sont sécurisées."

Les systèmes d'IA agentiques et le profil de risque du modèle de protocole contextuel

Le Model Context Protocol est un logiciel pratique développé par Anthropic qui permet une meilleure intégration, plus transparente, entre les agents d'IA du Large Language Model (LLM) et d'autres outils. Il s'agit d'un cas d'utilisation puissant, qui ouvre un monde de possibilités entre les applications propriétaires et les outils SaaS critiques tels que GitHub, en interaction avec des solutions d'IA de pointe. Il suffit d'écrire un serveur MCP et de s'atteler à la tâche de définir les lignes directrices sur la façon dont vous voulez qu'il fonctionne, et dans quel but. 

Les implications de la technologie MCP en matière de sécurité sont, en fait, essentiellement positives. La promesse d'une intégration plus directe entre les LLM et la pile technologique utilisée par les professionnels de la sécurité est trop séduisante pour être ignorée, et représente la possibilité d'une automatisation précise des tâches de sécurité à des niveaux auparavant impossibles, du moins pas sans écrire et déployer un code personnalisé, généralement pour chaque tâche. L'interopérabilité améliorée des LLM offerte par le MCP est une perspective passionnante pour la sécurité des entreprises, étant donné que la visibilité et la connectivité étendues entre les données, les outils et le personnel sont fondamentales pour une défense et une planification efficaces de la sécurité.

Cependant, l'utilisation de MCP peut introduire d'autres vecteurs de menace possibles, élargissant considérablement la surface d'attaque de l'entreprise si elle n'est pas gérée avec soin. Comme le note InvariantLabs, les attaques par empoisonnement d'outils représentent une nouvelle catégorie de vulnérabilité qui peut conduire à l'exfiltration de données sensibles et à des actions non autorisées par des modèles d'IA, et à partir de là, les implications en matière de sécurité deviennent très sombres, très rapidement. 

InvariantLabs note qu'une attaque par empoisonnement d'outil est possible lorsque des instructions malveillantes sont intégrées dans les descriptions d'outils MCP qui ne sont pas visibles pour les utilisateurs, mais qui sont entièrement lisibles (et exécutables) par les modèles d'IA. Cela permet à l'outil d'exécuter des actions malveillantes non autorisées sans que l'utilisateur s'en rende compte. Le problème réside dans le fait que le MCP part du principe que toutes les descriptions d'outils sont dignes de confiance, ce qui est de la musique pour les oreilles d'un acteur de la menace.

Ils notent les conséquences possibles d'un outil compromis :

  • L'accès à des fichiers sensibles (clés SSH, fichiers de configuration, bases de données, etc.) par des modèles d'IA ;
  • Donner l'ordre à l'IA d'extraire et de transmettre ces données, dans un environnement où ces actions malveillantes sont intrinsèquement dissimulées à l'utilisateur non averti ;
  • Créer une déconnexion entre ce que voit l'utilisateur et ce que fait le modèle d'IA en se cachant derrière des représentations d'interface utilisateur faussement simples des arguments et des résultats de l'outil.

Il s'agit d'une catégorie de vulnérabilité émergente et préoccupante, que nous verrons certainement plus fréquemment au fur et à mesure de la croissance inévitable de l'utilisation des MCP. Il faudra agir avec prudence pour trouver et atténuer cette menace au fur et à mesure que les programmes de sécurité des entreprises évolueront, et il est essentiel de préparer correctement les développeurs à faire partie de la solution.

Pourquoi seuls les développeurs compétents en matière de sécurité devraient exploiter les outils d'IA agentique

Les outils de codage de l'IA agentique sont considérés comme la prochaine évolution du codage assisté par l'IA, ce qui renforce leur capacité à offrir une efficacité, une productivité et une flexibilité accrues dans le développement de logiciels. Leur capacité accrue à comprendre le contexte et l'intention les rend particulièrement utiles, mais ils ne sont pas à l'abri de menaces telles que l'injection rapide, l'hallucination ou la manipulation du comportement par des attaquants. 

Les développeurs sont la ligne de défense entre les bons et les mauvais commentaires de code, et le maintien des compétences en matière de sécurité et d'esprit critique sera fondamental pour l'avenir du développement de logiciels sécurisés.

Les résultats de l'IA ne devraient jamais être mis en œuvre avec une confiance aveugle, et ce sont les développeurs compétents en matière de sécurité appliquant une réflexion contextuelle et critique qui peuvent exploiter en toute sécurité les gains de productivité offerts par cette technologie. Toutefois, cela doit se faire dans ce qui équivaut à un environnement de programmation en binôme, où l'expert humain est en mesure d'évaluer, de modéliser les menaces et, en fin de compte, d'approuver le travail produit par l'outil. 

Pour en savoir plus sur la façon dont les développeurs peuvent se perfectionner et accroître leur productivité grâce à l'IA , cliquez ici.

Techniques pratiques d'atténuation et lecture de notre dernier document de recherche

Les outils de codage de l'IA et la technologie MCP sont appelés à jouer un rôle important dans l'avenir de la cybersécurité, mais il est essentiel de ne pas plonger avant d'avoir vérifié l'eau. 

L'article de Narajala et Habler détaille des stratégies d'atténuation complètes pour la mise en œuvre du MCP au niveau de l'entreprise et la gestion continue de ses risques. En fin de compte, il s'articule autour des principes de défense en profondeur et de confiance zéro, en ciblant explicitement le profil de risque unique que ce nouvel écosystème apporte à l'environnement de l'entreprise. Pour les développeurs en particulier, il est essentiel de combler les lacunes en matière de connaissances dans les domaines suivants :

  • Authentification et contrôle d'accès: Les outils d'IA agentique fonctionnent pour résoudre des problèmes et prendre des décisions autonomes afin d'atteindre les objectifs qui leur sont assignés, de la même manière qu'un humain aborderait des tâches d'ingénierie. Cependant, comme nous l'avons établi, une supervision humaine compétente de ces processus ne peut être ignorée, et les développeurs qui utilisent ces outils dans leurs flux de travail doivent comprendre exactement quels sont les accès dont ils disposent, les données qu'ils récupèrent ou exposent potentiellement, et où elles peuvent être partagées. 
  • Détection et atténuation des menaces générales: Comme c'est le cas pour la plupart des processus d'IA, pour repérer les failles et les inexactitudes potentielles dans les résultats de l'outil, l'utilisateur doit lui-même être compétent dans cette tâche. Les développeurs doivent bénéficier d'une formation continue et d'une vérification de ces compétences afin d'examiner efficacement les processus de sécurité et de réviser le code généré par l'IA avec précision et autorité en matière de sécurité.
  • Alignement sur la politique de sécurité et la gouvernance de l'IA: Les développeurs devraient être informés de l'existence d'outils approuvés et avoir la possibilité de se perfectionner et d'y accéder. Le développeur et l'outil doivent faire l'objet d'une évaluation comparative de la sécurité avant que les livraisons ne soient approuvées.

Nous avons récemment publié un document de recherche sur l'émergence du codage vibratoire et du codage assisté par l'IA, ainsi que sur les mesures que les entreprises doivent prendre pour former la prochaine génération d'ingénieurs logiciels dotés d'IA. Consultez-le et contactez-nous pour renforcer votre cohorte de développement dès aujourd'hui.

Table des matières

Télécharger le PDF
Voir la ressource
Vous souhaitez en savoir plus ?

Directeur général, président et cofondateur

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Réservez une démonstrationTélécharger
Partager sur :
Centre de ressources

Ressources pour vous aider à démarrer

Plus d'articles
Centre de ressources

Ressources pour vous aider à démarrer

Plus d'articles