Blog

Définir la norme : SCW publie des règles de sécurité gratuites pour le codage de l'IA sur GitHub

Shannon Holt
Publié le 17 juin 2025

Le développement assisté par IA n'est plus un horizon : il est bel et bien là, et il transforme rapidement la manière dont les logiciels sont écrits. Des outils comme GitHub Copilot, Cline, Roo, Cursor, Aider et Windsurf transforment les développeurs en copilotes, permettant des itérations plus rapides et accélérant tout, du prototypage aux projets de refactorisation majeurs.

Mais ce changement s’accompagne d’une tension familière : vitesse contre sécurité.

À Secure Code Warrior Nous avons beaucoup réfléchi à la manière d'aider les développeurs à sécuriser leurs outils de codage IA. C'est pourquoi nous sommes ravis de lancer une solution simple, performante et immédiatement utile : nos Règles de sécurité IA , une ressource publique et gratuite, accessible à tous sur GitHub. Nul besoin d'être un expert. Secure Code Warrior le client peut les utiliser ; nous fournissons ces règles comme une base gratuite et communautaire que chacun peut adopter et étendre à ses propres projets.

Ces règles sont conçues pour servir de garde-fous, poussant les outils d’IA vers des pratiques de codage plus sûres, même lorsque les développeurs évoluent à une vitesse vertigineuse.

Résumé pour les personnes pressées :

Alors que les outils de codage d'IA comme Copilot et Cursor deviennent essentiels au développement moderne, la sécurité ne peut plus être négligée. C'est pourquoi nous avons créé un ensemble de règles légères et axées sur la sécurité, conçues pour guider la génération de code d'IA vers des valeurs par défaut plus sûres.

  • Couvre le frontend, le backend et le mobile du Web
  • Facile à intégrer dans les outils d'IA
  • Public, gratuit et prêt à être adopté dans vos propres projets

Explorez les règles → https://github.com/SecureCodeWarrior/ai-security-rules

Faisons du codage sécurisé la valeur par défaut, même avec l’IA au clavier.

1. Pourquoi les règles sont importantes à l'ère du codage assisté par l'IA

Les outils de codage d'IA sont incroyablement utiles, mais pas infaillibles. S'ils peuvent générer rapidement du code fonctionnel, ils manquent souvent de nuances pour comprendre les normes, conventions et politiques de sécurité spécifiques à une équipe ou à un projet donné.

C'est là qu'entrent en jeu les fichiers de règles au niveau du projet.

Les outils d'IA modernes comme Cursor et Copilot prennent en charge les fichiers de configuration qui influencent la génération du code. Ces fichiers de règles agissent comme un murmure à l'oreille de l'IA, lui indiquant :

« Dans ce projet, nous ne concaténons jamais les chaînes SQL. »
« Préférez la récupération avec des en-têtes sécurisés plutôt que des valeurs par défaut non sécurisées. »
« Évitez d’utiliser eval() à moins que vous ne souhaitiez un audit de sécurité. »

Ces règles ne sont pas une solution miracle, ni un substitut à de solides pratiques de révision de code et à des outils de sécurité, mais elles peuvent aider à aligner le code généré par l'IA sur les pratiques que les équipes suivent déjà ou devraient suivre pour un développement sécurisé.

2. Ce que nous avons construit (et ce que nous n'avons pas construit)

Nos règles de démarrage sont désormais disponibles dans un Dépôt GitHub public. Il s'agit de :

  • Organisé par domaine – y compris le frontend Web, le backend et le mobile
  • Axé sur la sécurité – couvrant les problèmes récurrents tels que les failles d'injection, la manipulation dangereuse, la protection CSRF, les flux d'authentification faibles, etc.
  • Légers de par leur conception, ils sont censés être un point de départ pratique et non un manuel de règles exhaustif

Nous savons combien vos fenêtres contextuelles d'IA sont précieuses et à quelle vitesse le code consomme ces jetons. C'est pourquoi nos règles sont claires, concises et strictement axées sur la sécurité. Nous avons délibérément choisi d'éviter les directives spécifiques à un langage ou à un framework, privilégiant des pratiques de sécurité à fort impact et largement applicables, fonctionnant dans un large éventail d'environnements, sans nous imposer d'opinions sur l'architecture ou la conception.

Ces règles sont écrites pour être facilement intégrées aux formats de configuration pris en charge par les outils d'IA, avec peu ou pas de refactorisation. Considérez-les comme un ensemble de politiques de départ qui orientent l'IA vers des valeurs par défaut sécurisées.

3. Une nouvelle couche de défense

Voici à quoi cela ressemble en pratique :

  • Lorsque l’IA suggère un code qui gère les entrées de l’utilisateur, elle se tourne vers la validation et l’encodage, et non vers le traitement pur.
  • Lors de la création de requêtes de base de données, il est plus probable de recommander la paramétrisation, et non la concaténation de chaînes.
  • Lors de la génération de flux d'authentification frontaux, l'IA sera plus susceptible de promouvoir les meilleures pratiques de gestion des jetons, et non des piratages de stockage local non sécurisés.

Rien de tout cela ne remplace la gestion stratégique des risques des développeurs au sein d'un programme de sécurité, y compris la formation continue en sécurité. Cela ne dispense pas non plus de développeurs compétents en sécurité, d'autant plus qu'ils sont de plus en plus nombreux à diriger des masters en sécurité et à réviser le code généré par l'IA. Ces garde-fous ajoutent une couche de défense significative, notamment lorsque les développeurs évoluent rapidement, effectuent plusieurs tâches à la fois ou font tout simplement un peu trop confiance à l'outil.

Quelle est la prochaine étape ?

Ce n’est pas un produit fini, c’est un point de départ.

À mesure que les outils de codage d'IA évoluent, notre approche du développement sécurisé doit évoluer. Nos règles de sécurité d'IA sont gratuites, adaptables et extensibles à vos projets. Nous nous engageons à faire évoluer ces règles en permanence et nous serions ravis de connaître votre avis. N'hésitez pas à les tester et à nous faire part de vos commentaires. 

Explorez les règles sur GitHub
Lisez les directives d'utilisation des règles dans SCW Explore

Le codage assisté par IA transforme déjà notre façon de développer des logiciels. Assurons-nous qu'il soit sécurisé dès le départ.

Voir la ressource
Voir la ressource

Le développement assisté par IA n'est plus un horizon : il est bel et bien là, et il transforme rapidement la manière dont les logiciels sont écrits. Des outils comme GitHub Copilot, Cline, Roo, Cursor, Aider et Windsurf transforment les développeurs en copilotes, permettant des itérations plus rapides et accélérant tout, du prototypage aux projets de refactorisation majeurs.

Vous souhaitez en savoir plus ?

Shannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Réservez une démonstration
Partager sur :
Auteur
Shannon Holt
Publié le 17 juin 2025

Shannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.

Shannon Holt est spécialiste marketing en cybersécurité. Elle possède une solide expérience en sécurité applicative, en services de sécurité cloud et en normes de conformité telles que PCI-DSS et HITRUST. Elle s'attache à rendre le développement sécurisé et la conformité plus pratiques et accessibles aux équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.

Partager sur :

Le développement assisté par IA n'est plus un horizon : il est bel et bien là, et il transforme rapidement la manière dont les logiciels sont écrits. Des outils comme GitHub Copilot, Cline, Roo, Cursor, Aider et Windsurf transforment les développeurs en copilotes, permettant des itérations plus rapides et accélérant tout, du prototypage aux projets de refactorisation majeurs.

Mais ce changement s’accompagne d’une tension familière : vitesse contre sécurité.

À Secure Code Warrior Nous avons beaucoup réfléchi à la manière d'aider les développeurs à sécuriser leurs outils de codage IA. C'est pourquoi nous sommes ravis de lancer une solution simple, performante et immédiatement utile : nos Règles de sécurité IA , une ressource publique et gratuite, accessible à tous sur GitHub. Nul besoin d'être un expert. Secure Code Warrior le client peut les utiliser ; nous fournissons ces règles comme une base gratuite et communautaire que chacun peut adopter et étendre à ses propres projets.

Ces règles sont conçues pour servir de garde-fous, poussant les outils d’IA vers des pratiques de codage plus sûres, même lorsque les développeurs évoluent à une vitesse vertigineuse.

Résumé pour les personnes pressées :

Alors que les outils de codage d'IA comme Copilot et Cursor deviennent essentiels au développement moderne, la sécurité ne peut plus être négligée. C'est pourquoi nous avons créé un ensemble de règles légères et axées sur la sécurité, conçues pour guider la génération de code d'IA vers des valeurs par défaut plus sûres.

  • Couvre le frontend, le backend et le mobile du Web
  • Facile à intégrer dans les outils d'IA
  • Public, gratuit et prêt à être adopté dans vos propres projets

Explorez les règles → https://github.com/SecureCodeWarrior/ai-security-rules

Faisons du codage sécurisé la valeur par défaut, même avec l’IA au clavier.

1. Pourquoi les règles sont importantes à l'ère du codage assisté par l'IA

Les outils de codage d'IA sont incroyablement utiles, mais pas infaillibles. S'ils peuvent générer rapidement du code fonctionnel, ils manquent souvent de nuances pour comprendre les normes, conventions et politiques de sécurité spécifiques à une équipe ou à un projet donné.

C'est là qu'entrent en jeu les fichiers de règles au niveau du projet.

Les outils d'IA modernes comme Cursor et Copilot prennent en charge les fichiers de configuration qui influencent la génération du code. Ces fichiers de règles agissent comme un murmure à l'oreille de l'IA, lui indiquant :

« Dans ce projet, nous ne concaténons jamais les chaînes SQL. »
« Préférez la récupération avec des en-têtes sécurisés plutôt que des valeurs par défaut non sécurisées. »
« Évitez d’utiliser eval() à moins que vous ne souhaitiez un audit de sécurité. »

Ces règles ne sont pas une solution miracle, ni un substitut à de solides pratiques de révision de code et à des outils de sécurité, mais elles peuvent aider à aligner le code généré par l'IA sur les pratiques que les équipes suivent déjà ou devraient suivre pour un développement sécurisé.

2. Ce que nous avons construit (et ce que nous n'avons pas construit)

Nos règles de démarrage sont désormais disponibles dans un Dépôt GitHub public. Il s'agit de :

  • Organisé par domaine – y compris le frontend Web, le backend et le mobile
  • Axé sur la sécurité – couvrant les problèmes récurrents tels que les failles d'injection, la manipulation dangereuse, la protection CSRF, les flux d'authentification faibles, etc.
  • Légers de par leur conception, ils sont censés être un point de départ pratique et non un manuel de règles exhaustif

Nous savons combien vos fenêtres contextuelles d'IA sont précieuses et à quelle vitesse le code consomme ces jetons. C'est pourquoi nos règles sont claires, concises et strictement axées sur la sécurité. Nous avons délibérément choisi d'éviter les directives spécifiques à un langage ou à un framework, privilégiant des pratiques de sécurité à fort impact et largement applicables, fonctionnant dans un large éventail d'environnements, sans nous imposer d'opinions sur l'architecture ou la conception.

Ces règles sont écrites pour être facilement intégrées aux formats de configuration pris en charge par les outils d'IA, avec peu ou pas de refactorisation. Considérez-les comme un ensemble de politiques de départ qui orientent l'IA vers des valeurs par défaut sécurisées.

3. Une nouvelle couche de défense

Voici à quoi cela ressemble en pratique :

  • Lorsque l’IA suggère un code qui gère les entrées de l’utilisateur, elle se tourne vers la validation et l’encodage, et non vers le traitement pur.
  • Lors de la création de requêtes de base de données, il est plus probable de recommander la paramétrisation, et non la concaténation de chaînes.
  • Lors de la génération de flux d'authentification frontaux, l'IA sera plus susceptible de promouvoir les meilleures pratiques de gestion des jetons, et non des piratages de stockage local non sécurisés.

Rien de tout cela ne remplace la gestion stratégique des risques des développeurs au sein d'un programme de sécurité, y compris la formation continue en sécurité. Cela ne dispense pas non plus de développeurs compétents en sécurité, d'autant plus qu'ils sont de plus en plus nombreux à diriger des masters en sécurité et à réviser le code généré par l'IA. Ces garde-fous ajoutent une couche de défense significative, notamment lorsque les développeurs évoluent rapidement, effectuent plusieurs tâches à la fois ou font tout simplement un peu trop confiance à l'outil.

Quelle est la prochaine étape ?

Ce n’est pas un produit fini, c’est un point de départ.

À mesure que les outils de codage d'IA évoluent, notre approche du développement sécurisé doit évoluer. Nos règles de sécurité d'IA sont gratuites, adaptables et extensibles à vos projets. Nous nous engageons à faire évoluer ces règles en permanence et nous serions ravis de connaître votre avis. N'hésitez pas à les tester et à nous faire part de vos commentaires. 

Explorez les règles sur GitHub
Lisez les directives d'utilisation des règles dans SCW Explore

Le codage assisté par IA transforme déjà notre façon de développer des logiciels. Assurons-nous qu'il soit sécurisé dès le départ.

Voir la ressource
Voir la ressource

Remplissez le formulaire ci-dessous pour télécharger le rapport

Nous aimerions que vous nous autorisiez à vous envoyer des informations sur nos produits et/ou sur des sujets liés au codage sécurisé. Nous traiterons toujours vos données personnelles avec le plus grand soin et ne les vendrons jamais à d'autres entreprises à des fins de marketing.

Soumettre
Pour soumettre le formulaire, veuillez activer les cookies "Analytics". N'hésitez pas à les désactiver à nouveau une fois que vous aurez terminé.

Le développement assisté par IA n'est plus un horizon : il est bel et bien là, et il transforme rapidement la manière dont les logiciels sont écrits. Des outils comme GitHub Copilot, Cline, Roo, Cursor, Aider et Windsurf transforment les développeurs en copilotes, permettant des itérations plus rapides et accélérant tout, du prototypage aux projets de refactorisation majeurs.

Mais ce changement s’accompagne d’une tension familière : vitesse contre sécurité.

À Secure Code Warrior Nous avons beaucoup réfléchi à la manière d'aider les développeurs à sécuriser leurs outils de codage IA. C'est pourquoi nous sommes ravis de lancer une solution simple, performante et immédiatement utile : nos Règles de sécurité IA , une ressource publique et gratuite, accessible à tous sur GitHub. Nul besoin d'être un expert. Secure Code Warrior le client peut les utiliser ; nous fournissons ces règles comme une base gratuite et communautaire que chacun peut adopter et étendre à ses propres projets.

Ces règles sont conçues pour servir de garde-fous, poussant les outils d’IA vers des pratiques de codage plus sûres, même lorsque les développeurs évoluent à une vitesse vertigineuse.

Résumé pour les personnes pressées :

Alors que les outils de codage d'IA comme Copilot et Cursor deviennent essentiels au développement moderne, la sécurité ne peut plus être négligée. C'est pourquoi nous avons créé un ensemble de règles légères et axées sur la sécurité, conçues pour guider la génération de code d'IA vers des valeurs par défaut plus sûres.

  • Couvre le frontend, le backend et le mobile du Web
  • Facile à intégrer dans les outils d'IA
  • Public, gratuit et prêt à être adopté dans vos propres projets

Explorez les règles → https://github.com/SecureCodeWarrior/ai-security-rules

Faisons du codage sécurisé la valeur par défaut, même avec l’IA au clavier.

1. Pourquoi les règles sont importantes à l'ère du codage assisté par l'IA

Les outils de codage d'IA sont incroyablement utiles, mais pas infaillibles. S'ils peuvent générer rapidement du code fonctionnel, ils manquent souvent de nuances pour comprendre les normes, conventions et politiques de sécurité spécifiques à une équipe ou à un projet donné.

C'est là qu'entrent en jeu les fichiers de règles au niveau du projet.

Les outils d'IA modernes comme Cursor et Copilot prennent en charge les fichiers de configuration qui influencent la génération du code. Ces fichiers de règles agissent comme un murmure à l'oreille de l'IA, lui indiquant :

« Dans ce projet, nous ne concaténons jamais les chaînes SQL. »
« Préférez la récupération avec des en-têtes sécurisés plutôt que des valeurs par défaut non sécurisées. »
« Évitez d’utiliser eval() à moins que vous ne souhaitiez un audit de sécurité. »

Ces règles ne sont pas une solution miracle, ni un substitut à de solides pratiques de révision de code et à des outils de sécurité, mais elles peuvent aider à aligner le code généré par l'IA sur les pratiques que les équipes suivent déjà ou devraient suivre pour un développement sécurisé.

2. Ce que nous avons construit (et ce que nous n'avons pas construit)

Nos règles de démarrage sont désormais disponibles dans un Dépôt GitHub public. Il s'agit de :

  • Organisé par domaine – y compris le frontend Web, le backend et le mobile
  • Axé sur la sécurité – couvrant les problèmes récurrents tels que les failles d'injection, la manipulation dangereuse, la protection CSRF, les flux d'authentification faibles, etc.
  • Légers de par leur conception, ils sont censés être un point de départ pratique et non un manuel de règles exhaustif

Nous savons combien vos fenêtres contextuelles d'IA sont précieuses et à quelle vitesse le code consomme ces jetons. C'est pourquoi nos règles sont claires, concises et strictement axées sur la sécurité. Nous avons délibérément choisi d'éviter les directives spécifiques à un langage ou à un framework, privilégiant des pratiques de sécurité à fort impact et largement applicables, fonctionnant dans un large éventail d'environnements, sans nous imposer d'opinions sur l'architecture ou la conception.

Ces règles sont écrites pour être facilement intégrées aux formats de configuration pris en charge par les outils d'IA, avec peu ou pas de refactorisation. Considérez-les comme un ensemble de politiques de départ qui orientent l'IA vers des valeurs par défaut sécurisées.

3. Une nouvelle couche de défense

Voici à quoi cela ressemble en pratique :

  • Lorsque l’IA suggère un code qui gère les entrées de l’utilisateur, elle se tourne vers la validation et l’encodage, et non vers le traitement pur.
  • Lors de la création de requêtes de base de données, il est plus probable de recommander la paramétrisation, et non la concaténation de chaînes.
  • Lors de la génération de flux d'authentification frontaux, l'IA sera plus susceptible de promouvoir les meilleures pratiques de gestion des jetons, et non des piratages de stockage local non sécurisés.

Rien de tout cela ne remplace la gestion stratégique des risques des développeurs au sein d'un programme de sécurité, y compris la formation continue en sécurité. Cela ne dispense pas non plus de développeurs compétents en sécurité, d'autant plus qu'ils sont de plus en plus nombreux à diriger des masters en sécurité et à réviser le code généré par l'IA. Ces garde-fous ajoutent une couche de défense significative, notamment lorsque les développeurs évoluent rapidement, effectuent plusieurs tâches à la fois ou font tout simplement un peu trop confiance à l'outil.

Quelle est la prochaine étape ?

Ce n’est pas un produit fini, c’est un point de départ.

À mesure que les outils de codage d'IA évoluent, notre approche du développement sécurisé doit évoluer. Nos règles de sécurité d'IA sont gratuites, adaptables et extensibles à vos projets. Nous nous engageons à faire évoluer ces règles en permanence et nous serions ravis de connaître votre avis. N'hésitez pas à les tester et à nous faire part de vos commentaires. 

Explorez les règles sur GitHub
Lisez les directives d'utilisation des règles dans SCW Explore

Le codage assisté par IA transforme déjà notre façon de développer des logiciels. Assurons-nous qu'il soit sécurisé dès le départ.

Commencez

Cliquez sur le lien ci-dessous et téléchargez le PDF de cette ressource.

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Voir le rapportRéservez une démonstration
Télécharger le PDF
Voir la ressource
Partager sur :
Vous souhaitez en savoir plus ?

Partager sur :
Auteur
Shannon Holt
Publié le 17 juin 2025

Shannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.

Shannon Holt est spécialiste marketing en cybersécurité. Elle possède une solide expérience en sécurité applicative, en services de sécurité cloud et en normes de conformité telles que PCI-DSS et HITRUST. Elle s'attache à rendre le développement sécurisé et la conformité plus pratiques et accessibles aux équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.

Partager sur :

Le développement assisté par IA n'est plus un horizon : il est bel et bien là, et il transforme rapidement la manière dont les logiciels sont écrits. Des outils comme GitHub Copilot, Cline, Roo, Cursor, Aider et Windsurf transforment les développeurs en copilotes, permettant des itérations plus rapides et accélérant tout, du prototypage aux projets de refactorisation majeurs.

Mais ce changement s’accompagne d’une tension familière : vitesse contre sécurité.

À Secure Code Warrior Nous avons beaucoup réfléchi à la manière d'aider les développeurs à sécuriser leurs outils de codage IA. C'est pourquoi nous sommes ravis de lancer une solution simple, performante et immédiatement utile : nos Règles de sécurité IA , une ressource publique et gratuite, accessible à tous sur GitHub. Nul besoin d'être un expert. Secure Code Warrior le client peut les utiliser ; nous fournissons ces règles comme une base gratuite et communautaire que chacun peut adopter et étendre à ses propres projets.

Ces règles sont conçues pour servir de garde-fous, poussant les outils d’IA vers des pratiques de codage plus sûres, même lorsque les développeurs évoluent à une vitesse vertigineuse.

Résumé pour les personnes pressées :

Alors que les outils de codage d'IA comme Copilot et Cursor deviennent essentiels au développement moderne, la sécurité ne peut plus être négligée. C'est pourquoi nous avons créé un ensemble de règles légères et axées sur la sécurité, conçues pour guider la génération de code d'IA vers des valeurs par défaut plus sûres.

  • Couvre le frontend, le backend et le mobile du Web
  • Facile à intégrer dans les outils d'IA
  • Public, gratuit et prêt à être adopté dans vos propres projets

Explorez les règles → https://github.com/SecureCodeWarrior/ai-security-rules

Faisons du codage sécurisé la valeur par défaut, même avec l’IA au clavier.

1. Pourquoi les règles sont importantes à l'ère du codage assisté par l'IA

Les outils de codage d'IA sont incroyablement utiles, mais pas infaillibles. S'ils peuvent générer rapidement du code fonctionnel, ils manquent souvent de nuances pour comprendre les normes, conventions et politiques de sécurité spécifiques à une équipe ou à un projet donné.

C'est là qu'entrent en jeu les fichiers de règles au niveau du projet.

Les outils d'IA modernes comme Cursor et Copilot prennent en charge les fichiers de configuration qui influencent la génération du code. Ces fichiers de règles agissent comme un murmure à l'oreille de l'IA, lui indiquant :

« Dans ce projet, nous ne concaténons jamais les chaînes SQL. »
« Préférez la récupération avec des en-têtes sécurisés plutôt que des valeurs par défaut non sécurisées. »
« Évitez d’utiliser eval() à moins que vous ne souhaitiez un audit de sécurité. »

Ces règles ne sont pas une solution miracle, ni un substitut à de solides pratiques de révision de code et à des outils de sécurité, mais elles peuvent aider à aligner le code généré par l'IA sur les pratiques que les équipes suivent déjà ou devraient suivre pour un développement sécurisé.

2. Ce que nous avons construit (et ce que nous n'avons pas construit)

Nos règles de démarrage sont désormais disponibles dans un Dépôt GitHub public. Il s'agit de :

  • Organisé par domaine – y compris le frontend Web, le backend et le mobile
  • Axé sur la sécurité – couvrant les problèmes récurrents tels que les failles d'injection, la manipulation dangereuse, la protection CSRF, les flux d'authentification faibles, etc.
  • Légers de par leur conception, ils sont censés être un point de départ pratique et non un manuel de règles exhaustif

Nous savons combien vos fenêtres contextuelles d'IA sont précieuses et à quelle vitesse le code consomme ces jetons. C'est pourquoi nos règles sont claires, concises et strictement axées sur la sécurité. Nous avons délibérément choisi d'éviter les directives spécifiques à un langage ou à un framework, privilégiant des pratiques de sécurité à fort impact et largement applicables, fonctionnant dans un large éventail d'environnements, sans nous imposer d'opinions sur l'architecture ou la conception.

Ces règles sont écrites pour être facilement intégrées aux formats de configuration pris en charge par les outils d'IA, avec peu ou pas de refactorisation. Considérez-les comme un ensemble de politiques de départ qui orientent l'IA vers des valeurs par défaut sécurisées.

3. Une nouvelle couche de défense

Voici à quoi cela ressemble en pratique :

  • Lorsque l’IA suggère un code qui gère les entrées de l’utilisateur, elle se tourne vers la validation et l’encodage, et non vers le traitement pur.
  • Lors de la création de requêtes de base de données, il est plus probable de recommander la paramétrisation, et non la concaténation de chaînes.
  • Lors de la génération de flux d'authentification frontaux, l'IA sera plus susceptible de promouvoir les meilleures pratiques de gestion des jetons, et non des piratages de stockage local non sécurisés.

Rien de tout cela ne remplace la gestion stratégique des risques des développeurs au sein d'un programme de sécurité, y compris la formation continue en sécurité. Cela ne dispense pas non plus de développeurs compétents en sécurité, d'autant plus qu'ils sont de plus en plus nombreux à diriger des masters en sécurité et à réviser le code généré par l'IA. Ces garde-fous ajoutent une couche de défense significative, notamment lorsque les développeurs évoluent rapidement, effectuent plusieurs tâches à la fois ou font tout simplement un peu trop confiance à l'outil.

Quelle est la prochaine étape ?

Ce n’est pas un produit fini, c’est un point de départ.

À mesure que les outils de codage d'IA évoluent, notre approche du développement sécurisé doit évoluer. Nos règles de sécurité d'IA sont gratuites, adaptables et extensibles à vos projets. Nous nous engageons à faire évoluer ces règles en permanence et nous serions ravis de connaître votre avis. N'hésitez pas à les tester et à nous faire part de vos commentaires. 

Explorez les règles sur GitHub
Lisez les directives d'utilisation des règles dans SCW Explore

Le codage assisté par IA transforme déjà notre façon de développer des logiciels. Assurons-nous qu'il soit sécurisé dès le départ.

Table des matières

Télécharger le PDF
Voir la ressource
Vous souhaitez en savoir plus ?

Shannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.

Réservez une démonstrationTélécharger
Partager sur :
Centre de ressources

Ressources pour vous aider à démarrer

Plus d'articles
Centre de ressources

Ressources pour vous aider à démarrer

Plus d'articles