Série vidéo sur la sécurité AI/LLM : Tous les épisodes, mis à jour chaque semaine
Votre guide pour la série d'introduction à la sécurité AI/LLM
Les outils de codage de l'IA tels que GitHub Copilot, Cursor et d'autres sont en train de remodeler la façon dont les logiciels sont construits, mais ils introduisent également de nouveaux défis en matière de sécurité que les développeurs doivent comprendre pour créer des applications sûres et fiables. Pour aider les équipes à adopter l'IA en toute sécurité, nous avons créé une série vidéo gratuite d'introduction à la sécurité de l'IA/LLM en 12 semaines sur YouTube.
Ce billet est le point central de la série. Chaque semaine, nous la mettrons à jour avec une nouvelle vidéo et une description, couvrant des concepts essentiels tels que l'injection rapide, l'empoisonnement des données et des modèles, les risques liés à la chaîne d'approvisionnement, l'injection rapide sécurisée, et bien plus encore. Ajoutez cette page à vos favoris pour suivre la série chaque semaine, ou abonnez-vous à notre chaîne YouTube pour recevoir chaque leçon dès sa publication.
Si vous souhaitez aller plus loin que ces leçons introductives, explorez l'ensemble de la collection AI/LLM de la plateforme SCW ou demandez une démonstration si vous n'êtes pas encore client. Abonnez-vous à notre chaîne YouTube pour suivre chaque nouvel épisode dès sa sortie. Et si vous souhaitez rester informé des derniers contenus, mises à jour et ressources, inscrivez-vous ici pour rejoindre notre communauté de développeurs et de responsables de la sécurité.
Épisodes (mis à jour chaque semaine)
Semaine 1 - Risques liés au codage de l'IA : Dangers de l'utilisation des LLM
Dans cette vidéo, nous explorons les dangers potentiels de l'utilisation de l'IA/LLM lors de l'écriture du code et soulignons les principaux risques auxquels les développeurs sont confrontés lorsqu'ils intègrent des outils alimentés par l'IA dans leurs flux de travail.
Semaine 2 - Avantages du codage de l'IA : Développement sécurisé assisté par l'IA
Lesoutils de codage de l' IAne sont pas seulement risqués - lorsqu'ils sont utilisés de manière sécurisée, ils peuvent aider les développeurs à travailler plus rapidement et plus intelligemment. Dans cette vidéo, nous explorons les avantages de l'utilisation de l'IA/LLM lors de l'écriture de code, en soulignant comment les équipes peuvent exploiter l'IA de manière responsable tout en évitant les pièges de sécurité courants.
Semaine 3 - L'injection d'invites expliquée : Protéger le code généré par l'IA
Promptinjection est l'une des vulnérabilités les plus courantes de l'IA/LLM - et une vulnérabilité que tous les développeurs devraient savoir comment prévenir. Dans cette vidéo, nous vous présentons l'injection de
Semaine 4 - Divulgation d'informations sensibles : Éviter les fuites de données de l'IA
Les outils alimentés par l'IA peuvent involontairement divulguer des informations sensibles, mettant ainsi vos applications et vos données en danger. Dans cette vidéo, nous abordons les vulnérabilités liées à la divulgation d'informations sensibles, expliquons comment elles surviennent lors de l'utilisation de l'IA/LLM et partageons les mesures pratiques que les développeurs peuvent prendre pour réduire l'exposition à ces vulnérabilités.
Semaine 5 - Risques liés à la chaîne d'approvisionnement de l'IA : Sécuriser les dépendances
Le développement assisté par l'IAaccélère le codage - mais il introduit également des risques liés à la chaîne d'approvisionnement qui peuvent avoir un impact sur chaque couche de vos applications. Dans cette vidéo, nous explorons les vulnérabilités liées à l'IA/LLM, nous expliquons comment les modèles et les API tiers peuvent étendre votre surface d'attaque et nous partageons des stratégies pour minimiser l'exposition.
Semaine 6 - Empoisonnement des données : Sécuriser les modèles et les résultats de l'IA
Les systèmes d'IAne sont sûrs que dans la mesure où leurs données d'entraînement sont sûres - et les entrées compromises peuvent créer des vulnérabilités qui se répercutent sur vos applications. Dans cette vidéo, nous présentons les attaques d'empoisonnement des données et des modèles, nous expliquons comment des entrées malveillantes peuvent manipuler les sorties de l'IA et nous partageons des stratégies pour protéger vos systèmes.
Semaine 7 - Traitement incorrect des sorties : Valider le code généré par l'IA
Les outils alimentés par l'IApeuvent générer du code rapidement, mais si les sorties ne sont pas validées, des vulnérabilités peuvent s'infiltrer sans qu'on s'en aperçoive. Dans cette vidéo, nous examinons la mauvaise gestion des sorties dans le développement assisté par l'IA, nous expliquons comment les sorties risquées peuvent compromettre vos applications et nous partageons des techniques pour protéger le code généré.
Semaine 8 - Agence excessive : Contrôler les risques liés à l'autonomie de l'IA
Au fur et à mesure queles systèmes d'IA deviennent plus autonomes, l'agence excessive crée de nouveaux risques où les modèles agissent au-delà de leur champ d'action prévu. Dans cette vidéo, nous explorons les vulnérabilités de l'agence excessive dans le développement assisté par l'IA, nous expliquons comment les comportements de dépassement surviennent et nous discutons des techniques pour maintenir le contrôle sur les processus pilotés par l'IA.
Semaine 9 - Fuite d'invites système : risques cachés pour la sécurité de l'IA
Lesinvites systèmecomprennent souvent des instructions cachées qui guident le comportement de l'IA - mais si elles sont exposées, les attaquants peuvent manipuler les modèles ou extraire des informations sensibles. Dans cette vidéo, nous abordons les vulnérabilités liées aux fuites d'invites système, expliquons comment elles se produisent et discutons des mesures que les développeurs peuvent prendre pour protéger leurs flux de travail alimentés par l'IA.
Semaine 10 - Faiblesses des vecteurs : Sécuriser les flux de recherche d'IA
Lesmodèles d' IAs'appuient souvent sur des bases de données vectorielles et des encastrements pour offrir des capacités puissantes - mais les mauvaises configurations et les implémentations non sécurisées peuvent exposer des données sensibles et créer de nouveaux vecteurs d'attaque. Dans cette vidéo, nous nous penchons sur les faiblesses des vecteurs et des encastrements, expliquons les défis de sécurité courants et partageons des stratégies pour sécuriser vos flux de recherche et d'extraction alimentés par l'IA.
Semaine 11 — Désinformation liée à l'IA : éviter les risques d'hallucination
Les outils d'IApeuvent parfois générer des résultats qui semblent corrects, mais qui sont erronés, créant ainsi des risques de désinformation qui affectent la sécurité, la fiabilité et la prise de décision. Dans cette vidéo, nous expliquons les vulnérabilités liées à la désinformation dans le codage assisté par l'IA, explorons comment des résultats incorrects apparaissent et partageons des stratégies pour valider et sécuriser le contenu généré par l'IA.
, semaine 12 — Consommation illimitée : prévenir les risques de déni de service liés à l'IA
Les systèmes d'IA peuvent consommer des ressources sans limite, ce qui entraîne des risques tels que le déni de service (DoS), l'exposition des données et des pannes opérationnelles imprévues. Dans cette vidéo, nous abordons les vulnérabilités liées à la consommation illimitée dans l'IA/les LLM, expliquons comment elles se produisent et partageons des stratégies pratiques pour surveiller, contrôler et sécuriser l'utilisation des ressources IA.
Ces vidéos sont conçues pour présenter les concepts fondamentaux de la sécurité IA/LLM, mais la Secure Code Warrior offre bien d'autres possibilités à explorer. Plongez-vous dans les défis IA qui simulent la révision et la correction de code assistées par l'IA dans le monde réel, explorez nos directives IA/LLM alignées sur les meilleures pratiques du secteur et travaillez à travers des procédures pas à pas, Missions, des quêtes et des modèles de cours qui offrent une expérience pratique pour acquérir des habitudes de codage sécurisées. Pour les équipes prêtes à perfectionner leurs compétences, la plateforme propose également une bibliothèque en constante expansion de plus de 130 activités d'apprentissage axées sur l'IA/LLM, couvrant des sujets tels que le codage avec l'IA, l'introduction aux risques et à la sécurité de l'IA, et le Top 10 de l'OWASP pour les applications LLM. Veuillez demander une démonstration pour en savoir plus.


Votre guide tout-en-un pour notre série vidéo de 12 semaines sur la sécurité de l'IA/LLM. Regardez chaque épisode, apprenez les concepts clés de la sécurité de l'IA et suivez la série chaque semaine.
Shannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Réservez une démonstrationShannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est spécialiste marketing en cybersécurité. Elle possède une solide expérience en sécurité applicative, en services de sécurité cloud et en normes de conformité telles que PCI-DSS et HITRUST. Elle s'attache à rendre le développement sécurisé et la conformité plus pratiques et accessibles aux équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.


Votre guide pour la série d'introduction à la sécurité AI/LLM
Les outils de codage de l'IA tels que GitHub Copilot, Cursor et d'autres sont en train de remodeler la façon dont les logiciels sont construits, mais ils introduisent également de nouveaux défis en matière de sécurité que les développeurs doivent comprendre pour créer des applications sûres et fiables. Pour aider les équipes à adopter l'IA en toute sécurité, nous avons créé une série vidéo gratuite d'introduction à la sécurité de l'IA/LLM en 12 semaines sur YouTube.
Ce billet est le point central de la série. Chaque semaine, nous la mettrons à jour avec une nouvelle vidéo et une description, couvrant des concepts essentiels tels que l'injection rapide, l'empoisonnement des données et des modèles, les risques liés à la chaîne d'approvisionnement, l'injection rapide sécurisée, et bien plus encore. Ajoutez cette page à vos favoris pour suivre la série chaque semaine, ou abonnez-vous à notre chaîne YouTube pour recevoir chaque leçon dès sa publication.
Si vous souhaitez aller plus loin que ces leçons introductives, explorez l'ensemble de la collection AI/LLM de la plateforme SCW ou demandez une démonstration si vous n'êtes pas encore client. Abonnez-vous à notre chaîne YouTube pour suivre chaque nouvel épisode dès sa sortie. Et si vous souhaitez rester informé des derniers contenus, mises à jour et ressources, inscrivez-vous ici pour rejoindre notre communauté de développeurs et de responsables de la sécurité.
Épisodes (mis à jour chaque semaine)
Semaine 1 - Risques liés au codage de l'IA : Dangers de l'utilisation des LLM
Dans cette vidéo, nous explorons les dangers potentiels de l'utilisation de l'IA/LLM lors de l'écriture du code et soulignons les principaux risques auxquels les développeurs sont confrontés lorsqu'ils intègrent des outils alimentés par l'IA dans leurs flux de travail.
Semaine 2 - Avantages du codage de l'IA : Développement sécurisé assisté par l'IA
Lesoutils de codage de l' IAne sont pas seulement risqués - lorsqu'ils sont utilisés de manière sécurisée, ils peuvent aider les développeurs à travailler plus rapidement et plus intelligemment. Dans cette vidéo, nous explorons les avantages de l'utilisation de l'IA/LLM lors de l'écriture de code, en soulignant comment les équipes peuvent exploiter l'IA de manière responsable tout en évitant les pièges de sécurité courants.
Semaine 3 - L'injection d'invites expliquée : Protéger le code généré par l'IA
Promptinjection est l'une des vulnérabilités les plus courantes de l'IA/LLM - et une vulnérabilité que tous les développeurs devraient savoir comment prévenir. Dans cette vidéo, nous vous présentons l'injection de
Semaine 4 - Divulgation d'informations sensibles : Éviter les fuites de données de l'IA
Les outils alimentés par l'IA peuvent involontairement divulguer des informations sensibles, mettant ainsi vos applications et vos données en danger. Dans cette vidéo, nous abordons les vulnérabilités liées à la divulgation d'informations sensibles, expliquons comment elles surviennent lors de l'utilisation de l'IA/LLM et partageons les mesures pratiques que les développeurs peuvent prendre pour réduire l'exposition à ces vulnérabilités.
Semaine 5 - Risques liés à la chaîne d'approvisionnement de l'IA : Sécuriser les dépendances
Le développement assisté par l'IAaccélère le codage - mais il introduit également des risques liés à la chaîne d'approvisionnement qui peuvent avoir un impact sur chaque couche de vos applications. Dans cette vidéo, nous explorons les vulnérabilités liées à l'IA/LLM, nous expliquons comment les modèles et les API tiers peuvent étendre votre surface d'attaque et nous partageons des stratégies pour minimiser l'exposition.
Semaine 6 - Empoisonnement des données : Sécuriser les modèles et les résultats de l'IA
Les systèmes d'IAne sont sûrs que dans la mesure où leurs données d'entraînement sont sûres - et les entrées compromises peuvent créer des vulnérabilités qui se répercutent sur vos applications. Dans cette vidéo, nous présentons les attaques d'empoisonnement des données et des modèles, nous expliquons comment des entrées malveillantes peuvent manipuler les sorties de l'IA et nous partageons des stratégies pour protéger vos systèmes.
Semaine 7 - Traitement incorrect des sorties : Valider le code généré par l'IA
Les outils alimentés par l'IApeuvent générer du code rapidement, mais si les sorties ne sont pas validées, des vulnérabilités peuvent s'infiltrer sans qu'on s'en aperçoive. Dans cette vidéo, nous examinons la mauvaise gestion des sorties dans le développement assisté par l'IA, nous expliquons comment les sorties risquées peuvent compromettre vos applications et nous partageons des techniques pour protéger le code généré.
Semaine 8 - Agence excessive : Contrôler les risques liés à l'autonomie de l'IA
Au fur et à mesure queles systèmes d'IA deviennent plus autonomes, l'agence excessive crée de nouveaux risques où les modèles agissent au-delà de leur champ d'action prévu. Dans cette vidéo, nous explorons les vulnérabilités de l'agence excessive dans le développement assisté par l'IA, nous expliquons comment les comportements de dépassement surviennent et nous discutons des techniques pour maintenir le contrôle sur les processus pilotés par l'IA.
Semaine 9 - Fuite d'invites système : risques cachés pour la sécurité de l'IA
Lesinvites systèmecomprennent souvent des instructions cachées qui guident le comportement de l'IA - mais si elles sont exposées, les attaquants peuvent manipuler les modèles ou extraire des informations sensibles. Dans cette vidéo, nous abordons les vulnérabilités liées aux fuites d'invites système, expliquons comment elles se produisent et discutons des mesures que les développeurs peuvent prendre pour protéger leurs flux de travail alimentés par l'IA.
Semaine 10 - Faiblesses des vecteurs : Sécuriser les flux de recherche d'IA
Lesmodèles d' IAs'appuient souvent sur des bases de données vectorielles et des encastrements pour offrir des capacités puissantes - mais les mauvaises configurations et les implémentations non sécurisées peuvent exposer des données sensibles et créer de nouveaux vecteurs d'attaque. Dans cette vidéo, nous nous penchons sur les faiblesses des vecteurs et des encastrements, expliquons les défis de sécurité courants et partageons des stratégies pour sécuriser vos flux de recherche et d'extraction alimentés par l'IA.
Semaine 11 — Désinformation liée à l'IA : éviter les risques d'hallucination
Les outils d'IApeuvent parfois générer des résultats qui semblent corrects, mais qui sont erronés, créant ainsi des risques de désinformation qui affectent la sécurité, la fiabilité et la prise de décision. Dans cette vidéo, nous expliquons les vulnérabilités liées à la désinformation dans le codage assisté par l'IA, explorons comment des résultats incorrects apparaissent et partageons des stratégies pour valider et sécuriser le contenu généré par l'IA.
, semaine 12 — Consommation illimitée : prévenir les risques de déni de service liés à l'IA
Les systèmes d'IA peuvent consommer des ressources sans limite, ce qui entraîne des risques tels que le déni de service (DoS), l'exposition des données et des pannes opérationnelles imprévues. Dans cette vidéo, nous abordons les vulnérabilités liées à la consommation illimitée dans l'IA/les LLM, expliquons comment elles se produisent et partageons des stratégies pratiques pour surveiller, contrôler et sécuriser l'utilisation des ressources IA.
Ces vidéos sont conçues pour présenter les concepts fondamentaux de la sécurité IA/LLM, mais la Secure Code Warrior offre bien d'autres possibilités à explorer. Plongez-vous dans les défis IA qui simulent la révision et la correction de code assistées par l'IA dans le monde réel, explorez nos directives IA/LLM alignées sur les meilleures pratiques du secteur et travaillez à travers des procédures pas à pas, Missions, des quêtes et des modèles de cours qui offrent une expérience pratique pour acquérir des habitudes de codage sécurisées. Pour les équipes prêtes à perfectionner leurs compétences, la plateforme propose également une bibliothèque en constante expansion de plus de 130 activités d'apprentissage axées sur l'IA/LLM, couvrant des sujets tels que le codage avec l'IA, l'introduction aux risques et à la sécurité de l'IA, et le Top 10 de l'OWASP pour les applications LLM. Veuillez demander une démonstration pour en savoir plus.

Votre guide pour la série d'introduction à la sécurité AI/LLM
Les outils de codage de l'IA tels que GitHub Copilot, Cursor et d'autres sont en train de remodeler la façon dont les logiciels sont construits, mais ils introduisent également de nouveaux défis en matière de sécurité que les développeurs doivent comprendre pour créer des applications sûres et fiables. Pour aider les équipes à adopter l'IA en toute sécurité, nous avons créé une série vidéo gratuite d'introduction à la sécurité de l'IA/LLM en 12 semaines sur YouTube.
Ce billet est le point central de la série. Chaque semaine, nous la mettrons à jour avec une nouvelle vidéo et une description, couvrant des concepts essentiels tels que l'injection rapide, l'empoisonnement des données et des modèles, les risques liés à la chaîne d'approvisionnement, l'injection rapide sécurisée, et bien plus encore. Ajoutez cette page à vos favoris pour suivre la série chaque semaine, ou abonnez-vous à notre chaîne YouTube pour recevoir chaque leçon dès sa publication.
Si vous souhaitez aller plus loin que ces leçons introductives, explorez l'ensemble de la collection AI/LLM de la plateforme SCW ou demandez une démonstration si vous n'êtes pas encore client. Abonnez-vous à notre chaîne YouTube pour suivre chaque nouvel épisode dès sa sortie. Et si vous souhaitez rester informé des derniers contenus, mises à jour et ressources, inscrivez-vous ici pour rejoindre notre communauté de développeurs et de responsables de la sécurité.
Épisodes (mis à jour chaque semaine)
Semaine 1 - Risques liés au codage de l'IA : Dangers de l'utilisation des LLM
Dans cette vidéo, nous explorons les dangers potentiels de l'utilisation de l'IA/LLM lors de l'écriture du code et soulignons les principaux risques auxquels les développeurs sont confrontés lorsqu'ils intègrent des outils alimentés par l'IA dans leurs flux de travail.
Semaine 2 - Avantages du codage de l'IA : Développement sécurisé assisté par l'IA
Lesoutils de codage de l' IAne sont pas seulement risqués - lorsqu'ils sont utilisés de manière sécurisée, ils peuvent aider les développeurs à travailler plus rapidement et plus intelligemment. Dans cette vidéo, nous explorons les avantages de l'utilisation de l'IA/LLM lors de l'écriture de code, en soulignant comment les équipes peuvent exploiter l'IA de manière responsable tout en évitant les pièges de sécurité courants.
Semaine 3 - L'injection d'invites expliquée : Protéger le code généré par l'IA
Promptinjection est l'une des vulnérabilités les plus courantes de l'IA/LLM - et une vulnérabilité que tous les développeurs devraient savoir comment prévenir. Dans cette vidéo, nous vous présentons l'injection de
Semaine 4 - Divulgation d'informations sensibles : Éviter les fuites de données de l'IA
Les outils alimentés par l'IA peuvent involontairement divulguer des informations sensibles, mettant ainsi vos applications et vos données en danger. Dans cette vidéo, nous abordons les vulnérabilités liées à la divulgation d'informations sensibles, expliquons comment elles surviennent lors de l'utilisation de l'IA/LLM et partageons les mesures pratiques que les développeurs peuvent prendre pour réduire l'exposition à ces vulnérabilités.
Semaine 5 - Risques liés à la chaîne d'approvisionnement de l'IA : Sécuriser les dépendances
Le développement assisté par l'IAaccélère le codage - mais il introduit également des risques liés à la chaîne d'approvisionnement qui peuvent avoir un impact sur chaque couche de vos applications. Dans cette vidéo, nous explorons les vulnérabilités liées à l'IA/LLM, nous expliquons comment les modèles et les API tiers peuvent étendre votre surface d'attaque et nous partageons des stratégies pour minimiser l'exposition.
Semaine 6 - Empoisonnement des données : Sécuriser les modèles et les résultats de l'IA
Les systèmes d'IAne sont sûrs que dans la mesure où leurs données d'entraînement sont sûres - et les entrées compromises peuvent créer des vulnérabilités qui se répercutent sur vos applications. Dans cette vidéo, nous présentons les attaques d'empoisonnement des données et des modèles, nous expliquons comment des entrées malveillantes peuvent manipuler les sorties de l'IA et nous partageons des stratégies pour protéger vos systèmes.
Semaine 7 - Traitement incorrect des sorties : Valider le code généré par l'IA
Les outils alimentés par l'IApeuvent générer du code rapidement, mais si les sorties ne sont pas validées, des vulnérabilités peuvent s'infiltrer sans qu'on s'en aperçoive. Dans cette vidéo, nous examinons la mauvaise gestion des sorties dans le développement assisté par l'IA, nous expliquons comment les sorties risquées peuvent compromettre vos applications et nous partageons des techniques pour protéger le code généré.
Semaine 8 - Agence excessive : Contrôler les risques liés à l'autonomie de l'IA
Au fur et à mesure queles systèmes d'IA deviennent plus autonomes, l'agence excessive crée de nouveaux risques où les modèles agissent au-delà de leur champ d'action prévu. Dans cette vidéo, nous explorons les vulnérabilités de l'agence excessive dans le développement assisté par l'IA, nous expliquons comment les comportements de dépassement surviennent et nous discutons des techniques pour maintenir le contrôle sur les processus pilotés par l'IA.
Semaine 9 - Fuite d'invites système : risques cachés pour la sécurité de l'IA
Lesinvites systèmecomprennent souvent des instructions cachées qui guident le comportement de l'IA - mais si elles sont exposées, les attaquants peuvent manipuler les modèles ou extraire des informations sensibles. Dans cette vidéo, nous abordons les vulnérabilités liées aux fuites d'invites système, expliquons comment elles se produisent et discutons des mesures que les développeurs peuvent prendre pour protéger leurs flux de travail alimentés par l'IA.
Semaine 10 - Faiblesses des vecteurs : Sécuriser les flux de recherche d'IA
Lesmodèles d' IAs'appuient souvent sur des bases de données vectorielles et des encastrements pour offrir des capacités puissantes - mais les mauvaises configurations et les implémentations non sécurisées peuvent exposer des données sensibles et créer de nouveaux vecteurs d'attaque. Dans cette vidéo, nous nous penchons sur les faiblesses des vecteurs et des encastrements, expliquons les défis de sécurité courants et partageons des stratégies pour sécuriser vos flux de recherche et d'extraction alimentés par l'IA.
Semaine 11 — Désinformation liée à l'IA : éviter les risques d'hallucination
Les outils d'IApeuvent parfois générer des résultats qui semblent corrects, mais qui sont erronés, créant ainsi des risques de désinformation qui affectent la sécurité, la fiabilité et la prise de décision. Dans cette vidéo, nous expliquons les vulnérabilités liées à la désinformation dans le codage assisté par l'IA, explorons comment des résultats incorrects apparaissent et partageons des stratégies pour valider et sécuriser le contenu généré par l'IA.
, semaine 12 — Consommation illimitée : prévenir les risques de déni de service liés à l'IA
Les systèmes d'IA peuvent consommer des ressources sans limite, ce qui entraîne des risques tels que le déni de service (DoS), l'exposition des données et des pannes opérationnelles imprévues. Dans cette vidéo, nous abordons les vulnérabilités liées à la consommation illimitée dans l'IA/les LLM, expliquons comment elles se produisent et partageons des stratégies pratiques pour surveiller, contrôler et sécuriser l'utilisation des ressources IA.
Ces vidéos sont conçues pour présenter les concepts fondamentaux de la sécurité IA/LLM, mais la Secure Code Warrior offre bien d'autres possibilités à explorer. Plongez-vous dans les défis IA qui simulent la révision et la correction de code assistées par l'IA dans le monde réel, explorez nos directives IA/LLM alignées sur les meilleures pratiques du secteur et travaillez à travers des procédures pas à pas, Missions, des quêtes et des modèles de cours qui offrent une expérience pratique pour acquérir des habitudes de codage sécurisées. Pour les équipes prêtes à perfectionner leurs compétences, la plateforme propose également une bibliothèque en constante expansion de plus de 130 activités d'apprentissage axées sur l'IA/LLM, couvrant des sujets tels que le codage avec l'IA, l'introduction aux risques et à la sécurité de l'IA, et le Top 10 de l'OWASP pour les applications LLM. Veuillez demander une démonstration pour en savoir plus.

Cliquez sur le lien ci-dessous et téléchargez le PDF de cette ressource.
Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Voir le rapportRéservez une démonstrationShannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est spécialiste marketing en cybersécurité. Elle possède une solide expérience en sécurité applicative, en services de sécurité cloud et en normes de conformité telles que PCI-DSS et HITRUST. Elle s'attache à rendre le développement sécurisé et la conformité plus pratiques et accessibles aux équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.
Votre guide pour la série d'introduction à la sécurité AI/LLM
Les outils de codage de l'IA tels que GitHub Copilot, Cursor et d'autres sont en train de remodeler la façon dont les logiciels sont construits, mais ils introduisent également de nouveaux défis en matière de sécurité que les développeurs doivent comprendre pour créer des applications sûres et fiables. Pour aider les équipes à adopter l'IA en toute sécurité, nous avons créé une série vidéo gratuite d'introduction à la sécurité de l'IA/LLM en 12 semaines sur YouTube.
Ce billet est le point central de la série. Chaque semaine, nous la mettrons à jour avec une nouvelle vidéo et une description, couvrant des concepts essentiels tels que l'injection rapide, l'empoisonnement des données et des modèles, les risques liés à la chaîne d'approvisionnement, l'injection rapide sécurisée, et bien plus encore. Ajoutez cette page à vos favoris pour suivre la série chaque semaine, ou abonnez-vous à notre chaîne YouTube pour recevoir chaque leçon dès sa publication.
Si vous souhaitez aller plus loin que ces leçons introductives, explorez l'ensemble de la collection AI/LLM de la plateforme SCW ou demandez une démonstration si vous n'êtes pas encore client. Abonnez-vous à notre chaîne YouTube pour suivre chaque nouvel épisode dès sa sortie. Et si vous souhaitez rester informé des derniers contenus, mises à jour et ressources, inscrivez-vous ici pour rejoindre notre communauté de développeurs et de responsables de la sécurité.
Épisodes (mis à jour chaque semaine)
Semaine 1 - Risques liés au codage de l'IA : Dangers de l'utilisation des LLM
Dans cette vidéo, nous explorons les dangers potentiels de l'utilisation de l'IA/LLM lors de l'écriture du code et soulignons les principaux risques auxquels les développeurs sont confrontés lorsqu'ils intègrent des outils alimentés par l'IA dans leurs flux de travail.
Semaine 2 - Avantages du codage de l'IA : Développement sécurisé assisté par l'IA
Lesoutils de codage de l' IAne sont pas seulement risqués - lorsqu'ils sont utilisés de manière sécurisée, ils peuvent aider les développeurs à travailler plus rapidement et plus intelligemment. Dans cette vidéo, nous explorons les avantages de l'utilisation de l'IA/LLM lors de l'écriture de code, en soulignant comment les équipes peuvent exploiter l'IA de manière responsable tout en évitant les pièges de sécurité courants.
Semaine 3 - L'injection d'invites expliquée : Protéger le code généré par l'IA
Promptinjection est l'une des vulnérabilités les plus courantes de l'IA/LLM - et une vulnérabilité que tous les développeurs devraient savoir comment prévenir. Dans cette vidéo, nous vous présentons l'injection de
Semaine 4 - Divulgation d'informations sensibles : Éviter les fuites de données de l'IA
Les outils alimentés par l'IA peuvent involontairement divulguer des informations sensibles, mettant ainsi vos applications et vos données en danger. Dans cette vidéo, nous abordons les vulnérabilités liées à la divulgation d'informations sensibles, expliquons comment elles surviennent lors de l'utilisation de l'IA/LLM et partageons les mesures pratiques que les développeurs peuvent prendre pour réduire l'exposition à ces vulnérabilités.
Semaine 5 - Risques liés à la chaîne d'approvisionnement de l'IA : Sécuriser les dépendances
Le développement assisté par l'IAaccélère le codage - mais il introduit également des risques liés à la chaîne d'approvisionnement qui peuvent avoir un impact sur chaque couche de vos applications. Dans cette vidéo, nous explorons les vulnérabilités liées à l'IA/LLM, nous expliquons comment les modèles et les API tiers peuvent étendre votre surface d'attaque et nous partageons des stratégies pour minimiser l'exposition.
Semaine 6 - Empoisonnement des données : Sécuriser les modèles et les résultats de l'IA
Les systèmes d'IAne sont sûrs que dans la mesure où leurs données d'entraînement sont sûres - et les entrées compromises peuvent créer des vulnérabilités qui se répercutent sur vos applications. Dans cette vidéo, nous présentons les attaques d'empoisonnement des données et des modèles, nous expliquons comment des entrées malveillantes peuvent manipuler les sorties de l'IA et nous partageons des stratégies pour protéger vos systèmes.
Semaine 7 - Traitement incorrect des sorties : Valider le code généré par l'IA
Les outils alimentés par l'IApeuvent générer du code rapidement, mais si les sorties ne sont pas validées, des vulnérabilités peuvent s'infiltrer sans qu'on s'en aperçoive. Dans cette vidéo, nous examinons la mauvaise gestion des sorties dans le développement assisté par l'IA, nous expliquons comment les sorties risquées peuvent compromettre vos applications et nous partageons des techniques pour protéger le code généré.
Semaine 8 - Agence excessive : Contrôler les risques liés à l'autonomie de l'IA
Au fur et à mesure queles systèmes d'IA deviennent plus autonomes, l'agence excessive crée de nouveaux risques où les modèles agissent au-delà de leur champ d'action prévu. Dans cette vidéo, nous explorons les vulnérabilités de l'agence excessive dans le développement assisté par l'IA, nous expliquons comment les comportements de dépassement surviennent et nous discutons des techniques pour maintenir le contrôle sur les processus pilotés par l'IA.
Semaine 9 - Fuite d'invites système : risques cachés pour la sécurité de l'IA
Lesinvites systèmecomprennent souvent des instructions cachées qui guident le comportement de l'IA - mais si elles sont exposées, les attaquants peuvent manipuler les modèles ou extraire des informations sensibles. Dans cette vidéo, nous abordons les vulnérabilités liées aux fuites d'invites système, expliquons comment elles se produisent et discutons des mesures que les développeurs peuvent prendre pour protéger leurs flux de travail alimentés par l'IA.
Semaine 10 - Faiblesses des vecteurs : Sécuriser les flux de recherche d'IA
Lesmodèles d' IAs'appuient souvent sur des bases de données vectorielles et des encastrements pour offrir des capacités puissantes - mais les mauvaises configurations et les implémentations non sécurisées peuvent exposer des données sensibles et créer de nouveaux vecteurs d'attaque. Dans cette vidéo, nous nous penchons sur les faiblesses des vecteurs et des encastrements, expliquons les défis de sécurité courants et partageons des stratégies pour sécuriser vos flux de recherche et d'extraction alimentés par l'IA.
Semaine 11 — Désinformation liée à l'IA : éviter les risques d'hallucination
Les outils d'IApeuvent parfois générer des résultats qui semblent corrects, mais qui sont erronés, créant ainsi des risques de désinformation qui affectent la sécurité, la fiabilité et la prise de décision. Dans cette vidéo, nous expliquons les vulnérabilités liées à la désinformation dans le codage assisté par l'IA, explorons comment des résultats incorrects apparaissent et partageons des stratégies pour valider et sécuriser le contenu généré par l'IA.
, semaine 12 — Consommation illimitée : prévenir les risques de déni de service liés à l'IA
Les systèmes d'IA peuvent consommer des ressources sans limite, ce qui entraîne des risques tels que le déni de service (DoS), l'exposition des données et des pannes opérationnelles imprévues. Dans cette vidéo, nous abordons les vulnérabilités liées à la consommation illimitée dans l'IA/les LLM, expliquons comment elles se produisent et partageons des stratégies pratiques pour surveiller, contrôler et sécuriser l'utilisation des ressources IA.
Ces vidéos sont conçues pour présenter les concepts fondamentaux de la sécurité IA/LLM, mais la Secure Code Warrior offre bien d'autres possibilités à explorer. Plongez-vous dans les défis IA qui simulent la révision et la correction de code assistées par l'IA dans le monde réel, explorez nos directives IA/LLM alignées sur les meilleures pratiques du secteur et travaillez à travers des procédures pas à pas, Missions, des quêtes et des modèles de cours qui offrent une expérience pratique pour acquérir des habitudes de codage sécurisées. Pour les équipes prêtes à perfectionner leurs compétences, la plateforme propose également une bibliothèque en constante expansion de plus de 130 activités d'apprentissage axées sur l'IA/LLM, couvrant des sujets tels que le codage avec l'IA, l'introduction aux risques et à la sécurité de l'IA, et le Top 10 de l'OWASP pour les applications LLM. Veuillez demander une démonstration pour en savoir plus.
Table des matières
Shannon Holt est une spécialiste du marketing de produits de cybersécurité avec une expérience dans la sécurité des applications, les services de sécurité cloud et les normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior est là pour vous aider à sécuriser le code tout au long du cycle de vie du développement logiciel et à créer une culture dans laquelle la cybersécurité est une priorité. Que vous soyez responsable AppSec, développeur, CISO ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre organisation à réduire les risques associés à un code non sécurisé.
Réservez une démonstrationTéléchargerRessources pour vous aider à démarrer
Loi sur la cyber-résilience (CRA) Parcours d'apprentissage alignés
SCW soutient la préparation à la loi sur la cyber-résilience (CRA) grâce à des quêtes alignées sur la CRA et des collections d'apprentissage conceptuel qui aident les équipes de développement à acquérir les compétences nécessaires en matière de conception sécurisée, de SDLC et de codage sécurisé, conformément aux principes de développement sécurisé de la CRA.
La Chambre de commerce établit la norme en matière de sécurité à grande échelle axée sur les développeurs
La Chambre de commerce néerlandaise explique comment elle a intégré le codage sécurisé dans le développement quotidien grâce à des certifications basées sur les rôles, à l'évaluation comparative du Trust Score et à une culture de responsabilité partagée en matière de sécurité.
Modélisation des menaces avec l'IA : transformer chaque développeur en modélisateur de menaces
Vous repartirez mieux équipé pour aider les développeurs à combiner les idées et les techniques de modélisation des menaces avec les outils d'IA qu'ils utilisent déjà pour renforcer la sécurité, améliorer la collaboration et créer des logiciels plus résilients dès le départ.
Ressources pour vous aider à démarrer
Présentation des 10 facteurs clés de réussite
Les 10 facteurs clés Secure Code Warriorguident les organisations dans la mise en place de programmes de codage sécurisé durables en mettant l'accent sur les personnes, les processus et les étapes de maturité des programmes.
Nouvelle catégorie de risque dans le Top 10 de l'OWASP : S'attendre à l'inattendu
Le Top 10 2025 de l'OWASP ajoute la mauvaise gestion des conditions exceptionnelles à la position 10. Atténuez les risques grâce à une logique "fail closed", à des gestionnaires d'erreurs globaux et à une validation stricte des entrées.
OWASP Top 10 2025 : Défaillances de la chaîne d'approvisionnement en logiciels
Le Top 10 2025 de l'OWASP place les défaillances de la chaîne d'approvisionnement des logiciels en troisième position. Atténuez ce risque à fort impact grâce à des SBOM stricts, au suivi des dépendances et au renforcement du pipeline CI/CD.
OWASP Top 10 : 2025 - Quoi de neuf et comment Secure Code Warrior vous aide à rester aligné
Découvrez ce qui a changé dans le Top 10 de l'OWASP : 2025 et comment Secure Code Warrior facilite la transition grâce à la mise à jour des quêtes, des Courses et des informations destinées aux développeurs.
















%20(1).avif)
.avif)
.avif)

