Icônes SCW
héros bg sans séparateur
Blog

Tiefer Einblick in Sicherheitslücken, die von KI-Codierungsassistenten generiert wurden

Laura Verheyde
Publié le 11 décembre 2023
Dernière mise à jour le 9 mars 2026

Egal, wo man hinschaut, in fast jeder Branche gibt es eine fortwährende Fixierung auf KI-Technologie. Von einigen als Antwort auf die schnelle Entwicklung von Funktionen in der Softwareentwicklung gelobt, haben die Geschwindigkeitszuwächse ihren Preis: Das Potenzial, dass schwerwiegende Sicherheitslücken ihren Weg in Codebasen finden, was auf das mangelnde Kontextwissen des Tools selbst zurückzuführen ist, und auf geringe Sicherheitskenntnisse der Entwickler, die sich darauf verlassen, dass sie die Produktivität steigern und Antworten auf herausfordernde Entwicklungsszenarien finden.

Die Large Language Model (LLM) -Technologie stellt einen grundlegenden Wandel bei den Hilfsmitteln dar und könnte, wenn sie sicher eingesetzt wird, in der Tat der Begleiter zur Paarprogrammierung sein, nach dem sich viele Softwareingenieure sehnen. Es wurde jedoch schnell festgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools negative Auswirkungen haben kann, und zwar Studie 2023 von der Stanford University enthüllte, dass die Abhängigkeit von KI-Assistenten wahrscheinlich zu einem insgesamt fehlerhafteren, unsichereren Code führen würde, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die perfekte LLM-Technologie weiter verbessern werden, aber eine Reihe von Empfehlungen — darunter eine neue Executive Order von der Biden-Administration sowie der Gesetz über künstliche Intelligenz aus der EU — macht ihren Einsatz jedenfalls zu einem kniffligen Weg. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitsfähigkeiten, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Ergebnisse von KI-Tools auf Codeebene verbessern und im Gegenzug zu einem höheren Niveau an Ingenieuren werden.

Wie führen KI-Codierungsassistenten Sicherheitslücken ein? Spiele unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und nutzt eine echt Codeausschnitt, der Ende November 2023 generiert wurde. Benutzer können diesen Codeausschnitt interpretieren und mögliche Sicherheitslücken untersuchen, falls er für den vorgesehenen Zweck verwendet werden sollte.

Basierend auf der Aufforderung „Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des p-HTML-Elements ändert, wobei der Inhalt über diese Funktion übergeben wird?“ der KI-Assistent produziert brav einen Codeblock, aber alles ist nicht so, wie es scheint.

Hast du die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt bevor Sie weiterlesen.

... okay, jetzt, wo Sie es abgeschlossen haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site Scripting (XSS) ist.

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass nicht vertrauenswürdige Eingaben als Ausgabe auf einer Seite gerendert, aber als ausführbarer und sicherer Code fehlinterpretiert werden. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einen Eingabeparameter einfügen, der, wenn er an den Browser zurückgegeben wird, ausgeführt wird, anstatt als Daten angezeigt zu werden.

Sicherer Einsatz von KI-Codierungsassistenten in der Softwareentwicklung

EIN aktuelle Umfrage aller Entwicklungsteams gaben an, dass fast alle — oder 96% — begonnen haben, KI-Assistenten in ihren Arbeitsabläufen zu verwenden, wobei 80 Prozent sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Toolkit zu behalten. Darüber hinaus räumten mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch eindeutig nicht gebremst hat.

Angesichts dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass es funktioniert, von der Verwendung dieser Tools abzuraten oder sie zu verbieten. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätssteigerungen zu nutzen, ohne Abstriche bei der Sicherheit oder der Codequalität machen zu müssen. Dies erfordert eine präzise Schulung in Bezug auf bewährte Methoden für sicheres Programmieren und die Möglichkeit, ihre Fähigkeiten zum kritischen Denken zu erweitern und sicherzustellen, dass bei ihrem Handeln stets die Sicherheit an erster Stelle steht, insbesondere wenn es darum geht, die potenzielle Bedrohung durch die Ausgabe von KI-Assistenzcode einzuschätzen.

Weiterführende Lektüre

Für XSS im Allgemeinen schauen Sie sich unsere an umfassender Leitfaden.

Willst du mehr darüber erfahren, wie man sicheren Code schreibt und Risiko mindern? Probiere unsere XSS Injection Challenge kostenlos.

Wenn du an weiteren kostenlosen Codierungsrichtlinien interessiert bist, schau dir das an Sicherer Code-Coach um Ihnen zu helfen, den Überblick über die Best Practices für sichere Codierung zu behalten.

Willst du mehr erfahren? Herunterladen unser neuestes Whitepaper.
Consulter la ressource
Consulter la ressource

Erkunden Sie die Sicherheitsrisiken von KI in der Softwareentwicklung und erfahren Sie, wie Sie diese Herausforderungen mit Secure Code Warrior effektiv bewältigen können.

Souhaitez-vous en savoir davantage ?

En savoir plus

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.

Réserver une démonstration
Partager sur :
marques LinkedInSocialLogo x
Auteur
Laura Verheyde
Publié le 11 décembre 2023

Laura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und konzentriert sich auf die Erforschung von Sicherheitslücken und die Erstellung von Inhalten für Missions und Coding Labs.

Partager sur :
marques LinkedInSocialLogo x

Egal, wo man hinschaut, in fast jeder Branche gibt es eine fortwährende Fixierung auf KI-Technologie. Von einigen als Antwort auf die schnelle Entwicklung von Funktionen in der Softwareentwicklung gelobt, haben die Geschwindigkeitszuwächse ihren Preis: Das Potenzial, dass schwerwiegende Sicherheitslücken ihren Weg in Codebasen finden, was auf das mangelnde Kontextwissen des Tools selbst zurückzuführen ist, und auf geringe Sicherheitskenntnisse der Entwickler, die sich darauf verlassen, dass sie die Produktivität steigern und Antworten auf herausfordernde Entwicklungsszenarien finden.

Die Large Language Model (LLM) -Technologie stellt einen grundlegenden Wandel bei den Hilfsmitteln dar und könnte, wenn sie sicher eingesetzt wird, in der Tat der Begleiter zur Paarprogrammierung sein, nach dem sich viele Softwareingenieure sehnen. Es wurde jedoch schnell festgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools negative Auswirkungen haben kann, und zwar Studie 2023 von der Stanford University enthüllte, dass die Abhängigkeit von KI-Assistenten wahrscheinlich zu einem insgesamt fehlerhafteren, unsichereren Code führen würde, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die perfekte LLM-Technologie weiter verbessern werden, aber eine Reihe von Empfehlungen — darunter eine neue Executive Order von der Biden-Administration sowie der Gesetz über künstliche Intelligenz aus der EU — macht ihren Einsatz jedenfalls zu einem kniffligen Weg. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitsfähigkeiten, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Ergebnisse von KI-Tools auf Codeebene verbessern und im Gegenzug zu einem höheren Niveau an Ingenieuren werden.

Wie führen KI-Codierungsassistenten Sicherheitslücken ein? Spiele unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und nutzt eine echt Codeausschnitt, der Ende November 2023 generiert wurde. Benutzer können diesen Codeausschnitt interpretieren und mögliche Sicherheitslücken untersuchen, falls er für den vorgesehenen Zweck verwendet werden sollte.

Basierend auf der Aufforderung „Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des p-HTML-Elements ändert, wobei der Inhalt über diese Funktion übergeben wird?“ der KI-Assistent produziert brav einen Codeblock, aber alles ist nicht so, wie es scheint.

Hast du die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt bevor Sie weiterlesen.

... okay, jetzt, wo Sie es abgeschlossen haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site Scripting (XSS) ist.

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass nicht vertrauenswürdige Eingaben als Ausgabe auf einer Seite gerendert, aber als ausführbarer und sicherer Code fehlinterpretiert werden. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einen Eingabeparameter einfügen, der, wenn er an den Browser zurückgegeben wird, ausgeführt wird, anstatt als Daten angezeigt zu werden.

Sicherer Einsatz von KI-Codierungsassistenten in der Softwareentwicklung

EIN aktuelle Umfrage aller Entwicklungsteams gaben an, dass fast alle — oder 96% — begonnen haben, KI-Assistenten in ihren Arbeitsabläufen zu verwenden, wobei 80 Prozent sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Toolkit zu behalten. Darüber hinaus räumten mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch eindeutig nicht gebremst hat.

Angesichts dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass es funktioniert, von der Verwendung dieser Tools abzuraten oder sie zu verbieten. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätssteigerungen zu nutzen, ohne Abstriche bei der Sicherheit oder der Codequalität machen zu müssen. Dies erfordert eine präzise Schulung in Bezug auf bewährte Methoden für sicheres Programmieren und die Möglichkeit, ihre Fähigkeiten zum kritischen Denken zu erweitern und sicherzustellen, dass bei ihrem Handeln stets die Sicherheit an erster Stelle steht, insbesondere wenn es darum geht, die potenzielle Bedrohung durch die Ausgabe von KI-Assistenzcode einzuschätzen.

Weiterführende Lektüre

Für XSS im Allgemeinen schauen Sie sich unsere an umfassender Leitfaden.

Willst du mehr darüber erfahren, wie man sicheren Code schreibt und Risiko mindern? Probiere unsere XSS Injection Challenge kostenlos.

Wenn du an weiteren kostenlosen Codierungsrichtlinien interessiert bist, schau dir das an Sicherer Code-Coach um Ihnen zu helfen, den Überblick über die Best Practices für sichere Codierung zu behalten.

Willst du mehr erfahren? Herunterladen unser neuestes Whitepaper.
Consulter la ressource
Consulter la ressource

Veuillez remplir le formulaire ci-dessous pour télécharger le rapport.

Nous sollicitons votre autorisation pour vous envoyer des informations sur nos produits et/ou des sujets connexes liés au codage sécurisé. Nous traitons toujours vos données personnelles avec le plus grand soin et ne les vendons jamais à d'autres entreprises à des fins de marketing.

Soumettre
icône de réussite scw
icône d'erreur scw
Pour envoyer le formulaire, veuillez activer les cookies « Analytics ». Une fois que vous avez terminé, vous pouvez les désactiver à tout moment.

Egal, wo man hinschaut, in fast jeder Branche gibt es eine fortwährende Fixierung auf KI-Technologie. Von einigen als Antwort auf die schnelle Entwicklung von Funktionen in der Softwareentwicklung gelobt, haben die Geschwindigkeitszuwächse ihren Preis: Das Potenzial, dass schwerwiegende Sicherheitslücken ihren Weg in Codebasen finden, was auf das mangelnde Kontextwissen des Tools selbst zurückzuführen ist, und auf geringe Sicherheitskenntnisse der Entwickler, die sich darauf verlassen, dass sie die Produktivität steigern und Antworten auf herausfordernde Entwicklungsszenarien finden.

Die Large Language Model (LLM) -Technologie stellt einen grundlegenden Wandel bei den Hilfsmitteln dar und könnte, wenn sie sicher eingesetzt wird, in der Tat der Begleiter zur Paarprogrammierung sein, nach dem sich viele Softwareingenieure sehnen. Es wurde jedoch schnell festgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools negative Auswirkungen haben kann, und zwar Studie 2023 von der Stanford University enthüllte, dass die Abhängigkeit von KI-Assistenten wahrscheinlich zu einem insgesamt fehlerhafteren, unsichereren Code führen würde, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die perfekte LLM-Technologie weiter verbessern werden, aber eine Reihe von Empfehlungen — darunter eine neue Executive Order von der Biden-Administration sowie der Gesetz über künstliche Intelligenz aus der EU — macht ihren Einsatz jedenfalls zu einem kniffligen Weg. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitsfähigkeiten, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Ergebnisse von KI-Tools auf Codeebene verbessern und im Gegenzug zu einem höheren Niveau an Ingenieuren werden.

Wie führen KI-Codierungsassistenten Sicherheitslücken ein? Spiele unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und nutzt eine echt Codeausschnitt, der Ende November 2023 generiert wurde. Benutzer können diesen Codeausschnitt interpretieren und mögliche Sicherheitslücken untersuchen, falls er für den vorgesehenen Zweck verwendet werden sollte.

Basierend auf der Aufforderung „Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des p-HTML-Elements ändert, wobei der Inhalt über diese Funktion übergeben wird?“ der KI-Assistent produziert brav einen Codeblock, aber alles ist nicht so, wie es scheint.

Hast du die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt bevor Sie weiterlesen.

... okay, jetzt, wo Sie es abgeschlossen haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site Scripting (XSS) ist.

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass nicht vertrauenswürdige Eingaben als Ausgabe auf einer Seite gerendert, aber als ausführbarer und sicherer Code fehlinterpretiert werden. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einen Eingabeparameter einfügen, der, wenn er an den Browser zurückgegeben wird, ausgeführt wird, anstatt als Daten angezeigt zu werden.

Sicherer Einsatz von KI-Codierungsassistenten in der Softwareentwicklung

EIN aktuelle Umfrage aller Entwicklungsteams gaben an, dass fast alle — oder 96% — begonnen haben, KI-Assistenten in ihren Arbeitsabläufen zu verwenden, wobei 80 Prozent sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Toolkit zu behalten. Darüber hinaus räumten mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch eindeutig nicht gebremst hat.

Angesichts dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass es funktioniert, von der Verwendung dieser Tools abzuraten oder sie zu verbieten. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätssteigerungen zu nutzen, ohne Abstriche bei der Sicherheit oder der Codequalität machen zu müssen. Dies erfordert eine präzise Schulung in Bezug auf bewährte Methoden für sicheres Programmieren und die Möglichkeit, ihre Fähigkeiten zum kritischen Denken zu erweitern und sicherzustellen, dass bei ihrem Handeln stets die Sicherheit an erster Stelle steht, insbesondere wenn es darum geht, die potenzielle Bedrohung durch die Ausgabe von KI-Assistenzcode einzuschätzen.

Weiterführende Lektüre

Für XSS im Allgemeinen schauen Sie sich unsere an umfassender Leitfaden.

Willst du mehr darüber erfahren, wie man sicheren Code schreibt und Risiko mindern? Probiere unsere XSS Injection Challenge kostenlos.

Wenn du an weiteren kostenlosen Codierungsrichtlinien interessiert bist, schau dir das an Sicherer Code-Coach um Ihnen zu helfen, den Überblick über die Best Practices für sichere Codierung zu behalten.

Willst du mehr erfahren? Herunterladen unser neuestes Whitepaper.
Veuillez consulter le webinaire.
Veuillez commencer
En savoir plus

Veuillez cliquer sur le lien ci-dessous et télécharger le PDF de cette ressource.

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.

Consulter le rapportRéserver une démonstration
Télécharger le PDF
Consulter la ressource
Partager sur :
marques LinkedInSocialLogo x
Souhaitez-vous en savoir davantage ?

Wie führen KI-Codierungsassistenten Sicherheitslücken ein? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst! Diese Mission enthüllt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 generiert wurde. Benutzer können diesen Codeausschnitt interpretieren und mögliche Sicherheitslücken untersuchen, falls er für den vorgesehenen Zweck verwendet werden sollte.

Probiere die Mission aus
Partager sur :
marques LinkedInSocialLogo x
Auteur
Laura Verheyde
Publié le 11 décembre 2023

Laura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und konzentriert sich auf die Erforschung von Sicherheitslücken und die Erstellung von Inhalten für Missions und Coding Labs.

Partager sur :
marques LinkedInSocialLogo x

Egal, wo man hinschaut, in fast jeder Branche gibt es eine fortwährende Fixierung auf KI-Technologie. Von einigen als Antwort auf die schnelle Entwicklung von Funktionen in der Softwareentwicklung gelobt, haben die Geschwindigkeitszuwächse ihren Preis: Das Potenzial, dass schwerwiegende Sicherheitslücken ihren Weg in Codebasen finden, was auf das mangelnde Kontextwissen des Tools selbst zurückzuführen ist, und auf geringe Sicherheitskenntnisse der Entwickler, die sich darauf verlassen, dass sie die Produktivität steigern und Antworten auf herausfordernde Entwicklungsszenarien finden.

Die Large Language Model (LLM) -Technologie stellt einen grundlegenden Wandel bei den Hilfsmitteln dar und könnte, wenn sie sicher eingesetzt wird, in der Tat der Begleiter zur Paarprogrammierung sein, nach dem sich viele Softwareingenieure sehnen. Es wurde jedoch schnell festgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools negative Auswirkungen haben kann, und zwar Studie 2023 von der Stanford University enthüllte, dass die Abhängigkeit von KI-Assistenten wahrscheinlich zu einem insgesamt fehlerhafteren, unsichereren Code führen würde, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die perfekte LLM-Technologie weiter verbessern werden, aber eine Reihe von Empfehlungen — darunter eine neue Executive Order von der Biden-Administration sowie der Gesetz über künstliche Intelligenz aus der EU — macht ihren Einsatz jedenfalls zu einem kniffligen Weg. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitsfähigkeiten, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Ergebnisse von KI-Tools auf Codeebene verbessern und im Gegenzug zu einem höheren Niveau an Ingenieuren werden.

Wie führen KI-Codierungsassistenten Sicherheitslücken ein? Spiele unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und nutzt eine echt Codeausschnitt, der Ende November 2023 generiert wurde. Benutzer können diesen Codeausschnitt interpretieren und mögliche Sicherheitslücken untersuchen, falls er für den vorgesehenen Zweck verwendet werden sollte.

Basierend auf der Aufforderung „Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des p-HTML-Elements ändert, wobei der Inhalt über diese Funktion übergeben wird?“ der KI-Assistent produziert brav einen Codeblock, aber alles ist nicht so, wie es scheint.

Hast du die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt bevor Sie weiterlesen.

... okay, jetzt, wo Sie es abgeschlossen haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site Scripting (XSS) ist.

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass nicht vertrauenswürdige Eingaben als Ausgabe auf einer Seite gerendert, aber als ausführbarer und sicherer Code fehlinterpretiert werden. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einen Eingabeparameter einfügen, der, wenn er an den Browser zurückgegeben wird, ausgeführt wird, anstatt als Daten angezeigt zu werden.

Sicherer Einsatz von KI-Codierungsassistenten in der Softwareentwicklung

EIN aktuelle Umfrage aller Entwicklungsteams gaben an, dass fast alle — oder 96% — begonnen haben, KI-Assistenten in ihren Arbeitsabläufen zu verwenden, wobei 80 Prozent sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Toolkit zu behalten. Darüber hinaus räumten mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch eindeutig nicht gebremst hat.

Angesichts dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass es funktioniert, von der Verwendung dieser Tools abzuraten oder sie zu verbieten. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätssteigerungen zu nutzen, ohne Abstriche bei der Sicherheit oder der Codequalität machen zu müssen. Dies erfordert eine präzise Schulung in Bezug auf bewährte Methoden für sicheres Programmieren und die Möglichkeit, ihre Fähigkeiten zum kritischen Denken zu erweitern und sicherzustellen, dass bei ihrem Handeln stets die Sicherheit an erster Stelle steht, insbesondere wenn es darum geht, die potenzielle Bedrohung durch die Ausgabe von KI-Assistenzcode einzuschätzen.

Weiterführende Lektüre

Für XSS im Allgemeinen schauen Sie sich unsere an umfassender Leitfaden.

Willst du mehr darüber erfahren, wie man sicheren Code schreibt und Risiko mindern? Probiere unsere XSS Injection Challenge kostenlos.

Wenn du an weiteren kostenlosen Codierungsrichtlinien interessiert bist, schau dir das an Sicherer Code-Coach um Ihnen zu helfen, den Überblick über die Best Practices für sichere Codierung zu behalten.

Willst du mehr erfahren? Herunterladen unser neuestes Whitepaper.

Table des matières

Télécharger le PDF
Consulter la ressource
Souhaitez-vous en savoir davantage ?

En savoir plus

Secure Code Warrior là pour aider votre entreprise à sécuriser le code tout au long du cycle de développement logiciel et à créer une culture où la cybersécurité est une priorité. Que vous soyez responsable de la sécurité des applications, développeur, responsable de la sécurité des systèmes d'information ou toute autre personne impliquée dans la sécurité, nous pouvons aider votre entreprise à réduire les risques liés à un code non sécurisé.

Réserver une démonstrationTélécharger
Partager sur :
marques LinkedInSocialLogo x
Centre de ressources

Ressources pour débuter

Plus d'articles
Centre de ressources

Ressources pour débuter

Plus d'articles