Javascript-Sicherheitslücken Unsicherer Code durch ChatGPT?
Anbieter zum Thema
ChatGPT, das Large Language Model von OpenAI für Chatbots, neigt nicht nur dazu, unsicheren Code zu generieren, sondern macht den Anwender auch nicht darauf aufmerksam, obwohl dies technisch möglich sein sollte. Auf was müssen Entwickler achten?

Einige der beliebtesten Aufgaben, die ChatGPT erledigen kann, sind das Verfassen von Aufsätzen, das Schreiben von E-Mails, das Erfinden von kreativen Geschichten und das Generieren von Vorschlägen für Programmiercode als auch Debugging und Erklärungen dazu.
Letzteres klingt verlockend, um ohnehin überlasteten Teams dabei zu helfen, Code effizienter zu schreiben. Allerdings gibt es eine Reihe von Problemen, die durch die Verwendung dieser Software speziell zum Erstellen von Code entstehen.
Kurzcharakteristika des ChatGPT-Frameworks
OpenAI betreibt in Zusammenarbeit mit dem Deep-Learning- und Modellverarbeitungsprogramm Ray die ChatGPT-Software. Durch die Verwendung von Open-Source-Unified-Computing ist dieses Programm eine generative KI-Software, die als KI-Service wie ein Chatbot konzipiert wurde.
Die KI-Software nutzt dafür Natural Language Progression (NLP), Dialoggenerierung, Personalisierung GPT-3 sowie eine mehrsprachige Unterstützung. Ferner verwendet ChatGPT Suchmaschinen-Ergebnisseiten (SERPS), um ein Chatbot-Ergebnis zum Schreiben von Text zu erzeugen.
Die Software kann jedoch auch für Codegenerierung, Codevervollständigung, Debugging, Lernen und Bereitstellung von Empfehlungen zum Einsatz kommen. Allerdings verweist selbst ChatGPT in einer generierten Antwort darauf, dass das Framework eher als Leitfaden, denn als Ersatz für das Schreiben von clientseitigem Code verwendet werden sollte.
Risiken beim Schreiben von clientseitigem Code
In der Folge sind die am häufigsten clientseitigen Sicherheitsrisiken aufgeführt, die der Anwender wahrnehmen kann, wenn er ChatGPT zum Schreiben von Code verwendet:
Sicherheits- und Datenschutzrisiken
Sprachmodelle wie ChatGPT von Drittanbietern basieren auf großen Text-Datenmengen. Damit erhöht sich das Risiko, dass sensible Daten unbeabsichtigt in die Parameter des Modells einbezogen werden. Somit können viele Open-Source-Tools, die generative KI verwenden, ein Datenschutz-Risiko darstellen. Angenommen, jeder ChatGPT-Anwender würde denselben clientseitigen Code verwenden, der von der KI generiert wird – das öffnete Hackern auf sehr einfache Weise eine Hintertür, um Unternehmen anzugreifen.
Aus diesem Grund ist es wichtig, für den Einsatz von Sprachmodellen wie ChatGPT geeignete Sicherheitsmaßnahmen wie Verschlüsselungen und sichere Zugriffskontrollen zu verwenden. Zudem sollte der Anwender ChatGPT nur als Leitfaden und nicht als Ersatz für Codierungs- und Programmiertools nutzen.
Fehlalarme und Blindspots
Eines der größten Risiken besteht darin, dass ChatGPT beim Schreiben von Code möglicherweise nicht versteht, was der Entwickler tatsächlich meint. Dies liegt daran, dass ChatGPT auf maschinellem Lernen (ML) basiert, um die menschliche Sprache zu verstehen.
KI/ML-Programme sind leider noch nicht dazu in der Lage, menschliche Sprache ohne den damit verbundenen Kontext einwandfrei zu verstehen. Arbeitet also ein Anwender an einem Projekt und verwendet einen für das System unbekannten Begriff oder eine unbekannte Phrase, besteht die Möglichkeit, dass ChatGPT diese völlig anders interpretiert. Ferner könnte das Schreiben von clientseitigem Code mit ChatGPT auch zu sogenannten Blindspots führen, was bedeutet, dass der verwendete Code noch nicht kompatibel ist.
Compliance-Probleme
In den vergangenen Jahren sind weltweit immer mehr gesetzliche Richtlinien zum Datenschutz und zur Cookie-Verfolgung entstanden. Dies ist nicht zuletzt auf die zunehmende Zahl an Datenschutzgesetzen zurückzuführen, die zum Schutz der Privatsphäre der Verbraucher erlassen wurden. Gerichte müssen also unter Umständen im Einzelfall feststellen, inwiefern und von wem Verbraucherdaten nicht korrekt behandelt werden.
Rechtliche Fragen könnten auch bei der Bewertung des rechtmäßigen Eigentums an dem von ChatGPT generierten Codes auftauchen. Die Folge wären mitunter langwierige Rechtsstreitigkeiten zwischen Unternehmen über Eigentums-, Urheberrechts- und Markenrechte. Dies kann insbesondere der Fall sein, da immer mehr Open-Source-KI-Tools entwickelt werden, um die von ChatGPT erstellte generative natürliche Sprache nachzuahmen.
Clientseitiger Code muss sicher sein
Zusammenfassend lässt sich konstatieren, dass eines der größten Risiken bei der Verwendung von ChatGPT darin besteht, dass der erstellte Code anfälliger für Hacker-Angriffe sein kann. An dieser Stelle wird der Schutz des clientseitigen Codes wichtiger denn je. Daher empfiehlt es sich, über eine Reihe von Sicherheitstesttools nachzudenken, um das Ausmaß von IT-Security-Problemen bei den jeweiligen Webanwendungen zu identifizieren und zu messen.
Die Hauptfunktion von Sicherheitstests besteht darin, Funktionstests einer überwachten Webanwendung durchzuführen und so viele Sicherheitsprobleme wie möglich zu finden, die gegebenenfalls zu Hacker-Angriffen führen könnten. All dies geschieht, ohne dass der Zugriff auf den Quellcode erforderlich ist. Damit soll gewährleistet werden, dass Daten in einigen Informationssystemen sicher bleiben und nicht für unbefugte Benutzer zugänglich sind.
Erfolgreiche Sicherheitstests schützen Webanwendungen vor schwerwiegender Malware und anderen Bedrohungen, die zum Absturz oder zu unerwartetem Verhalten führen können. Darüber hinaus unterstützen sie auch das Testen, ob eine Anwendung den Sicherheitscode erfolgreich codiert hat oder nicht. Die Hauptbereiche, die von Sicherheitstests abgedeckt werden, sind die Bereiche Authentifizierung, Genehmigung, Verfügbarkeit, Vertraulichkeit, Integrität und Unbestreitbarkeit.
(ID:49619724)