JavaScript Prompt Injection
Eine spezifische Angriffstechnik auf Large Language Models (LLMs), bei der schädlicher JavaScript-Code als Teil eines Prompts eingegeben wird, in der Hoffnung, dass das Modell diesen Code in seine Antwort einbettet und er im Browser eines anderen Nutzers ausgeführt wird, was zu Cross-Site Scripting (XSS) oder anderen Sicherheitsproblemen führen kann.