Prompt Injection
Eine Angriffstechnik, bei der ein Angreifer schädliche oder manipulative Anweisungen (Prompts) in die Eingabe eines LLMs einschleust (z.B. versteckt in einer Webseite oder einem Dokument), sodass das Modell diese Anweisungen ausführt, ohne dass der eigentliche Benutzer dies beabsichtigt hat.