KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Prompt Injection

Eine Angriffstechnik, bei der ein Angreifer schädliche oder manipulative Anweisungen (Prompts) in die Eingabe eines LLMs einschleust (z.B. versteckt in einer Webseite oder einem Dokument), sodass das Modell diese Anweisungen ausführt, ohne dass der eigentliche Benutzer dies beabsichtigt hat.

Kategorie: P | Quelle: Das große KI-Lexikon von David Mirga