Jailbreak
Im Kontext von KI-Modellen (insbesondere Large Language Models, LLMs) ein Versuch, die eingebauten Sicherheitsmechanismen, Inhaltsfilter und Nutzungsbeschränkungen des Modells gezielt zu umgehen. Ziel ist es, das Modell dazu zu bringen, unerwünschte, schädliche, unangemessene oder vertrauliche Informationen zu generieren oder Aktionen auszuführen, die es normalerweise ablehnen würde.