KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Jailbreak

Im Kontext von KI-Modellen (insbesondere Large Language Models, LLMs) ein Versuch, die eingebauten Sicherheitsmechanismen, Inhaltsfilter und Nutzungsbeschränkungen des Modells gezielt zu umgehen. Ziel ist es, das Modell dazu zu bringen, unerwünschte, schädliche, unangemessene oder vertrauliche Informationen zu generieren oder Aktionen auszuführen, die es normalerweise ablehnen würde.

Kategorie: J | Quelle: Das große KI-Lexikon von David Mirga