Guardrails (Leitplanken / Schutzmechanismen für KI)
Technische oder prozessuale Maßnahmen, die implementiert werden, um sicherzustellen, dass sich KI-Systeme (insbesondere LLMs und generative Modelle) innerhalb sicherer, ethischer oder vordefinierter Grenzen bewegen und unerwünschte oder schädliche Ausgaben vermeiden.