Interpretability Methods (Interpretierbarkeitsmethoden)
Spezifische Techniken und Algorithmen (z.B. LIME, SHAP), die darauf abzielen, die Entscheidungen und das Verhalten von komplexen KI-Modellen (insbesondere Blackbox-Modellen) für Menschen nachvollziehbar und verständlich zu machen.