LIME (Local Interpretable Model-agnostic Explanations)
Eine Methode zur Erklärung der Vorhersagen von komplexen Machine-Learning-Modellen (Blackbox-Modelle). LIME approximiert das Verhalten des komplexen Modells lokal um eine spezifische Vorhersage herum mit einem einfacheren, interpretierbaren Modell, um zu verstehen, welche Eingabemerkmale die jeweilige Entscheidung beeinflusst haben.