Logarithmische Verlustfunktion (Log Loss) / Kreuzentropie-Verlust (Cross-Entropy Loss)
Eine häufig verwendete Verlustfunktion für Klassifikationsprobleme im maschinellen Lernen, insbesondere bei Modellen, die Wahrscheinlichkeiten ausgeben (z.B. logistische Regression, neuronale Netze). Sie misst die Leistung eines Klassifikationsmodells, dessen Ausgabe ein Wahrscheinlichkeitswert zwischen 0 und 1 ist, und bestraft falsche Klassifikationen, insbesondere solche, bei denen das Modell eine hohe Sicherheit für die falsche Klasse vorhergesagt hat.