Cross-Entropy (Kreuzentropie)
Eine weit verbreitete Verlustfunktion im maschinellen Lernen, insbesondere für Klassifikationsaufgaben. Sie misst den Unterschied zwischen der vorhergesagten Wahrscheinlichkeitsverteilung und der tatsächlichen Verteilung der Klassen.