No-Free-Lunch-Theorem
Ein fundamentales Theorem im Bereich des maschinellen Lernens und der Optimierung. Es besagt, dass kein einzelner Lernalgorithmus bei der Betrachtung aller möglichen Probleme im Durchschnitt besser abschneidet als jeder andere Algorithmus. Die Leistung eines Algorithmus ist also immer problemabhängig.