Normalization Layer
Eine Schicht in einem tiefen neuronalen Netz, die die Aktivierungen aus der vorhergehenden Schicht normalisiert (z.B. auf einen Mittelwert von Null und eine Standardabweichung von Eins skaliert). Dies kann das Training stabilisieren, beschleunigen und die Generalisierungsfähigkeit des Modells verbessern. Beispiele sind Batch Normalization und Layer Normalization.