Layer Normalization / Schichtnormalisierung
Eine Technik zur Normalisierung der Eingaben innerhalb einer einzelnen Schicht eines künstlichen neuronalen Netzes. Sie hilft, das Training tiefer Netze zu stabilisieren und zu beschleunigen, indem sie die Verteilung der Aktivierungen standardisiert, und wird häufig in Transformer-Architekturen verwendet.