Layer-wise Learning Rate
Ein Trainingsansatz, bei dem verschiedenen Schichten eines neuronalen Netzes unterschiedliche Lernraten zugewiesen werden. Dies ermöglicht gezieltes Fine-Tuning einzelner Modellbereiche, etwa um Basiswissen stabil zu halten und nur obere Schichten stark anzupassen.