Leaky ReLU (Leaky Rectified Linear Unit)
Eine Aktivierungsfunktion in künstlichen neuronalen Netzen, die eine Variante der ReLU-Funktion darstellt. Im Gegensatz zu ReLU, das für negative Eingabewerte Null ausgibt, erlaubt Leaky ReLU einen kleinen, nicht-nullen Gradienten, was dem Problem der "sterbenden Neuronen" (Dying ReLU Problem) entgegenwirken kann.