KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Leaky ReLU (Leaky Rectified Linear Unit)

Eine Aktivierungsfunktion in künstlichen neuronalen Netzen, die eine Variante der ReLU-Funktion darstellt. Im Gegensatz zu ReLU, das für negative Eingabewerte Null ausgibt, erlaubt Leaky ReLU einen kleinen, nicht-nullen Gradienten, was dem Problem der "sterbenden Neuronen" (Dying ReLU Problem) entgegenwirken kann.

Kategorie: L | Quelle: Das große KI-Lexikon von David Mirga