KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Gradient-based Optimization (Gradientenbasierte Optimierung)

Eine breite Klasse von Optimierungsalgorithmen, die den Gradienten (die Ableitung) der Zielfunktion verwenden, um iterativ eine bessere Lösung zu finden. Gradient Descent und seine Varianten (Adam, RMSprop etc.) sind die wichtigsten Beispiele und fundamental für das Training neuronaler Netze.

Kategorie: G | Quelle: Das große KI-Lexikon von David Mirga