KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Hierarchical Attention

Eine Erweiterung des Aufmerksamkeitsmechanismus (Attention) in neuronalen Netzen (v.a. Transformer), bei der Aufmerksamkeit auf verschiedenen hierarchischen Ebenen der Datenstruktur berechnet wird (z.B. Wort-, Satz-, Dokumentebene).

Kategorie: H | Quelle: Das große KI-Lexikon von David Mirga