Hierarchical Attention
Eine Erweiterung des Aufmerksamkeitsmechanismus (Attention) in neuronalen Netzen (v.a. Transformer), bei der Aufmerksamkeit auf verschiedenen hierarchischen Ebenen der Datenstruktur berechnet wird (z.B. Wort-, Satz-, Dokumentebene).