Memory Attention
– Spezifischer Mechanismus in Transformer-Modellen zur Kontextverarbeitung.
Das erste große deutschsprachige KI-Lexikon
Ein Community-Projekt von David Mirga
– Spezifischer Mechanismus in Transformer-Modellen zur Kontextverarbeitung.