Flash Attention
Optimierter Algorithmus zur schnellen Attention-Berechnung in Transformer-Architekturen.
Das erste große deutschsprachige KI-Lexikon
Ein Community-Projekt von David Mirga
Optimierter Algorithmus zur schnellen Attention-Berechnung in Transformer-Architekturen.