Cross-Attention (Kreuzaufmerksamkeit)
Ein Aufmerksamkeitsmechanismus in neuronalen Netzen, der es ermöglicht, Informationen zwischen verschiedenen Eingabesequenzen oder Modalitäten zu verknüpfen. Entscheidend für Transformer-Architekturen und multimodale KI-Systeme.