Contextual Embeddings (Kontextuelle Einbettungen)
Vektorrepräsentationen von Wörtern oder Token in der NLP, deren Wert vom umgebenden Kontext abhängt. Im Gegensatz zu statischen Embeddings (wie Word2Vec) können Modelle wie BERT oder GPT unterschiedliche Vektoren für dasselbe Wort in verschiedenen Sätzen erzeugen.