KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Contextual Embeddings (Kontextuelle Einbettungen)

Vektorrepräsentationen von Wörtern oder Token in der NLP, deren Wert vom umgebenden Kontext abhängt. Im Gegensatz zu statischen Embeddings (wie Word2Vec) können Modelle wie BERT oder GPT unterschiedliche Vektoren für dasselbe Wort in verschiedenen Sätzen erzeugen.

Kategorie: C | Quelle: Das große KI-Lexikon von David Mirga