BERT (Bidirectional Encoder Representations from Transformers)
Ein einflussreiches Transformer-basiertes Sprachmodell von Google, das durch bidirektionales Training auf großen Textmengen ein tiefes Verständnis von Sprachkontexten erlernt hat und für viele NLP-Aufgaben als Basis dient.