KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

BERT (Bidirectional Encoder Representations from Transformers)

Ein einflussreiches Transformer-basiertes Sprachmodell von Google, das durch bidirektionales Training auf großen Textmengen ein tiefes Verständnis von Sprachkontexten erlernt hat und für viele NLP-Aufgaben als Basis dient.

Kategorie: B | Quelle: Das große KI-Lexikon von David Mirga