GPT (Generative Pre-trained Transformer)
Eine Familie von großen Sprachmodellen (LLMs) von OpenAI, die auf der Transformer-Architektur basieren ('Generative' = kann Inhalte erstellen; 'Pre-trained' = auf riesigen Datenmengen vortrainiert; 'Transformer' = spezifische Netzwerkarchitektur). Sie bilden die Basis für bekannte Chatbots wie ChatGPT.