Verstärkung durch menschliches Feedback (RLHF - Reinforcement Learning from Human Feedback)
Eine Trainingsmethode, bei der KI-Modelle durch Bewertungen von Menschen verbessert werden. Menschen bewerten Modellantworten, und diese Bewertungen werden verwendet, um das Modell auf Verhaltensweisen zu trainieren, die Menschen bevorzugen.