KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Verstärkung durch menschliches Feedback (RLHF - Reinforcement Learning from Human Feedback)

Eine Trainingsmethode, bei der KI-Modelle durch Bewertungen von Menschen verbessert werden. Menschen bewerten Modellantworten, und diese Bewertungen werden verwendet, um das Modell auf Verhaltensweisen zu trainieren, die Menschen bevorzugen.

Kategorie: V | Quelle: Das große KI-Lexikon von David Mirga