Reinforcement Learning from Human Feedback (RLHF)
Eine Technik zum Trainieren von KI-Modellen (insbesondere LLMs), bei der menschliche Bewertungen oder Präferenzen verwendet werden, um das Modellverhalten zu steuern und es stärker an gewünschte Kriterien anzupassen.