KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Reinforcement Learning from Human Feedback (RLHF)

Eine Technik zum Trainieren von KI-Modellen (insbesondere LLMs), bei der menschliche Bewertungen oder Präferenzen verwendet werden, um das Modellverhalten zu steuern und es stärker an gewünschte Kriterien anzupassen.

Kategorie: R | Quelle: Das große KI-Lexikon von David Mirga