Bestärkendes Lernen (Reinforcement Learning)
Eine Methode des maschinellen Lernens, bei der ein KI-Agent durch Versuch und Irrtum lernt, eine Aufgabe zu erfüllen. Er erhält positives oder negatives Feedback (Belohnungen oder Bestrafungen) für seine Aktionen und versucht, seine Strategie so anzupassen, dass er die Belohnungen maximiert.