Error Backpropagation / Fehlerrückführung
Ein grundlegender Algorithmus zum Trainieren von künstlichen neuronalen Netzen durch überwachtes Lernen. Der Fehler (Differenz zwischen der tatsächlichen Ausgabe und der gewünschten Ausgabe) wird von der Ausgabeschicht rückwärts durch die Schichten des Netzes propagiert, um die Gewichte der neuronalen Verbindungen schrittweise anzupassen und den Fehler zu minimieren.