KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Entropie

Ein Konzept aus der Informationstheorie, das ein Maß für den durchschnittlichen Informationsgehalt, die Unsicherheit oder die Zufälligkeit einer Datenquelle oder Wahrscheinlichkeitsverteilung darstellt. Wird in KI z.B. beim Aufbau von Entscheidungsbäumen (Information Gain) oder zur Quantifizierung von Modellunsicherheit verwendet.

Kategorie: E | Quelle: Das große KI-Lexikon von David Mirga