Knowledge Distillation (Wissensdestillation)
Eine Technik des maschinellen Lernens, bei der Wissen von einem großen, komplexen KI-Modell auf ein kleineres, effizienteres Modell übertragen wird, um Leistung bei geringerem Ressourcenverbrauch zu erzielen.