KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Red Teaming

Eine Methode zur Überprüfung der Sicherheit von Systemen, bei der ein Team versucht, wie ein Angreifer Schwachstellen zu finden und auszunutzen. Die KI-Verordnung sieht Red Teaming als Teil der Modellbewertung für KI-Modelle mit systemischem Risiko vor.

Kategorie: R | Quelle: Das große KI-Lexikon von David Mirga