Red Teaming
Eine Methode zur Überprüfung der Sicherheit von Systemen, bei der ein Team versucht, wie ein Angreifer Schwachstellen zu finden und auszunutzen. Die KI-Verordnung sieht Red Teaming als Teil der Modellbewertung für KI-Modelle mit systemischem Risiko vor.