KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

AI System Cards

Standardisiertes Format zur Dokumentation der Eigenschaften, Einschränkungen und ethischen Überlegungen zu einem KI-System, ähnlich zu Model Cards, aber mit Fokus auf das Gesamtsystem. AI Tokenizer: Komponente, die Eingabetext in verwertbare Einheiten (Tokens) für das Modell zerlegt. AI Tool Hunt: Name einer Datenbank oder eines Plugins zum Finden von KI-Werkzeugen.

Kategorie: A | Quelle: Das große KI-Lexikon von David Mirga