CUDA (Compute Unified Device Architecture)
Eine von NVIDIA entwickelte Parallel-Computing-Plattform und Programmierschnittstelle (API), die es ermöglicht, die Rechenleistung von NVIDIA-Grafikprozessoren (GPUs) für allgemeine Berechnungen (GPGPU) zu nutzen. Entscheidend für das Training und die Beschleunigung vieler Deep-Learning-Modelle.