CUDA
Compute Unified Device ArchitectureNVIDIA-Plattform fuer GPU-Computing. Standard fuer KI-Training und Inferenz auf Grafikkarten.
Was ist CUDA?
CUDA (Compute Unified Device Architecture) ist eine von NVIDIA entwickelte Plattform und Programmierschnittstelle, die es ermöglicht, allgemeine Berechnungen auf Grafikkarten (GPUs) auszuführen. CUDA ist der De-facto-Standard für KI-Training und Inferenz auf GPUs. Praktisch alle modernen KI-Frameworks – von PyTorch über TensorFlow bis hin zu spezialisierten Inferenz-Engines – nutzen CUDA als Grundlage für GPU-Beschleunigung.
Wie funktioniert CUDA?
CUDA erlaubt es Entwicklern, Code zu schreiben, der auf den Tausenden von Rechenkernen einer GPU parallel ausgeführt wird. Während eine CPU typischerweise 8 bis 64 Kerne besitzt, verfügt eine moderne GPU über mehrere Tausend. Für die Matrixmultiplikationen, die das Rückgrat neuronaler Netze bilden, bedeutet das eine Beschleunigung um den Faktor 10 bis 100 gegenüber reiner CPU-Berechnung. Auf CUDA baut ein ganzes Ökosystem spezialisierter Bibliotheken auf: cuDNN beschleunigt Deep-Learning-Operationen, cuBLAS optimiert lineare Algebra und TensorRT maximiert die Inferenz-Geschwindigkeit. Diese Bibliotheken werden von den gängigen KI-Frameworks automatisch genutzt, sodass Anwender in der Regel keinen CUDA-Code selbst schreiben müssen – die Beschleunigung geschieht transparent im Hintergrund.
Warum ist CUDA wichtig?
CUDA hat NVIDIAs dominierende Stellung im KI-Markt begründet. Das über Jahre aufgebaute Software-Ökosystem ist so umfangreich und ausgereift, dass ein Wechsel zu alternativen Plattformen wie AMD ROCm oder Intel oneAPI für viele Organisationen mit erheblichem Aufwand verbunden ist. Für Unternehmen, die eigene Modelle trainieren oder On-Premise-KI betreiben, ist die CUDA-Kompatibilität ein entscheidendes Kriterium bei der Hardware-Beschaffung. Auch die Verfügbarkeit der passenden CUDA-Version beeinflusst, welche Modelle und Frameworks eingesetzt werden können – ein Faktor, den IT-Abteilungen bei der Infrastrukturplanung berücksichtigen sollten.
Verwandte Begriffe
GPU, NVIDIA, VRAM, PyTorch, Inferenz, Training
← Zurück zum Glossar