Docker
ContainerContainer-Technologie zum Paketieren von Software. Ermöglicht einfache Installation und Betrieb von KI-Systemen.
Was ist Docker?
Docker ist eine Container-Technologie, die Software zusammen mit allen Abhängigkeiten in standardisierte, isolierte Einheiten verpackt – sogenannte Container. Im KI-Kontext löst Docker eines der größten praktischen Probleme: die zuverlässige und reproduzierbare Bereitstellung von Modellen und deren gesamtem Software-Stack. Ein Docker-Container enthält alles, was eine KI-Anwendung braucht – Betriebssystem-Bibliotheken, Python-Versionen, CUDA-Treiber und Framework-Abhängigkeiten – und läuft überall identisch.
Wie funktioniert Docker?
Docker nutzt Betriebssystem-Level-Virtualisierung, um Anwendungen voneinander und vom Host-System zu isolieren, ohne den Overhead einer vollständigen virtuellen Maschine. Ein Dockerfile beschreibt Schritt für Schritt, wie der Container aufgebaut wird – welche Basiskomponenten installiert werden, welche Bibliotheken hinzukommen und wie die Anwendung gestartet wird. Aus dieser Beschreibung wird ein Image gebaut, das beliebig oft als Container gestartet werden kann. Für KI-Anwendungen bietet Docker mit dem NVIDIA Container Toolkit eine spezielle Erweiterung, die GPUs direkt an Container durchreicht – so können ML-Modelle innerhalb des Containers auf die volle GPU-Beschleunigung zugreifen. Container-Registries wie Docker Hub stellen fertige Images bereit, etwa für PyTorch, TensorFlow oder Ollama, die mit einem einzigen Befehl gestartet werden können.
Warum ist Docker wichtig?
Docker beseitigt das „Es funktioniert auf meinem Rechner"-Problem, das im KI-Bereich besonders gravierend ist, weil ML-Projekte oft komplexe Abhängigkeitsketten haben. Für Unternehmen bietet Docker drei konkrete Vorteile: Erstens garantiert es Reproduzierbarkeit von Experimenten und Deployments über Entwicklungs-, Test- und Produktionsumgebungen hinweg. Zweitens ermöglicht es über Orchestrierungstools wie Kubernetes eine elastische Skalierung – etwa mehr Inferenz-Container bei hoher Nachfrage. Drittens vereinfacht es den Betrieb erheblich, weil Updates und Rollbacks durch einfachen Austausch des Container-Images erfolgen können.
Verwandte Begriffe
Inferenz, CUDA, GPU, Ollama, On-Premise, MLOps
← Zurück zum Glossar