Kruso Logo
Kontaktiere uns

Cloud-native KI

Cloud-native KI nutzt Technologien wie Container, Microservices und Kubernetes, um KI-Systeme zu erstellen und zu verwalten. In der cloud-nativen Welt werden Community-Werkzeuge verwendet, um skalierbare und effiziente KI-Workflows zu entwickeln.

Kubernetes spielt dabei eine zentrale Rolle und automatisiert das Training, die Bereitstellung und das Hosting von maschinellen Lernmodellen. Tools wie Kubeflow, MLflow und Ray unterstützen diese Prozesse.

Dieser Ansatz verschafft Ihnen Agilität, Skalierbarkeit und erleichtert das Infrastrukturmanagement bei komplexen KI-Arbeitslasten.

Komponenten cloud-nativer KI

Cloud-native KI-Systeme bestehen typischerweise aus mehreren integrierten Open-Source-Werkzeugen, die verschiedene Aspekte des Machine-Learning-Lebenszyklus abdecken, von der Datenverarbeitung und Modellschulung bis hin zu Bereitstellung und Überwachung.

Kubeflow: Kubeflow ist eine cloud-native Plattform, die Machine-Learning-Workflows auf Kubernetes ausführt. Sie erleichtert die Implementierung und Skalierung von ML-Modellen und ist ein zentraler Bestandteil vieler cloud-nativer KI-Stacks.

  • Kubeflow Pipelines: Ein Werkzeug zur Erstellung und Verwaltung durchgängiger ML-Workflows. Nutzer können komplexe Pipelines von ML-Aufgaben (z.B. Datenvorbereitung, Training, Evaluierung) definieren, versionieren, nachvollziehen und zuverlässig wiederholen.

  • KFServing (KServe): Eine Komponente zum Servieren von ML-Modellen auf Kubernetes mittels serverlosen Inferenzmustern. KFServing unterstützt erweiterte Funktionen wie Autoskalierung, GPU-Beschleunigung und Deployment mit verschiedenen Frameworks (z.B. TensorFlow, PyTorch, XGBoost).

Ray Serve: Ray Serve ist eine skalierbare Modell-Serving-Bibliothek, die auf dem verteilten Computing-Framework Ray basiert. Sie ermöglicht eine flexible Bereitstellung von ML-Modellen mit Funktionen wie Traffic-Splitting, dynamischer Skalierung und Python-nativen APIs, ideal für die Bedienung mehrerer Modelle oder Echtzeit-Inferenz in großem Maßstab.

NVIDIA GPU Operator: Der NVIDIA GPU Operator automatisiert die Verwaltung sämtlicher Komponenten, die für GPU-beschleunigte Arbeitslasten auf Kubernetes benötigt werden. Er übernimmt die Installation von Treibern, Monitoring und Upgrades, und erleichtert somit die Nutzung von NVIDIA-GPUs für intensive Trainings- und Inferenzaufgaben in KI-Workflows.

Istio und Prometheus:

  • Istio: Ein Service-Mesh zur Verwaltung von Netzwerkverkehr, Sicherheit und Observierbarkeit von Microservices—einschließlich solcher, die KI-Modelle bereitstellen. In cloud-nativer KI überwacht und steuert Istio die Interaktionen zwischen Services wie Modell-APIs, Datenbanken und Frontends.

  • Prometheus: Ein Open-Source-Monitoringsystem, das Metriken von Kubernetes-Arbeitslasten sammelt und abfragt. Prometheus wird häufig in cloud-nativen KI-Umgebungen eingesetzt, um die Trainingsleistung, Ressourcennutzung und Latenzen bei der Modellinferenz zu überwachen, was die Observierbarkeit und Systemgesundheit verbessert.

Warum ist cloud-native KI cool?

Cloud-native KI zeichnet sich aus, da sie Konsistenz, Automatisierung und intelligentes Ressourcenmanagement bei der Entwicklung und Bereitstellung von KI-Systemen bietet. Eine ihrer Kernstärken liegt darin, sowohl Anwendungen als auch Machine-Learning-Modelle über eine einzige Steuerungsebene zu verwalten, wodurch der Betrieb optimiert und die Komplexität für Teams reduziert wird.

Ein wesentliches Merkmal ist die intelligente GPU-Autoskalierung. Anstatt teure GPU-Instanzen ständig laufen zu lassen, können cloud-native KI-Plattformen erkennen, wann GPU-Ressourcen benötigt werden, etwa beim Training oder der Inferenz, und diese dynamisch hochskalieren. Sobald die Arbeit erledigt ist, werden ungenutzte GPUs automatisch wieder heruntergefahren. Das führt zu einer äußerst effizienten Nutzung der Infrastruktur, senkt Kosten und gewährleistet gleichzeitig Leistung.

Arbeitsweise

Cloud-native KI verfolgt eine modulare, skalierbare und automatisierungsfreundliche Architektur, basierend auf bewährten cloud-nativen Prinzipien. Dieser Ansatz integriert mehrere Schlüsseltechnologien und Praktiken, um KI-Anwendungen effizient in verschiedenen Umgebungen zu entwickeln, bereitzustellen und zu betreiben.

Im Zentrum dieses Ansatzes steht Kubernetes, das Container sowohl für KI-Modelle als auch unterstützende Microservices orchestriert. Kubernetes ermöglicht eine konsistente Bereitstellung und Skalierung über Cluster hinweg, ob in der Cloud, lokal oder am Edge.

Die Systemarchitektur folgt typischerweise diesen Grundprinzipien:

  • GitOps: Alle Infrastruktur- und Modellkonfigurationen werden als Code verwaltet und in Git-Repositories gespeichert. Tools wie Argo CD und Flux gleichen kontinuierlich den in Git deklarierten Zustand mit dem tatsächlichen Zustand in Kubernetes ab, was vollständig automatisierte und versionskontrollierte Bereitstellungspipelines ermöglicht.

  • Microservices: Jede Komponente des KI-Stacks—Datenverarbeitung, Modelltraining, Inferenz und Monitoring—wird als lose gekoppelte Microservice implementiert. Dies ermöglicht unabhängige Skalierung, Updates und Wiederverwendung über Projekte hinweg.

  • GPU-Scheduling: Spezialisierte Scheduler und der NVIDIA GPU Operator verwalten GPU-Ressourcen dynamisch. Dies gewährleistet, dass teure GPU-Ressourcen nur bei Bedarf zugewiesen werden, etwa während Training oder Inferenz, wodurch Kosten und Nutzung erheblich optimiert werden.

  • CNCF-Ökosystemintegration: Die Architektur nutzt intensiv Projekte der Cloud Native Computing Foundation (CNCF), darunter Prometheus zur Überwachung, Istio für Servicemesh-Funktionen, Envoy für Verkehrskontrolle und OpenTelemetry für Observierbarkeit. Diese Tools bieten operative Einblicke, Zuverlässigkeit und Sicherheit auf hoher Ebene.

Dieser Arbeitsansatz erlaubt es Teams, KI-Systeme nach den gleichen Prinzipien wie moderne Softwareanwendungen zu entwickeln und bereitzustellen—hoch automatisiert, cloud-unabhängig und ausgelegt auf kontinuierliche Lieferung.

6 Vorteile der cloud-nativen KI-Technologie:

  1. 100% Open Source

    Kein Vendor-Lock-in; vollständig gemeinschaftsgetrieben.

  2. Cloud-agnostisch

    Läuft überall: On-Premises, Public Cloud oder Hybrid.

  3. Horizontal skalierbar

    Skalieren Sie Modelle und Dienste nach Bedarf.

  4. Fein abgestufte Quoten

    Präzise Kontrolle über die Ressourcennutzung.

  5. Aktive CNCF-Community

    Unterstützt von einem lebendigen Open-Source-Ökosystem.

  6. DevOps-freundlich

    Integriert sich nahtlos in CI/CD- und GitOps-Workflows.