Zum Hauptinhalt springen
Cloud / Azure / Produkte / Azure Kubernetes Service (AKS) - Azure Computing

Azure Kubernetes Service (AKS) - Azure Computing

Azure Kubernetes Service (AKS): Deploy and scale containers on managed Kubernetes

compute
Preismodell Pay for agent nodes only (control plane free)
Verfügbarkeit 60+ Azure regions worldwide
Datensouveränität EU regions: West Europe, North Europe, Germany, France, Switzerland
Zuverlässigkeit 99.95% with Availability Zones SLA

Azure Kubernetes Service (AKS) vereinfacht das Deployment eines verwalteten Kubernetes-Clusters in Azure, indem es den operativen Overhead an Azure auslagert. Als gehosteter Kubernetes-Service übernimmt Azure kritische Aufgaben wie Health Monitoring und Wartung. Sie verwalten und pflegen nur die Agent-Nodes.

Was ist Azure Kubernetes Service?

Azure Kubernetes Service ist ein vollständig verwalteter Kubernetes-Service, der es Entwicklungs- und Betriebsteams ermöglicht, containerisierte Anwendungen ohne tiefgreifende Container-Orchestrierungskenntnisse zu deployen und zu skalieren.

Die Kubernetes Control Plane wird von Microsoft kostenlos bereitgestellt und gewartet. Das umfasst API-Server, Scheduler, Controller Manager und etcd-Datenspeicher. Unternehmen zahlen ausschließlich für die Compute-Ressourcen der Worker Nodes, auf denen die eigentlichen Workloads laufen.

AKS integriert sich nahtlos in das Azure-Ökosystem und bietet native Anbindungen an Azure Active Directory (jetzt Microsoft Entra ID), Azure Monitor, Azure Policy, Azure Container Registry und zahlreiche weitere Services. Besonders für Unternehmen mit DSGVO-Anforderungen ist AKS in europäischen Azure-Regionen verfügbar und erfüllt alle relevanten Compliance-Standards.

AKS vs. Azure Container Apps

Bei der Wahl zwischen AKS und Azure Container Apps stellt sich oft die Frage nach der richtigen Abstraktionsebene:

KriteriumAzure Kubernetes Service (AKS)Azure Container Apps
KontrollebeneVoller Zugriff auf Kubernetes APIKein direkter Kubernetes-Zugriff
ZielgruppeTeams mit Kubernetes-Know-howEntwickler ohne K8s-Erfahrung
AnwendungsfälleKomplexe Microservices, Legacy-Migration, Multi-ClusterEinfache APIs, Event-driven Apps, Jobs
VerwaltungCluster-Management erforderlich (oder AKS Automatic)Vollständig serverless
NetzwerkVolle Kontrolle (CNI-Auswahl, Network Policies)Abstrahiert, einfaches Ingress
SkalierungHPA, VPA, Cluster Autoscaler, KEDAAutomatisch basierend auf HTTP-Traffic/Events
KostenmodellZahlung pro Node (VMs laufen kontinuierlich)Zahlung pro Sekunde Ressourcennutzung
PortabilitätKubernetes-Standard, Multi-Cloud-fähigAzure-spezifisch
Windows-ContainerVoll unterstütztEingeschränkt

Wann AKS wählen:

  • Bestehende Kubernetes-Workloads migrieren
  • Volle Kontrolle über Netzwerk, Storage, Security
  • Komplexe Microservices-Architekturen mit Service Mesh
  • Hybrid-/Multi-Cloud-Strategien
  • Windows-Container-Anforderungen
  • Langfristige Kubernetes-Strategie

Wann Container Apps wählen:

  • Schnelles Deployment ohne Cluster-Management
  • Event-driven Workloads (Queue-Processing, HTTP-APIs)
  • Cost-Optimierung durch echtes Serverless-Pricing
  • Teams ohne Kubernetes-Expertise
  • Einfache Skalierungsanforderungen

Azure CNI und Networking Modes

Die Netzwerk-Konfiguration ist entscheidend für Performance, Sicherheit und IP-Adressplanung in AKS. Azure bietet mehrere CNI-Optionen:

Azure CNI (Container Network Interface)

Overlay-Modus (empfohlen für die meisten Szenarien):

  • Pods erhalten IP-Adressen aus einem privaten CIDR-Bereich (z.B. 10.244.0.0/16)
  • Nodes nutzen Subnetz-IPs aus dem VNet
  • Spart IP-Adressen im VNet (wichtig bei knappen IP-Ranges)
  • Pods können untereinander und mit VNet-Ressourcen kommunizieren
  • Geringerer IP-Verbrauch ermöglicht größere Cluster

Dynamic IP Allocation:

  • Jeder Pod erhält eine IP direkt aus dem VNet-Subnet
  • Pods sind auf Netzwerkebene gleichwertig mit VMs
  • Einfacheres Routing, aber höherer IP-Verbrauch
  • Erforderlich bei Compliance-Anforderungen für direkte VNet-Integration

Azure CNI Powered by Cilium

Kombiniert Azure CNI mit Cilium für erweiterte Netzwerk-Features:

  • eBPF-basierte Datenpfade für höhere Performance
  • Erweiterte Network Policies (L3/L4/L7)
  • Transparentes Verschlüsselung (WireGuard)
  • Hubble für Netzwerk-Observability
  • Service Mesh-Features ohne zusätzliche Proxies

Kubenet (Legacy)

  • Einfaches Plugin, nur für Basic-Szenarien
  • Pods nicht direkt im VNet erreichbar
  • Nur für Test/Dev empfohlen, nicht für Production

Bring Your Own CNI

Für spezielle Anforderungen können Sie eigene CNI-Plugins wie Calico oder Weave einbinden.

Empfehlung: Für die meisten Production-Workloads ist Azure CNI Overlay der beste Kompromiss aus Funktionalität und IP-Effizienz. Für Hochsicherheitsumgebungen oder komplexe Netzwerk-Policies bietet sich Azure CNI Powered by Cilium an.

Typische Anwendungsfälle

Microservices-Architekturen

AKS ist die ideale Plattform für verteilte Microservices-Anwendungen. Durch die nativen Kubernetes-Features wie Service Discovery, Load Balancing und Rolling Updates können Sie komplexe Anwendungslandschaften orchestrieren. Integration mit Service Meshes wie Istio oder Linkerd ermöglicht Traffic Management, Circuit Breaking und mTLS-Verschlüsselung zwischen Services.

Beispiel: Ein E-Commerce-Unternehmen betreibt 50+ Microservices auf AKS, darunter Produktkatalog, Warenkorblogik, Payment-Processing und Recommendation-Engine. Jeder Service skaliert unabhängig basierend auf Last, und Blue/Green-Deployments minimieren Downtime.

CI/CD-Pipelines mit containerisierten Anwendungen

AKS integriert sich nahtlos mit Azure DevOps und GitHub Actions. Über GitOps-Tools wie Flux oder ArgoCD können Sie deklarative Deployments automatisieren. Helm Charts und Kustomize ermöglichen Template-basiertes Deployment über Umgebungen hinweg.

Beispiel: Ein SaaS-Anbieter deployed täglich 20+ Releases auf verschiedene AKS-Cluster (Dev, Staging, Production) über GitHub Actions. Pull Requests triggern automatisch Testumgebungen, Merges lösen Production-Deployments aus.

Machine Learning Model Deployment

Mit KAITO (Kubernetes AI Toolchain Operator) können Sie Large Language Models wie Llama 2, Falcon oder Microsoft Phi direkt auf AKS deployen. GPU-Node-Pools (NVIDIA A100, V100) bieten die nötige Rechenleistung für Inferencing. Integration mit Azure Machine Learning ermöglicht End-to-End-MLOps.

Beispiel: Ein Finanzdienstleister betreibt mehrere ML-Modelle für Betrugsserkennung auf AKS mit GPU-Nodes. Modelle werden als Container deployed, Traffic wird basierend auf Modell-Version geroutet, und A/B-Tests validieren neue Versionen.

Batch-Processing und Scheduled Jobs

Kubernetes CronJobs und Jobs eignen sich für periodische Datenverarbeitungs-Workloads. Mit KEDA (Kubernetes Event-Driven Autoscaling) können Sie basierend auf Queue-Längen (z.B. Azure Service Bus) automatisch skalieren.

Beispiel: Ein Medienunternehmen verarbeitet nachts Videos in AKS. Jobs lesen aus Azure Blob Storage, führen Transcoding durch und schreiben Ergebnisse zurück. Nodes skalieren automatisch basierend auf Queue-Länge und werden nach Beendigung heruntergefahren.

Multi-Cloud und Hybrid-Deployments mit Azure Arc

Azure Arc-enabled Kubernetes erlaubt es, AKS-Cluster mit On-Premises- oder anderen Cloud-Kubernetes-Clustern (AWS EKS, Google GKE) zu verbinden. Über Azure Policy können Sie zentral Compliance-Regeln durchsetzen, und Azure Monitor bietet einheitliches Monitoring.

Beispiel: Ein globaler Konzern betreibt AKS in Azure-Regionen, zusätzliche Kubernetes-Cluster in eigenen Rechenzentren und bei anderen Cloud-Providern. Azure Arc bietet ein einheitliches Control Plane für Deployments, Policies und Monitoring über alle Cluster hinweg.

Best Practices für Production

Bei der Vorbereitung von AKS-Clustern für produktive Workloads sollten Sie folgende Aspekte berücksichtigen:

1. Cluster-Architektur und Sizing

  • Mehrere Node Pools: Trennen Sie System-Workloads (CoreDNS, Metrics Server) von Anwendungs-Workloads über separate Node Pools. Nutzen Sie Taints und Tolerations zur Isolation.
  • Availability Zones: Verteilen Sie Node Pools über mehrere Availability Zones für 99.95% SLA und Ausfallsicherheit.
  • Node-Größen: Wählen Sie VM-Größen basierend auf Workload-Charakteristik. Für hohe Pod-Dichte nutzen Sie größere VMs, für Cost-Optimierung kleinere Instanzen mit Autoscaling.
  • Cluster-Grenzen: Beachten Sie Limits (5000 Nodes im Standard Tier). Für sehr große Deployments nutzen Sie Azure Kubernetes Fleet Manager zur Verwaltung mehrerer Cluster.

2. Netzwerk-Sicherheit

  • Azure CNI Overlay: Nutzen Sie Overlay-Mode für IP-Effizienz bei großen Clustern.
  • Network Policies: Implementieren Sie Calico oder Azure Network Policies zur Mikrosegmentierung zwischen Pods.
  • Private Cluster: Verwenden Sie Private Link für Control Plane-Zugriff, sodass API-Server nicht öffentlich erreichbar ist.
  • Web Application Firewall: Setzen Sie Azure Application Gateway mit WAF vor Ingress-Controller für L7-Schutz.

3. Identity und Access Management

  • Workload Identity: Nutzen Sie Microsoft Entra Workload Identity statt Service Principal für sichere Azure-Ressourcen-Zugriffe (ersetzt Pod Managed Identity).
  • Azure RBAC: Integrieren Sie Kubernetes RBAC mit Microsoft Entra ID für zentrale Benutzerverwaltung.
  • Least Privilege: Definieren Sie granulare RBAC-Rollen statt Cluster-Admin-Zugriff.
  • Pod Security Standards: Aktivieren Sie Pod Security Admission für Baseline/Restricted Policies.

4. Monitoring und Observability

  • Azure Monitor Container Insights: Aktivieren Sie für Metriken, Logs und Empfehlungen.
  • Prometheus und Grafana: Nutzen Sie Azure Managed Grafana und Azure Monitor managed service for Prometheus für erweiterte Metriken.
  • Application Insights: Instrumentieren Sie Anwendungen mit SDKs für Distributed Tracing.
  • Alerting: Konfigurieren Sie Alerts für Node-Failures, Pod-Crashes, Memory/CPU-Bottlenecks.

5. Backup und Disaster Recovery

  • Velero: Implementieren Sie regelmäßige Cluster-Backups mit Velero und Azure Blob Storage.
  • GitOps: Speichern Sie alle Kubernetes-Manifeste in Git für Infrastructure-as-Code und schnelle Wiederherstellung.
  • Multi-Region: Für kritische Workloads deployen Sie in mehrere Azure-Regionen mit Traffic Manager für Failover.

6. Cost Optimization

  • Spot Node Pools: Nutzen Sie Azure Spot VMs für fehlertolerante Workloads (bis zu 90% Kostenersparnis).
  • Cluster Autoscaler: Aktivieren Sie automatisches Skalieren von Nodes basierend auf Pod-Anforderungen.
  • Vertical Pod Autoscaler: Optimieren Sie Resource Requests/Limits automatisch.
  • Azure Hybrid Benefit: Nutzen Sie bestehende Windows Server-Lizenzen für Windows-Node-Pools.

7. Updates und Upgrades

  • Auto-Upgrade: Konfigurieren Sie automatische Upgrades für Patches und Minor-Versionen (z.B. patch-Kanal).
  • Maintenance Windows: Definieren Sie Wartungsfenster für kontrollierte Upgrades.
  • Node Image Upgrades: Halten Sie Node-Images aktuell für Sicherheitspatches.
  • Testing: Validieren Sie Upgrades zunächst in Dev/Staging-Clustern mit identischer Konfiguration.

Häufig gestellte Fragen zu Azure Kubernetes Service

Ist die Kubernetes Control Plane kostenlos?

Ja, Azure verwaltet die Control Plane ohne Zusatzkosten. Sie zahlen nur für die virtuellen Maschinen (Nodes), auf denen Ihre Anwendungen laufen. Bei AKS Automatic fallen zusätzliche Verwaltungsgebühren an.

Kann ich AKS für Hybrid-Deployments nutzen?

Ja, über Azure Arc-enabled Kubernetes können Sie On-Premises- und Multi-Cloud-Kubernetes-Cluster zusammen mit AKS verwalten. Dies ermöglicht einheitliches Management über verschiedene Umgebungen hinweg.

Was ist der Unterschied zwischen AKS und Azure Container Apps?

AKS bietet volle Kubernetes-Kontrolle und eignet sich für komplexe Microservices-Architekturen. Azure Container Apps ist eine serverless Plattform ohne Kubernetes-Zugriff, ideal für einfachere Event-driven Apps und schnelle Deployments ohne Cluster-Management.

Welche Kubernetes-Versionen werden unterstützt?

AKS unterstützt die letzten drei Minor-Versionen von Kubernetes. Zusätzlich bietet AKS Long-Term Support (LTS) für Versionen, die über das Standard-Support-Fenster hinaus gepflegt werden müssen.

Wie funktioniert Azure CNI Networking?

Azure CNI weist jedem Pod eine IP-Adresse aus dem VNet zu. Es gibt zwei Modi: Overlay (Pod-IPs aus separatem Bereich) und Dynamic IP Allocation (IPs direkt aus Subnet). CNI Powered by Cilium kombiniert Azure CNI mit erweiterten Netzwerk-Features.

Kann ich Windows-Container auf AKS betreiben?

Ja, AKS unterstützt Windows Server 2019 und 2022 Node Pools neben Linux-Nodes. Sie können gemischte Cluster betreiben, wobei die Control Plane immer auf Linux läuft.

Was ist AKS Automatic?

AKS Automatic ist ein Deployment-Modus, der Cluster-Management-Aufgaben wie Upgrades, Node-Provisionierung, Skalierung und Netzwerkkonfiguration automatisiert. Es bietet produktionsfertige Cluster mit Best Practices out-of-the-box.

Wie integriere ich AI-Modelle in AKS?

Mit dem Kubernetes AI Toolchain Operator (KAITO) können Sie AI-Modelle wie Llama, Falcon oder Phi direkt auf AKS deployen. KAITO automatisiert GPU-Node-Bereitstellung und Modell-Deployment.

Welche SLA bietet AKS?

Der Free Tier bietet keine SLA. Der Standard Tier garantiert 99.5% Verfügbarkeit (99.95% mit Availability Zones). Der Premium Tier bietet zusätzliche Garantien für erweiterte Features.

Kann ich AKS DSGVO-konform betreiben?

Ja, durch Nutzung europäischer Azure-Regionen (West Europe, North Europe, Germany, France, Switzerland) und entsprechender Konfiguration können Sie DSGVO-Anforderungen erfüllen. Microsoft bietet umfassende Compliance-Zertifizierungen.

AKS vs. Alternativen anderer Cloud-Provider

Bei der Wahl einer Cloud-Lösung stellt sich oft die Frage nach Alternativen. Azure Kubernetes Service konkurriert mit vergleichbaren Services anderer Cloud-Provider:

  • AWS: Amazon EKS (Elastic Kubernetes Service)
  • STACKIT: STACKIT Kubernetes Engine (SKE)
  • Google Cloud: Google Kubernetes Engine (GKE)

Während die Funktionalität oft ähnlich ist, unterscheiden sich die Services in Pricing-Modellen, regionaler Verfügbarkeit und Integrations-Ökosystem:

  • Azure punktet besonders bei Enterprise-Kunden mit Microsoft-Stack, Active Directory-Integration und Hybrid-Cloud-Szenarien über Azure Arc.
  • AWS EKS bietet tiefste Integration ins AWS-Ökosystem und größte Auswahl an Instance-Typen.
  • Google GKE ist technisch oft Vorreiter (Kubernetes stammt von Google) und bietet Autopilot-Mode für vollständig verwaltete Cluster.
  • STACKIT SKE fokussiert auf DSGVO-Compliance mit deutschen Rechenzentren und Souveränität.

Integration mit innFactory

Als Microsoft Azure Partner unterstützt innFactory Sie bei der Integration und Optimierung von Azure Kubernetes Service (AKS). Wir helfen bei Architektur, Migration, Betrieb und Kostenoptimierung.

Kontaktieren Sie uns für eine unverbindliche Beratung zu Azure Kubernetes Service (AKS) und Microsoft Azure.

Verfügbare Varianten & Optionen

Free tier

Stärken
  • No cost for control plane
  • Development/testing workloads
  • Single cluster
Einschränkungen
  • Limited to 10 nodes
  • No SLA

Premium tier

Stärken
  • Enhanced security
  • Longer support
  • Advanced networking
Einschränkungen
  • Higher cost

Typische Anwendungsfälle

Microservices architectures
CI/CD pipelines with containerized applications
Machine learning model deployment
Batch processing and scheduled jobs
Multi-cloud and hybrid deployments with Azure Arc

Technische Spezifikationen

Ai ml KAITO (Kubernetes AI Toolchain Operator), GPU node pools, Azure AI integration
Deployment modes AKS Automatic (automated operations), AKS Standard (manual control)
Kubernetes versions Last 3 minor versions supported, Long-term support (LTS) available
Networking Azure CNI (Overlay/Dynamic IP), kubenet, Cilium, Azure CNI Powered by Cilium, Bring Your Own CNI
Node os Linux (Ubuntu, Azure Linux, Mariner), Windows Server 2019/2022
Scaling Cluster autoscaler, Horizontal Pod Autoscaler (HPA), Vertical Pod Autoscaler (VPA), KEDA, Node Auto-Provisioning
Security Microsoft Entra ID integration, RBAC, Network policies, Azure Policy, Defender for Containers, Workload Identity
Storage Azure Disks, Azure Files, Azure Blob (CSI drivers), Azure Container Storage

Häufig gestellte Fragen

Ist die Kubernetes Control Plane kostenlos?

Ja, Azure verwaltet die Control Plane ohne Zusatzkosten. Sie zahlen nur für die virtuellen Maschinen (Nodes), auf denen Ihre Anwendungen laufen. Bei AKS Automatic fallen zusätzliche Verwaltungsgebühren an.

Kann ich AKS für Hybrid-Deployments nutzen?

Ja, über Azure Arc-enabled Kubernetes können Sie On-Premises- und Multi-Cloud-Kubernetes-Cluster zusammen mit AKS verwalten. Dies ermöglicht einheitliches Management über verschiedene Umgebungen hinweg.

Was ist der Unterschied zwischen AKS und Azure Container Apps?

AKS bietet volle Kubernetes-Kontrolle und eignet sich für komplexe Microservices-Architekturen. Azure Container Apps ist eine serverless Plattform ohne Kubernetes-Zugriff, ideal für einfachere Event-driven Apps und schnelle Deployments ohne Cluster-Management.

Welche Kubernetes-Versionen werden unterstützt?

AKS unterstützt die letzten drei Minor-Versionen von Kubernetes. Zusätzlich bietet AKS Long-Term Support (LTS) für Versionen, die über das Standard-Support-Fenster hinaus gepflegt werden müssen.

Wie funktioniert Azure CNI Networking?

Azure CNI weist jedem Pod eine IP-Adresse aus dem VNet zu. Es gibt zwei Modi: Overlay (Pod-IPs aus separatem Bereich) und Dynamic IP Allocation (IPs direkt aus Subnet). CNI Powered by Cilium kombiniert Azure CNI mit erweiterten Netzwerk-Features.

Kann ich Windows-Container auf AKS betreiben?

Ja, AKS unterstützt Windows Server 2019 und 2022 Node Pools neben Linux-Nodes. Sie können gemischte Cluster betreiben, wobei die Control Plane immer auf Linux läuft.

Was ist AKS Automatic?

AKS Automatic ist ein Deployment-Modus, der Cluster-Management-Aufgaben wie Upgrades, Node-Provisionierung, Skalierung und Netzwerkkonfiguration automatisiert. Es bietet produktionsfertige Cluster mit Best Practices out-of-the-box.

Wie integriere ich AI-Modelle in AKS?

Mit dem Kubernetes AI Toolchain Operator (KAITO) können Sie AI-Modelle wie Llama, Falcon oder Phi direkt auf AKS deployen. KAITO automatisiert GPU-Node-Bereitstellung und Modell-Deployment.

Welche SLA bietet AKS?

Der Free Tier bietet keine SLA. Der Standard Tier garantiert 99.5% Verfügbarkeit (99.95% mit Availability Zones). Der Premium Tier bietet zusätzliche Garantien für erweiterte Features.

Kann ich AKS DSGVO-konform betreiben?

Ja, durch Nutzung europäischer Azure-Regionen (West Europe, North Europe, Germany, France, Switzerland) und entsprechender Konfiguration können Sie DSGVO-Anforderungen erfüllen. Microsoft bietet umfassende Compliance-Zertifizierungen.

Microsoft Solutions Partner

innFactory ist Microsoft Solutions Partner. Wir bieten Beratung, Implementierung und Managed Services für Azure.

Microsoft Solutions Partner Microsoft Data & AI

Bereit, mit Azure Kubernetes Service (AKS) - Azure Computing zu starten?

Unsere zertifizierten Azure Experten helfen bei Architektur, Integration und Optimierung.

Beratung vereinbaren