Cloud-Kostenfallen – Warum Flexibilität schnell teuer werden kann

Die Cloud hat die Art, wie Unternehmen Software betreiben, revolutioniert: keine Hardware-Investitionen, flexible Skalierung, Pay-as-you-go-Modelle. Klingt perfekt – bis die Abrechnung kommt und plötzlich deutlich höher ist als geplant.
Was viele nicht wissen: Cloud-Kosten sind tückisch, weil sie sich schleichend und unsichtbar aufbauen.
Hier die häufigsten Kostenfallen und wie man sie vermeidet:
1. Überdimensionierte Ressourcen
Virtuelle Maschinen, Container oder Datenbanken werden oft „auf Nummer sicher“ zu gross dimensioniert.
Beispiel:
Eine VM mit 16 CPUs und 64 GB RAM läuft für einen Test und bleibt übers Wochenende aktiv.
Ergebnis: 200 Franken für nichts.
Tipp:
-
Auto-Scaling & Monitoring nutzen
-
Ressourcen-Limits setzen (z. B. in Kubernetes)
-
Für Tests kleinere Instanzen verwenden
2. Vergessene Ressourcen
Snapshots, Volumes oder Load Balancer laufen weiter, obwohl ihre Instanz gelöscht wurde.
Beispiel:
Ein S3-Bucket mit Logs wächst über Monate unbeobachtet weiter.
Tipp:
- Lifecycle Policies einrichten
- Tags wie „owner“ oder „expiry“ verwenden
- Automatisierte Cleanup-Skripte
3. Datenübertragung (Egress-Kosten)
Upload ist kostenfrei – Download oft nicht.
Beispiel:
Tägliche Backups von AWS S3 in On-Prem erzeugen hohe Egress-Gebühren.
Tipp:
-
Daten möglichst in derselben Region verarbeiten
-
CDN oder Caching nutzen
-
Prüfen, ob lokale Backups nötig sind
Satzschablonen-Technik: „Als [Rolle] möchte ich [Ziel], um [Nutzen].“
-
Akzeptanzkriterien: Messbare Bedingungen für die Überprüfung der Erfüllung.
-
Definition of Ready / Done: Qualitätsschwellen für Start und Abschluss.
-
Priorisierungsmethoden: MoSCoW, Kano-Modell oder Business Value.
-
Rückverfolgbarkeit (Traceability): Anforderungen eindeutig mit Design, Code und Tests verknüpfen.
Qualitätssicherung & Werkzeuge
-
Validierung & Verifikation: „Bauen wir das Richtige?“ vs. „Bauen wir es richtig?“
-
Tool-Unterstützung: Einsatz von RE-Tools wie Azure DevOps, Jira, Polarion oder DOORS.
-
Modellbasierte Dokumentation: UML, BPMN oder SysML für komplexe Systeme.
-
Iteratives Vorgehen: Regelmässige Reviews und Anpassungen.
-
Schulung & Sensibilisierung: Förderung der RE-Kompetenz im gesamten Team.
4. „Serverless“ ist nicht kostenlos
Lambda & Cloud Functions skalieren automatisch, aber kosten pro Aufruf und Ausführungszeit.
Beispiel:
Analyse-Job läuft alle 10 Sekunden → Millionen Requests → hohe Kosten.
Tipp:
-
Limits für Invocations setzen
-
Batch statt Einzelaufrufe nutzen
-
Logs prüfen – oft sind unnötige Trigger aktiv
5. Fehlende Kosten-Transparenz
Viele Teams wissen nicht, welcher Service welche Kosten verursacht.
Beispiel:
Ein AWS-Projekt mit 10 Entwicklern – alle nutzen das gleiche Konto. Kosten bleiben diffus.
Tipp:
-
Kostenstellen per Tags/Sub-Accounts trennen
-
Cost-Dashboards aktiv nutzen
-
Warnungen bei Schwellenwerten
6. Dauerhaft aktive Umgebungen
Test- und Entwicklungsumgebungen laufen häufig 24/7.
Beispiel:
Eine Stage-Umgebung läuft am Wochenende ungenutzt weiter.
Tipp:
-
Zeitgesteuertes Start/Stop
-
Automatisches Herunterfahren am Wochenende
7. Unterschätzte Zusatzkosten
Grossverbraucher sind oft nicht Compute, sondern Zusatzservices:
-
Monitoring/Logging
-
API-Aufrufe
-
Managed Services
Beispiel:
Intensives Debugging → CloudWatch Logs wachsen → Monitoring teurer als Compute.
Tipp:
-
Log Retention Limits
-
Alte Logs archivieren
-
Monitoring auf das Wesentliche beschränken
Fazit
Clouds sind mächtig – aber keine „Kostenautomatik“.
Wer misst, spart. Wer ignoriert, zahlt doppelt.
Cloud-Kostenmanagement ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess aus Transparenz, Automatisierung und Disziplin.
