Direkte Antwort

Produktionsreif in drei Sätzen

Produktionsreif (englisch „production-ready“) bedeutet nicht „funktioniert“. Es bedeutet: Die Anwendung bedient stabil, sicher und skalierbar zahlende Kunden, ohne dass dein Team ständig im Notfallmodus läuft. Eine SaaS ist produktionsreif genug, wenn sie für ihr aktuelles Risiko-Niveau stabil läuft, bekannte Sicherheitsrisiken adressiert, wachsen kann, sichtbar macht, wenn etwas schiefläuft, und sich rasch reparieren lässt.

Wichtig: Produktionsreife ist kein Schalter, sondern ein Spektrum. Eine SaaS für 100 Nutzer hat andere Anforderungen als eine für 10’000 Nutzer. Das richtige Niveau hängt von Risiko, Budget und Kundenerwartung ab.

Definition

Eine Software ist produktionsreif, wenn:

  1. Sie hält aus, was Kunden tun (Last, viele gleichzeitige Nutzer, Sonderfälle).
  2. Sie ist sicher gegen bekannte Angriffe (SQL-Injection, CSRF, XSS).
  3. Sie kann wachsen (Datenbank-Performance, API-Latenz, Kosten).
  4. Du siehst sofort, wenn etwas schiefläuft (Monitoring, Alerts, Logs).
  5. Probleme lassen sich rasch beheben (Code-Qualität, Dokumentation, Runbooks).
Die 9 Dimensionen

Was Produktionsreife konkret bedeutet

01

Sicherheit

Was ist damit gemeint: Keine SQL-Injections, XSS, CSRF, unsichere Deserialisierung. Logins sind verschlüsselt (HTTPS überall, sichere Sessions). Geheimnisse (DB-Passwörter, API-Keys) liegen nicht im Code. Der Code wird regelmässig auf bekannte Schwachstellen geprüft.

Wie wird es geprüft: Audit gegen die OWASP Top 10. Dependency-Scans (npm audit, Snyk). Statische Sicherheitsanalyse (SAST).

In Zahlen: Eine einfache Next.js-App braucht 5 bis 10 Tage für Security-Härtung.

02

Skalierbarkeit

Was ist damit gemeint: Die App ist so gebaut, dass sie mit steigender Nutzung gezielt ausgebaut werden kann. Datenbank-Abfragen sind optimiert (Indexe gesetzt, Query-Pläne geprüft), API-Latenzen werden gemessen, und die Code-Schicht lässt sich bei Bedarf horizontal skalieren (zustandslose Services).

Wie wird es geprüft: Lasttests (k6, Apache JMeter), die 1’000 gleichzeitige Nutzer simulieren. Profiling der Datenbank-Abfragen (EXPLAIN ANALYZE in Postgres). Infrastruktur als Code (Terraform, Helm) für Skalierung in Minuten.

In Zahlen: Skalierungs-Audit für eine Lovable-App: 3 bis 5 Tage. Refactoring (zum Beispiel N+1-Query-Fixes): 2 bis 7 Tage.

03

Datenschutz und Compliance

Was ist damit gemeint: Daten werden verschlüsselt (in der Übertragung mit TLS, im Speicher bei Personendaten). Nutzer können ihre Daten löschen lassen (DSGVO „Recht auf Vergessenwerden“, Schweizer DSG mit Löschpflicht). Datenzugriffe sind protokolliert (Audit-Logs). Du weisst, welche Daten wo liegen (Daten-Inventar).

Wie wird es geprüft: Datenschutz-Folgenabschätzung (DSFA, Privacy Impact Assessment). Datenschutz-Audit mit dem Compliance-Team. Audit-Log-Review.

In Zahlen: DSG- und DSGVO-Audit: 5 bis 10 Tage. Umsetzung (Verschlüsselung, Lösch-Workflows): 7 bis 14 Tage.

04

Performance und Optimierung

Was ist damit gemeint: Die wichtigsten Seiten und API-Endpunkte bleiben spürbar schnell. Zielwerte wie kurze Ladezeiten, niedrige p95-Latenz und gute Core Web Vitals helfen bei der Steuerung, müssen aber zum Produkt und zur Infrastruktur passen. Ein CDN-Cache reduziert die Backend-Last.

Wie wird es geprüft: Lighthouse in den Chrome DevTools. Real User Monitoring (Sentry, Datadog). Application Performance Monitoring (New Relic, Grafana).

In Zahlen: Performance-Audit: 2 bis 3 Tage. Optimierung (Bilder, Code-Splitting, Caching): 5 bis 14 Tage.

05

Observability und Monitoring

Was ist damit gemeint: Logs werden zentralisiert (zum Beispiel ELK Stack, Datadog, Vercel Logs). Metriken werden gesammelt (Anfragen pro Zeit, Fehlerrate, Antwortzeit). Traces zeigen, was eine langsame Anfrage durchläuft. Alerts warnen dich, wenn etwas schiefläuft (zum Beispiel Fehlerrate über 5 Prozent). Die vier Golden Signals: Latenz, Traffic, Fehler, Sättigung.

Wie wird es geprüft: „Kann ich sehen, warum ein Nutzer ein Problem hatte?“ — Logs und Traces. „Wann war der letzte kritische Alert?“ — Alerting-System prüfen. „Wie lange braucht das System, um auf einen Ausfall zu reagieren?“ — MTTR messen.

In Zahlen: Observability-Setup: 3 bis 5 Tage. Feintuning (Alerts, Dashboards): 2 bis 7 Tage.

06

Backup und Disaster Recovery

Was ist damit gemeint: Die Datenbank wird täglich gesichert, mindestens einmal. Backups werden getestet — funktioniert ein Restore wirklich? Recovery Time Objective (RTO): Wie lange darf ein Ausfall dauern? Recovery Point Objective (RPO): Wie viel Datenverlust ist tragbar?

Wie wird es geprüft: Backup wiederherstellen und Datenintegrität prüfen. Was kostet ein Ausfall pro Stunde? Sind die Backups verschlüsselt?

In Zahlen: Backup- und DR-Setup: 3 bis 5 Tage. Testing und Dokumentation: 2 bis 3 Tage.

07

Code-Qualität und Wartbarkeit

Was ist damit gemeint: Code wird per Code-Review geprüft, keine Ad-hoc-Patches. Tests existieren dort, wo Fehler teuer wären (Unit, Integration, End-to-End). Technische Schulden werden erfasst und abgebaut (Refactoring-Tickets). Dokumentation existiert (Setup-Guide, API-Doku, Runbooks).

Wie wird es geprüft: SonarQube oder DeepSource: automatische Code-Analyse. „Wie lange braucht ein neuer Entwickler, um einen Bug zu beheben?“ (Ziel: unter 2 Stunden).

In Zahlen: Refactoring zur Verbesserung der Code-Qualität: 7 bis 21 Tage, je nach Grösse der Codebasis.

08

Vorfall-Reaktion und Runbooks

Was ist damit gemeint: Es existiert ein Playbook für Vorfälle: „Server down → Runbook → Wiederherstellung“. Das Team weiss, wer reagieren muss. Nach wichtigen Vorfällen folgt ein Review mit Lessons Learned. Automatisierung reduziert Handarbeit (Auto-Scaling, Circuit Breaker).

Wie wird es geprüft: „Wie lange dauert es, bis jemand merkt, dass eine Datenbank down ist?“ „Wie lange dauert die Behebung?“ Die Zielwerte hängen davon ab, wie geschäftskritisch der Service ist.

In Zahlen: Runbook-Erstellung und Pikett-Setup: 2 bis 3 Tage. Automatisierung der Vorfallreaktion: 5 bis 10 Tage.

09

KI-Kostenkontrolle und Rate-Limiting

Was ist damit gemeint: LLM-API-Aufrufe sind kostenkontrolliert (Limits pro Tenant). Caching reduziert wiederholte API-Aufrufe (zum Beispiel Redis für Embeddings). Modell-Routing: einfache Anfragen ans günstige Modell, komplexe Anfragen ans starke Modell. Monitoring zeigt, wer Kosten verursacht und welcher Tenant aus dem Ruder läuft.

Wie wird es geprüft: „Können wir Kosten pro Feature und pro Tenant verfolgen?“ — Wenn ja, produktionsreif. „Was sind unsere fünf teuersten API-Aufrufe?“ — sichtbar im Dashboard. „Wie schnell können wir ein Feature deaktivieren, wenn es zu teuer wird?“ — Plan vorhanden.

In Zahlen: Implementierung der Kostenkontrolle: 3 bis 5 Tage. Monitoring und Alerts: 2 bis 3 Tage.

Reifegrade

Produktionsreife ist kein Schalter — sie ist ein Spektrum

Eine App mit 10 internen Nutzern braucht weniger Härtung als eine mit 10’000 zahlenden Kunden.

StufeNutzerSicherheitSkalierungMonitoringRTOEinsatz
Alpha1–10BasisEin ServerNur Logs24hIntern
Beta10–100MittelApp und DB getrenntLogs und Alerts4hErste Kunden
Produktion100–1’000HochMulti-Region-fähigVollständige Observability1hZahlende Kunden
Enterprise1’000+Sehr hochAuto-Scaling geplantEchtzeit-RUMkurzGeschäftskritisch
Checkliste

Die ehrliche Produktionsreife-Checkliste

Du hast einen Prototyp mit Lovable gebaut. Hier sind die wesentlichen Punkte — nicht 30 zum Abhaken, sondern das, was wirklich zählt.

Sicherheit (nicht verhandelbar)

  • HTTPS überall (TLS 1.3 oder neuer).
  • Geheimnisse nicht im Code (Umgebungsvariablen, Secret-Manager).
  • Authentifizierung mit JWT oder OAuth (keine Klartext-Passwörter).
  • Input-Validierung auf allen API-Endpunkten.
  • SQL-Injection-Test mit SQLmap oder Burp Suite bestanden.
  • XSS-Test bestanden — können Nutzer Skripte einschleusen? Nein.

Skalierung (kritisch)

  • Datenbank-Indexe auf häufige Abfragen (EXPLAIN ANALYZE durchgeführt).
  • Lasttest mit 100+ gleichzeitigen Nutzern bestanden.
  • API-Latenz p95 gemessen und mit einem realistischen Zielwert versehen.
  • Zustandslose Anwendung (Logins in DB oder Redis, nicht im Speicher).

Monitoring (kritisch)

  • Fehlerrate wird überwacht (Alert-Schwellen passend zum Produkt).
  • Antwortzeit wird überwacht (Alert bei p95 über 500 ms).
  • DB-Connections werden überwacht.
  • Speicherplatz wird überwacht.
  • Logs werden zentralisiert (Datadog, ELK, Vercel Logs).

Backups (kritisch)

  • Tägliche Datenbank-Backups.
  • Restore wurde getestet — funktioniert er wirklich?
  • Backups sind geografisch verteilt, nicht nur lokal.

Code-Qualität (wichtig)

  • Code-Review für alle Änderungen — keine Solo-Übungen.
  • Tests für kritische Pfade vorhanden; Prozentziele nach Risiko festlegen.
  • Abhängigkeiten aktuell (kein drei Jahre altes React).
  • Dokumentation: README, API-Doku, Setup-Guide vorhanden.

Betrieb (wichtig)

  • Pikett-Rotation definiert — wer kümmert sich nachts?
  • Mindestens ein Incident-Runbook existiert (zum Beispiel „Datenbank down“).
  • Deployment-Prozess dokumentiert — kein „ssh prod.server und ändern“.
Zeitplan

Typischer Weg: Prototyp zu Produktionsreife

01

Lovable-Prototyp

Woche 1 bis 2
  • Funktioniert? Ja. Produktionsreif? Nein. Das ist in Ordnung.
02

Frühe Beta, erste Kunden

Woche 3 bis 4
  • „Es funktioniert, aber ich mache mir Sorgen um die Sicherheit.“
  • Aktion: Security-Audit (3 bis 5 Tage), HTTPS, Verwaltung von Geheimnissen.
03

Kleine Traktion, 5 bis 20 Nutzer

Woche 5 bis 8
  • „Wird die Datenbank langsam?“
  • Aktion: Query-Profiling (2 bis 3 Tage), Indexe ergänzen.
04

Mehr Wachstum, 20 bis 100 Nutzer

Woche 9 bis 16
  • „Können wir skalieren?“
  • Aktion: Vollständige Härtung über 4 bis 8 Wochen, alle 9 Dimensionen.
05

Produktionsreif

ab Woche 16
  • Jetzt liegt der Fokus stärker auf Features, während Infrastruktur und Betrieb laufend mitgepflegt werden.
FAQ

Häufige Fragen zu Produktionsreife

Brauche ich das alles, bevor ich erste Kunden nehme?

Nicht alle 9 Dimensionen in voller Tiefe. Das Minimum hängt vom Risiko ab, aber Sicherheit, Backups und Monitoring gehören früh dazu. Skalierung kann oft warten, solange du Last, Datenbank und Kosten im Blick behältst.

Wie lange dauert eine Härtung wirklich?

Viele Härtungen liegen grob bei 4 bis 8 Wochen. Es hängt von Komplexität, Grösse der Codebasis, Datenrisiko und Verfügbarkeit deines Teams ab. Kleiner und klarer ist einfacher.

Kostet eine Härtung viel Geld?

Typischerweise CHF 10’000 bis 80’000 für eine einfache SaaS. Siehe /prototyp-zu-saas.

Kann ich später härten, oder muss ich jetzt schon?

Später ist möglich, solange du dir bewusst bist: Du trägst das Risiko. Früher bedeutet weniger Code, der später umgeschrieben werden muss.

Was ist der häufigste Fehler bei der Produktionsreife?

„Wir dachten, Monitoring ist optional.“ Ist es nicht. Ohne Monitoring weisst du nicht, wenn etwas kaputt ist.

Du willst die ausführliche 30-Punkte-Checkliste als PDF?

Wir erstellen gerade einen Lead-Magnet mit allen 30 Items, Code-Beispielen und einer Selbst-Einschätzung (Alpha, Beta, Produktion). Bis dahin: kostenlose Code-Analyse für deinen Prototyp.