Zum Hauptinhalt springen

Gaming & Streaming Infrastruktur

Schnell starten. Flüssig spielen. Global skalieren. Bauen Sie Ihre Multiplayer-, Esports- oder Creator-Streaming-Workloads auf planbarer, latenzarmer Dedicated Infrastruktur mit optionalen GPUs und DDoS-Schutz.

TL;DR – Schnelle Antworten für Gaming-Teams

  • Ziel-Latenz: Halten Sie den Ping der Spieler im Schnitt unter 50 ms und in Spitzen unter 80 ms, damit das Gameplay flüssig und wettbewerbsfähig bleibt.
  • Compute-Einstieg: Starten Sie pro Region mit 24 bis 32 High-Frequency-Kernen und planen Sie 30 bis 40 Prozent Reserve für Spitzen und Updates ein.
  • Bandbreitenbedarf: Kalkulieren Sie 30 bis 80 Kbit/s pro Spieler plus etwa 20 Prozent Overhead für zuverlässige Daten- und Voice-Synchronisation.
  • Deployment: Betreiben Sie einen Container oder eine VM pro Match und rollen Sie Updates sicher mit einer 1 → 5 → 25 → 100 Prozent Canary-Strategie aus.
  • Wann GPUs wichtig sind: Nutzen Sie GPU-Knoten für Livestreaming, Replays oder Spectator-Feeds. Für klassische Game-Server sind sie nicht zwingend nötig.

Auf einen Blick

Use Cases

  • Session-basierte Shooter und persistente Welten
  • MMO-Shards, Matchmaking und Lobbies
  • Creator-Streaming und VOD-Transcoding
  • Turniere und LAN-Events

Primäre Ziele

  • RTT der Spieler unter 50 ms
  • Stabiler Tick-Rate unter Last
  • Zero-Downtime-Patching
  • Planbare Kosten im großen Maßstab

Fundament

  • Bare-Metal-Performance
  • High-Frequency-CPUs für Game Loops
  • Optionale GPUs für Streaming und Transcoding
  • Globales Anycast und WAF/DDoS-Schutz

Wie wir helfen

  • Kuratierte Serverprofile
  • Rack-internes privates Networking
  • Playbooks für Multi-Region-Rollouts
  • 24/7 Hands-on-Support

Was Gaming-Infrastruktur bedeutet

Gaming-Infrastruktur verbindet Rechenleistung für autoritative Game-Server, ein latenzarmes Netzwerk, eine robuste Datenebene für State und Progression sowie eine Operations-Toolchain, mit der Sie Updates ausrollen, ohne laufende Matches zu stören. Auf Dedicated Servern vermeiden Sie Noisy Neighbours und Hypervisor-Jitter. So bleiben Frame- und Tick-Stabilität auch bei hoher Gleichzeitigkeit erhalten.

Zentrale Bausteine

  1. Game Compute – High-Frequency-Cores für den Game Loop, Container für isolierte Matches, Autoscaling nach gleichzeitigen Spielern (CCU).
  2. Matchmaking und Orchestrierung – Placement-Service, Session-Lebenszyklus und regionale Routing-Logik. Integriert sich mit Container-Scheduler wie Kubernetes oder Nomad oder mit eigenen Allocatoren.
  3. Echtzeit-Services – Chat und Voice über UDP/TCP/WebRTC, Presence, Leaderboards, Events und Telemetrie.
  4. Datenebene – Persistente Charakterdaten, Inventare, Logs. Typisch eine Mischung aus relationalen Datenbanken, Key-Value-Caches und Object Storage.
  5. Edge und Netzwerk – Anycast-Routing, Geo-Routing, L3/4-DDoS-Mitigation, jitterarme Verbindungen, Peering nah an den Player-ISPs.
  6. Observability und Ops – Metriken, Traces, Log-Pipelines, Blue-Green- oder Canary-Deployments, SLOs pro Region und Titel.

Dedicated im Vergleich zu Alternativen

Dedicated (Worldstream)

  • Am besten geeignet für: Kompetitive Titel, planbarer Tick-Rate, feste Regionen
  • Latenz/ Performance: Niedrigster Jitter, stabiles p99
  • Kontrolle: Vollständig, inklusive CPU-Pinning, NIC-Tuning, Kernel
  • Kosten im großen Maßstab: Sehr gut planbar
  • Einschränkungen: Erfordert Kapazitätsplanung und Fleet-Betrieb

Public Cloud

  • Am besten geeignet für: Burst-Prototyping, viele Managed Services
  • Latenz/ Performance: Gute Durchschnittswerte, p99 jitter-sensitiv
  • Kontrolle: Mittel, Hypervisor-Abstraktion
  • Kosten im großen Maßstab: Kann unter Last und Egress stark steigen
  • Einschränkungen: Noisy Neighbours, variable p99-Werte

Peer-to-Peer / Relays

  • Am besten geeignet für: Kleine, informelle Sessions
  • Latenz/ Performance: Abhängig vom Host
  • Kontrolle: Gering
  • Kosten im großen Maßstab: Gering im Kleinstmaßstab
  • Einschränkungen: Cheat-Risiko, Host-Wechsel, wenig Kontrolle

Managed Game Hosting

  • Am besten geeignet für: Schlüsselfertiger Betrieb
  • Latenz/ Performance: Gut
  • Kontrolle: Niedrig bis mittel
  • Kosten im großen Maßstab: Premium
  • Einschränkungen: Weniger Flexibilität, Vendor Lock-in

Wann Teams auf Dedicated Gaming-Infrastruktur setzen

  • Sie benötigen einen konstanten Tick-Rate und minimalen Jitter für kompetitives Spiel.
  • Launch-Spitzen und Events wie neue Seasons oder DLCs erfordern Belastbarkeit zu vorhersehbaren Kosten.
  • Anti-Cheat und autoritative Server sollen keine Hypervisor-Ressourcen mit anderen teilen.
  • Sie wollen Kontrolle über NIC- und IRQ-Pinning, CPU-Isolation, NUMA-Layout und Kernel-Tuning.
  • Transcoding und Streaming rechnen sich besser mit GPUs auf Dedicated Nodes.

Wann dies weniger passend ist

  • Sehr niedrige oder stark schwankende CCU ohne Anforderungen an kompetitive Latenz.
  • Architektur ist eng an P2P oder reine Relay-Modelle ohne Allocator gekoppelt.
  • Teams möchten ausschließlich voll gemanagte Voice-, Chat- oder Analytics-Dienste nutzen und keinen eigenen Control Plane betreiben.

Typische Workloads

  • Autoritative Game-Server: Ein Container oder eine VM pro Match, 30 bis 128 Spieler, 20 bis 128 Hz Tick-Rate, primär UDP.
  • Matchmaking und Lobbies: HTTP/gRPC-APIs, Redis oder Message-Queue, zustandslose Microservices.
  • Shards und persistente Welten: Regionale Shards, Zonensever, Datenbank plus Cache.
  • Realtime-Kommunikation: Voice und Text, Presence, Party-Management.
  • Analytics und Telemetrie: Stream-Ingest (Kafka/Kinesis-Äquivalent), Clickhouse oder Data-Warehouse als Senke.
  • Creator-Streaming: Ingest, Transcoding (H.264/AV1/HEVC mit NVENC oder QSV), Packaging in HLS oder DASH, danach CDN.

Planungsszenarien

1. Neuer Launch oder Season-Reset
– Nachfragespitze auf das Fünf- bis Zehnfache des Baselines für 24 bis 72 Stunden. Kapazität vorwärmen, Overflow über Waiting Rooms abfangen..
– Rollout per regional gestufter Canary-Strategie (1 → 5 → 25 → 100 Prozent).

2. Regionale Expansion
– Neues Edge-Site in 20 bis 40 Millisekunden Entfernung zur Zielpopulation. Matchmaking und Daten-Caches spiegeln, Write-Leader nahe der Services halten.

3. Esports und Turniere
– Temporäre Flotten mit strikten SLAs. Turnier-Server auf gepinnten Cores isolieren, Spectator- und Observer-Nodes, VOD-Encoder.

Wer am meisten profitiert

Game Studios und Publisher<br />

Volle Kontrolle über Performance-Budget und Kostenkurve.

Esports-Veranstalter<br />

Deterministische Performance für Brackets, Observer und Streams.

Plattformen und Marktplätze<br />

Konstantes Spielerlebnis, Anti-Abuse-Mechanismen und Schutz der Marke.

Bildung und Labs<br />

Reproduzierbare Umgebungen für Kurse und Campus-Turniere.

Architektur-Patterns

A. Session-basiertes Multiplayer (Autoritativ)

  • Pattern: Ein Container oder eine VM pro Match. Der Matchmaker weist die nächstgelegene Region zu. State liegt im Prozess plus Redis.
  • Am besten geeignet für: 5 bis 64 Spieler, Shooter, Battle-Arena, Racing.
  • Hinweise: UDP, 30 bis 60 Hz Tick-Rate, Game-Loop-Threads pinnen, NUMA-bewusste Platzierung.

B. Persistente Welt / MMO

  • Pattern: Sharding nach Region, danach Zonensever. Pro Shard eine schreibende Leader-Datenbank, asynchrone Weiterleitung an Analytics.
  • Am besten geeignet für: Hunderte bis Tausende gleichzeitige Spieler pro Shard.
  • Hinweise: Backpressure bei Zonentransfers, konsistentes Hashing für Entity-Ownership.

C. Creator Streaming / Live Events

  • Pattern: Ingest-Gateways, GPU-Transcoder, Packager und Origin, danach CDN.
  • Am besten geeignet für: 1080p60 oder 1440p60 Live, Multi-Rendition-ABR-Leitern.
  • Hinweise: NVENC oder AV1 für hohe Dichte, pro Titel ABR-Leiter fein abstimmen.

Ergebnisse in Produktionsumgebungen

Season-Launch eines AAA-Shooters: Regionale Pods wurden auf Dedicated High-Frequency-Cores mit matchbasierten Containern migriert.

  • 27 Prozent geringere p99-Tick-Zeit während der Peak-Last
  • 18 Prozent geringere Kosten pro CCU im stabilen Betrieb
  • 99,96 Prozent erfolgreiche Match-Platzierungen in Woche eins

 

„Die Launch-Woche war unsere stabilste bisher. Die Spieler haben die Konstanz bemerkt, und unser Ops-Team konnte schlafen.”

           – Head of Engineering, Game Publisher

Netzwerk- und Latenz-Blueprint

  • Ziele: Exzellent bis 20 ms RTT, gut bis 50 ms, spielbar bis 80 ms. Messen Sie p50, p95 und p99 pro Region.
  • Routing: Anycast-Entry plus Geo-DNS, Steuerung nach real gemessener RTT, nicht nur nach Geografie.
  • Kontrollen: L3/4-DDoS-Scrubbing, Ratenbegrenzung, WAF für Control Planes.
  • Tuning: NIC-RSS und IRQ-Pinning, RPS/XPS, GRO/LRO wo sinnvoll, ECN vorsichtig aktivieren, txqueuelen für burstige UDP-Last einstellen.

Datenebene-Optionen

  • Hot State: Im Prozess plus Redis pro Match, TTL-Eviction nach Session-Ende.
  • Persistent: Relationale Datenbank für Spielerprofil und Economy, Append-Only-Logs für Audit.
  • Cold: Object Storage für Replays, VODs und Crash-Dumps.
  • Leaderboards: Sorted-Set-Cache mit periodischen dauerhaften Snapshots.

Kapazitäts- und Größenkalkulation

  1. Match profilieren: Peak-CPU-Auslastung und RAM pro Instanz bei geplanter Tick-Rate, zum Beispiel 60 Hz, und Player-Cap messen.
  2. Headroom: 30 bis 40 Prozent CPU für Spitzen, Garbage Collection und OS-Jitter reservieren.
  3. Packing pro Node: Anzahl Instanzen = floor(verbrauchbare Kerne / Kerne pro Instanz). Ein bis zwei Kerne für System und Telemetrie frei lassen.
  4. CCU zu Nodes: Nodes = ceil((CCU / Spieler pro Match) / Matches pro Node).
  5. Netzwerk: 30 bis 80 Kbit/s pro Spieler upstream kalkulieren, plus 20 Prozent Overhead für Protokoll und Retransmits.
  6. Storage: Logs und Telemetrie etwa 0,5 bis 2 GB pro Stunde und 1.000 CCU, je nach Titel. Planen Sie 7 bis 30 Tage Hot-Retention.

Sicherheit und Compliance

  • L3/4-DDoS-Mitigation mit automatischem Scrubbing und titelbasierten Rate-Limits
  • mTLS zwischen Services, JWT-Tokens für Spieler, kurzlebige Tokens für Observer
  • Least-Privilege-IAM, abgesicherte Build-Pipeline und Image-Signierung
  • Backups und Restores werden quartalsweise getestet, unveränderliche Logs für Anti-Cheat-Forensik

Operations-Playbook

  • Deployments: Canary-Rollouts pro Region, danach Rollout in Wellen. Automatisches Rollback bei SLO-Verletzung.
  • Autoscaling: Queue-basiert nach Match-Start-Requests plus vorausschauend nach Primetime-Kurven.
  • Patching: Blue-Green-Asset-Bundles, Build-Version pro Match fest verdrahtet.
  • Monitoring-KPIs: Tick-Dauer p50/p95/p99, Spieler-RTT und Packet Loss, Match-Startzeit und Fehlerrate, Anteil crash-freier Matches, CCU versus Kapazitätsreserve pro Region.

Migrationsleitfaden (Cloud → Dedicated oder Hybrid)

  1. Basis-Metriken in der aktuellen Umgebung erheben, RTT, Tick-Zeit, CPU.
  2. Game-Server mit klaren Ressourcenlimits containerisieren.
  3. Einen regionalen Pod als Shadow-Umgebung aufbauen.
  4. Matchmaking dual betreiben und anfangs 1 bis 5 Prozent der Spieler routen.
  5. Auf weitere Regionen erweitern, zustandsbehaftete Stores zuletzt migrieren.
  6. SLOs und Kosten prüfen, Decommission-Plan finalisieren.

Häufig gestellte Fragen

Autoritative Server reduzieren Cheating und stabilisieren die Tick-Rate. Sie patchen unabhängig von Clients und halten p99-Jitter für kompetitives Spiel niedrig.

Implementierungs-Checkliste

Regionen innerhalb von 50 ms zur Zielgruppe wählen, ISP-Peering prüfen

Serverprofil auswählen, CPU-Pinning und NIC-Tuning-Einstellungen bestätigen

Container-Scheduler und Allocator aufsetzen, Placement-API implementieren

Redis-Cache und regionale DB-Read-Replicas integrieren

DDoS-Schutz, Firewall-Policies und mTLS zwischen Services konfigurieren

CI/CD mit Image-Signierung und Blue-Green-Rollouts aufbauen

Tick-Zeit, RTT, Packet Loss und Match-Lifecycle-Metriken instrumentieren

Lasttest mit produktionsähnlichem Traffic durchführen, Headroom und SLOs validieren

Launch-Day-Kapazitätspuffer und On-Call-Rotationen planen

Incident-Runbooks und Rollback-Prozeduren dokumentieren

Glossar

Gaming-Begriffe kurz erklärt

RTT (Round-Trip Time)

Gesamte Laufzeit, bis ein Datenpaket zum Server und zurück gelangt. Wird in Millisekunden gemessen.

Tick-Rate

Frequenz, mit der der Server den Spielstatus berechnet und verteilt, zum Beispiel 64 Hz bedeutet 64 Updates pro Sekunde.

CCU (Concurrent Users)

Anzahl gleichzeitig verbundener Spieler. Zentraler Wert für Kapazitätsplanung.

Jitter

Schwankung der Latenz zwischen aufeinanderfolgenden Paketen. Niedriger Jitter bedeutet flüssigere Spielabläufe.

Autoritativer Server

Server, der die einzige Wahrheit über den Spielstatus hält und so Cheating reduziert.

Canary-Deployment

Stufenweises Rollout neuer Versionen an einen kleinen Anteil der Spieler, um Probleme früh zu erkennen.

Anycast

Routing-Technik, bei der dieselbe IP von mehreren Standorten angekündigt wird. Spieler verbinden sich automatisch zum nächstgelegenen.

Matchmaker / Allocator

Service, der Spieler einem passenden Match und Server zuweist und Server-Instanzen bereitstellt.

UDP

Transportprotokoll ohne Bestätigung. Schneller als TCP, ideal für Echtzeit-Gaming-Traffic.

NVENC / AV1 / HEVC

Video-Codecs und Hardware-Encoder von NVIDIA, die effizientes Streaming und VOD-Transcoding ermöglichen.

Blue-Green-Deployment

Zwei identische Produktionsumgebungen. Nach erfolgreichem Test wird der Traffic auf die neue Version geswitcht.

SLO (Service Level Objective)

Internes Qualitätsziel, z. B. p99 RTT ≤ 80 ms, an dem das Team misst, ob der Service anforderungsgerecht läuft.

Scrubbing Center

Einrichtung, die eingehenden Traffic filtert und bösartige DDoS-Pakete entfernt, bevor sie den Zielserver erreichen.

RTT (Round-Trip Time)

Gesamte Laufzeit, bis ein Datenpaket zum Server und zurück gelangt. Wird in Millisekunden gemessen.

CCU (Concurrent Users)

Anzahl gleichzeitig verbundener Spieler. Zentraler Wert für Kapazitätsplanung.

Autoritativer Server

Server, der die einzige Wahrheit über den Spielstatus hält und so Cheating reduziert.

Anycast

Routing-Technik, bei der dieselbe IP von mehreren Standorten angekündigt wird. Spieler verbinden sich automatisch zum nächstgelegenen.

UDP

Transportprotokoll ohne Bestätigung. Schneller als TCP, ideal für Echtzeit-Gaming-Traffic.

Blue-Green-Deployment

Zwei identische Produktionsumgebungen. Nach erfolgreichem Test wird der Traffic auf die neue Version geswitcht.

Scrubbing Center

Einrichtung, die eingehenden Traffic filtert und bösartige DDoS-Pakete entfernt, bevor sie den Zielserver erreichen.

Tick-Rate

Frequenz, mit der der Server den Spielstatus berechnet und verteilt, zum Beispiel 64 Hz bedeutet 64 Updates pro Sekunde.

Jitter

Schwankung der Latenz zwischen aufeinanderfolgenden Paketen. Niedriger Jitter bedeutet flüssigere Spielabläufe.

Canary-Deployment

Stufenweises Rollout neuer Versionen an einen kleinen Anteil der Spieler, um Probleme früh zu erkennen.

Matchmaker / Allocator

Service, der Spieler einem passenden Match und Server zuweist und Server-Instanzen bereitstellt.

NVENC / AV1 / HEVC

Video-Codecs und Hardware-Encoder von NVIDIA, die effizientes Streaming und VOD-Transcoding ermöglichen.

SLO (Service Level Objective)

Internes Qualitätsziel, z. B. p99 RTT ≤ 80 ms, an dem das Team misst, ob der Service anforderungsgerecht läuft.

Bereit, Ihren regionalen Pod zu dimensionieren?

Laden Sie Ihre Telemetrie hoch (CCU, Tick-Rate, Spieler pro Match) und wir mappen sie auf Nodes und Kosten.