Zum Hauptinhalt springen

DDR5-Speicherpreise um 307% gestiegen. Das bedeutet es für Ihr Infrastrukturbudget.

Sjors Kolsteren

Nachrichten

Zwischen Oktober und Dezember 2025 stiegen die DDR5-Speicherpreise um 307 Prozent. Kein Tippfehler. Nicht auf Jahresbasis. Eine Verdreifachung in einem einzigen Quartal.

Wenn Sie Server kaufen, leasen oder mieten, wirkt sich dies direkt auf das aus, was Sie in den kommenden Monaten zahlen werden. Server-DDR5-Module, die vor einem Jahr 600 bis 800 $ kosteten, liegen jetzt bei 2.000 bis 4.000 $ pro Modul. DDR4-Preise stiegen im gleichen Zeitraum um 158 Prozent. Und die Ursache ist keine vorübergehende Lieferkettenstorung — es ist eine strukturelle Verschiebung der globalen DRAM-Nachfrage, die voraussichtlich frühestens 2027 nachlassen wird.

Die Ironie: Selbst wenn Ihre Organisation nichts mit künstlicher Intelligenz zu tun hat, macht der AI-Boom Ihre Infrastruktur teurer.

Was den Preisanstieg antreibt

Die kurze Antwort ist AI. Die längere Antwort umfasst Halbleiterökonomie, Waferkapazitätsbeschränkungen und das schiere Volumen an Speicher, das große Sprachmodelle und AI-Trainingsinfrastruktur benötigen.

AI verbraucht 40% des globalen DRAM

AI-Workloads verbrauchen mittlerweile etwa 40 Prozent der weltweiten DRAM-Produktion. Große AI-Trainingscluster erfordern enorme Mengen an High-Bandwidth-Speicher. Ein einzelner GPU-Trainingsknoten kann 192 GB bis 384 GB HBM (High Bandwidth Memory) erfordern, und diese Cluster skalieren auf Tausende von Knoten.

Projekte wie OpenAIs Stargate-Initiative haben Berichten zufolge 900.000 DRAM-Wafer pro Monat gesichert — eine erstaunliche Beanspruchung der Fertigungskapazität. Wenn ein einzelner Käufer dieses Volumen bindet, wird das verbleibende Angebot für alle anderen deutlich knapper.

Der Waferverdrängungseffekt

AI-Speicher (HBM) verbraucht etwa die dreifache Waferkapazität pro Gigabyte im Vergleich zu Standard-DDR5. Halbleiterfabriken sind rationale Unternehmen — sie priorisieren die Produkte mit der höchsten Marge. Wenn AI-Kunden bereit sind, Premiumpreise für HBM zu zahlen, weisen Fabriken die Waferkapazität entsprechend zu. Das Ergebnis: weniger Kapazität für konventionellen Serverspeicher, was die Preise für alle in die Höhe treibt.

Dies ist kein vorübergehender Engpass. Der Aufbau neuer Halbleiterfertigungskapazität dauert Jahre. Die heute geplanten Fabriken werden frühestens 2028 oder 2029 in Betrieb gehen. Bis dahin operiert der DRAM-Markt mit strukturell begrenztem Angebot.

Die Auswirkungen auf Serverpreise

Speicher ist keine isolierte Kostenposition. Wenn DRAM-Preise steigen, passt sich das gesamte Server-Ökosystem an. Dell und Lenovo haben ihren Vertriebspartnern bereits Komponentenkostenerhöhungen bestätigt. Branchenführer prognostizieren Serverpreiserhöhungen von 5 bis 10 Prozent zwischen April und September 2026, wobei einige Konfigurationen — insbesondere speicherintensive — größere Sprünge verzeichnen.

Cloud-Anbieter werden einen Teil dieser Kosten über ihre bestehenden Margen auffangen, aber auch einen Teil an Kunden weitergeben — über höhere Instance-Preise, reduzierte Free-Tier-Kontingente oder neue Zuschläge. Die Geschichte zeigt, dass Cloud-Preiserhöhungen selten als einzelne Position erscheinen — sie manifestieren sich als schrittweise Anpassungen über Instance-Typen, Speicherstufen und regionale Preisgestaltung.

Wer dies am meisten spürt

Nicht jeder Infrastrukturkäufer ist gleichermaßen betroffen. Die Auswirkungen hängen von Ihrem Beschaffungsmodell, Ihrem Workload-Profil und der Speicherintensität Ihrer Anwendungen ab.

Wenn Sie Hardware direkt kaufen

Organisationen, die Server direkt kaufen, spüren die unmittelbarsten Auswirkungen. Ein Server, der vor sechs Monaten 8.000 $ kostete, kann jetzt 10.000 bis 12.000 $ für die gleichen Spezifikationen kosten. Speicherintensive Konfigurationen — Datenbankserver, In-Memory-Caching-Cluster, Analytik-Workloads — verzeichnen die größten Kostensteigerungen, da DDR5 einen proportional größeren Anteil an den Gesamtmaterialkosten ausmacht.

Wenn Sie Cloud-Instances nutzen

Cloud-Anbieter passen Preise typischerweise zeitverzögert an, aber die Anpassung kommt. Speicheroptimierte Instance-Typen (r-Serie bei AWS, E-Serie bei Azure, n2-highmem bei GCP) werden wahrscheinlich die frühesten und größten Anpassungen erfahren. Wenn Ihre Workload stark von diesen Instance-Typen abhängt, planen Sie Ihr Budget entsprechend.

Das versteckte Risiko: Reserved-Instance-Preise, die zum Kaufzeitpunkt wie ein gutes Angebot aussahen, können weniger vorteilhaft wirken, wenn On-Demand-Preise steigen und Ihre reservierte Kapazität an alten Spezifikationen hängt.

Wenn Sie Dedicated Server mieten

Dedicated-Server-Anbieter stehen zwischen diesen beiden Extremen. Anbieter, die eigene Rechenzentren betreiben und Bestandspuffer vorhalten, können kurzfristige Komponentenkosten-Volatilität auffangen. Aber anhaltende Preissteigerungen fließen schließlich in die Monatstarife ein, wenn Anbieter ihre Hardwareflotte erneuern.

Der Vorteil des Dedicated-Server-Modells in diesem Umfeld: Ihr Monatstarif steht für die Vertragslaufzeit fest. Anders als bei verbrauchsbasierter Cloud-Preisgestaltung wird ein Dedicated Server nicht still und leise teurer. Was Sie vereinbart haben, zahlen Sie weiterhin. Diese Vorhersehbarkeit wird wertvoller, wenn der zugrunde liegende Hardwaremarkt volatil ist.

Was dies für Infrastrukturbudgets 2026 bedeutet

Wenn Sie Ihr Infrastrukturbudget auf Basis der Preise von 2024 oder Anfang 2025 festgelegt haben, müssen Sie diese Zahlen möglicherweise überprüfen. Hier ist ein praktisches Framework zur Bewertung der Auswirkungen auf Ihre Organisation:

  1. Prüfen Sie Ihren Speicherbedarf. Berechnen Sie das gesamte RAM über alle Ihre Produktions-, Staging- und Entwicklungsumgebungen. Unterscheiden Sie zwischen aktiv genutztem und provisioniertem, aber inaktivem Speicher. Diese Baseline zeigt Ihnen, wie stark Sie von DRAM-Preiserhöhungen betroffen sind.
  2. Identifizieren Sie speicherintensive Workloads. Datenbanken (insbesondere In-Memory-Datenbanken wie Redis oder SAP HANA), Caching-Schichten, Datenanalyseplattformen und Virtualisierungshosts sind am stärksten speicherabhängig. Dies sind die Workloads, bei denen DRAM-Kostenerhöhungen die größte absolute Auswirkung haben.
  3. Prüfen Sie Ihre Vertragsverlängerungstermine. Wenn Sie Dedicated-Server-Verträge haben, die in Q2 oder Q3 2026 auslaufen, ist jetzt der richtige Zeitpunkt, um Verlängerungspreise zu besprechen oder verlängerte Laufzeiten zu aktuellen Konditionen zu sichern. Bis zum Verlängerungszeitpunkt zu warten bedeutet, gegen einen steigenden Markt zu verhandeln.
  4. Bewerten Sie Right-Sizing-Möglichkeiten. Wenn Speicher teurer wird, wird Right-Sizing wertvoller. Eine Anwendung, die auf einem 128-GB-Server läuft, aber nur 40 GB RAM nutzt, verschwendet deutlich mehr Geld als noch vor einem Jahr. Right-Sizing ist immer sinnvoll, aber steigende Komponentenkosten machen es dringend.
  5. Berücksichtigen Sie Ihren Beschaffungszeitplan. Wenn Sie Hardware-Käufe oder Server-Deployments für die zweite Jahreshälfte 2026 geplant haben, könnte das Vorziehen dieser Entscheidungen erheblich Geld sparen. Die Konsensprognose lautet, dass die Preise bis Mitte 2026 weiter steigen, bevor sie sich möglicherweise stabilisieren — aber nicht sinken — Ende 2026.

Das große Bild: Warum dies nicht vorübergehend ist

Frühere DRAM-Preisspitzen waren typischerweise zyklisch — die Nachfrage stieg, das Angebot holte auf, die Preise normalisierten sich. Diesmal ist es aus einem strukturellen Grund anders: AI-Workloads repräsentieren eine neue, nachhaltige Nachfragekategorie, die vor fünf Jahren nicht in nennenswertem Umfang existierte.

Der weltweite Energiebedarf von Rechenzentren allein in Europa soll von 100 TWh auf 150 TWh bis 2026 wachsen, hauptsächlich getrieben durch AI-Infrastruktur. Moderne AI-Racks erfordern 50 bis 100 kW pro Rack, verglichen mit 5 bis 10 kW für traditionelle Server-Racks. Dies ist keine temporäre Nachfragespitze. Es ist eine permanente Erweiterung des Appetits des Infrastrukturmarktes auf Halbleiterressourcen.

Die praktische Implikation: Infrastrukturkosten sind strukturell höher als vor zwei Jahren, und die Ära stetig sinkender Hardwarekosten pro Leistungseinheit pausiert möglicherweise. Organisationen, die in ihren Langzeitprognosen mit gleichbleibenden oder sinkenden Hardwarekosten rechnen, sollten diese Annahmen aktualisieren.

Wo Worldstream ins Bild passt

Worldstream betreibt eigene Rechenzentren und pflegt direkte Beziehungen zu Hardware-Lieferanten. Dies bietet zwei Vorteile in einem Umfeld steigender Kosten:

Erstens, Preisstabilität. Die Dedicated-Server-Preise von Worldstream stehen für die Vertragslaufzeit fest. Wenn Sie einen Server zu einem bestimmten Monatstarif buchen, ändert sich dieser Tarif nicht, weil die DRAM-Spotpreise gestiegen sind. Sie sind von den Quartalsschwankungen isoliert, die Organisationen betreffen, die Hardware auf dem freien Markt kaufen.

Zweitens, Infrastruktur-Skalierung. Als großer Infrastrukturanbieter beschafft Worldstream Hardware in Volumen und kann Liefervereinbarungen aushandeln, die kleinere Käufer nicht erhalten. Diese Einkaufsmacht übersetzt sich in Preise, die auch bei steigenden Komponentenkosten wettbewerbsfähig bleiben.

Für Organisationen, die vorhersehbare Infrastrukturkosten gegen einen volatilen Hardwaremarkt absichern möchten, eliminiert ein Dedicated Server mit festem Monatstarif eine wesentliche Variable aus Ihrer Budgetgleichung.

Das Fazit

DDR5-Preise haben sich verdreifacht. Serverkosten steigen. Und die AI-Nachfrage, die diese Erhöhungen antreibt, verschwindet nicht — sie beschleunigt sich.

Das ist kein Grund zur Panik. Es ist ein Grund zu planen. Prüfen Sie Ihren Speicherverbrauch. Optimieren Sie die Dimensionierung, wo möglich. Sichern Sie Preise für stabile, vorhersehbare Workloads. Und treffen Sie Infrastruktur-Beschaffungsentscheidungen mit dem Verständnis, dass Abwarten dieses Jahr wahrscheinlich nicht zu niedrigeren Preisen führen wird.

Die Organisationen, die diesen Übergang gut meistern, werden diejenigen sein, die Workloads, die Flexibilität brauchen, von denen getrennt haben, die Vorhersehbarkeit brauchen — und jede dem richtigen Infrastrukturmodell zugeordnet haben.