Selbst in Publikumsmedien ist das Thema schon angekommen: Alle Welt spricht seit November 2025 vom historischen Speicherengpass. Fatalerweise hatten die Profis nur unwesentlich mehr Zeit, sich auf diese Situation vorzubereiten. Guter Rat ist daher beinahe ebenso teuer wie die Komponenten selbst. Die Preise wegzaubern kann niemand – aber mit ein paar Tipps und Tricks an den richtigen Stellschrauben lassen sich Beschaffungen im besten Fall zumindest günstiger einplanen. Spoiler: Es besteht vielfach Bumerang-Gefahr.

Die wichtigste und leider nicht erfreuliche Botschaft zu Beginn: Die Preise dürften nicht allzu schnell wieder herunterkommen – bis zur Sommerzeit wird es wahrscheinlich noch teurer und nicht billiger. Die meisten Experten rechnen sogar mit einem weiterhin hohen und steigenden Preisniveau bis mindestens 2027. Der Versuch des Aussitzens ist somit hochgradig abhängig von der technischen Notwendigkeit insbesondere bei Ersatz-, aber auch bei Neubeschaffungen; und er ist überdies riskant. Damit steht fest, dass das Timing insbesondere im Hinblick auf die Kostenkurve kritisch ist.

Immerhin sind handfeste Faktoren für die Situation verantwortlich, und diese haben gewisse Laufzeiten: Es gibt nach extremen Einkaufstouren der großen KI-Rechenzentrums-Betreiber einen Auftragsstau, und die Produktion lässt sich nicht beliebig beschleunigen. Selbst wenn die Nachfrage – beim derzeitigen Boom rund um KI-Hardware sehr unwahrscheinlich – also signifikant zurückginge, würden die Preise nach unserer Einschätzung bis mindestens ins vierte Quartal 2026 noch weiter steigen. Denn die Produktion ist am Limit, sodass hier keine schnelle Abhilfe in Aussicht ist.

Dass hier übrigens nicht von den viel zitierten Peanuts die Rede ist, veranschaulichen einige Beispiele; diese Prüfungen lassen sich jederzeit aktuell auf den gängigen Preisvergleichsportalen abrufen. Wir haben im Bild einmal das Beispiel der Preisentwicklung für ein DDR5-Notebook-RAM-Modul von Micron/Crucial mit 16 GByte im Endkundenpreis ausgesucht. Das Preisproblem beschränkt sich dabei nicht nur auf RAM. Vergleichbare Kurven ergeben entsprechende Suchen bei SSDs. Grafikkarten, besonders Modelle mit größerem RAM-Ausbau, folgen derzeit etwas zeitversetzt.

Erhebliche Mehrkosten bei größerem Bedarf

Wer nur Einzelstücke benötigt, kann nach wie vor einmal vergleichsweise ein Schnäppchen finden. Doch sobald es an nur etwas größere Mengen geht, wendet sich das Blatt. Für Unternehmen bedeutet das vor allem eine schlechtere Planbarkeit. Wie tief das Ganze wirklich reicht, macht die Verfügbarkeit beziehungsweise deren Nichtvorhandensein bei einzelnen Komponenten überdeutlich: Zumindest Ende 2025 waren etwa 500-GByte-NVMe-Business-SSDs schlecht in größeren Mengen verfügbar, weil Samsung und Micron den Einstieg der Produktion auf (die nochmals teureren) 1 TByte gelegt hatten.

Inzwischen ist sogar die nächste Eskalationsstufe erreicht: Komponentenhersteller sind dazu übergegangen, bereits bestätigte Bestellungen zu stornieren und quasi nur noch zu Tagespreisen oder gar höchstbietend zu verkaufen. Langfristige Kostenplanung oder ausführliche Preisvergleiche, wie sie zum Beispiel bei Ausschreibungen und Projekten geübte Praxis sind, gestalten sich dadurch nahezu unmöglich. Hier kann sich glücklich schätzen, wer einen verlässlichen Systemlieferanten hat, der einem bei diesen Herausforderungen zur Seite steht und alle noch sinnvoll möglichen Beschaffungsmethoden transparent aufzeigt.

Ein kleiner Lichtblick ist die aktuell noch verzögerte Weitergabe dieser rasant gestiegenen Einkaufspreise: Momentan gibt es bei vielen Systemherstellern noch die Möglichkeit, zumindest Workplace-Systeme aus relativ günstig beschaffter Lagerware zu erwerben. Sobald diese Komponenten-Lagervorräte erschöpft sind und damit die Marktpreise für Komponenten voll durchschlagen, werden die aktuellen System-Preise der Vergangenheit angehören. Administratoren und deren Einkäufer können hier nur auf die Weitsicht ihrer Handelspartner hoffen: Decken diese sich jetzt „auf Verdacht“ mit Standardsystemen ein, können sie ihre Endkunden zumindest noch eine Weile zu akzeptablen Preisen bedienen.

Das richtige Timing für Hardwarebestellungen

Panikkäufe sind zwar generell nie ratsam, doch bei der erwarteten Preisentwicklung lohnt sich zügiges Eindecken eben doch oftmals. Und als Administrator im täglichen Betrieb können Sie natürlich auch nicht einfach alles auf später verschieben. Was also tun? Häufig funktioniert die Taktik einer gestaffelten Beschaffung. Dafür gilt es zunächst, alle Projekte und Systeme zu untersuchen und besonders kritische zu definieren; ein solches „Tiering“ lässt sich etwa über ein Ampelsystem relativ anschaulich und rasch durchführen.

Zu untersuchende Komponenten, die auf „Rot“ geschaltet werden sollten, umfassen vor allem produktionsnahe Server, Storage, hoch ausgelastete Virtualisierungshosts et cetera. Für diese sollten Sie frühzeitig mit genau definierten RAM- und SSD-Konfigurationen planen und über abgestimmte Abrufe absichern. Gegebenenfalls vorhandene Rahmenverträge können jetzt Gold wert sein. Für weniger kritische Workloads sollten Sie hingegen prüfen, ob sich diese etwas länger mit bestehenden Spezifikationen betreiben lassen – natürlich nur, wenn Performance und Supportstatus das zulassen.

Damit kommen wir zur eingangs zitierten Bumerang-Gefahr: Wer bei der Einführung von Windows 11 gar zu großzügig beim Timing war, läuft nun Gefahr, ein böses Erwachen zu erleben. Das schon gar nicht mehr so neue Betriebssystem des Branchenführers ist bekanntermaßen ressourcenhungrig. Ob unter diesen Gegebenheiten eine Aufrüstung von Systemen noch attraktiv ist, erscheint unwahrscheinlich. Der Neukauf geht nun jedoch ebenfalls mehr ins Geld als letztes Jahr – immerhin gibt es so ein komplett neues System mit Garantie und Support.

Chipmangel: Checkliste für den richtigen Zeitpunkt zum Speicherkauf

  • Bestandsaufnahme durchführen: Inventar, Alter, RAM-Ausstattung, SSD-Typen und Auslastung erfassen. Wer ein IT-Asset-Managementtool verwendet, hat hier klare Vorteile.
  • Tiering einführen: Systeme per Ampel-System nach Business-Relevanz und Ausfallrisiko einteilen (zum Beispiel rot = geschäftskritisch, gelb = wichtig, grün = unkritisch), priorisieren und Beschaffungen staffeln.
  • Standardisierung prüfen: Möglichkeiten von Standardkonfigurationen zur Vereinfachung nutzen sowie Liefervereinbarungen im Rahmen bestehender Rahmenverträge abrufen.
  • Wartung & Monitoring strukturieren: Firmware- und OS-Update-Zyklen gegebenenfalls enger takten, SMART-Werte und Logs intensiver überwachen und verdächtige Komponenten präventiv austauschen, bevor ein späterer Tausch unter Ausfall und Zeitdruck deutlich teurer wird.
  • Entscheidungen dokumentieren: Festhalten, welche Investitionen trotz hoher Preise jetzt erfolgen und welche bewusst verschoben werden. Das schafft Transparenz gegenüber Management und Prüfern und sorgt für eine konsistente Vorgehensweise.

Hardwarekosten stets auch Folge von Softwareentscheidungen

Auch die Softwareseite ist in dieser Situation mehr als nur einen Blick wert. Sind etwa alle Programme wirklich erforderlich, oder gibt es Leichen, die nicht nur Lizenzgebühren, sondern auch Hardwarekapazität kosten? Ist jede VM im eigenen RZ wirklich noch in Nutzung, oder lässt sie sich vielleicht abschalten oder im Hinblick auf Ressourcenverbrauch optimieren? Lassen sich brachliegende Cloudkapazitäten sinnvoll verwenden, und sei es nur zur Überbrückung? Es ist nur ein kleiner Trost, doch Zeiten wie diese lassen sich als Anstoß nutzen für zuvor hinausgeschobene Aktivitäten rund um die Optimierung und Kostensenkung.

Wer solche Aktivitäten einmal angefangen hat, kann je nach Umgebung schnell das Potenzial einer kompletten Umstrukturierung erkennen – und hier sind wir beim Übergang von taktischen zu möglichen strategischen Überlegungen angelangt (Nutzer linuxbasierter Systeme dürfen den Rest von diesem sowie den nächsten Absatz überspringen): Muss es in allen Fällen die kommerzielle Welt sein, oder ist vielleicht die Verwendung von Open-Source-Alternativen eine Option? Mag es im Einzelfall auch anders aussehen, so lässt sich als ganz grobe Faustregel schon sagen, dass die Virtualisierung von Windows-Systemen mit mehr Overhead verknüpft ist. Selbst der an sich sehr effiziente ESXi-Hypervisor kommt fast immer mit Zusatzlast, etwa vCenter Server als separate Appliance, Backupagenten et cetera. Entsprechend können die Hardwareanforderungen durchaus relevant unterschiedlich sein.

Es ist sicher nicht so, dass Linux das Allheilmittel für jede Umgebung ist – eine ergebnisoffene Prüfung kann schon eher als solches Allheilmittel gelten. Vier Gründe gibt es jedoch, die einen effizienteren Hardwareeinsatz unter Linux ermöglichen können: Erstens ist der Host an sich schlanker – Linux mit kernelbasierter Virtualisierung (KVM) benötigt weniger dauerhaften Overhead; zweitens ist kein vCenter-Äquivalent nötig, das Clustermanagement erfolgt direkt im Host; drittens ist die Speicherüberbuchung effizienter, das Ballooning funktioniert oft besser; und viertens entlasten die praxisnahen Defaults, etwa weil keine lizenzgetriebenen Mindestgrößen vorgegeben sind.

Konkret: Kaufen oder warten?

Doch was, wenn all diese Maßnahmen bereits durchgeführt sind oder sich nun eben nicht auf die Schnelle nachholen lassen? Systeme können eben nur so lange verwendet werden, wie Betriebssystem-Support, Security-Patches und Hardwarezustand das zulassen. Strukturiertes Lifecycle-Management ist hierbei eine Grundvoraussetzung. Eine solide Kombination aus stets aktuellem Inventar, regelmäßiger Erfassung dessen Zustands beziehungsweise dessen fortlaufende Überwachung durch Monitoringsysteme und gegebenenfalls sogar präventivem Austausch verschleißanfälliger Komponenten dürfte in der Regel einen deutlichen Unterschied machen.

Manche Systeme werden trotz der steigenden Preise aufgerüstet oder ersetzt werden müssen; andere lassen sich mit gezielten Upgrades vor weiteren Preissteigerungen wirtschaftlich stabil halten – etwa durch punktuell mehr RAM heute und eine zweite SSD später; zuletzt gibt es Systeme, deren Austauschfenster nach hinten wandern kann. Das gilt im Grundsatz für Server und Clients. Auf diese Art und Weise können Sie Notkäufe zu Höchstpreisen hoffentlich vermeiden. Das bedeutet jedoch auch, dass bei ganz akutem Bedarf der Biss in die saure Zitrone einer möglichst zeitnahen Beschaffung nicht zu vermeiden ist. Ist ein Kauf 2026 unvermeidlich, so lautet unser Tipp: Ziehen Sie es so früh wie möglich durch.

Fazit

Nach der Coronapandemie, dem Panamakanal und dem „Einschleifen“ der geopolitischen Herausforderungen schienen die Lieferketten erholt. Und zumindest die Hoffnung war da, dass sich mehr Unternehmen resilienter gemacht hätten. Wir werden gerade eines Anderen belehrt. Doch das Lamentieren hilft ebenso wenig wie das sture Aussitzen, greift doch die EU-Chipstrategie ohnehin kurz und auch das erst in Jahren. Umso wichtiger ist es, alle bereits jetzt vorhandenen Initiativen für mehr Unabhängigkeit zu nutzen – eine solche ist etwa der Verein für IT aus Europa e. V.

Über den Autor: Andreas Schürger ist Head of Product Management bei Extra Computer.

Weitere interessante Beiträge