Der Energiebedarf von Servern hat in den letzten Jahren deutlich zugenommen. Trends wie Cloud Computing und Virtualisierung, Künstliche Intelligenz und andere Anwendungen im Bereich des High Performance Computing (HPC) führen dazu, das die in Rechenzentren installierten Server immer leistungsfähiger werden. Mit dem Leistungszuwachs ist auch ein Anstieg im Energiebedarf feststellbar. Die zunehmende Ausstattung mit Arbeitsspeicher, mit immer mehr und leistungsstärkeren CPUs und in den letzten Jahren auch zunehmend mit Grafikprozessoren (GPUs) führt dazu, dass die Server immer mehr Strom benötigen.
Der Trend zu steigenden Leistungsaufnahmen wird auch bei einer Analyse der Messdaten des Benchmarks SpecPower® deutlich. Die folgende Abbildung zeigt die Entwicklung der maximalen Leistungsaufnahme der gemessenen Server in den Jahren 2010 bis 2020.

Wie eine genauere Analyse der Messdaten auf der Spec-Webseite zeigt, konnte zumindest die Leistungsaufnahme im IDLE-Betrieb der Server seit 2010 im Durchschnitt etwa konstant gehalten werden. Die steigende maximale Leistungsaufnahme und die zunehmende Auslastung der Systeme haben dennoch zu einem sehr deutlichen Anstieg im durchschnittlichen Stromverbrauch der Server geführt.
Der zunehmende Stromverbrauch der einzelnen Server äußerst sich auch in der steigenden Leistungsdichte in Rechenzentren, die die Anforderungen an Kühlsysteme ansteigen lässt. Neue Lösungen für Präzisionsluftkühlung und zunehmend auch Heißwasserkühlung ermöglichen trotzdem eine sehr zuverlässige und effiziente Kühlung der Rechenzentren.
Noch eine gute Nachricht: Während die maximale Leistungsaufnahme der Server in den Messungen seit 2010 im Schnitt um 85% angestiegen ist, stieg die Effizienz – also die Zahl der Rechenoperationen pro Watt – etwa um den Faktor 15. Diese enorme Effizienzsteigerung ist auch ein Grund für die hohe Dynamik der Digitalisierung von Wirtschaft und Gesellschaft und den damit verbundenen Ausbau der Rechenzentrumsinfrastruktur.