Wie sich Hyperscale-Rechenzentren als wechselstrombetriebene Verbraucher verhalten
Energiesysteme, Energie, Industrieanwendungen, Simulation
03.01.2026

Wichtigste Erkenntnisse
- Hyperscale-Rechenzentren benötigen heute Lastmodelle, die auf Umrichtersteuerungen, Schutzlogik und Ride-Through-Einstellungen basieren, anstatt auf aggregierten Annahmen zum stationären Zustand.
- EMT-Untersuchungen sind erforderlich, wenn die Antwort von der Fehlerreaktionszeit im Millisekundenbereich, dem Oberschwingungsverhalten oder der kontrollierten Wiederherstellung nach einer Störung abhängt.
- Eine erfolgreiche Umsetzung beginnt mit einer Segmentierung auf Architekturebene, die USV-Anlagen, Rack-Umrüstung, Kühlsysteme und Batterieunterstützung umfasst, damit das Modell die tatsächliche Funktionsweise der Anlage widerspiegelt.
Hyperscale-Rechenzentren müssen heute weniger als passive Lastblöcke betrachtet werden, sondern vielmehr als große Ansammlungen von Hochgeschwindigkeits-Leistungselektronik netzseitigen Steuerungen. Dieser Wandel ist von Bedeutung, da der Stromverbrauch einer modernen Anlage durch Gleichrichter, Umrichter, USV-Steuerungen, Batterieschnittstellen und Motorantriebe bestimmt wird, die innerhalb von Millisekunden auf Störungen, Spannungseinbrüche, Oberschwingungen und Wiederherstellungsvorgänge reagieren. Der weltweite Stromverbrauch von Rechenzentren könnte im Basisszenario der IEA von 460 TWh im Jahr 2022 auf knapp über 800 TWh im Jahr 2026 steigen, was bedeutet, dass Netzplaner dieses Verhalten häufiger und in größerem Umfang bewältigen müssen.
Das Problem wird besonders deutlich, wenn ein großer Campus eine Störung durchläuft, den Strom reduziert oder einen Teil seiner Last auf einmal abschaltet. Ein einfaches Lastmodell im stationären Zustand würde diese Vorgänge nicht erfassen. Unterstützung für fortschrittliche Umrichtertopologien, bis zu 64 Wandler innerhalb eines einzigen FPGA, sowie eine Zeitschrittweite von 40 ns für detaillierte Wandlersimulationen auf einer Plattform.
Hyperscale-Rechenzentren verhalten sich mittlerweile wie von Wechselrichtern dominierte elektrische Lasten
Ein Hyperscale-Rechenzentrum verhält sich wie eine von Wechselrichtern dominierte Last, da ein Großteil seines Strompfads mittlerweile über geregelte Stromrichter statt über passive Komponenten verläuft. Daher hängt sein Verhalten im Netz von der Regelungslogik, den Schutzparametern und der Topologie der Stromrichter ab.
Das deutlichste Beispiel ist der Weg vom Netzanschluss zum Server-Rack. Der Netzstrom gelangt in ein Mittelspannungssystem, durchläuft Transformatoren, große dreiphasige USV-Gleichrichter, Gleichstromzwischenkreise, Batterien und Stromversorgungen auf Rack-Ebene, bevor er die IT-Geräte erreicht. Die aktuelle EMT-Modellbibliothek des DOE beschreibt gängige moderne Designs mit dreiphasigen aktiven Gleichrichtern und stellt fest, dass zukünftige Hyperscale-Designs zunehmend auf dreiphasige aktive Front-End-Konfigurationen setzen, ähnlich wie bei inverterbasierten Anlagen.
Das bedeutet jedoch nicht, dass sich ein Rechenzentrum genau wie ein Solarkraftwerk oder ein Batteriestandort verhält. Es ist nach wie vor eine Last, und sein vorrangiges Ziel ist die Aufrechterhaltung des Betriebs. Für das Netz stehen jedoch die Steuerungen der Umrichter im Vordergrund. Strombegrenzungen, Gleichstrom-Zwischenkreisschutz, Durchfahrtslogik und Wiederherstellungsrampen bestimmen, was das Netz insgesamt erlebt. Sobald man dies akzeptiert, wird klar, dass die Modellqualität weniger von der Nennleistung in Megawatt abhängt als vielmehr davon, wie diese Umrichter dargestellt werden.
Warum Wechselrichter-basierte Verbraucher die Art und Weise verändern, wie Rechenzentren mit dem Stromnetz interagieren

Wechselrichterbasierte Lasten verändern die Wechselwirkung mit dem Netz, da sie Strom, Blindleistung und Auslöseverhalten wesentlich schneller beeinflussen können, als dies in herkömmlichen aggregierten Lastmodellen angenommen wird. Die Auswirkungen auf das System hängen von der Reaktionsgeschwindigkeit und der Koordination ab, nicht nur von der Größe der Anlage.
Stellen Sie sich einen Fehler auf einer nahegelegenen Übertragungsstrecke vor. Ein herkömmliches statisches Lastmodell würde möglicherweise einen gleichmäßigen Spannungseinbruch und eine gleichmäßige Erholung anzeigen. Ein Rechenzentrum mit vielen Umrichtern kann ganz anders reagieren. Gleichrichtersteuerungen können den Strom begrenzen, in einen kurzzeitigen Stillstand übergehen, auf Batterieunterstützung am Zwischenkreis zurückgreifen oder bei Unterschreitungs- oder Überschreitungsschwellen auslösen. Die Dokumentation des DOE-Modells zeigt diese Mechanismen explizit auf, einschließlich Schwellenwerten für Spannungseinbrüche, Stromstoppfunktionen und Einstellungen für den kurzzeitigen Stillstand, die den Strom während eines Einbruchs auf Null bringen und ihn nach der Erholung wieder ansteigen lassen.
Diese Details sind von Bedeutung, da es dem Netzbetreiber nicht nur darum geht, wie viel Strom der Standort im Normalbetrieb verbraucht. Es kommt ihm auch darauf an, was in den ersten Zyklen nach einer Störung und in den darauf folgenden Sekunden geschieht. Die NERC warnt davor, dass große Lasten Risiken für die Spannungsstabilität mit sich bringen können, wenn sich der Bedarf schnell ändert oder wenn spannungsempfindliche Anlagen als Reaktion auf Störungen auslösen.
Leistungselektronik-Architekturen, die das Lastverhalten von Hyperscale-Rechenzentren bestimmen
Das elektrische Verhalten eines Hyperscale-Standorts wird durch seine Architektur bestimmt, insbesondere durch die Kombination aus USV-Topologie, Batterieanbindung, Stromumwandlung in den Racks und Kühlsystemen. Zwei Anlagen mit derselben Nennleistung in Megawatt können sehr unterschiedliche Netzreaktionen hervorrufen.
An vielen Standorten ist nach wie vor eine zentralisierte USV-Konfiguration üblich. Bei dieser Anordnung schützen große dreiphasige USV-Anlagen mehrere Racks und überbrücken die Lücke zwischen Netzstörungen und Notstromversorgung. Neuere Konzepte verlagern einen größeren Teil der Umwandlung näher an die Racks heran und setzen auf aktive Frontends, Batterieblöcke und Gleichstromverteilungslösungen, die Verluste reduzieren oder eine höhere Leistungsdichte ermöglichen. Die DOE-Bibliothek unterscheidet zudem zwischen IT-Last, Kühllast und Standort-Support-Last, was widerspiegelt, wie die einzelnen Teile der Anlage bei Störungen unterschiedlich reagieren.
Der Kühlung sollte mehr Aufmerksamkeit geschenkt werden, als ihr normalerweise zuteilwird. Frequenzumrichter an Pumpen und Ventilatoren basieren ebenfalls auf Umrichtern, und das DOE weist darauf hin, dass die Dynamik der Kühllast häufig eher vom Umrichter als vom Motor selbst bestimmt wird. Dies ist für Einrichtungen mit hochverdichteten KI-Racks von Bedeutung, da eine höhere Serverdichte die Empfindlichkeit gegenüber Kühlungsschwankungen erhöht, während die Betreiber gleichzeitig versuchen, jedes Rack in Betrieb zu halten.
„Hyperscale-Rechenzentren sollten heute weniger als passive Lastblöcke betrachtet werden, sondern vielmehr als große Ansammlungen von Hochgeschwindigkeits-Leistungselektronik netzseitigen Steuerungen.“
|
Was das Modell erfassen muss |
Warum dies beim Netzanschluss wichtig ist |
| Steuerungen für dreiphasige USV-Gleichrichter | Diese Steuerungen legen die Strombegrenzungen sowie das Verhalten bei Blindleistung während Störungen und der Wiederherstellung fest. |
| Logik zur Unterstützung von Batterie und Zwischenkreis | Die Gleichstromunterstützung kann die interne Last am Laufen halten, während der Netzstrom zusammenbricht oder ansteigt. |
| Topologie der Stromumwandlung im Rack | Die Bauart des Umrichters beeinflusst den Oberschwingungsanteil, die Durchfahrtsfähigkeit und das Fehlerstromverhalten. |
| Kühlung der Antriebsvorderteile | Pumpen- und Lüfterantriebe können das dynamische Lastverhalten beeinflussen, selbst wenn der Bedarf des Servers konstant ist. |
| Schutzschwellen und Verzögerungen | Schon kleine Änderungen an den Einstellungen können darüber entscheiden, ob die Anlage eine Leistungsschwäche überbrückt oder die Last abrupt abwirft. |
Wichtige elektrische Eigenschaften, die Netzbetreiber in ihren Modellen abbilden müssen
Netzstudien benötigen elektrische Kennwerte, die das dynamische Verhalten beschreiben, und nicht nur Spitzenleistungen in Megawatt. Die wichtigsten Faktoren sind Spannungsempfindlichkeit, Blindleistungsreaktion, Oberschwingungsbildung, Strombegrenzungen, Wiederherstellungsrampen und Auslöselogik.
Eine praktische Checkliste hilft Ihnen dabei, sich auf das zu konzentrieren, was das Netz tatsächlich erleben wird:
- Einstellungen für die Überbrückung von Spannungseinbrüchen bei Gleichrichtern und USV-Anlagen
- Blindleistungsentwicklung bei Störungen und in kurzen Wiederherstellungsphasen
- Oberschwingungsverhalten bei hohen Konzentrationen von Leistungselektronik
- Anstiegsraten nach Behebung einer Störung oder schrittweiser Wiederherstellung der Last
- Die Dynamik der Kühllast und ihre Wechselwirkung mit der IT-Last
Die Untersuchungen der NERC zu Großlasten zeigen, warum diese Faktoren in das Modell einfließen müssen. Die Organisation weist darauf hin, dass Rechenzentren aufgrund des umfangreichen Einsatzes von Leistungselektronik zu erheblichen Oberwellenquellen werden können, und bringt das Risiko durch Großlasten mit der Anstiegsgeschwindigkeit, der Spitzenlast, der Spannungsempfindlichkeit und Lastabschaltungen bei Störungen in Verbindung.
Genau an dieser Stelle geraten viele Netzanschlussstudien auf Abwege. Ingenieur:innen betrachten den gesamten Campus Ingenieur:innen als eine einzige symmetrische Last mit einer angenommenen Leistungsfaktor und einer Prognose zum Lastwachstum. Dieser Ansatz lässt nicht erkennen, ob der Standort nach einem Fehler in der Nähe am Netz bleibt, Strom abzieht oder ein schwieriges Spannungswiederherstellungsprofil verursacht.
Warum ist für Laststudien in Rechenzentren mit Wechselrichterbetrieb eine EMT-Simulation erforderlich?
Eine EMT-Simulation ist erforderlich, wenn die Fragestellung der Studie von der Steuerung des Umrichters, von Schutzmaßnahmen oder von Reaktionszeiten im Subsekundenbereich abhängt. RMS-Tools sind zwar weiterhin nützlich für die Planung, können jedoch das Schaltverhalten nicht abbilden, das für die Lastreaktion bei umrichterbasierten Systemen entscheidend ist.
Ein gutes Beispiel ist ein starker Spannungseinbruch am gemeinsamen Kopplungspunkt. Die EMT-Untersuchungen des DOE zeigen, dass ein Wechselrichter zur Blindleistungskompensation ohne Energiespeicherunterstützung während des Fehlers erhebliche Ströme aufnehmen kann und anschließend nach Beseitigung des Fehlers aufgrund einer Überspannung im Zwischenkreis auslöst. Mit Energiespeicher und einer Low-Voltage-Ride-Through-Logik kann dieselbe Last den Strom während des Einbruchs auf nahezu Null regulieren und nach Wiederherstellung der Spannung reibungslos zurückkehren. Dieser Unterschied ist kein kleines Modellierungsdetail. Er verändert, was das Netz während der sensibelsten Sekunden des Ereignisses wahrnimmt.
Unabhängige Untersuchungen zur Versorgungssicherheit kommen zu dem gleichen Ergebnis. Der NERC-Bericht „State of Reliability 2025“ heißt es, dass für Planung und Betrieb bessere Modelle der Rechenzentrumslasten benötigt werden, und das Whitepaper zu Großlasten nennt konvertergesteuerte Stabilität, Spannungsreaktion und Oberschwingungen als wesentliche Risiken.
Modellierungsansätze zur Darstellung großer Rechenzentren mit Wechselrichtern
Der beste Modellierungsansatz geht vom Ziel der Untersuchung aus und legt den Fokus auf Details dort, wo das Verhalten des Wandlers das Ergebnis beeinflusst. Man benötigt nicht überall vollständige Schaltdetails, sondern präzise Modelle an den elektrischen Schnittstellen, die das Störverhalten bestimmen.
Ein sinnvoller Arbeitsablauf unterteilt die Anlage in Netzschnittstelle, USV- und Rack-Umwandlung, Kühlungsantriebe und Hilfslast. Mittelwertmodelle eignen sich gut für eine grobe Überprüfung, wenn das Ziel die Durchfahrtsfähigkeit bei Ausfällen, das Blindleistungsverhalten oder Wiederherstellungsrampen ist. Schaltmodelle gewinnen an Bedeutung, wenn detaillierte Informationen zu Oberschwingungen, das Zusammenspiel der Regler oder Belastungen auf Geräteebene benötigt werden. Das MVSC-Material von OPAL-RT erfüllt diesen Bedarf an Ausführungskontext, da es eine breite Abdeckung von Umrichtertopologien, Flexibel I/O und einen Zeitschritt von 40 ns für detaillierte Umrichterstudien auf hardware bietet.
Modellreduktion hat nach wie vor ihre Berechtigung, allerdings erst, nachdem man die Reduktion anhand des für einen selbst relevanten Verhaltens validiert hat. Ein Campus mit Dutzenden ähnlicher USV-Blöcke lässt sich oft durch gruppierte Äquivalente darstellen. Eine gemischte Anlage mit unterschiedlichen Rack-Versorgungen, gestaffelter Batterieunterstützung oder mehreren Kühlanlagen erfordert hingegen eine höhere Detailgenauigkeit. Gute Modelle sind selektiv und nicht überdimensioniert.
„Hyperscale-Rechenzentren verhalten sich wie technisch ausgereifte leistungselektronische Systeme, die an das Stromnetz angeschlossen sind, und Ihre Modelle müssen dieser Anforderung gerecht werden.“
Häufige Modellierungsfehler, die zu ungenauen Ergebnissen bei der Gitterinteraktion führen

Die häufigsten Fehler bei der Modellierung entstehen durch die Annahme, dass die Lasten in Rechenzentren stabil, gleichmäßig verteilt und elektrisch einfach sind. Diese Annahmen verschleiern das genaue Verhalten, das Netzbetreiber verstehen müssen, bevor sie Netzanschlussbedingungen oder Störungsgrenzwerte genehmigen.
Ein Fehler besteht darin, die gesamte Anlage als Leistungsblock mit konstanter Leistung und einem einzigen Leistungsfaktor zu behandeln. Ein weiterer Fehler ist die Modellierung ausschließlich der IT-Last unter Ausklammerung von Kühlantrieben, Batterieschnittstellen oder Schutzlogik. Ein dritter Fehler tritt nach Störungen zutage, wenn in den Studien die Last sofort wiederhergestellt wird, anstatt eine realistische Logik für den schrittweisen oder stufenweisen Neustart anzuwenden. Irlands Rechenzentren werden im Jahr 2026 voraussichtlich 32 % des gesamten Strombedarfs des Landes ausmachen, was zeigt, wie gefährlich falsche Annahmen werden, sobald diese Anlagen einen großen Anteil an einem lokalen System ausmachen.
Die richtige Schlussfolgerung ist einfach: Hyperscale-Rechenzentren verhalten sich wie technische leistungselektronische Systeme, die an das Stromnetz angeschlossen sind, und Ihre Modelle müssen dieser Tatsache Rechnung tragen. Sie erhalten zuverlässigere Studienergebnisse, wenn Sie Umrichtersteuerungen, Ride-Through-Einstellungen, Kühlantriebe und Wiederherstellungslogik als Design-Eingaben erster Ordnung behandeln. Das ist auch der Grund, warum Plattformen wie OPAL-RT in ernsthafte Validierungsarbeiten gehören. Sie sind für diese Aufgabe geeignet, wenn die Frage nicht lautet, wie groß die Last ist, sondern wie sie sich verhält, wenn das Netz nicht mehr normal funktioniert.
EXata CPS wurde speziell für die Echtzeit-Performance entwickelt, um Studien von Cyberangriffen auf Energiesysteme über die Kommunikationsnetzwerkschicht beliebiger Größe und mit einer beliebigen Anzahl von Geräten für HIL- und PHIL-Simulationen zu ermöglichen. Es handelt sich um ein Toolkit für die diskrete Ereignissimulation, das alle inhärenten physikalischen Eigenschaften berücksichtigt, die sich auf das Verhalten des (drahtgebundenen oder drahtlosen) Netzwerks auswirken werden.


