Wann ist eine FPGA-Echtzeitsimulation für die HIL-Simulation von Leistungselektronik sinnvoll?
Simulation
01 / 22 / 2026

Wichtigste Erkenntnisse
- Der Determinismus des Timings ist der Hauptgrund für die Wahl der FPGA-Echtzeitsimulation für die HIL-Simulation in der Leistungselektronik.
- Durchschnitts- und CPU-Modelle eignen sich am besten, wenn Erfolg oder Misserfolg von langsamen Dynamiken und stabilen Werten abhängen.
- Partitionierung, I/O budgets und wiederholbare Fehlertests entscheiden über den praktischen Erfolg.
FPGA-Echtzeitsimulation ist sinnvoll für die HIL-Simulation von Leistungselektronik, wenn das Schaltverhalten und das Schutz-Timing mit Ihrem Controller übereinstimmen müssen. Der Absatz von Elektroautos näherte sich 15 Millionen , was den Arbeitsaufwand für die Validierung von Wechselrichtern und Ladegeräten in vielen Labors erhöht. Ein Test, der ein schnelles Ereignis übersieht, sieht auf den Diagrammen immer noch einwandfrei aus. Diese falsche Sicherheit ist teuer.
Die Echtzeitsimulation mit CPU hat für viele Konverter- und Antriebsaufgaben nach wie vor ihre Berechtigung. Probleme treten auf, wenn Sie gleichzeitig detaillierte Schaltpegel und feste I/O benötigen. Durchschnittsmodelle können den genauen Vorteil Sie anstreben, verschleiern. Die Echtzeitsimulation mit FPGA ist die praktische Wahl, wenn das Timing über Erfolg oder Misserfolg entscheidet.
Was die FPGA-Echtzeitsimulation tatsächlich für die Leistungselektronik löst
„Die Echtzeitsimulation mit FPGAs löst nicht nur das Problem der Modelldetails, sondern auch das des zeitlichen Determinismus.“
Es steuert das zeitkritische elektrische Netzwerk in festen Schritten. Es hält I/O stabil, sodass Ihr Controller bei jedem Durchlauf die gleiche Verzögerung erkennt. Diese Wiederholbarkeit macht HIL-Ergebnisse über Builds und Teams hinweg vergleichbar.
Ein PWM-Wechselrichtertest zeigt schnell den Vorteil. Gate-Befehle vom Controller treffen ohne Zeitabweichungen auf die simulierten Schalter. Die Stromrückmeldung erfolgt pünktlich, sodass Abtastung und PWM synchron bleiben. Ein Schutzpfad, wie beispielsweise eine Überstromabschaltung, wird bei jedem Durchlauf zum gleichen Zeitpunkt ausgelöst.
Deterministisches Timing ist wichtig, wenn Sie instabiles Verhalten bei hohen Arbeitszyklen debuggen. Eine CPU, die gelegentlich überläuft, verwischt die Ereignisreihenfolge und verschwendet Laborzeit. Die FPGA-Partitionierung bleibt ebenfalls fokussiert, sodass Sie nur die schnellen Teile auf den FPGA verschieben. Langsamere Teile, wie mechanische Last oder thermische Reaktion, können auf der CPU bleiben, ohne die Timing-Kette zu beeinträchtigen.
Warum CPU-basierte Echtzeitsimulationen bei schnellen Schaltwandlern versagen

CPU-basierte Echtzeitsimulationen versagen, wenn das Modell winzige Schritte und I/O striktes I/O erfordert. Eine CPU teilt ihre Zyklen auf verschiedene Aufgaben auf, was zu Jitter führt. Dieser Jitter erzwingt größere Schritte oder vereinfachte Schaltdetails. Die Anlage reagiert dann verzögert, auch wenn sie reibungslos zu laufen scheint.
Ein deutliches Symptom tritt auf, wenn Sie ein gemitteltes Wechselrichtermodell mit einem Schaltmodell auf derselben CPU vergleichen. Das Schaltmodell wird langsamer, bis Welligkeit und Spitzenströme gedämpft sind. Hardware löst auf dem Prüfstand aus, aber die simulierte Anlage verpasst denselben Auslöser. Ihr Team optimiert letztendlich ein Simulatorartefakt anstelle eines Steuerungsproblems.
CPU-Simulatoren funktionieren nach wie vor gut für langsamere Dynamiken, wie beispielsweise die Energiebilanz des Gleichstrombusses oder Drehzahlregelkreise. Das Problem ist die Zeitskala, nicht die Qualität des Solvers. Schaltvorgänge können im Nanosekundenbereich liegen, mit einer gemessenen Einschaltzeit von 11,4 ns in einem SiC-MOSFET-Test. Sobald Ihr Test von so schnellen Ereignissen abhängt, ist eine deterministische Planung wichtiger als der reine Fließkomma-Durchsatz.
Wenn die FPGA-Echtzeitsimulation die richtige Wahl ist
„Das Urteil ist immer noch wichtiger als die reine Modellgenauigkeit.“
Die FPGA-Echtzeitsimulation ist die richtige Wahl, wenn das Timing Ihre Steuerung, Messungen und Schutzlogik miteinander verbindet. Sie eignet sich für die Leistungselektronik-HIL, wo Verzögerungen im Mikrosekundenbereich das Steuerungsergebnis verändern. Sie eignet sich auch für Motorantriebe, bei denen PWM, Abtastung und Fehlerlogik innerhalb eines Zyklus interagieren. Das Timing bleibt von Lauf zu Lauf unverändert.
Fünf Anzeichen dafür, dass Ihre Anlage auf FPGA gehört:
- Die Schutzlogik hängt vom genauen Auslöse- und Rücksetzzeitpunkt ab.
- Das Stromrückkopplungssystem erfordert eine feste Latenz und einen geringen Jitter.
- PWM und Abtastzeitpunkte müssen in jedem Zyklus aufeinander abgestimmt bleiben.
- Die Tests erfordern wiederholbare Schalterfehler und Kurzschlüsse.
- Das Umschalten kann nicht gemittelt werden, ohne an Bedeutung zu verlieren.
Das Bench-Risiko ist ein gutes Beispiel. Ein Kurzschlusstest an hardware die Geräte und variiert von Lauf zu Lauf. Ein simulierter Kurzschluss wiederholt sich exakt, sodass Sie die Auslöse- und Wiederherstellungslogik überprüfen können. Ein Test auf offenen Schalterfehler bestätigt ebenfalls den Fallback-Modus des Controllers.
Die Disziplin des Anwendungsbereichs sorgt für die praktische Umsetzung. Platzieren Sie das Schaltnetzwerk und die schnelle Messkette auf dem FPGA und belassen Sie die langsameren Teile auf der CPU. Durch diese Aufteilung wird vermieden, dass jedes Subsystem in eine Festkomma-Logik gezwungen wird. Außerdem bleibt Ihr HIL-Setup über alle Kontrollrevisionen hinweg wartbar.
Wichtige technische Kriterien, die FPGA gegenüber durchschnittlichen Modellen rechtfertigen
Die Entscheidung für FPGA gegenüber einem Durchschnittsmodell hängt davon ab, was Sie beobachten und auslösen müssen. Durchschnittsmodelle funktionieren, wenn Mittelwerte über viele Schaltperioden hinweg ausreichen. Schaltmodelle sind dann sinnvoll, wenn diskrete Zustände und Ereigniszeitpunkte die Stabilität, Grenzwerte oder Fehler beeinflussen. Die Testabsicht bestimmt die Wahl des Modells.
Ein Abwärtswandler zeigt die Aufteilung. Ein gemitteltes Modell stimmt die Spannungsschleife ab und überprüft den Sanftanlauf. Dasselbe Modell verbirgt Strombegrenzungsfluktuationen und Änderungen der Diodenleitung, die den Schutz auslösen. Ein Motorantrieb hat das gleiche Problem, wenn Phasenstromspitzen eine Rolle spielen.
| Was Sie nachweisen müssen | Das gemittelte Modell passt, wenn | FPGA-Umschaltung eignet sich, wenn |
| Strombegrenzung und Auslöseverhalten | Trip verwendet gefilterten Strom | Trip nutzt Instant Peaks |
| PWM und Abgleich der Abtastung | Der Zeitversatz ist harmlos. | Timing-Offset-Änderungen Schleife |
| Fehlerbehandlung und Neustart | Der Fehlerpfad ist langsam. | Fehlerzeitsteuerung stellt Wiederherstellung ein |
| Zustandsübergänge schalten | Die Details zu Ripple sind irrelevant. | Schaltzustände ändern Ströme |
| Verhalten bei hoher Bandbreite | Ripple bleibt außen vor | Ripple destabilisiert Schleife |
Schreiben Sie zuerst Pass- oder Fail-Anweisungen. Die Reihenfolge der Ereignisse oder Spitzenwerte zerstören ein gemitteltes Modell. Diskrete Schaltzustände zerstören es ebenfalls. Konstante Werte und langsame Dynamiken eignen sich für die Mittelwertbildung.
Wie FPGA-basierte HIL die Validierung von Umrichtern und Motorantrieben verbessert

FPGA-basierte HIL verbessert die Validierung, da Sie Timing, Fehler und Messungen exakt wiederholen können. Sie können dasselbe Skript ausführen und isolieren, was sich im Controller geändert hat. Sie können auch das Ausfallverhalten testen, ohne hardware zu gefährden. Das macht die Ergebnisse sowohl für Ingenieur:innen für Führungskräfte nützlich.
Beginnen Sie mit der Sensorkette in einem Motorantriebstest. Sie können einen Phasenstromversatz, ein Signal für eine blockierte Position oder einen DC-Bus-Einbruch einspeisen und dann das Verhalten und die Grenzwerte des Beobachters beobachten. Sie können auch einen offenen Schalterfehler an einem Strang erzwingen und überprüfen, ob der Regler in einen sicheren Modus wechselt. Viele Teams betreiben das Schaltnetzwerk auf FPGA mit eHS und integrieren die gesamte Konfiguration in OPAL-RT, damit der I/O deterministisch bleibt.
Die Wiederholbarkeit ist der größte Vorteil. Ein Kurzschluss auf dem Prüfstand ist riskant und schwer zu reproduzieren, und die Datenqualität hängt von der Konfiguration der Sonden ab. Ein simulierter Fehler ist konsistent, sodass Sie die Auslöse-, Protokollierungs- und Wiederherstellungslogik über viele Iterationen hinweg überprüfen können. Sie benötigen zwar weiterhin Skalierungsprüfungen und Plausibilitätsvergleiche mit den Prüfstandsdaten, aber der Validierungszyklus wird wesentlich weniger störungsanfällig.
Häufige Missverständnisse über die Komplexität und Benutzerfreundlichkeit von FPGAs
Die Komplexität von FPGAs wird übertrieben, wenn sie als eine Art „Alles-oder-Nichts“-Neuprogrammierung betrachtet werden. Die meisten Konverter- und Antriebsmodelle gehören nicht vollständig auf einen FPGA. Eine fokussierte Partitionierung ordnet nur die zeitkritischen elektrischen Teile der FPGA-Logik zu. Die Benutzerfreundlichkeit ergibt sich dann aus den Modellierungsentscheidungen und nicht aus heroischen Leistungen.
Teams geraten oft ins Stocken, nachdem sie versucht haben, das gesamte System in ein einziges FPGA-Image zu packen. Festpunktentscheidungen, Skalierung und Schnittstellenlogik nehmen schnell zu und verbergen Fehler. Ein besseres Muster behält das schnelle Switch-Netzwerk auf dem FPGA bei und überlässt mechanische Belastungen, thermische Effekte und Überwachungslogik der CPU. Diese Aufteilung macht auch die Fehlersuche übersichtlicher, da Timing- und Steuerungsprobleme nicht miteinander verflochten sind.
Die Arbeit ist streng, aber vorhersehbar. Sie definieren numerische Bereiche, Sättigungsverhalten und Grenzwerte, damit der FPGA stabil bleibt. Außerdem planen Sie die Latenzzeit ein, damit das ADC- und DAC-Timing mit der Abtastrate des Controllers übereinstimmt. Sobald diese Regeln festgelegt sind, verläuft die Iteration stabil und die Testergebnisse weichen nicht mehr voneinander ab.
Wie fortschrittliche Mehrphasenmaschinen die Anforderungen an die FPGA-Simulation vorantreiben
Mehrphasige Maschinen stellen hohe Anforderungen an FPGAs, da die Anzahl der Phasen die Rechenleistung und die Fehlerfälle vervielfacht. Die elektromagnetische Kopplung zwischen den Phasen führt zu Wechselwirkungen, die in durchschnittlichen Antriebsmodellen nicht berücksichtigt werden. Die fehlertolerante Steuerung hängt nicht nur vom Drehmoment und der Drehzahl ab, sondern auch von phasenaufgelösten Strömen und Spannungen. Die Parallelität von FPGAs sorgt dafür, dass diese gekoppelten Aktualisierungen in der von Ihrem Controller verwendeten Zeitskala stabil bleiben.
Betrachten Sie einen elektromagnetisch gekoppelten zwölfphasigen PMSM-Test mit Phasenausfall und Neukonfigurationslogik. Sie können eine Phasengruppe ausfallen lassen, Stromreferenzen ändern und überprüfen, ob das Drehmoment innerhalb der Grenzen bleibt, ohne dass es zu unkontrollierten Strömen kommt. Sie können auch einen Sensorausfall an einem Phasensatz simulieren und überprüfen, ob der Regler weiterhin die Drehzahl verfolgt. Diese Tests sind auf hardware nur schwer sicher durchzuführen, da Fehler die Maschine und den Wechselrichter belasten.
Das Urteilsvermögen ist nach wie vor wichtiger als die reine Modellgenauigkeit. Klare Kriterien für Erfolg oder Misserfolg und disziplinierte Zeitpläne entscheiden darüber, ob sich die HIL-Arbeit auszahlt. OPAL-RT-Teams, die gekoppelte Mehrphasen-Maschinenmodelle auf FPGA ausführen, erzielen die besten Ergebnisse, wenn Modellpartitionierung, I/O und wiederholbare Fehlerskripte als erstklassige Engineering-Aufgaben behandelt werden. Dieser Fokus sorgt dafür, dass Ihre Ergebnisse umsetzbar sind und Ihre Laborzeit gut genutzt wird.
EXata CPS wurde speziell für die Echtzeit-Performance entwickelt, um Studien von Cyberangriffen auf Energiesysteme über die Kommunikationsnetzwerkschicht beliebiger Größe und mit einer beliebigen Anzahl von Geräten für HIL- und PHIL-Simulationen zu ermöglichen. Es handelt sich um ein Toolkit für die diskrete Ereignissimulation, das alle inhärenten physikalischen Eigenschaften berücksichtigt, die sich auf das Verhalten des (drahtgebundenen oder drahtlosen) Netzwerks auswirken werden.


