5 Grundlegende Computersimulationstechniken für Ingenieur:innen
Simulation
08 / 08 / 2025

Wenn ein Prototyp auf Stromversorgungs-, Antriebs- oder hardware trifft, brauchen Sie ein felsenfestes Vertrauen. Die Simulation überbrückt die riskante Lücke zwischen Konzept und Inbetriebnahme und vermeidet durchgebrannte Schaltungen oder festsitzende Aktoren. Ingenieur:innen , die Computersimulationstechniken beherrschen, verkürzen den Zeitplan um Monate und verhindern teure Überraschungen. Diese Fähigkeiten sind heute eine Grundvoraussetzung, kein Nice-to-have.
Die Projektbeteiligten wollen auch einen transparenten Nachweis, dass jeder kritische Pfad unter Worst-Case-Bedingungen getestet wurde. Nur digitale Zwillinge, die schnell und genau laufen, können diesen Nachweis rechtzeitig vor der Entwurfsprüfung erbringen. Sobald Sie statistische, physikbasierte und Echtzeit-Methoden kombinieren, wird die Simulation von einem Kontrollpunkt für Papierkram zu einem aktiven Designpartner. Sie verdienen einen klaren Leitfaden, der die Technik dem Ziel zuordnet, ohne Fachjargon oder Anbieterbindung.
Einführung in die Simulationstechniken, auf die sich Ingenieur:innen verlassen

Moderne Antriebsstränge, Mikronetze und Flugsteuerungen sind zu komplex für Tests auf dem Prüfstand allein. Simulationstechniken schaffen einen sicheren Proberaum, in dem physikalische Gleichungen und eingebetteter Code aufeinandertreffen, bevor Geld für hardware ausgegeben wird. Analytische Berechnungen sind nach wie vor wichtig, aber sie können keine Nichtlinearitäten, software oder stochastische Fehler erfassen, die während der Integration auftreten. Digitale Testumgebungen schließen diese Lücken durch wiederholbare, messbare Szenarien, die Sie mit Kollegen, Managern und Aufsichtsbehörden teilen können.
Zumindest modelliert man Bewegungsgleichungen oder elektrische Netzwerke in einem zuverlässigen Solver und vergleicht dann die Ergebnisse mit vorhandenen Daten. Auf die Frage "Was ist Simulationstechnik?" lautet die einfachste Antwort: ein digitales Experiment, das physikalische Gesetze mit einer bestimmten Genauigkeit widerspiegelt. Eine höhere Wiedergabetreue ergibt sich aus der Kopplung mehrerer Bereiche, z. B. elektromagnetische, thermische und Steuerungslogik, so dass Fehlermodi realistisch kaskadieren. Sobald das Vertrauen wächst, wird das Modell schneller als in Echtzeit ausgeführt, um die Schleife mit Steuerungen oder physikalischen Sensor-und Datenfusion zu schließen.
Behandeln Sie die Simulation als eine lebendige Komponente Ihres Systems und nicht als eine separate Aufgabe zur Erstellung von Berichten. Die Investitionsrendite steigt, wenn das Modell in jede Entwurfsentscheidung einfließt und nicht nur in ein einziges Pass/Fail-Gate. Während Ihr Produkt reift, entwickelt sich dieselbe Simulation vom Proof-of-Concept zur Fehlersuchmaschine. Wenn Sie sich dieses Kontinuum vor Augen halten, wird die Anwendung der nächsten Reihe von Techniken viel intuitiver.
5 Simulationstechniken, die jeder Ingenieur:innen kennen und anwenden sollte
Nicht jede Modellierungsmethode löst die gleiche Frage mit gleicher Eleganz. Einige eignen sich hervorragend für die Quantifizierung von Unsicherheiten, andere für die Überprüfung von eingebettetem Code im Hinblick auf enge Silizium-Zeitvorgaben. Die frühzeitige Auswahl des richtigen Algorithmus schützt den Zeitplan, die Sicherheit und das Budget. Klare Abgrenzungen zwischen stochastischen, deterministischen und hybriden Strategien machen diese Auswahl einfach.
1. Monte-Carlo-Simulationen für die Systemleistung unter Unsicherheit
Bei der Monte-Carlo-Simulation werden Tausende von Zufallsstichproben auf Ihr Modell geworfen, um die Leistung unter Berücksichtigung von Streuungen wie Komponententoleranzen, Sensorrauschen oder Wetterschwankungen zu charakterisieren. Anstelle von Ein-Punkt-Schätzungen erhalten Sie Wahrscheinlichkeitsverteilungen für wichtige Messgrößen wie Busspannungsdurchhang, Drehmomentwelligkeit oder Effizienz des Antriebsstrangs. Auf diese Weise lassen sich Designmargen und Risikoregister mit statistisch vertretbaren Daten statt mit Vermutungen steuern. Außerdem erhalten Sie frühzeitig Einblick in Fat-Tail-Ereignisse, die nur alle paar hundert Durchläufe einmal auftreten.
Die Einrichtung ist einfach: Definieren Sie unsichere Eingaben, wählen Sie den Stichprobenumfang und führen Sie den Solver im Batch oder parallel in der Cloud aus. Die Anzahl der Stichproben wächst, bis die Konvergenzkriterien stabile Mittelwerte und Varianzen anzeigen. Die automatische Nachbearbeitung markiert dann Ausreißer für eine genauere Untersuchung und lenkt die hardware(HIL) -Tests in Richtung Worst-Case-Seeds. Die Simulationszeit kann sich in die Länge ziehen, doch moderne GPU-gestützte Solver verkürzen bei mittelgroßen Systemen die Stunden auf Minuten.
Anstelle von Ein-Punkt-Schätzungen erhalten Sie Wahrscheinlichkeitsverteilungen für wichtige Messgrößen wie Busspannungsausfall, Drehmomentwelligkeit oder Antriebsstrangwirkungsgrad.
2. Hardwarefür Echtzeit-Validierung und Tests
Hardwarekoppelt reale Steuerungen, Sensor-und Datenfusion oder Leistungsstufen mit einem digitalen Zwilling, der schneller läuft als die menschliche Wahrnehmung. Die Signale werden über analoge oder Glasfaserschnittstellen übertragen, so dass die Steuerung "glaubt", dass sie die tatsächliche Maschine bedient. Fehlerzustände wie offene Phasen, Datenverbindungsabbrüche oder Batteriealterung werden sofort angezeigt, ohne dass ein Prototyp riskiert wird. Da sich die Dynamik in Echtzeit entfaltet, überprüfen Ingenieur:innen die Stabilität des geschlossenen Regelkreises, die Schutzlogik und die Ausführung der Firmware auf dem Silizium, bevor die Prototypen den Prüfstand verlassen.
Die Erstellung eines HIL-Prüfstands beginnt mit einem ausführbaren Modell, das für deterministische Schrittzeiten unter 50 Mikrosekunden kompiliert wurde. Anschließend ordnen Sie dem Controller Eingangs-/Ausgangskanäle zu und passen Spannungspegel und Kommunikationsprotokolle an. Regressionsskripte durchlaufen die Betriebspunkte über Nacht und protokollieren jede Variable zur Nachvollziehbarkeit. Die Regulierungsbehörden akzeptieren HIL-Ergebnisse zunehmend als Beweismittel und verkürzen damit die Zertifizierungszyklen für Flugdecks und netzgekoppelte Wechselrichter gleichermaßen.
3. Finite-Elemente-Analyse zur Verbesserung der mechanischen und strukturellen Zuverlässigkeit
Bei der Finite-Elemente-Analyse (FEA) wird ein mechanisches Teil oder ein elektromagnetisches Feld in kleine Elemente unterteilt, für die jeweils partielle Differentialgleichungen gelöst werden. Die Methode sagt Spannungen, Verformungen, Schwingungen und Wärmeströme mit einer räumlichen Auflösung voraus, die klassische Modelle mit pauschalen Parametern nicht erreichen können. Bei rotierenden Maschinen zeigt die FEA Hotspots in Statorzähnen oder Rotorstäben auf, lange bevor die Spulenwicklung beginnt. Ingenieur:innen passen die Materialauswahl, die Rippendicke oder die Platzierung der Entlüftungsöffnungen auf dem Sieb an, wodurch das Gewicht reduziert und die Lebensdauer erhöht wird.
Eine erfolgreiche FEA erfordert genaue Materialeigenschaften über die Temperatur, Vernetzungsstrategien, die die Dichte dort konzentrieren, wo die Gradienten am höchsten sind, und eine Validierung anhand von Dehnungsmessstreifen- oder Thermoelementdaten. Solver-Optionen wie implizite oder explizite Integration verändern Laufzeit, Stabilität und Speicherbedarf. Die Kopplung von FEA mit Simulationen auf Systemebene überbrückt strukturelle Grenzen für Motordrehmomentbefehle und verhindert so Reglereinstellungen, die die mechanische Belastbarkeit überschreiten. Wenn Ermüdung oder Resonanz drohen, werden die Konstruktionsiterationen virtuell durchgeführt, anstatt neue Werkzeuge zu erstellen.
4. Agentenbasierte Modellierung, um systemweites Verhalten und Interaktionen zu testen
Bei der agentenbasierten Modellierung (ABM) wird jeder Beteiligte - Fahrzeug, Betreiber, microgrid oder Wartungsroboter - als unabhängiger Agent mit einfachen Regeln dargestellt. Wenn Hunderte von Agenten interagieren, entstehen von unten nach oben komplexe Verkehrsflüsse, Stromverteilungen oder Warteschlangen. Der Ansatz deckt aufkommende Mengeneffekte wie Überlastungswellen, Frequenzschwankungen oder logistische Engpässe auf, die bei Methoden auf Gleichungsebene nicht berücksichtigt werden. Die Ergebnisse unterstützen Anpassung von Kontrollstrategien, Kommunikationsprotokollen und Anreizsystemen vor dem Einsatz.
ABM profitiert vom hybriden Zeitschritt, bei dem sich schnelle physikalische Dynamik und langsamere Entscheidungslogik gleichzeitig entwickeln. Parallele Computing-Frameworks verteilen die Agenten auf mehrere Kerne, so dass die Simulationszeit selbst für Szenarien im städtischen Maßstab angemessen bleibt. Die Validierung umfasst den Vergleich von Trends auf Makroebene - Durchsatz, Fairness, Anzahl der Ausfälle - mit historischen Daten oder kleineren physikalischen Tests. Nach der Kalibrierung wird das Modell zu einer Sandbox für die Planung von Szenarien bei politischen Veränderungen, extremen Wetterbedingungen oder Cyberangriffen.
5. Diskrete Ereignissimulation für Tests komplexer Systemabläufe
Die diskrete Ereignissimulation (DES) springt von einem mit einem Zeitstempel versehenen Ereignis zum nächsten und verfolgt dabei Ressourcenzustände wie Warteschlangenlängen, Maschinenverfügbarkeit oder Paketzustellung. Da die Zeit nur fortschreitet, wenn etwas passiert, konzentrieren sich die Computerzyklen auf logische Interaktionen statt auf untätiges Warten. Fertigungszellen, Flughafenabläufe und Zugfahrpläne profitieren von dieser Effizienz, da Engpässe und Leerlaufkosten aufgedeckt werden. Wichtige Leistungsindikatoren wie Durchsatz, Auslastung und Verzögerungsverteilung ergeben sich aus wiederholten Durchläufen unter variablen Nachfrageprofilen.
Die Modellkonstruktion beginnt mit der Definition von Entitäten, Ressourcen, Zeitplänen und Routingregeln in einem Blockdiagramm oder einer Skriptsprache. Statistische Verteilungen für Ankunftsraten, Servicezeiten und Fehlerdauern verleihen dem Ablauf Realismus. Optimierungsalgorithmen suchen dann nach Personalbeständen, Puffergrößen oder Wartungsfenstern, die die angestrebten Servicelevels erreichen. In Kombination mit Monte-Carlo-Stichproben liefert DES Konfidenzintervalle für die Projektkapazität, lange bevor die Kapitalkosten feststehen.
Jede Technik zeichnet sich durch unterschiedliche Bandbreiten, physikalische Domänen und Risikoprofile aus. Wenn Sie diese Methoden in Ihrem Werkzeugkasten haben, können Sie die Flexibel über das Konzept, den detaillierten Entwurf und die Verifizierung hinweg nutzen. Sie können Methoden - wie FEA-informiertes HIL oder Monte Carlo-gesteuertes DES - kombinieren, um verbleibende Lücken zu schließen. Diese hybride Denkweise bringt die Teams von reaktiven Korrekturen zu vorausschauendem Vertrauen.
Wann sind verschiedene Simulationstechniken für eine bessere Testabdeckung zu verwenden?

Erfahrene Ingenieur:innen bleiben selten bei einem einzigen Solver, sobald die Komplexität zunimmt. Eine strategische Auswahl verschiedener Simulationstechniken erweitert den Abdeckungsbereich und hält die Rechnungen rational. Timing, Genauigkeit und Integrationsziele bestimmen die Wahl mehr als persönliche Vorlieben. Klare Auslöser - wie Sicherheitsklassifizierung oder unterstützen - unterstützen die Zuordnung der richtigen Methode zur richtigen Frage.
Die Simulation überbrückt die riskante Lücke zwischen Konzept und Inbetriebnahme und vermeidet durchgebrannte Schaltungen oder festsitzende Aktoren.
- Frühe Konzeptphase: Schnelle algebraische Modelle oder Modelle mit pauschalen Parametern validieren die Machbarkeit, bevor das Budget für umfangreiche Berechnungen anfängt. Durch diese schnellen Iterationen werden eklatante Skalierungsfehler aufgedeckt, ohne auf eine detaillierte Geometrie zu warten.
- Kritische Sicherheitsfunktionen: Hardware zeichnet sich dort aus, wo Firmware-Interaktionen mit Fehlererkennung ein deterministisches Timing nachweisen müssen. Echtzeitschleifen erfüllen den DAL-A-Nachweis für die Luft- und Raumfahrt oder den ASIL-D-Nachweis für die Automobilindustrie mit hoher Auflösung.
- Kontrollpunkte für die mechanische Integrität: Die Finite-Elemente-Analyse dient als Leitfaden für die Materialauswahl und die Anpassung der Geometrie, sobald die Lasten und Arbeitszyklen eingefroren sind. Thermische und strukturelle Berichte, die aus der FEA abgeleitet werden, informieren dann über Zuverlässigkeitszuweisungen.
- Betriebspolitische Tests: Die agentenbasierte Modellierung bewertet die Planung, den Einsatz und das Nutzerverhalten in gemeinsam genutzten Anlagen wie Mikronetzen oder Flottenladestationen. Die Erkenntnisse gewährleisten Fairness und Belastbarkeit, bevor Tarife oder Kontrollregeln in Kraft treten.
- Kapazitätsplanung unter Unsicherheit: Die Monte-Carlo-gesteuerte diskrete Ereignissimulation erzeugt Durchsatzumfänge für Bedarfsprognosen, Ausfallszenarien und Personalmixe. Die Ergebnisse fließen in Finanzmodelle mit statistisch fundierten Servicelevels ein.
Die Verankerung jeder Auswahl an einer Designfrage verhindert eine Lähmung der Analyse. Wenn sich der Projektumfang verschiebt oder die Datenfülle zunimmt, ist ein Wechsel der Methoden während der Durchführung akzeptabel. Die Dokumentation von Annahmen und Validierungsprüfpunkten sorgt für die Kohärenz von Multimethodenprogrammen. Das Ergebnis ist eine nachvollziehbare Abdeckung ohne überflüssigen Aufwand.
Warum fortschrittliche Simulationstechniken kostspielige Entwurfsiterationen reduzieren
Physische Prototypen verbrauchen Kapital, Vorlaufzeit und endliche Laborplätze. Mit fortschrittlichen Simulationstechniken werden diese Einschränkungen aufgehoben, da Sie virtuell bis zur Konvergenz iterieren können. Anstatt die hardware nach jeder Entdeckung neu zu bestücken, können Sie Modelle in Minutenschnelle ändern und Szenarien über Nacht wiederholen. Diese Flexibilität setzt Budgets für risikoreichere Innovationen frei, anstatt Metall neu zu bestellen.
Statistische Läufe decken Grenzfälle auf - thermisches Durchgehen, Sensorausfall oder harmonische Instabilität -, die bei Tests mit kleinen Stichproben nur selten auftreten. Da das Modell Millionen von Permutationen umfasst, können Sie Empfindlichkeiten im Design frühzeitig erkennen und robuste Standardwerte festlegen. Die Hardware folgt erst dann, wenn sich die Konfidenzbänder um die Zielmetriken verengen. Nachgelagerte Teams, von der Beschaffung bis zur Einhaltung der Vorschriften, gewinnen dank weniger Zeichnungsänderungen an Planungssicherheit.
Echtzeit-HIL senkt das Risiko weiter, indem die Firmware der Anlagendynamik ausgesetzt wird, Monate bevor Prototypen im Feld existieren. Ingenieur:innen stellen die Steuerungen auf simulierte Fehler ein und vermeiden so Probleme beim Reflashen während der Pilotproduktion. Die Fertigung behält ihr Zeitfenster, da späte Firmware-Änderungen die Tests nicht mehr verzögern. Insgesamt verkürzt der Virtual-First-Workflow die Einführungszyklen, ohne dass dabei Abstriche bei der Genauigkeit gemacht werden müssen.
Iterative Schleifen gibt es nach wie vor, doch die meisten laufen jetzt in software ab, bei der das Rückgängigmachen Sekunden dauert. Der drastische Rückgang der Build-Test-Fail-Kosten ermutigt zu kühneren Versuchen innerhalb fester Budgets. Die Teams gewinnen Stunden zurück, die sie früher damit verbracht haben, auf Slots in der Maschinenwerkstatt zu warten oder die Platine neu zu spinnen. Die Simulation verlagert also Geld und Talent von Korrekturmaßnahmen zu echtem Fortschritt.
Wie OPAL-RT Simulationstechniken für bessere Systemergebnisse unterstützt
OPAL-RT hat über fünfundzwanzig Jahre damit verbracht, akademische Algorithmen in produktionsreife Prüfstände umzusetzen. Unsere digitalen Echtzeitsimulatoren führen elektromagnetische, mechanische und Steuerungsmodelle mit einem Jitter von unter einer Mikrosekunde aus. Offene APIs und Standards wie FMI bedeuten, dass Sie Ihre bestehenden Anlagen problemlos integrieren können und nicht bei Null anfangen müssen. Sie behalten das Eigentum an Ihrem geistigen Eigentum und erhalten gleichzeitig eine bewährte Grundlage für realitätsnahe Studien.
Projekte wie microgrid oder elektrische Antriebsstränge verlassen sich auf die Hardware von OPAL-RT, um die Controller-Firmware anhand tausender simulierter Betriebsstunden zu validieren. Ingenieur:innen verbinden native MATLAB/Simulink-, Modelica- oder Python-Modelle und kompilieren dann direkt auf Multicore-CPUs und FPGAs. Dieselbe Anlage verarbeitet Monte-Carlo-Sweeps über Nacht, Finite-Elemente-Co-Simulation durch Co-Prozessor-Links und diskrete Ereignis-Orchestrierung über integrierte Scheduler. Dank dieser Vielseitigkeit ist es nicht mehr nötig, mit mehreren Anbietern zu jonglieren oder eigene Kommunikationsbrücken zu schreiben. Laborleiter schätzen die Überwachung durch eine einzige Glasscheibe, die die Auslastung hoch und die Ausfallzeiten niedrig hält.
Ein weiteres Markenzeichen ist die Skalierbarkeit: Beginnen Sie mit einem Desktop-Gehäuse für die ersten Tests, und skalieren Sie dann auf in Racks montierte Cluster, die Leistungsverstärker mit mehreren Megawatt ansteuern. Die Lizenzierung ist an den Knotenpunkt und nicht an den Arbeitsplatz gebunden, so dass funktionsübergreifende Teams ohne Eingreifen des Buchhalters iterieren können. Die Cloud-Bereitstellung verlagert Batch-Studienlasten auf Remote-Ressourcen, wodurch lokale hardware für zeitkritische HIL-Schleifen frei wird. Die praxiserprobten Cybersicherheitsschichten erfüllen die Anforderungen von Audits zur Informationssicherheit in den Branchen Verteidigung und kritische Infrastruktur. Der technische Support wird von regionalen Ingenieur:innen geleistet, die sowohl den software als auch die elektromechanischen Einschränkungen verstehen, mit denen Sie täglich konfrontiert sind.
OPAL-RT kombiniert Leistung, Offenheit und praktisches Fachwissen, um ehrgeizige Ingenieur:innen bei der Stange zu halten. Wir iterieren mit Ihnen, bis Modelle, hardware und Compliance-Ziele übereinstimmen. Ihr Team gewinnt in jeder Phase messbar an Risikominderung, Testabdeckung und Einblick. Wenn Simulation und hardware durch unsere Unterstützung zusammenkommen, wächst das Vertrauen.
Allgemeine Fragen
Was ist der Unterschied zwischen Computersimulationstechniken und herkömmlichen physikalischen Tests?
Computersimulationstechniken ermöglichen es Ingenieur:innen , Systeme unter Tausenden von Bedingungen digital zu testen, ohne physische Prototypen zu bauen. Dadurch wird nicht nur die Validierung beschleunigt, sondern es werden auch Vorteil aufgedeckt, die bei physischen Tests aufgrund von Zeit- oder Budgetbeschränkungen möglicherweise nicht auftreten. Simulationen unterstützen auch wiederholbare Bedingungen und Parameter-Sweeps, die auf hardware nicht realisierbar sind. OPAL-RT hilft Ihnen, die Simulation näher an die Genauigkeit hardware heranzuführen, mit Echtzeit-Performance und Realitätsnähe der Physik, und reduziert die kostspielige Abhängigkeit von Prüfständen.
Wie entscheide ich, welche Simulationstechnik für meine Projektphase die richtige ist?
Die Wahl der richtigen Simulationsmethode hängt davon ab, was Sie Tests und wann Sie sich im Entwicklungszyklus befinden. Verwenden Sie Monte-Carlo-Simulationen für Unsicherheiten in der frühen Machbarkeitsphase, HIL-Simulationen für die Validierung eingebetteter Steuerungen und Finite-Elemente-Analysen, wenn physikalische Belastungen oder Hitze ein Problem darstellen. Wenn Systemverhalten oder Interaktionen in Frage stehen, sind agentenbasierte oder diskrete Ereignissimulationen ideal. OPAL-RT Plattformen sind so konzipiert, dass sie mehrere Methoden unterstützen, so dass Sie sich an die Entwicklung Ihres Projekts anpassen können.
Warum ist die Echtzeitsimulation für hardware wichtig?
Echtzeitsimulationen sind bei Tests eingebetteter Steuerungen von entscheidender Bedeutung, da sie physische Systeme mit der gleichen Zeitrate nachbilden, die die hardware erwartet. Verzögerungen oder zeitliche Unstimmigkeiten können die Ergebnisse ungültig machen oder zu Fehlverhalten der Firmware führen. Die Echtzeitsimulation stellt sicher, dass jeder digitale Signalaustausch mit dem zu testenden Gerät genau und zeitnah erfolgt. OPAL-RT-Simulatoren bieten eine Latenzzeit im Submikrosekundenbereich, so dass Ihr Team vor dem physischen Rollout volles Vertrauen in die Leistung der Steuerung hat.
Kann ich mehrere Simulationstechniken für ein einziges Projekt verwenden?
Ja, die Kombination von Techniken liefert oft die besten Ergebnisse. Sie könnten zum Beispiel FEA für die Strukturanalyse verwenden und diese dann in eine Echtzeit-HIL-Schleife einbetten, um die Steuerlogik unter Last zu validieren. Hybride Arbeitsabläufe sorgen für eine bessere Abdeckung der mechanischen, elektrischen und software . Die offene, modulare Toolchain von OPAL-RT hilft Ihnen, diese Methoden ohne den Aufwand einer kundenspezifischen Integration zu verbinden.
Wie unterstützen Simulationstechniken die Senkung der Validierungskosten in Luft- und Raumfahrt- sowie Automobilprogrammen?
Die digitale Simulation senkt die Kosten, indem sie Konstruktionsprobleme erkennt, bevor sie die Prototypen- oder Tests erreichen. Sie können Hunderte von Vorteil über Nacht testen, Parameter sofort anpassen und mithilfe digitaler Nachweise gemäß den gesetzlichen Bestimmungen validieren. Dies führt zu weniger Nacharbeiten, schnelleren Zertifizierungszyklen und reibungsloseren Programmmeilensteinen. OPAL-RT arbeitet mit führenden Teams aus der Luft- und Raumfahrt und der Automobilindustrie zusammen, um eine sichere und effiziente Simulation von frühen Modellen bis hin zu HIL und darüber hinaus zu unterstützen.
EXata CPS wurde speziell für die Echtzeit-Performance entwickelt, um Studien von Cyberangriffen auf Energiesysteme über die Kommunikationsnetzwerkschicht beliebiger Größe und mit einer beliebigen Anzahl von Geräten für HIL- und PHIL-Simulationen zu ermöglichen. Es handelt sich um ein Toolkit für die diskrete Ereignissimulation, das alle inhärenten physikalischen Eigenschaften berücksichtigt, die sich auf das Verhalten des (drahtgebundenen oder drahtlosen) Netzwerks auswirken werden.


