Video-Server > Tagungen und Vorträge > Ringvorlesung Simulationswissenschaften

Ringvorlesung Simulationswissenschaften

12:16 Std 149 Aufrufe 07.05.2014

Hinweise zum Player

Um die Aufzeichnungen auf dieser Webseite wiedergeben zu können, muss Javascript aktiviert sein. Zur Wiedergabe mit dem Internet Explorer wird zudem die aktuelle Version des Adobe Flash Players benötigt. Der Internet Explorer wird nur in Version 11 unterstützt. Die Wiedergabe ist mit dem Internet Explorer in Windows 8 oder höher nicht möglich.



Kapitelübersicht


Von der Mikrostruktur zur Nanostruktur - Werkstoff- und Prozesstechnik für neue Stähle


Prof. Dr.-Ing. Wolfgang Bleck, RWTH Aachen Institut für Eisenhüttenkunde
01:26 Std29.09.201616 AufrufeDeutsch

Abspielen

Angesichts von mehr als 2200 Stählen in der Werkstoffliste des Stahlinstituts VDEh lässt sich die Frage stellen, welche zukünftigen Anforderungen aus neuen Anwendungsgebieten hervorgehen und welche Optionen für neue Werkstoffentwicklungen bestehen.

Am Beispiel von Anwendungen im Automobilbau und im Bauwesen wird gezeigt, dass vor allem das Engineering von Gefügen auf einer Größenskala unterhalb der Mikroskala attraktive Eigenschaftskombinationen ermöglicht. Neue Untersuchungsmethoden wie die Atom Probe Tomography, High Resolution Transmission Electron Microscopy und die Electron Backscatter Diffraction Methoden resultieren in quantitativen Gefügeinformationen auf der nm-Skala. Die Modellierung, beispielsweise mit ab initio Methoden oder Repräsentativen Volumenelementen, führt zu einem erweiterten Werkstoff- und Prozessverständnis, und daraus abgeleitet zu neuen Produkten. Als Beispiele für neue Werkstoff-Konzepte werden hochfeste kalt umformbare Stähle mit außergewöhnlichem Verfestigungsverhalten, Stähle mit intrinsischer Fehlertoleranz und Stähle mit verbesserter Festigkeits-Zähigkeits-Bilanz besprochen. Die Beispiele für Prozesse betreffen das Warmwalzen mit Austenitkonditionierung und robuster Gefügeeinstellung sowie die Justierung von Phasenumwandlungen bei der Wärmebehandlung.

Numerische Simulation in der Flugzeugentwicklung - Aktuelle Entwicklungen im DLR


Prof. Dr. Norbert Kroll, DLR Institut für Aerodynamik und Strömungstechnik Braunschweig
01:08 Std29.09.201617 AufrufeDeutsch

Abspielen

In der Luftfahrtindustrie hat sich die numerische Strömungssimulation (CFD) in den letzten Jahren neben Windkanal- und Flugversuch als unverzichtbarer Bestandteil des aerodynamischen Entwurfsprozesses etabliert. Die kontinuierliche Weiterentwicklung der physikalischen Modelle und numerischen Verfahren sowie die Verfügbarkeit immer leistungsstärkerer Rechner legen nahe, die numerische Simulation wesentlich weitgehender als bisher einzusetzen und den Flugzeugentwicklungsprozess völlig umzugestalten. Daher orientieren sich die aktuellen und zukünftigen Aktivitäten des DLR im Bereich der Verfahrensentwicklung an der Vision eines „Erstflugs im Rechner“ (Digitales Flugzeug).

Primäres Ziel ist die Entwicklung und Bereitstellung einer flexiblen, parallelen Softwareplattform zur multidisziplinären Analyse und Optimierung von Flugzeugen und Hubschraubern unter enger Einbindung von hochgenauen Verfahren aller relevanten Fachdisziplinen. Zum einen soll diese Plattform einen robusten, integrierten Entwurfsprozess von Aerodynamik und Struktur ermöglichen. Das derzeitige noch weitgehend sequentielle Vorgehen im Detailentwurf soll aufgebrochen und das volle Potenzial des multidisziplinären Entwurfs verfügbar gemacht werden. Zum anderen soll mit der Softwareplattform die Möglichkeit geschaffen werden, effiziente und verlässliche Simulationen von Flugmanövern im gesamten Flugbereich einschließlich der Flugbereichsgrenzen durchzuführen und somit die Ermittlung von aerodynamischen und aeroelastischen Datensätzen auf Basis höherwertiger Verfahren zur Bewertung der Flugeigenschaften zu erlauben.

Die sehr aufwendigen, disziplinübergreifenden Simulationen und die Herausforderungen hinsichtlich der physikalischen Modellierung im Bereich der Flugenveloppe erfordern Weiterentwicklungen und Verbesserungen des hybriden DLR-Strömungslösers TAU. Aktuelle Arbeiten zielen darauf ab, die Effizienz, Robustheit und Verlässlichkeit sowie den Automatisierungsgrad des TAU-Codes signifikant zu verbessern und dessen Einsatzspektrum zu erweitern. Vor dem Hintergrund der technologischen Entwicklung der Hochleistungsrechner ist die heute in den meisten Strömungslösern realisierte Parallelisierungsstrategie an die Grenzen der Skalierbarkeit gekommen. Daher sind der Entwurf und die

Implementierung eines Strömungslösers der nächsten Generation ein weiteres wesentliches Ziel zukünftiger Aktivitäten.

Im Vortrag werden einige der zukünftigen Zielanwendungen im Bereich der virtuellen Analyse und Erprobung im Flugzeugentwurf vorgestellt. Basierend auf dem aktuellen Status der CFD-Verfahren werden die wesentlichen Herausforderungen und Anforderungen in der numerischen Simulation abgeleitet und Lösungsansätze für fortschrittliche Simulationsstrategien vorgestellt.

HPC im Umbruch - Trends und Entwicklungen


Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Michael M. Resch, Universität Stuttgart High Performance Computing Center Stuttgart (HLRS)
01:02 Std29.09.20167 AufrufeEnglish

Abspielen

Die theoretische Rechenleistung steigt weiter. Was lange Zeit als Moore's law bezeichnet wurde gilt zwar seit 2004 nicht mehr für einzelne Prozessoren. Trotzdem steigt die Geschwindigkeit von Systemen weiterhin etwa um einen Faktor 2 alle 18 Monate. Daraus ergeben sich neue Möglichkeiten und neue Probleme. In diesem Vortrag sollen diese aufgezeigt und diskutiert werden. Möglichkeiten ergeben sich vor allem durch eine erhebliche höhere Rechenleistung auch für kleinere Systeme. Verbunden damit sind Risiken die uns nicht bewusst sind. Gleichzeitig stellt sich die Frage, ob die Leistungsentwicklung fortgesetzt werden kann. Prognosen, die für das Jahr 2020 ein Exaflop vorhersagen, aber gleichzeitig einen Strombedarf von 50 MW erwarten sind wenig ermutigend. Spezifische Konzepte wie Beschleunigerkarten wirken zunächst wie ein Ausweg, stoßen aber ebenfalls an ihre Grenzen. Alle diese Themen werden angesprochen und in einen Kontext gesetzt. Das HLRS dient dabei als Beispiel für ein Zentrum und die Auswirkungen all dieser Trends auf nationaler Ebene.

HLRN-III: Hochleistungsrechner für Norddeutschland


PD Dr. Steffen Schulze-Kremer, Leibniz Universität Hannover HLRN und wissenschaftliche Anwendungsbetreuung
50:51 Min10.10.201614 AufrufeDeutsch

Abspielen

Ende dieses Jahres wird der HLRN-III in der zweiten Ausbaustufe mit 2,5 PetaFlop/s, 85.000 Rechenkernen, 220 TeraByte Hauptspeicher und 8 PetaByte Festplattenspeicher die größte Ressource für wissenschaftliches Rechnen in Norddeutschland sein. Die Länder Berlin, Brandenburg, Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein betreiben gemeinsam nun mittlerweile die dritte Generation ihres Hochleistungsrechners, die erfolgreich begutachteten Spitzenforschungsprojekten aus öffentlich-rechtlichen Institutionen ihrer Mitgliedsländer kostenfrei Rechenzeit in großem Umfang zur Verfügung stellt. Der Vortrag stellt die technischen und organisatorischen Besonderheiten des HLRN-III im Kontext des internationalen Supercomputing vor und gibt einen Einblick in seine Nutzung.

Quantitative Morphology-Transport Relationships for Disordered Porous Media by Morphological Reconstruction and High Performance Computing of Flow and Transport


Prof. Dr. Ulrich Talarek, Philipps-Universität Marburg Institut für Chemie
58:03 Min29.09.201610 AufrufeDeutsch

Abspielen

The discovery of the morphology-transport relationships for disordered porous media used in chemical engineering and separation science (packings, monoliths) is a major challenge, because it requires the 3D physical reconstruction and/or
computer-generation of the materials followed by 3Dmass transport simulations to collect meaningful data for a detailed analysis of morphological and transport properties. This approach is the only direct as well as the most realistic way to
understand and optimize materials with applicationsin chromatography or catalysis. Our latest progress regarding the following issues will be reported: (1) Systematic study of how individual parameters, such as the packing density and packing protocol, affect the morphology of computer-generated packings. (2) Physical reconstruction of packed and monolithic beds to collect information on how experimental parameters of the packing and preparation process influence
morphology. (3) 3D mass transport simulations performed on a high-performance
computing platform to analyze in detail the hydrodynamics and resulting dispersion. (4) Analysis of computer-generated and physically reconstructed packed and monolithic beds with statistical methods to derive structural descriptors for mass transport (diffusion, dispersion), which have potential for refining the existing theoretical framework.

How to order a waiting list?


Dr. Sebastian Stiller, Technische Universität Berlin Institut für Mathematik
47:53 Min29.09.20169 AufrufeDeutsch

Abspielen

How to order the waiting list for an overbooked flight? This amounts to the problem of packing a knapsack without knowing its capacity. Whenever we attempt to pack an item that does not fit, the item is discarded; if the item fits, we have to include it in the packing. We show that there is always a policy that packs a value within factor 2 of the optimum packing, irrespective of the actual capacity. If all items have unit density, we achieve a factor equal to the golden ratio R = 1.618. Both factors are shown to be best possible. In fact, we obtain the above factors using packing policies that are universal in the sense that they fix a particular order of the items and try to pack the items in this order, independent of the observations made while packing. We give efficient algorithms computing these policies. On the other hand, we show that, for any R > 1, the problem of deciding whether a given universal policy achieves a factor of R is coNP-complete. If R is part of the input, the same problem is shown to be coNP-complete for items with unit densities. Finally, we show that it is coNP-hard to decide, for given R, whether a set of items admits a universal policy with factor R, even if all items have unit densities.

Flüssiger Stahl in silico – numerische Simulation von Prozessen der Stahlherstellung


Prof. Dr.-Ing. Rüdiger Schwarze, Technische Universität Bergakademie Freiberg Institut für Mechanik und Fluiddynamik
01:35 Std29.09.20167 AufrufeDeutsch

Abspielen

Die Prozesse der Eisen- und Stahlherstellung unterliegen einem permanenten Optimierungsdruck, der aktuell durch ökonomische (möglichst geringe Kosten) und ökologische (möglichst geringer CO2-Ausstoß) Vorgaben definiert wird. Entsprechende Innovationen in der Stahltechnologie erfordern ein vertieftes Verständnis aller beteiligten Prozessstufen, um beispielsweise die Ursachen für eine Qualitätsminderung gezielt bekämpfen zu können. Die Erforschung der Vorgänge in den Prozessstufen der flüssigen Phase ist allerdings aufgrund der physikalischen und chemischen Eigenschaften der Eisen- bzw. Stahlschmelzen sehr schwierig. In der Vergangenheit wurden deswegen vor allem Modellexperimente mit Wasser als Modellschmelze genutzt, um die Strömungen in diesen Prozessstufen zu erforschen. Da die Modellähnlichkeit mit diesem Ansatz nur sehr eingeschränkt erreicht wird, nutzt die moderne Forschung zunehmend die numerische Strömungssimulation (CFD). Mit CFD-Modellen lassen sich auch komplexere physikalische Vorgänge, etwa die elektromagnetische Beeinflussung einer strömenden Stahlschmelze, beschreiben. Im Vortrag wird das anhand verschiedener Beispiele aus den Prozessstufen der Eisen- und Stahlherstellung erläutert. Der aktuelle Forschungsstand und zukünftige Möglichkeiten werden diskutiert.

Große mikroskopische verhaltensorientierte Verkehrssimulationen


Prof. Dr. Kai Nagel, TU Berlin Institut für Land- und Seeverkehr
55:20 Min29.09.20168 AufrufeEnglish

Abspielen

Durch die Fortschritte in der Computertechnik ist es inzwischen recht problemlos möglich, Systeme mit 10^8 Teilchen mikroskopisch zu simulieren. Dies ist aber bereits mehr, als man für die Simulation einer jeden Person und eines jeden Fahrzeugs in einem urbanen oder regionalen Verkehrssystem braucht. Es bleibt also die Aufgabe, die derart definierten synthetischen Personen mit entsprechender Verhaltenslogik auszustatten. Software-technisch ist das mit modernen objekt-orientierten Sprachen recht gut machbar; schwieriger ist es, die Modelle menschlichen Verhaltens zu formulieren. Ein typischer Kunstgriff ist die Annahme eines Nash-Gleichgewichtes, bei dem sich keine reisende Person durch einen unilateralen Wechsel - z.B. auf eine andere Route oder ein anderes Verkehrsmittel - verbessern kann. Dies reduziert die Anforderungen an das Verhaltensmodell, aber um den Preis einer rechentechnisch aufwändigeren Lösungsmethode mit vielen Iterationen, die man als simuliertes menschliches Lernen interpretieren kann, aber nicht muss. Bei anderen Fragestellungen, z.B. bzgl. Betrieb von Taxen oder autonomen Fahrzeugen, ist dieser Kunstgriff ohnehin nicht möglich, und man muss die Reaktionen bestimmter Teilnehmer in simulierter Echtzeit berechnen.

Der Vortrag wird beleuchten, was in diesem Rahmen derzeit machbar ist, einschließlich Fragestellungen wie: Was bewirkt eine Autobahnverlängerung in Berlin? Was bewirkt eine Autobahnschließung in Seattle? Welche Emissionen erzeugt das Verkehrssystem in München, und was kann man dagegen tun? Was bewirkt eine Maut im Großraum Johannesburg in Südafrika? Wie simuliert man südafrikanische Minibus-Taxis, wenn man nicht sehr viel über sie weiß? Wie würde man Systeme mit autonomen Fahrzeugen betreiben?

Optimization problems in DSB long-term and strategic planning


Dr. Natalia Rezanova, Dänische Staatsbahnen (DSB)
36:11 Min29.09.201611 AufrufeEnglish

Abspielen

Danish State Railways (DSB) is the largest passenger operator in Denmark. DSB Longterm Planning Department is responsible for the long-term traffic planning, including line planning, timetabling and rolling stock (2 years before the day of operations), as well as the strategic traffic planning (10+ years before the day of operations). Many optimization problems arise within the different strategic planning areas. Some of them are solved using commercial optimization software uniquely developed for DSB. Other optimization problems are addressed in-house. The talk will focus on two different optimization projects, where Mixed Integer Programming models formulated, implemented and solved. The line planning optimization model determines an optimal set of train lines, patterns and frequencies, and is used in the strategic planning on DSB S-train network. The facility location optimization model is developed to determine the size and location of maintenance, preparation, cleaning and stabling facilities required to service the fleet of electrical trains, which DSB is planning to acquire in the near future. Both projects, even though quite different in purpose and impact, exploit the advantages of Operations Research and help to address the real-life challenges of a railway operator.

Simulation-based impact assessment and strategy development in the automotive sector


Prof. Dr. Thomas S. Spengler, Technische Universität Braunschweig Institut für Automobilwirtschaft und Industrielle Produktion
01:05 Std29.09.201614 AufrufeEnglish

Abspielen

Electric vehicles are often seen as a promising way for rationalizing the use of fossil energy and cutting down greenhouse gas emissions in the automotive sector. So far, however, the market success of electric vehicles and thus their impact on reducing fossil fuel consumption and greenhouse gas emissions are rather limited. In this talk, the automotive market simulator (AMaSi) is introduced, which combines system dynamics and agent-based simulation to analyze the leverage of manufacturers and policy to support the market diffusion of electric vehicles. Based on real-world data the model is applied to the German car market and different manufacturer and policy measures are simulated, including the currently discussed purchase premium for battery and plug-in hybrid electric vehicles. Additionally, validation issues are discussed when modeling the structure of complex socioeconomic/-technic systems and simulating their behavior.

Kostenminimale Flüsse mit beschränktem Budget


Jun.-Prof. Dr. Clemens Thielen, Technische Universität Kaiserslautern Fachbereich Mathematik
44:01 Min04.11.201615 AufrufeDeutsch

Abspielen

Das Minimalkostenflussproblem ist eines der bekanntesten Probleme der Graphentheorie und besitzt zahlreiche Anwendungen. Für gegebenen Kapazitäten und Kosten pro Flusseinheit auf den Pfeilen eines Netzwerks besteht die Aufgabe in der Bestimmung der kostengünstigsten Möglichkeit, eine vorgegebene Menge eines Gutes von einer gegebenen Quelle zu einer gegebenen Senke durch das Netzwerk zu transportieren. Das Minimalkostenflussproblem stellt somit einen allgemeinen mathematischen Rahmen für viele Distributions- und Transportprobleme dar. Zusätzlich lässt sich auch das Problem der Bestimmung eines maximalen dynamischen Flusses durch ein Netzwerk mit Reisezeiten auf den Pfeilen als Minimalkostenflussproblem formulieren. Daher lassen sich beispielsweise auch Probleme aus dem Bereich der Kapazitätsbestimmung von Abwassernetzen als Minimalkostenflussprobleme lösen.

In vielen Anwendungen des Minimalkostenflussproblems ist jedoch das zu benutzende Netzwerk noch nicht vollständig vorhanden, sondern muss erst (aus-) gebaut werden, bevor es zum Gütertransport verwendet werden kann. Dies motiviert die Erweiterung des Minimalkostenflussproblems um einen zweiten Kostenwert für jeden Pfeil, der die (Aus-) Baukosten des Pfeils pro Kapazitätseinheit beschreibt. Steht nur ein vorgegebenes Budget zum (Aus-) Bau des Netzwerks zur Verfügung, so ergibt sich das Problem, einen Fluss mit minimalen Kosten zu berechnen, der sich in einem Netzwerk mit durch das Budget beschränkten (Aus-) Baukosten realisieren lässt. Das resultierende Netzwerkflussproblem wird als Minimalkostenflussproblem mit Budgetbeschränkung bezeichnet.

Dieser Vortrag beschäftigt sich mit effizienten Algorithmen zur Lösung des Minimalkostenflussproblems mit Budgetbeschränkung. Wir werden zeigen, wie sich kombinatorische Algorithmen für das klassische Minimalkostenflussproblem in Kombination mit binärer oder parametrischer Suche benutzen lassen, um auch das Problem mit Budgetbeschränkung selbst auf großen Netzwerken effizient lösen zu können.

Integration based profile likelihood calculation for PDE constrained parameter estimation problems


Univ.-Prof. Dipl.-Ing. Dr. Barbara Kaltenbacher, Alpen-Adria-Universtät Klagenfurt Institut für Mathematik
01:06 Std08.12.201621 AufrufeDeutsch

Abspielen

Partial diferential equation (PDE) models are widely used in engineering and natural sciences to describe spatio-temporal processes. The parameters of the considered processes are often unknown and have to be estimated from experimental data. Due to partial observations and measurement noise, these parameter estimates are subject to uncertainty. This uncertainty can be assessed using profile likelihoods, a reliable but computationally intensive approach. In this talk, we present the integration based approach for the profile likelihood calculation developed by Chen and Jennrich, 2002, and adapt it to inverse problems with PDE constraints. While exiting methods for profile likelihood calculation in parameter estimation problems with PDE constraints rely on repeated optimization, the proposed approach exploits a dynamical system evolving along the likelihood profile. We derive the dynamical system for the unreduced estimation problem, prove convergence and study the properties of the integration based approach for the PDE case. To evaluate the proposed method, we compare it with state-of-the-art algorithms for a simple reaction-diffusion model for a cellular patterning process. We observe a good accuracy of the method as well as a significant speed up as compared to established methods. While our computational experiments have been done for an application example in systems biology, we emphasize that due to generality of this methodology, integration based profile calculation appears to facilitate rigorous uncertainty analysis for parameter estimation problems with PDE constraints also in many other fields.


Impressum · Kontakt© TU Clausthal 2017