Research projects

Research projects

2022

  • Co-Design volumengekoppelter Multiphysiksoftware: Heterogene EXASCALE-Systeme für die Geodynamik

    (Third Party Funds Group – Overall project)

    Term: 1. November 2022 - 31. October 2025
    Funding source: BMBF / Verbundprojekt
    URL: http://terraneo.fau.de

    Physikalische Fragestellungen werden von der Anwendung diktiertund führen oft auf unterschiedliche Modellierungsparadigmen. In diesem Antragwird einerseits klassische Kontinuumsmechanik genutzt, die zu EulerschenFinite-Element-Modellen führt, andererseits lassen sich Transportphänomenejedoch oft besser mit Lagrangeschen Methoden darstellen, z.B. als Trajektorienin einem System vieler Teilchen. Die Kopplung dieser unterschiedlichen Modelleführt zu Herausforderungen in der Mathematik, sowie bei der parallelenAusführung. Partikel, die durch das simulierte System wandern, erfordern andereParallelisierungsstrategien als gitterbasierte Methoden. Für die paralleleAusführung in verteiltem Speicher, ist nun eine Co-Partitionierung nötig, damitdie Kopplung weitgehend lokal berechnet werden kann. Die Schwierigkeitvervielfacht sich, wenn die Last dynamisch neu balanciert werden muss. Mitdiesem Antrag gehen wir noch einen Schritt weiter und berücksichtigenzusätzlich auch mesoskopische Modelle, wie z.B. die Lattice-Boltzmann-Methode(LBM), da sie aufgrund ihrer Struktur als explizites Zeitschrittverfahren nureine streng lokale Kommunikation benötigt und deshalb im extreme-scale Bereichbesondere Vorteile bietet.

    Der Antrag wird folglich eine extreme-scale Kopplung zwischen makroskopischen(FEM) Modellen, mesoskopischen Modellen (LBM) und partikelbasierten Methodenbreit verfügbar machen. Die Antragsteller sind in der glücklichen Lage, dazubereits eigene, hochparallele Software für alle drei Paradigmen zu besitzen:HYTEG, ein Finite-Elemente-Paket mit optimalen Mehrgitterlösern, WALBERLA, einflexibles LBM-Framework, und als Subsystem davon zusätzlich MESAPD, einmassiv-paralleler, konfigurierbarer Simulator für Vielteilchensysteme und dieDiskrete Element-Methode. Alle drei Programmpakete wurden über mehr als einJahrzehnt lang erfolgreich auf maximale Skalierbarkeit hin entwickelt, so dasssie beispielsweise mit als erste in den illustren HiQ-Club1 der am bestenskalierbaren Simulationssoftware aufgenommen wurden.
    Der neue Antrag zielt darauf ab, auf Basis der bestehenden Software einintegratives Framework für komplexe multiphsysikalische Kopplungsprobleme zuentwickeln und die Performanz dessen anhand eines Demonstrators aus derGeodynamik zu veranschaulichen. Die Erdmantelkonvektion ist dabei eine derprominenten Grand-Challenge-Anwendungen. Sie erfordert maximaleComputerleistung und damit extreme Skalierbarkeit der Simulationssoftware schonallein, weil die Vernetzung des Erdmantels mit 1 km Auflösung zu Gittern mitmehr als 10^{12} Zellen führt. Diese Demonstratoranwendung benötigt darüberhinaus sowohl die Kopplung zwischen einem quasi-stationären Stokes-Löser,Transportgleichungen für die Energie und weiteren Größen als auch einesystematische Behandlung von Datenunsicherheiten in den inversen Problemen.
    Methodisch werden dazu neuartige Techniken der Codegenerierung genutzt undweiter entwickelt. Ein spezieller Fokus liegt auf der Nutzung moderner heterogenerArchitekturen durch die systematische Untersuchung von Verfahren mitreduzierter Genauigkeit und Mixed-Precision-Ansätzen. Dies ist in einensystematischen Softwareentwicklungsprozess eingebettet, der auf einestate-of-the-art Performanzmodellierung zurückgreift. 

  • European Master for High Performance Computing

    (Third Party Funds Group – Sub project)

    Overall project: European Master for High Performance Computing
    Term: 1. January 2022 - 31. December 2025
    Funding source: EU - 8. Rahmenprogramm - Horizon 2020
    URL: https://eumaster4hpc.uni.lu/

2021

  • Massiv parallele Simulation des Schmelzbadbereichs beim Laserstrahlschweißen mit der Lattice- Boltzmann-Methode

    (Third Party Funds Group – Sub project)

    Overall project: FOR 5134: Erstarrungsrisse beim Laserstrahlschweißen: Hochleistungsrechnen für Hochleistungsprozesse
    Term: 1. July 2021 - 30. June 2025
    Funding source: DFG / Forschungsgruppe (FOR)

    Das Laserstrahlschweißen als flexibles und kontaktloses Fügeverfahren gewinnt immer mehr an Bedeutung. Die Bearbeitung von Legierungen mit großem Schmelzintervall stellt aufgrund ihrer Neigung zu Erstarrungsrissen jedoch eine Herausforderung dar. Diese entstehen durch kritische Spannungs- bzw. Dehnungszustände der dendritischen Mikrostruktur mit interdendritischer Schmelze. Trotz der hohen industriellen Relevanz existieren bisher lediglich Ansätze, die sich Teilaspekte dieser Problematik - metallurgisch orientiert oder strukturorientiert - widmen. Die Forschungsgruppe "Erstarrungsrisse beim Laserstrahlschweißen: Hochleistungsrechnen für Hochleistungsprozesse" setzt sich zum Ziel ein quantitatives Prozessverständnis der Mechanismen der Erstarrungsrissentstehung und des Zusammenhangs mit Prozessparametern zu entwickeln.Ziel dieses Teilprojekts ist die mesoskopische Simulation der Schmelzbaddynamik mit einer Auflösung im Bereich eines Mikrometers. Das dafür nötige Computermodell besteht aus mindestens 109 Zellen die über mehr als 105 Zeitschritte berechnet werden müssen. Dabei soll der Phasenübergang beim Schmelzen und Erstarren, der Energieeintrag des Lasers, die Ausdehnung und Schrumpfung, sowie der Wärme- und Stofftransport in der Schmelze realitätsgetreu abgebildet werden. Derartig komplexe Simulationen benötigen die Rechenleistung von parallelen Supercomputern. Sie können deshalb nur mit speziell entwickelten parallelen Algorithmen und mit Hilfe moderner Softwaretechniken realisiert werden. Im Teilprojekt soll die Lattice Boltzmann Methode (LBM) zum Einsatz kommen und so erweitert werden, dass sie die vielfältigen physikalischen Effekte der Schmelzbaddynamik korrekt wiedergeben kann. Im Vergleich zu anderen Verfahren zeichnet sich die LBM dadurch aus, dass sie gut parallelisierbar ist und moderne Computerarchitekturen mit Hardwarebeschleunigern besonders gut nutzen kann. Als Grundlage der Implementierung kommt das HPC-Framework waLBerla zum Einsatz, das als Softwarebaukasten die Programmierung komplexer Multiphysikanwendungen unterstützt und vereinfacht. waLBerla verwendet Abstraktionen und Codegenerierungsansätze zur Softwareentwicklung, mit deren Hilfe die Nachhaltigkeit der Software, d.h. die Portierbarkeit auch auf zukünftige Supercomputerarchitekturen, erreicht werden kann. Ein wichtiger Schwerpunkt der Forschungsarbeit liegt auf der Validierung der Modelle und der Algorithmen, sowie die Interoperabilität mit den anderen Modellen der Forschungsgruppe. Dies wird durch die enge Kooperation mit den benachbarten Teilprojekten erreicht.

  • Massively Parallel Simulation of the Melt Pool Area during Laser Beam Welding using the Lattice Boltzmann Method HEISSRISSE TP3

    (Third Party Funds Group – Sub project)

    Overall project: Forschungsgruppe: Erstarrungsrisse beim Laserstrahlschweißen: Hochleistungsrechnen für Hochleistungsprozesse
    Term: 12. April 2021 - 11. April 2024
    Funding source: DFG / Forschungsgruppe (FOR)
    URL: https://www.for5134.science/

    As a flexible and contact-free joining technology, laser beam welding hasincreasingly gained importance. Processing of alloys with large melting rangeposes a challenge due to their solidification cracking tendency. Solidificationcracks form due to critical stress and strain states of the dendriticmicrostructure with interdendritic melt. Despite the high industrial relevance,there are only approaches addressing single aspects of the problem,metallurgically or structurally oriented. The research unit “SolidificationCracking during Laser Beam Welding – High Performance Computing for HighPerformance Processes” aims at developing quantitative process understanding ofthe mechanisms of solidification cracking and their relation to process parameters.The sub-project aims at simulating the dynamics of the melt pool with aresolution of about one micron. This is achieved using a numerical modelconsisting of approximately 109 computational cells that have to be computedfor more than 105 time steps. The simulation will model the phase change atmelting and solidification, the energy input from the laser, the expansion and contraction,and the heat and mass transport in the melt pool. Simulations of suchcomplexity require the computational power of parallel high-performance systemsand can only be realized using optimized parallel algorithms and modernsoftware technologies. In this sub-project, the lattice Boltzmann method (LBM)will be used and extended to correctly capture the various physical effects inthe melt pool. Compared to other numerical schemes, the LBM is well-suited forparallel computing and modern computer architectures that include hardwareaccelerators. The implementation will be based on the HPC framework waLBerlaspecifically designed for implementing complex multi-physics applications.Using abstraction layers and code generation concepts, software developed withwaLBerla is sustainable, i.e., portable to future computer architectures. Oneof the significant aspects of this project lies in the validation of newly implementedmodels and algorithms, and in the interoperability with models from the partnersin the research unit. This will be achieved via the close cooperationwith neighboring sub-projects.

  • Sustainable data and software management for research software to simulate solidification cracking during laser beam welding

    (Third Party Funds Group – Sub project)

    Overall project: Forschungsgruppe: Erstarrungsrisse beim Laserstrahlschweißen: Hochleistungsrechnen für Hochleistungsprozesse
    Term: 12. April 2021 - 30. April 2024
    Funding source: DFG / Forschungsgruppe (FOR)
    URL: https://www.for5134.science/

    As a flexible and contact-free joining technology, laser beam welding hasincreasingly gained importance. Processing of alloys with large melting rangeposes a challenge due to their solidification cracking tendency. Solidificationcracks form due to critical stress and strain states of the dendriticmicrostructure with interdendritic melt. Despite the high industrial relevance,there are only approaches addressing single aspects of the problem,metallurgically or structurally oriented. The research unit “SolidificationCracking during Laser Beam Welding – High Performance Computing for HighPerformance Processes” aims at developing quantitative process understanding ofthe mechanisms of solidification cracking and their relation to process parameters.Various experimental data are measured and simulation tools are developed fordifferent scales, which can also be used to generate large amounts of data.Based on this data, the process understanding can be improved. The validationof the models is a central research goal of the research group. Thus, it isimportant to ensure sustainability of data and software management acrosssubprojects. Special attention must be paid to the reproducibility and documentationof the data and software, as well as to the interoperability of the programsand data formats. The sub-project “Sustainable data and software management forresearch software to simulate solidification cracking during laser beam welding”will ensure this for the entire research group. Besides providing the technicalinfrastructure for storing and sharing data and software, the know-how about continuous benchmarking, performance engineering

  • Nachhaltiges Daten- und Softwaremanagement für Forschungssoftware zur Simulation von Erstarrungsrissen beim Laserstrahlschweißen

    (Third Party Funds Group – Sub project)

    Overall project: FOR 5134: Erstarrungsrisse beim Laserstrahlschweißen: Hochleistungsrechnen für Hochleistungsprozesse
    Term: 1. July 2021 - 30. June 2025
    Funding source: DFG / Forschungsgruppe (FOR)

    Das Laserstrahlschweißen als flexibles und kontaktloses Fügeverfahren gewinnt immer mehr an Bedeutung. Die Bearbeitung von Legierungen mit großem Schmelzintervall stellt aufgrund ihrer Neigung zu Erstarrungsrissen jedoch eine Herausforderung dar. Diese entstehen durch kritische Spannungs- bzw. Dehnungszustände der dendritischen Mikrostruktur mit interdendritischer Schmelze. Trotz der hohen industriellen Relevanz existieren bisher lediglich Ansätze, die sich Teilaspekten dieser Problematik - metallurgisch orientiert oder strukturorientiert - widmen. Die Forschungsgruppe "Erstarrungsrisse beim Laserstrahlschweißen: Hochleistungsrechnen für Hochleistungsprozesse" setzt sich zum Ziel ein quantitatives Prozessverständnis der Mechanismen der Erstarrungsrissentstehung und des Zusammenhangs mit Prozessparametern zu entwickeln.Dazu werden verschiedene experimentelle Daten gemessen und es werden Simulationswerkzeuge für verschiedene Skalen entwickelt, mit denen ebenfalls große Datenmengen erzeugt werden. Auf der Basis dieser Daten soll dann das Prozessverständnis vertieft werden. Die Validierung der Modelle anhand experimenteller Daten ist ein zentrales Forschungsziel der Forschungsgruppe. Daher ist es wichtig, die Nachhaltigkeit des Daten- und Softwaremanagements teilprojektübergreifend sicher zu stellen. Dazu muss besonderes Augenmerk auf die Reproduzierbarkeit und Dokumentation der Daten und Software, sowie auf die Interoperabilität der Programme und Datenformate gelegt werden.Das Teilprojekt "Nachhaltiges Daten- und Softwaremanagement für Forschungssoftware zur Simulation von Erstarrungsrissen beim Laserstrahlschweißen" wird dies für die ganze Forschungsgruppe sicher stellen. Neben der Bereitstellung einer konkreten technischen Infrastruktur zur Sicherung und zum Austausch der anfallenden Daten und Software soll hier vor allem auch das Know-How zum Continuous Benchmarking, zum Performance Engineering und zu Datenanalysemethoden weiterentwickelt und weitergegeben werden.

  • SCAlable LAttice Boltzmann Leaps to Exascale

    (Third Party Funds Group – Sub project)

    Overall project: SCAlable LAttice Boltzmann Leaps to Exascale
    Term: 1. January 2021 - 31. December 2023
    Funding source: Bundesministerium für Bildung und Forschung (BMBF), Europäische Union (EU)

2020

  • Dynamic HPC software frameworks: Seamless integration of existing simulation frameworks and code generation techniques

    (Third Party Funds Single)

    Term: 15. April 2020 - 30. April 2023
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)
    Complex phenomena in the natural and the engineering sciences are increasingly being studied with the help of simulation techniques. This is facilitated by a dramatic increase of the available computational power, and Computational Science and Engineering (CSE) is emerging as a third fundamental pillar of science. CSE aims at designing,analyzing, and implementing new simulation methods on high-performance computing(HPC) systems such that they can be employed in a robust, user-friendly, and reliable fashion to a wide variety of scientific and engineering problems. Considering the high cost of supercomputing, reaching the best possible computational efficiency becomes a primary criterion and is central to the research agenda of CSE. Furthermore, HPC software must support a range of increasingly complex applications on modern heterogeneous and volatile hardware platforms, where often many different algorithms are combined to model interacting physical processes. For that HPC software has often to be modified extensively to make full use of the additional performance of newly released architectures. Our main goal is to provide a new class of dynamic software frameworks to the HPC users that combine existing and established HPC frameworks with current code generation technology to increase the productivity when introducing new applications or porting to new platforms. We will show the benefits of this approach for three real-world multi-physics applications, optimization of wind turbines and wind farms, formation and dynamics of dunes that occur in many environmental systems such as riverbeds, and simulation of charged particles in microfluidic flows.
  • Dynamic HPC software frameworks: Seamless integration of existing simulation frameworks and code generation techniques

    (Third Party Funds Single)

    Term: 15. April 2020 - 30. April 2023
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)
    Complex phenomena in the natural and the engineering sciences are increasingly being studied with the help of simulation techniques. This is facilitated by a dramatic increase of the available computational power, and Computational Science and Engineering (CSE) is emerging as a third fundamental pillar of science. CSE aims at designing,analyzing, and implementing new simulation methods on high-performance computing(HPC) systems such that they can be employed in a robust, user-friendly, and reliable fashion to a wide variety of scientific and engineering problems. Considering the high cost of supercomputing, reaching the best possible computational efficiency becomes a primary criterion and is central to the research agenda of CSE. Furthermore, HPC software must support a range of increasingly complex applications on modern heterogeneous and volatile hardware platforms, where often many different algorithms are combined to model interacting physical processes. For that HPC software has often to be modified extensively to make full use of the additional performance of newly released architectures. Our main goal is to provide a new class of dynamic software frameworks to the HPC users that combine existing and established HPC frameworks with current code generation technology to increase the productivity when introducing new applications or porting to new platforms. We will show the benefits of this approach for three real-world multi-physics applications, optimization of wind turbines and wind farms, formation and dynamics of dunes that occur in many environmental systems such as riverbeds, and simulation of charged particles in microfluidic flows.

2019

  • Adaptive und parallele Algorithmen zur Lösung partieller Differentialgleichungen mit variablen Koeffizienten auf dünnen Gittern

    (Third Party Funds Single)

    Term: 29. June 2019 - 9. December 2022
    Funding source: Deutsche Forschungsgemeinschaft (DFG)
  • Advanced C++ Programming/ Fortgeschrittene C++ Programmierung

    (Third Party Funds Single)

    Term: 1. March 2019 - 29. February 2020
    Funding source: Virtuelle Hochschule Bayern

    Aufbauend auf dem vhb-Kurs "Programmierung in C++" soll der Kurs "Fortgeschrittene Programmierung in Advanced C++" weiterführende Themen der Programmiersprache C++ behandeln. Schwerpunkt sind dabei vor allem neuere Konzepte die im Ramhen des C++11 und späterer Standards eingeführt wurden. Der Kurs soll damit speziell auf weiterführende Lehrveranstaltungen im Masterprogramm in Erlangen wie z.B. "Advanced Programming Techniques" vorbereiten.

    A.2 Test-Driven Development

    B.Der C++11/14/17 Standard

    1. Automatic type deduction and decltype

    2. Uniform initialization syntax

    3. Lambda expressions

    4. Rvalue references

    5. New class features

    6. C++11/14/17 Standrad Libary

    7. Smart Pointers

    8. Variadic Templates

  • Integration of efficient compute kernels for phase field moduls into the waLBerla simulation framework using code generation an Performance engineering techniques

    (Third Party Funds Single)

    Term: 1. September 2019 - 1. September 2020
    Funding source: Bayerisches Staatsministerium für Wissenschaft und Kunst (StMWK) (seit 2018)
    Multicomponent flows are of considerable scientific interest due to their broad range of applications. Emulsions, for example, play an important role in processing of coatings, cosmetics, pharmaceutics, and foods. Especially double emulsions, where smaller drops are encapsulated in larger drops, carry high potential for medial applications like controlled drug delivery and release. On much larger scales, multicomponent flows are of wide interest in the oil industry where advanced recovery processes require a detailed understanding of the multicomponent system comprised of water, oil and several gaseous phases. To simulate complex multicomponent problems there exist two computational approaches to represent the interface. In sharp interface models the interface is resolved by a single computational cell. An algorithmically complex surface tracking approach must be used to ensure that a special free surface boundary can be applied. For this work the second approach, a diffuse interface phase-field model wll be investigated. In these methods the interface is resolved with multiple lattice cells allowing for a very flexible modeling of surface tensions effects. Computationally, their main advantage is that they require no explicit surface tracking step, such that their stencil-type nature makes them very well suited for HPC. In this project we will investigate which parts of the waLBerla HPC software framework can be generated in order to obtain optimal performance for concrete simulation runs.

2018

  • Aufbau internationaler Kooperationen zum Thema 'Entwicklung eines Forschungsantrages zur "Entwurfsoptimierung und Entwicklung eines Smartphone-integrierten medizinischen Diagnosegerätes"'

    (Third Party Funds Single)

    Term: 1. April 2018 - 31. March 2019
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)

    Im modernen Gesundheitswesen werden Krankheiten oft durch umfassende Analyse von Blutproben prognostiziert und diagnostiziert. Bei Krankheiten wie Malaria, Anämie oder Sichelzellkrankheit ändert sich die Zellmorphologie von Erythrozyten (roten Blutkörperchen). Dadurch wird die Blutflusscharakteristik in solcher Weise verändert, dass Krankheiten anhand von Blutflussparametern wie effektiver Rheologie oder Durchflussrate erkannt werden können. Darüber hinaus werden bestimmte hämatologische Erkrankungen,
    wie solche aufgrund geänderter Hämatokritwerte, wahrscheinlich durch mechanische Parameter von Erythrozyten beeinflusst, sowie durch deren Interaktionen mit dem Blutfluss.

    Der hier beantragte Sondierungsbesuch verfolgt den Aufbau und die Förderung einer internationalen Kollaboration für die Ausarbeitung eines Forschungsantrags. Im Mittelpunkt dieses Forschungsvorhabens steht der Entwurf und die Entwicklung eines kostengünstigen, portablen, robusten mikrofluidischem Systems zum Vorscreening und zur kontinuierlichen Beobachtung von Krankheiten anhand von Blutproben. Dieses medizinische Diagnosegerät wird mit Hilfe modernster Multiphysik-Simulationen speziell für rasche Vor-Ort-Diagnostik bei minimalem Verbrauch an Blutproben entwickelt. Die vom zu entwickelnden mikrofluidischen Biosensor erzeugten Ausgaben werden durch eine spezifische Android-basierte Smartphone-Umgebung erfasst, welche die aufgenommenen Signale für Analyse- und Diagnosezwecke entsprechend weiterverarbeitet.

  • Implementation of vector operations for SBCL

    (Third Party Funds Single)

    Term: 10. July 2018 - 31. March 2019
    Funding source: Bayerisches Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst (ab 10/2013)
    Ziel des Projekts ist es, AVX2 Vektoroperationen für die Common LispImplementierung SBCL verfügbar zu machen.  SBCL ist derpopulärste und am weitesten Entwickelte freie Compiler für CommonLisp.  Die Verbesserungen aus diesem Projekt machen es möglichCommon Lisp Programme zu schreiben, deren Ausführungsgeschwindigkeitmit C++ und Fortran Programmen auf Augenhöhe liegt.  Dadurchergeben sich interessante Möglichkeiten der Metaprogrammierung imwissenschaftlichen Rechnen.
  • Lattice-Boltzmann Verfahren auf parallelen Hochleistungsrechnern für die Berechnung des Massen- und Impulstransportes schaumfähiger Produkte in Packungskolonnen

    (Third Party Funds Single)

    Term: 12. July 2018 - 1. January 2022
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)

    Die Verarbeitung schaumfähiger Produkte ist wichtiger Bestandteilvieler industrieller Prozesse. In vielen Fällen soll dabei das Auftreten vonSchäumen inhibiert werden, um negative Effekte auf Durchsatz, Trennleistung undandere Prozessparameter zu verhindern. In der Lebensmittelindustrie stelltunerwünschte Schaumbildung beispielsweise bei der Prozessierung von Milch,Zucker oder Getränkeprodukten eine Herausforderung dar. Maßnahmen zurInhibierung dieser unerwünschten Schaumbildung hängen in entscheidender Formvon den Möglichkeiten ab, die Mechanismen der Entstehung und der Stabilität desSchaumes besser zu verstehen, modellieren und prognostizieren zu können.
    Ziel dieses Projektes ist es, dieses Verständnis mittels direkter numerischerSimulation von Schaumbildungs- und Schaumzerstörungseffekten zu erlangen. Umdie dabei zugrunde liegenden komplexen physikalischen Prozesse undGegebenheiten mit hoher Genauigkeit simulieren zu können, bedarf eshocheffizienter Algorithmen, die speziell auf die Architekturen modernerSupercomputer zugeschnitten sind. Die Simulationsumgebung waLBerla wird gezieltfür derartige Anwendungsfälle am Lehrstuhl entwickelt. Schwerpunkt der Softwareist dabei die Simulation von Fluiden mit der Lattice-Boltzmann-Methode (LBM).Diese eignet sich aufgrund Ihrer hohen Effizienz und guten Parallelisierbarkeitinsbesondere für die Simulation komplexer strömungsmechanischer Prozesse, wiebeispielsweise mehrphasige Strömungen.
    Ein erstes Ziel des Projektes stellt die Erweiterung der bereits vorhandenenLBM-Implementierung in waLBerla für die Simulation freier Oberflächen dar. ImVordergrund steht dabei, das Berechnungsgitter im Bereich der Grenzflächezwischen den verschiedenen Phasen adaptiv zu verfeinern und so die Effizienzder Software weiter zu steigern. Basierend auf dieser Erweiterung wird imweiteren Projektverlauf die Umströmung einzelner Körper simuliert, die aufgrundihrer geometrischen Beschaffenheit eine Schaumbildung inhibieren sollen. InZusammenarbeit mit Kooperationspartnern werden die Simulationsergebnisseexperimentell validiert. Die Geometrien dieser umströmten Körper werden dann mithilfevon Simulationen weiter im Hinblick auf Schauminhibierung optimiert. In einemweiteren Schritt werden die Simulationen auf Schüttungen von Füllkörpernerweitert. Basierend auf den Simulationsergebnissen, können Schüttungen derartoptimierter Körper dann beispielsweise in Rektifikationskolonnen derLebensmittelindustrie die Schaumbildung unterbinden.

  • Simulation von klimafreundlichen Luftschiffen

    (Own Funds)

    Term: 1. May 2018 - 3. November 2025

    Durch die Luftfahrt werde viele Klima schädliche Gase in die Erdatmosphäre ausgestossen. Ein alternative und Klima freundliche Luftfahrt wäre durch Luftschiffe möglich. Wichtig ist dabei jedoch Sonnenenergie und Windenergie optimal auszunutzen. Ziel des Forschungsbereiches ist es optimale Routen für die Luftfahrt mit Luftschiffen zu finden und die Luftschiffe hierfür optimal auszulegen.

2017

  • Hardware- und Leistungsorientierte Codegenerierung für Informatik und Ingenieurwesen

    (Third Party Funds Single)

    Term: 1. January 2017 - 31. December 2019
    Funding source: Bundesministerium für Bildung und Forschung (BMBF)

    Das HPC²SE Projekt entwickelteinen neuartigen Metaprogrammieransatz, um die Nutzung moderner und zukünftigerheterogener HPC-Systeme für eine breite Klasse von Simulationen einfacher undeffizienter zu gestalten.

    Eine Schlüsseltechnologie fürdie Forschung oder industrielle Entwicklungen ist die numerische Simulation.Beispiele hierfür sind die Klimaprognose, der Katastrophenschutz, dieEnergieversorgung, der Fahrzeugbau. Zunehmend gewinnen simulationsbasierteRisikoabschätzungen an gesellschaftlicher und wirtschaftlicher Bedeutung,sodass daraus auch ökonomische und politische Entscheidungen abgeleitet werden.

    Für solche Simulationen stelltdie Hardwareentwicklung hat der vergangenen 10 Jahren eine großeHerausforderung dar. Einzelne Prozessorkerne werden nicht mehr schneller,sondern höhere Rechenleistung wird nur durch mehr Parallelität erreicht.Darüber hinaus hängt die Zeit für die Berechnung einer Simulation nicht nur vonder Leistung der Prozessoren ab, sondern insbesondere auch vom verwendetenmathematischen Verfahren und wie gut dieses zur verwendeten Hardware passt. Fürjedes neue Modell und jede neue Hardware sind daher spezifische Optimierungenund Anpassungen nötig. Diese Änderungen erfordern mathematisches,algorithmisches und technisches Expertenwissen. Das HPC²SE Projekt wird Technikenentwickeln, um die Wahl und Implementierung dieser Optimierungen für Anwendersignifikant zu erleichtern. Die zu entwickelnden Tools werden als Open-Sourceveröffentlicht und sind nicht an eine spezielle Simulationssoftware gekoppelt.Damit stehen sie einer breiten Community aus Forschung und Industrie zurVerfügung. Im Rahmen des Projektes werden die beiden Open-Source Systeme DUNE& waLBerla genutzt, welche von den beteiligten Gruppen mitentwickeltwerden.

    Konkret wird das Projekt demAnwender eine domain-spezifische Sprache (DSL) zur Verfügung stellen, welche eserlaubt das mathematische Modell direkt zu beschreiben. Diese Eingabe wird ineine algebraische Zwischenrepräsentation übersetzt, welche weitreichendemathematische und algorithmische Optimierungen ermöglicht. Eine effizienteCodegenerierung für verschiedene moderne Zielarchitekturen (CPUs, GPUs, usw.)wird durch einen speziell erweiterten C++ Compiler realisiert. Zusammenfassend,wird das HPC²SE Projekt eine Reihe neuer Forschungsergebnisse in der formalenBeschreibung und algorithmischen Umsetzung von zeitintensiven Simulationensowie in der effizienten Codegenerierung und –optimierung für modernehochparallele Systeme entwickeln. Somit wird die Nutzung von modernen many-coreHochleistungssystemen entscheidend erleichtert. Anhand von Simulationen, wiesie im Bereich der Luftfahrttechnik, Elektrotechnik, Batterieforschung oder derErdöl- und Erdgastechnik vorkommen, wird HPC²SE zeigen, wie dasselbemathematische Modell schnell und effizient für unterschiedliche Architekturenumgesetzt werden kann.

  • Metaprogrammierung für Beschleunigerarchitekturen

    (Third Party Funds Single)

    Term: 1. January 2017 - 31. December 2019
    Funding source: Bundesministerium für Bildung und Forschung (BMBF)

    In Metacca wird das AnyDSL Framework zu einer homogenen Programmierumgebung für
    heterogene Ein- und Mehrknoten-Systeme ausgebaut. Hierbei wird die UdS den Compiler und das Typsystem von AnyDSL erweitern, um dem Programmierer das produktive Programmieren von Beschleunigern zu ermöglichen. Darauf aufbauend wird der LSS geeignete Abstraktionen für die Verteilung und Synchronisation auf Ein- und Mehrknoten-Rechnern in Form einer DSL in AnyDSL entwickeln. Alle Komponenten werden durch Performance Modelle (RRZE) unterstützt
    Eine Laufzeitumgebung mit eingebautem Performance-Profiling kümmert sich um Resourcenverwaltung und Systemkonfiguration. Das entstandene Framework wird anhand zweier Anwendungen, Ray-Tracing (DFKI) und Bioinformatik (JGU), evaluiert.
    Als Zielplattformen dienen Einzelknoten und Cluster mit mehreren Beschleunigern (CPUs, GPUs, Xeon Phi).

     

    Die Universität Erlangen-Nürnberg ist hauptverantwortlich für die Unterstützung von verteilter
    Programmierung (LSS) sowie für die Entwicklung und Umsetzung von unterstützenden Performance-Modellen sowie einer integrierten Profiling Komponente (RRZE). In beiden Teilbereichen wird zu Beginn eine Anforderungsanalyse durchgeführt um weitere Schritte zu planen und mit den Partnern abzustimmen.
    Der LSS wird im ersten Jahr die Verteilung der Datenstrukturen umsetzen. Im weiteren Verlauf wird sich die Arbeit auf die Umsetzung von Synchronisationsmechanismen konzentrieren. Im letzten Jahr werden Codetransformationen entworfen, um die Konzepte für Verteilung und Synchronisation in AnyDSL auf die gewählten Anwendungen anzupassen. Das RRZE wird in einem ersten Schritt das kerncraft Framework in die partielle Auswertung integrieren. Hierbei wird kerncraft erweitert um aktuelle Beschleunigerarchitekturen sowie Modelle für die Distributed-Memory-Parallelisierung zu unterstützen. In zwei weiteren Paketen wird eine Ressourcenverwaltung und eine auf LIKWID basierende Profiling Komponente umgesetzt

  • Rechenleistungsoptimierte Software-Strategien für auf unstrukturierten Gittern basierende Anwendungen in der Ozeanmodellierung

    (Third Party Funds Single)

    Term: 1. January 2017 - 30. September 2020
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)

    Um akkurate Ozean, Atmosphären oder Klima Simulationen durchzuführen werden sehr effiziente numerische Verfahren und große Rechenkapazitäten benötigt, die in vielen Teilen der Welt und bei vielen Forschungsgruppen in diesen Anwendungsfeldern nicht verfügbar sind. Solche Beschränkungen führen auch dazu, dass Modelle und Softwarepakete basierend auf strukturierten Gittern derzeit in der Ozeanwissenschaft immer noch vorherrschend sind.In diesem Projekt soll zum einen die Rechenzeit für Modelle, die auf unstrukturierten Gittern und einer diskontinuierlichen Galerkin finite Elemente Methode basieren, deutlich reduziert werden, und zum anderen die Produktivität bei der Softwareentwicklung gesteigert werden. Das erste Ziel soll durch einen neuen Ansatz zur parallelen Gebietszerlegung und durch adaptive numerische Verfahren erreicht werden.Für das zweite Ziel kommen moderne Software Design Strategien zum Einsatz, vor allem Codegenerierung und automatische Optimierung von rechenintensiven Programmteilen. Die Fortschritte bei der Rechenzeit und dem Software Design, die aus dem Projekt resultieren, können einen wichtigen Beitrag leisten, um unstrukturierte Gitter für alle Forscher aus den Ozeanwissenschaften nutzbar zu machen, auch wenn sie nur Zugang zu moderat parallelen Systemen und nicht zu Höchstleistungsrechnern haben.

2016

  • Evaluierung hochauflösender Algorithmen zur medizinischen Bildgebung

    (Third Party Funds Single)

    Term: 1. March 2016 - 30. September 2016
    Funding source: Industrie
  • Multi-scale Modeling and Simulations of Multi-phase Flows

    (Third Party Funds Group – Sub project)

    Overall project: Multiscale Modelling, Simulation and Optimization for Energy, Advanced Materials and Manufacturing
    Term: 1. January 2016 - 31. December 2020
    Funding source: Deutscher Akademischer Austauschdienst (DAAD)

    Availability of adequate, clean and affordable energy is critical for realizing basic human needs and further economic development. Modern society is heavily dependent on electricity (industry, lighting, transportation, communications and so on). The current energy systems are mainly dependent on fossil carbon (oil, gas and coal). According to the recent world electricity generation statistics (see www.eia.gov/oiaf/ieo/index.html), about 42% of the energy is generated using coal. In India, the share of coal in electricity generation is more than 60% (http://powermin.nic.in). Considering this, any efforts in expanding the energy availability are bound to increase the environmental impact (carbon footprint, water footprint, impact on human health). In addition, coal power plants are proven to have the highest impact on human health among the electricity production processes. It is therefore essential to make every effort to reduce the environmental footprint of energy systems and develop more efficient and cleaner energy generation technologies. In the conventional pulverized coal (PC) based power plants, coal combustion is used to generate steam and then electricity. In contrast, in coal gasification based systems, the coal is converted into syngas (mainly CO, H2) which can be easily cleaned and then converted into either electricity via the IGCC (Integrated Gasification Combined Cycle) route or into synthetic fuels (gasoline, diesel, etc.). Owing to local availability of biomass, it is also desired to gasify the biomass or co-gasify it with coal for generation of electricity locally.

    There are several challenges in improving the performance of the coal combustion boilers or in development of IGCC based power generation process using coal or biomass or a mixture of coal and biomass. Most of the processes employ one or other type of fluidized bed and one of the important challenge is efficient design of fluidized bed gasifiers for gasification coal or biomass or a mixture of coal and biomass. In order to develop simulation tools that can be used for design, scale-up and performance optimization of large-scale coal-fired boilers or gasifiers, it is important to understand the fluidization behavior of binary particle mixtures with varying size, shape and density.

    In addition to coal based energy (power generation or liquid fuels), there are several important applications that involve gas-liquid flow through packed beds, for example, in oil refining industry for trickle bed reactors used for removal of Sulfur from liquid fuels, gas-liquid absorption columns, etc. In all such processes, it is important to understand how the local liquid distribution changes as a function of local porosity, surface wettability characteristics. It is therefore important to develop computational tools that can simulate gas-liquid flow in packed beds.

    One objective of this project to perform Lattice-Boltzmann simulations of unary and binary particulate flows, with a large number of particles, to understand the effects of particle size, shape and density on fluidization characteristics (flow regimes, bubbling characteristics, solid volume fraction, mixing & segregation characteristics) . The numerical results will be validated with high-speed visualization imaging experiments to characterize fluidization behavior of unary and binary particles and also to perform continuous phase velocity flow field measurements using Time-Resolved Particle Image Velocimetry (TR-PIV). Furthermore, direct numerical simulations (DNS) of unary and binary particles with smaller number of particles will be carried out to derive the closure models for Eulerian (continuum) simulations. Additionally, simulations of gas-liquid two-phase flow through geometrically resolved packed beds will be performed and compared with high-speed visualization imaging and Particle Image Velocimetry experiments to characterize flow of gas and liquid phases through small specimens of liquid filled packed beds.

    The expected outcomes of this project are experimentally validated computational models to simulate unary and binary particulate flows and the development of closures for continuum (Eulerian) models for simulation of binary particles based on direct numerical simulations. Furthermore, a deeper understanding of particle-particle interactions and the effects of particle properties (size, shape, density, etc.) on dynamic characteristics of fluidization and mixing/segregation of binary particles is aspired. Also the effects of particle size/shape, bed porosity and surface characteristics on local velocity flow fields and gas-liquid distribution will be analyzed

  • PPP Indien - Gas-Feststoff-Strömungen: Experiment und Simulation

    (Third Party Funds Single)

    Term: 1. January 2016 - 31. December 2017
    Funding source: Deutscher Akademischer Austauschdienst (DAAD)
  • Precise simulation of solid-state amplifiers

    (Third Party Funds Single)

    Term: 1. January 2016 - 31. December 2019
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)

    Pulsed and ultrashort pulsed lasers are used in various technical applications.In particular research on powerful ultrashort pulsed lasers is needed, since such lasers are important for future developments in automotive industry. Since the development of laser resonators is limited, research has to focus on new laser amplifiers in order to archive more efficient and powerful laser sources.Simulation is an important tool for further development on laser sources. Reasons are the complex physical phenomena in laser amplifiers. Using simulation, engineers can analyze these phenomena and optimize laser amplification systems. Such simulations have to include accurate 3-dimensional simulation of birefringence, depolarization effects, thermal effects, and nonlinear effects described by rate equations.Although lots of research has been done on the development of new laser sources, the development of new simulation tools for lasers was neglected. Thus, the aim of this research project is to develop new models and algorithms for the simulation of laser amplifiers. Here, we focus on solid-state crystals like Yb:YAG as active medium. Furthermore, we consider amplifiers of short and ultrashort pulsed laser beams with high or low repetition rate. The simulation models take into account thermal effects, depolarization effects, and spectral behavior of the laser amplifier. Single pass, double pass, and multi pass laser amplifiers are simulated. The main research question is which kind of simulation techniques have to be combined to obtain most accurate simulation results. To this end, new simulation techniques have to be found. The aim is, on the one hand, to obtain accurate simulation results and, on the other, to find algorithms with low computing effort. This requires the comparison of different simulation algorithms.

  • Ultra-Skalierbare Multiphysiksimulationen für Erstarrungsprozesse in Metallen

    (Third Party Funds Group – Overall project)

    Term: 1. February 2016 - 31. January 2019
    Funding source: BMBF / Verbundprojekt

    Komplexe Phänomene in den Natur- und Ingenieurwissenschaften werden dank der rapide steigenden Rechenleistung immer öfter mit Hilfe von realitätsgetreuen Simulationstechniken erforscht. Das daraus entstandene Fachgebiet Computational Science and Engineering (CSE) gilt deshalb als neue, dritte Säule der Wissenschaft, die die beiden klassischen Säulen Theorie und Experiment ergänzt und verstärkt. Im Kern des CSE geht es darum, leistungsfähige Simulationsmethoden für aktuelle und zukünftige Höchstleistungsrechner zu entwerfen, zu analysieren und sie für die praktische Nutzung robust, benutzerfreundlich und zuverlässig zu implementieren.

    Für die Entwicklung neuer Materialien mit besseren Werkstoffeigenschaften, sowie für die Optimierung von Herstellungs- und Fertigungsprozessen sind moderne und hocheffiziente Simulationstechniken heute unverzichtbar. Sie ersetzen hier zu einem großen Teil die traditionellen zeit- und kostenintensiven Experimente, die sonst für die Materialentwicklung und die Qualitätssteigerung von Werkstoffkomponenten erforderlich sind. Materialsimulationen bilden dabei jedoch eine große Herausforderung für die Grundlagenforschung und für das Höchstleistungsrechnen.

    Die mechanischen Eigenschaften eines Werkstoffes werden ganz wesentlich durch die Ausbildung der Mikrostruktur beim Herstellungsprozess - d.h. bei der Erstarrung aus der Schmelze - festgelegt. Die Simulation des Erstarrungsprozesses kann dabei wichtige neue Erkenntnisse über experimentell nicht beobachtbare Gefügeausbildungsprozesse liefern und dies ermöglicht es, den Einfluss auf die erzielte Struktur systematisch zu analysieren. Hiermit wird es in Zukunft möglich, neue Materialien mit speziellen Eigenschaften virtuell am Computer zu entwerfen.

    Simulationsbasierte Forschungs- und Entwicklungsarbeiten für diese Problemstellung erfordern eine sehr feine räumliche und zeitliche Auflösung, um alle relevanten physikalischen Effekte abzubilden und deshalb benötigen sie eine extrem hohe Rechenleistung. Um auf künftigen Großrechensystemen derartige Probleme mit vielen Tausend Rechenknoten lösen zu können, muss die eingesetzte Simulationssoftware nicht nur in der Lage sein, diese vielen Rechenknoten gleichzeitig zu nutzen, sondern sie muss darüber hinaus auch eine maximale Rechenleistung bei möglichst geringem Ressourcenverbrauch liefern. Neben der eigentlichen Rechenzeit gewinnt hier auch der Energieverbrauch der Supercomputer eine erhebliche Bedeutung. Als Software Basis von SKAMPY wird das waLBerla Framework verwendet. In diesem Projekt wird waLBerla nun erweitert um neue anwendungsorientierte Probleme in den Materialwissenschaften zu lösen. Dabei kommen speziell entwickelte Programmiermethoden zum Einsatz, die eine besonders gute Ausnutzung der Supercomputer ermöglichen. Im Rahmen einer vielversprechenden gemeinsamen Machbarkeitsstudie für die Simulation von Erstarrungsprozessen in Metalllegierungen wurde bereits die Leistungsfähigkeit des Ansatzes und die Portierbarkeit auf die Architekturen aller drei deutschen Höchstleistungsrechner gezeigt, so dass das Projektkonsortium nun bestens aufgestellt ist, um Supercomputersimulationen auch für zukünftige, noch deutlich komplexere Forschungsaufgaben nachhaltig nutzbar zu machen.

2015

  • Numerical Solution of PDE's by Sparse Grids

    (Own Funds)

    Term: 2. January 2015 - 6. December 2019
    • sparse Grids reduce the computaional amount for solving PDE's
    • efficient algorithms for solving high dimensional  PDE's with variable coefficients on sparse grids
    • solution of high dimensional Schrödinger equation
    • convergence analysis, numerical analysis
  • Simulation of Free Surface Flow on a slope by use of qaLBerla Framework

    (Third Party Funds Single)

    Term: 1. June 2015 - 31. May 2017
    Funding source: Industrie

2014

  • DS 3031

    (Third Party Funds Single)

    Term: 3. July 2014 - 1. February 2015
    Funding source: Industrie
  • Einsatz Lichtbrechender Bauteile zur Dosisreduktion bei medizinischem Phasenkontrast-Röntgen

    (Own Funds)

    Term: 1. August 2014 - 31. December 2019

    Röntgen-Phasenkontrastbildgebung ist eine recht junge Erweiterung zum üblichen Absorptionskontrast in Röntgenaufnahmen. Medizinischer Phasenkontrast kann dabei minimale Richtungsänderungen des Röntgenstrahls im Patienten messen und als Bild darstellen. Derartige Bilder können z.B. Tumore als Übergänge zwischen Gewebe leicht unterschiedlicher Dichte visualisieren. 

    Seit ca. 2006 können medizinische Röntgengeräte um eine Phasenkontrastoptik erweitert werden (ausreichend Platz vorausgesetzt). Diese Optik heißt Talbot-Lau Interferometer und misst die Lichtbrechung in der Probe anhand der Verschiebung eines Streifenmusters.

    Wegen dem medizinischen Bezug ist die für eine Aufnahme benötigte Röntgendosis relevant. Diese Dosis könnte reduziert werden durch eine Steigerung der Empfindlichkeit der Geräte (technisch: durch eine Reduktion des Winkel-Messbereichs). Es liegen zwei im Vorfeld entwickelte konkrete Vorschläge zur Steigerung der Empfindlichkeit und damit zur Dosiseinsparung vor.

    Einer der Vorschläge ("Linsengitter") könnte gleichzeitig einen guten Kontrast des Streifenmusters (technisch: eine gute Sichtbarkeit) selbst bei hohen Photonenenergien erreichen. Der andere Vorschlag ("Prismengitter") dagegen setzt auf eine sehr hohe Empfindlichkeit und nimmt dafür einen geringeren Kontrast des Streifenmusters in Kauf. Beide Vorschläge erweitern das auf Gitterbeugung basierende Talbot-Lau Interferometer um Bauteile aus lichtbrechenden Mikroprismen. 

    Dazu wurde im Vorfeld eine neuartige Fertigungsmethode für röntgenoptische Mikroprismen und Fresnel-Linsen vorgeschlagen. Die Methode soll es erlauben, mit nahezu unveränderten Fertigungsprozessen vollflächige Anordnungen (Arrays) starker Prismen herzustellen.

    Ziel des Projektes ist es, (1) beide konkreten Vorschläge zu simulieren, um damit (2) realisierbare und vorteilhafte Hardware-Aufbauten auslegen zu können. Anhand der ausgelegten Aufbauten soll dann (3) das Potential der Vorschläge bewertet werden. Die Simulation soll dabei komplexe Wellenfelder durch die Optiken propagieren können, um sowohl Interferenz als auch Lichtbrechung zu berücksichtigen. Während ein realer Hardware-Aufbau im Wesentlichen nur ein Endergebnis ("was sieht der Detektor?") bewerten kann, soll die Simulation einzelne Beiträge zum Endergebnis aufschlüsseln können. Gleichzeitig soll die Software auch Aussagen zur Realisierbarkeit ("Wie leicht lässt sich die Geometrie fertigen?") machen.

2013

  • ExaStencils - Advanced Stencil-Code Engineering

    (Third Party Funds Group – Sub project)

    Overall project: SPP 1648: Software for Exascale Computing
    Term: 1. January 2013 - 31. December 2018
    Funding source: DFG / Schwerpunktprogramm (SPP)
    URL: http://www.exastencils.org

    Future exascale computing systems with 107 processing units and supporting up to 1018 FLOPS peak performance will require a tight co-design of application, algorithm, and architecture aware program development to sustain this performance for many applications of interest, mainly for two reasons. First, the node structure inside an exascale cluster will become increasingly heterogeneous, always exploiting the most recent available on-chip manycore/GPU/HWassist technology. Second, the clusters themselves will be composed of heterogeneous subsystems and interconnects. As a result, new software techniques and tools supporting the joint algorithm and architecture-aware program development will become indispensable not only (a) to ease application and program development, but also (b) for performance analysis and tuning, (c) to ensure short turn-around times, and (d) for reasons of portability.

    Project ExaStencils will investigate and provide a unique, tool-assisted, domain-specific codesign approach for the important class of stencil codes, which play a central role in high performance simulation on structured or block-structured grids. Stencils are regular access patterns on (usually multidimensional) data grids. Multigrid methods involve a hierarchy of very fine to successively coarser grids. The challenge of exascale is that, for the coarser grids, less processing power is required and communication dominates. From the computational algorithm perspective, domain-specific investigations include the extraction and development of suitable stencils, the analysis of performance-relevant algorithmic tradeoffs (e.g., the number of grid levels) and the analysis and reduction of synchronization requirements guided by a template model of the targeted cluster architecture. Based on this analysis, sophisticated programming and software tool support shall be developed by capturing the relevant data structures and program segments for stencil computations in a domain-specific language and applying a generator-based product-line technology to generate and optimize automatically stencil codes tailored to each application–platform pair. A central distinguishing mark of ExaStencils is that domain knowledge is being pursued in a coordinated manner across all abstraction levels, from the formulation of the application scenario down to the generation of highly-optimized stencil code.

    For the developed unique and first-time seamless cross-level design flow, the three objectives of (1) a substantial gain in productivity, (2) high flexibility in the choice of algorithm and execution platform, and (3) the provision of the ExaFLOPS performance for stencil code shall be demonstrated in a detailed, final evaluation phase.

  • Simulation der Myocard-Perfusion

    (Third Party Funds Single)

    Term: 20. June 2013 - 19. June 2014
    Funding source: Siemens AG

2012

  • Erweiterung eines echtzeitfähigen Temperaturmodels

    (Third Party Funds Single)

    Term: 30. April 2012 - 31. August 2012
    Funding source: Siemens AG
  • FastEBM - High Productivity Electron Beam Melting Additive Manufacturing Development for the Part Production Systems Market

    (Own Funds)

    Term: 1. January 2012 - 30. November 2013

    Electron beam melting additive manufacturing is used to produce successive layers of a part in a powder bed and offers the ability to produce components closest to their final dimensions, with good surface finish. At this time the process is faster than any other technique of comparable quality, however the parts are not produced at sufficient rate to make them economically viable for any but very high value specific applications. One key output of the project will be the knowledge surrounding the use of the high powder electron beam gun, including the process control, and modeled and validated understanding of beam-powder bed interaction. The target objectives is the transfer of the 2D model to a 3D model and its parallel implementation. The outcome of the simulation will be compared with real experimental data and therefore the model parameters are adjusted in such a way that the resulting numerical melt pool sizes correspond to the experimental ones. 

    gefördert durch die Europäische Union

  • LIST - Großflächiger Lichteinfang in der Silizium-basierten Dünnschichtsolarzellen-Technologie - Teilprojekt Simulation

    (Third Party Funds Single)

    Term: 1. June 2012 - 31. May 2014
    Funding source: Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU)

    Der Wirkungsgrad von Dünnschichtsolarzellen wird maßgeblich durch die optischen Eigenschaften von diesen beeinflusst. Um die Effizienz und somit auch den daraus zu gewinnenden Strom zu erhöhen ist eine akkurate Analyse der Lichteinkopplung (Lighttrapping) notwendig. Hierbei spielen Faktoren wie die Komposition des Schichtaufbaus, die Brechungsindizes der Materialien und die Oberflächenstruktur der Schichten eine wichtige Rolle. 3-dimensionale Simulationen sind ein probates Mittel um durch Variation dieser Parameter die optischen Eigenschaften von Solarzellenstrukturen genau zu analysieren und das Lichtmanagment in Dünnschichtsolarzellen zu optimieren. Dazu gehören sowohl Untersuchungen von Reflexions-, Absorptions- und Streuverhalten an den Schichtübergängen als auch die Analyse von schräg einfallenden optischen Wellen, da unter reellen Bedingungen Sonnenlicht zum Großteil nicht vertikal auf die Solarzelle trifft. Ziel des Vorhabens ist es daher das Verhalten des einfallenden Lichts in Dünnschichtsolarzellen zu simulieren und dadurch den Lichteinfang zu optimieren.

  • Silizium-Solarzellen auf flexiblen Substraten

    (Third Party Funds Single)

    Term: 1. January 2012 - 31. March 2015
    Funding source: Bundesministerium für Bildung und Forschung (BMBF), Bundesministerium für Wirtschaft und Technologie (BMWi)
    URL: http://www.innovationsallianz-photovoltaik.de/main/sisoflex/

    Das Forschungsprojekt ist ein Verbundprojekt mit verschiedenen Partnern wie dem Forschungsinstitut Next Energy in Oldenburg. Ziel des Verbundvorhabens „Silizium basierte Dünnschicht Solarzellen auf flexiblen Metall-Substraten“ (Akronym: SiSoFlex) ist es, die technologischen Grundlagen für die Herstellung von Silizium-Dünnschicht-Solarzellen auf flexiblen Metallsubstraten zu verbessern. Das angestrebte Projektziel gliedert sich auf die folgenden Ansätze auf: • Evaluierung und Entwicklung neuer flexibler Substrate für die Dünnschicht PECVD Beschichtung • Entwicklung kostengünstiger und leicht zu produzierender Lösungen für den Front- und Rückkontakt, die gleichzeitig den Lichteinfang verbessern • Test und Vergleich verschiedener Zellkonzepte in Substrat-Zellkonfiguration auf Metallsubstraten • Verkapselungstests und Optimierung der Lichteinkopplung Die jeweiligen Ansätze verbindet am Ende das konkrete Gesamtziel, ein Zellekonzept auf flexiblen Substraten mit stabilem Wirkungsgrad >11% zu demonstrieren.
    Ziel des Teilvorhabens in Erlangen ist es, die Entwicklung neuer Zellkonzepte durch Simulationsrechnungen zu optimieren und untereinander zu vergleichen. Da der Lichteinfang bei Dünnschichtsolarzellen eine zentrale Rolle spielt, soll dieser mit Hilfe von Hochleistungsrechnern genau analysiert werden. Berechnet werden hierbei der Kurzschlussstrom und die Quanteneffizienz des Lichts abhängig vom Sonnenspektrum. Für die Berechnung der Effizienz der gesamten Solarzelle ist sowohl eine optische als auch eine elektrische Simulation notwendig. Zu diesem Zweck wird durch Lösen der Maxwell- Gleichungen die Generierung von Elektronen-Loch-Paaren simuliert.

  • Simulation von Smart Grids

    (Own Funds)

    Term: 1. January 2012 - 31. December 2015

    With new technologies emerging in the field of renewable energies and communications, the notion of a smart grid has evolved. Using smart grids, the traditional structure of centralized energy networks is shifted to a decentralized network in which the energy can freely be distributed. Considering the new structure and technologies, there is a need to evaluate efficiency, economic viability, and reliability.
    The evaluation uses graphs, representing the smart grid, and solves mixed-integer optimization problems to simulate optimal behavior. The project does not only aim at simulating smart grids, but also at finding solutions to extend or plan smart grids on large scale and assess the investment on green energy producing devices (e.g. solar panels) for the individual member of the smart grid.

    Funded by Energiecampus Nürnberg

2011

  • Berechnungsprogramm für innovative Kurzpulslaser mit passivem Q-Switch

    (Third Party Funds Single)

    Term: 1. April 2011 - 31. March 2013
    Funding source: Bundesministerium für Wirtschaft und Technologie (BMWi)

    Ziel des Projektes ist es, einen Q-Switch Laser mit sättigbarem Absorber für einzelne Pulse hoher Leistung zu designen. Dabei soll auf eine Blitzlampen-gepumpte Ausführung verzichtet und stattdessen eine diodengepumpte Lasertechnologie realisiert werden. Der Laser soll in der Medizintechnik Anwendung finden.

  • Understanding of degradation mechanisms to improve components and design of PEFC

    (Third Party Funds Group – Sub project)

    Overall project: Understanding of degradation mechanisms to improve components and design of PEFC
    Term: 1. July 2011 - 30. June 2017
    Funding source: EU - 7. RP / Cooperation / Verbundprojekt (CP)
    The aim of the DECODE project is to elucidate degradation mechanisms in PEFC with special focus on the influence of liquid water and in a second phase to modify components to achieve a significant improvement of PEFC durability. The focus of the project is the creation of new knowledge and understanding of the PEFC degradation processes, and in addition, the practical improvements of fuel cell performance and durability.The project encompasses 11 partners with the necessaryand important expertise to investigate and quantify degradation related phenomena in fuel cells and to derive strategies for improved durability. In particular, the project profits from the inputs of two car and truck manufacturers, component manufacturers, research institutes with their advanced testing infrastructure and universities with advanced modelling expertise. The project is structured into 7 work packages for the investigation of various components of PEFC and in the field of organization and dissemination (involvement of all partners). The work packages are shortly described at the end of the summary. DECODE focuses both on detailed component characterisation and also subsystem (short stack) testing and analysis. The project aims at deriving the maximum information from all testing and analytical work but also follows a pragmatic approach. If specific component information can only be derived from a specific model configuration it is accepted within DECODE that the simplified arrangement is used. On the other hand, components are tested in long-term operation in short stacks under realistic and technical conditions thereby leading to naturally aged components. These will be analysed with all available analytical tools within the framework of the project. The components of PEFC investigated in the project consist in the electrodes, membranes, diffusion media and bipolar stacks. In-situ and ex-situ analysis is performed leading ideally to preliminary life time predictions at the end of the project. A special strength of the project is the large modelling activity which is expected to significantly advance knowledge and understanding of the processes leading to degradation and also to deliver the tools to describe ageing and performance degradation.

2010

  • Simulation and Analysis of Optical Properties of Thin-Film Solar Cells

    (Third Party Funds Single)

    Term: 1. June 2010 - 1. March 2013
    Funding source: Deutscher Akademischer Austauschdienst (DAAD)
  • Simulation and Analysis of Solid-State Lasers

    (Third Party Funds Single)

    Term: 1. January 2010 - 31. December 2014
    Funding source: Deutscher Akademischer Austauschdienst (DAAD)

2009

  • Kompakter Festkörperlaser für effizienten Materialabtrag mit radial polarisiertem Licht - KOMET

    (Third Party Funds Group – Overall project)

    Term: 1. January 2009 - 31. December 2011
    Funding source: Bundesministerium für Wirtschaft und Technologie (BMWi)

    Im Verbundvorhaben KOMET soll ein modular aufgebauter Festkörperlaser entwickelt werden, der radial polarisiertes Licht hoher Strahlqualität emittiert, wodurch erhebliche Effizienzvorteile bei der Anwendung (schneiden und bohren) zu erwarten sind. Im Rahmen der Entwicklung dieses Lasers sollen neue Algorithmen zur numerischen Simulation dieses Lasertyps entwickelt werden.

  • LightWave: High Performance Computing of Optical Wave

    (Third Party Funds Group – Sub project)

    Overall project: The Bavarian Competence Network for Technical and Scientific High Performance Computing (KONWIHR)
    Term: 1. April 2009 - 31. March 2011
    Funding source: Bayerische Forschungsstiftung

     

    Optical technologies are one of the key technologies of the 21st century. The appli- cations of these technologies range from medicine to information and communica- tion technology and from environmental technology to manufacturing technology. The progress in these technologies often depends on the possibility to predict the behavior of light by simulations of optical waves. However Maxwell equations are very difficult to solve for such kind of applications. Since many wavelengt- hs of light have to be resolved by a fine discretization mesh, high performance computing is very important for research in advanced optical technologies. One aim of the project is to adapt a parallel code for solving Maxwell's equations to current high performance architecture of high performance computers in Er- langen and Munich. This parallel code is based on the library StaggExPDE. For obtaining flexible application and high efficiency, this library utilizes expression templates, structured grids and MPI and OpenMP parallelization. The task of the research project is to develop new software techniques for obtaining optimal efficiency on hybrid HPC systems with multicore architecture using expression templates. The second aim of the project is to apply the library StaggExPDE and its Maxwell solver for two important applications of high performance computing in Erlangen. One of them is thin film solar cell simulations. Since thin film technology is the future technology of solar cells, research in this direction is of general public interest. Another application is lithography simulation. Since masks for producing new chips consist of features of size of the wavelength and below, numerical simulati- ons using high performance computers are extremely important for lithography simulations.

  • SKALB - Lattice-Boltzmann-Methoden für skalierbare Multi-Physik-Anwendungen

    (Own Funds)

    Term: 1. January 2009 - 31. December 2011

    The SKALB project is sponsored by the German Federal Ministry of Education and Research (BMBF). Its goal is the efficient implementation and further development of flow solvers based on the lattice Boltzmann method to allow large-scale simulation with complex multi-physics on petascale class computers. The lattice Boltzmann method is well accepted within the field of computational fluid dynamics (CFD). The main advantage of this numerical method is its simplicity which allows the simulation of flow in complex geometries like porous media or foams as well as highly efficient direct numerical simulations of turbulent flows. In the SKALB project lattice Boltzmann implementations should be methodically and technically further developed for the new class of large-scale heterogeneous and homogeneous parallel supercomputers. The HPC group of the Erlangen Regional Computing Center (RRZE) have long-standing expertise in performance modeling and efficient implementation of the lattice Boltzmann method on a broad spectrum of modern computers. They also work on new programming models and advanced optimization techniques for multi-/many-core processors. A full-grown lattice Boltzmann application code, which is under development at RRZE, is intended to be used in cooperation with Prof. Schwieger (Chair of Chemical Reaction Engineering) for massively parallel simulations of flow in porous media.

  • Simulation der thermischen Linse und Stabilität des Festkörperlasers

    (Third Party Funds Group – Sub project)

    Overall project: Kompakter Festkörperlaser für effizienten Materialabtrag mit radial polarisiertem Licht - KOMET
    Term: 1. January 2009 - 31. December 2011
    Funding source: Bundesministerium für Wirtschaft und Technologie (BMWi)
  • waLBerla-MC - A Widely Applicable Lattice-Boltzmann Solver for Many-Core Architectures

    (Own Funds)

    Term: 1. January 2009 - 31. December 2011

    Supercomputer architecture is moving quickly to multi-core and many- core architectures. An additional trend is the increasing use of special purpose accelerators, e.g. in form of graphics cards, the Cell processor, or reconfigu- rable hardware. This has the potential to deliver unprecedented performance at lower cost and reduced power consumption. However, this trend opens many unanswered questions on how these devices can be use effectively in real life supercomputing applications, since these accelerators are only effec- tive on certain algorithmic structures that exhibit a high degree of regularity and they are inefficient or very difficult to program for others. At the LSS we have developed (partly with KONWIHR support) application software, whose basic structure supports heterogeneous architectures. For this project we will focus on the waLBerla framework for simulating complex flows that have a wide range of applications [4, 5]. The software waLBerla is designed such that it distinguishes between modules that require complex algorithmic logic and regular structures that can exploit a very high degree of parallelism. While the latter parts are very well suited for a potential use of multi-core parallelism and accelerator technologies, the algorithmically more complex parts also can be run on the conventional parts of a heterogeneous system. We therefore propose to extend waLBerla in order to exploit current and future heterogeneous multi-core architectures.

    gefördert durch KONWIHR

2007

  • Innovatives Netzwerk: Simulation und Optimierung innovativer Lasersysteme (SOL)

    (Third Party Funds Single)

    Term: 1. January 2007 - 31. December 2011
    Funding source: Bundesministerium für Wirtschaft und Technologie (BMWi)

    Der Laser ist eine Basiskomponente für eine große Zahl moderner optischer Systeme mit wichtigen Einsatzfeldern in der verarbeitenden Industrie, der Medizin und der Informationstechnik. Aufgrund der wirtschaftlichen Bedeutung dieser Anwendungsgebiete gehört die Lasertechnik zu den zukunftsorientierten Schlüsseltechnologien. Die Beherrschung dieser Technik wird die Wettbewerbsfähigkeit wichtiger Branchen wie Maschinenbau, Optik und Elektronik, sowie Kommunikations- und Medizintechnik entscheidend beeinflussen.
    Bei der Entwicklung neuer Laser, der Leistungsverbesserung existierender Systeme sowie deren Anpassung an neue Anwendungsfelder gehört die Optimierung des Strahlprofils zu den wichtigsten Aufgaben. Denn ein unzureichendes Strahlprofil limitiert den technischen Einsatz des Lasers, da insbesondere durch das Strahlprofil die Fokussierbarkeit des Lasers bestimmt wird. Dies ist zum Beispiel für die Mikromaterialbearbeitung und die nichtlineare Optik von entscheidender Bedeutung.
    Jedoch ist diese Optimierung als äußerst schwierig einzustufen, da das Strahlungsfeld anders als bei herkömmlichen Lichtquellen mit Hilfe resonanter Schwingungen des elektromagnetischen Feldes im Resonator erzeugt wird, so dass komplexe, miteinander wechselwirkende physikalische Parameter zur Strahlformung beitragen. In der Vergangenheit erfolgte diese Optimierung auf empirische Weise in langwierigen kostenintensiven experimentellen Untersuchungen. Heute jedoch sind die Senkung der Entwicklungszeiten bei gleichzeitiger Steigerung der Qualität, Effizienz und Leistung entscheidende Faktoren für die Wettbewerbsfähigkeit hiesiger Laserhersteller. Diese Kostenfaktoren können erheblich reduziert werden, wenn die Entwicklungsarbeiten durch leistungsfähige Computersimulationen unterstützt werden. Darüber hinaus ermöglichen derartige Simulationen die Entwicklung hoch innovativer Lasersysteme, die durch experimentell-empirische Versuche allein nicht realisierbar wären. So ist das Ziel des Projekts die Entwicklung eines Computersimulationsprogramms, welches die Lasermoden unter Beachtung thermischer Effekte und der absorbierten Pumplichtverteilung exakt berechnet.
    Ein viel versprechender Ansatz für die Simulation der Vorgänge im Resonator liegt in der Verwendung von Finite-Elemente-Analysen (FEA), welche heute auf vielen Gebieten erfolgreich zur Modellierung technischer Systeme eingesetzt werden. Der Einsatz von FEA Verfahren in der Lasertechnik beschränkt sich jedoch bisher im Wesentlichen auf die Berechnung thermischer Effekte, wie dies in dem von einem der Projektpartner entwickelten Programm LASCAD erfolgreich durchgeführt wird.
    Mit dieser Software kann jedoch das für die Ausbildung des Strahlprofils wichtige Verhalten der elektromagnetischen Felder im Resonator nicht ausreichend beschrieben werden.
    Dies betrifft besonders jene Festkörperlaserkonfigurationen, die von großem technischem und wirtschaftlichem Interesse sind. Beispiele hiefür sind Laser, die seitlich von Lampen angeregt werden und für Punktschweißgeräte und in der Lasermesstechnik benötigt werden, oder Laser, die seitlich von Diodenlasern angeregt werden und welche Einsatz in Markierungs- und Beschriftungssystemen finden, oder schließlich endgepumpte Laser, die nichtlineare optische Effekte aufweisen. Ein letztes Beispiel wären Verstärkersysteme für ultrakurze Laserpulse in der Mikrosystemtechnik.
    Für diese Lasersysteme muss durch zuverlässige Simulationen sowohl die zeitliche als auch die räumliche Struktur des erzeugten Laserstrahls untersucht und optimiert werden. Diese Aufgabe, welche nicht nur technisch, sondern auch wissenschaftlich von erheblicher Bedeutung ist, soll im Rahmen des geplanten Vorhabens durch den Einsatz von FEA Verfahren zur Berechnung der elektromagnetischen Feldstrukturen im Laserresonator gelöst werden. Die Berechnungen sollen anhand realer Lasersysteme validiert und anschließend bei der Entwicklung innovativer Resonatoren eingesetzt werden. Darüber hinaus sollen die Simulationsergebnisse mit Hilfe eines Modengenerators überprüft werden, der aufgrund seines einfachen Aufbaus leicht zu simulieren ist und exakt reproduzierbare Gauss-Hermite-Moden erzeugt.

  • Intraoperative Simulation der Hämodynamik in Aneurysmen im menschlichen Gehirn

    (Own Funds)

    Term: 1. January 2007 - 31. May 2012

    In developed nations vascular diseases are a major public health issue. The LSS is computing the haemodynamics in weakened blood vessels, in particular aneurysms, in cooperation with the Clinic for Neuroradiology in Erlangen, the Institute of Fluid Mechanics and the Chair for Pattern Recognition. The simulation is done using a Lattice Boltzmann method, which is adapted to the special geometry. Resulting data like pressure, velocity and shear stress may give information about development and treatment of these aneurysms. To accelerate the simulation, the method is investigated on supercomputers, amongst others on the cell processor, which is known from Playstation 3.

  • waLBerla - Widely applicable Lattice Boltzmann from Erlangen

    (Own Funds)

    Term: 1. January 2007 - 1. January 2099
    URL: http://www.walberla.net

    Solving problems in present-day simulation is becoming more and more complex. Both the number of physical effects taken into account and the complexity of the associated software development process increase. In order to meet these growing demands, the Chair for System Simulation (LSS) developed the massively parallel and flexible simulation framework waLBerla (widely applicable Lattice Boltzmann solver from Erlangen). Originally, the framework has been centered around the Lattice-Boltzmann method for the simulation of fluid scenarios. Meanwhile, its usability is not only limited to this algorithm but it is also suitable for a wide range of applications, based on structured grids. For example, an efficient multigrid solver for partial differential equations has been integrated. Next to the basic requirements of easy adaptivity and extensibility for new fluid problems, the waLBerla project also aims at physical correctness and high performance. A particular feature is the simulation of large ensembles of geometrically fully resolved, and arbitrarily shaped particles within fluid flows. Even on 294912 cores, it is possible to gain an efficieny of more than 95%. Hence, waLBerla is a comprehensive program rich in features as well as a library for the easy development of new applications based on fluid simulation. Thus, it meets the requirements of scientific researchers, performance optimizers, code developers as well as for industrial cooperations.

2006

  • HHG - Hierarchical Hybrid Grids

    (Own Funds)

    Term: since 1. January 2006

    HHG is a multigrid solver for finite elements on unstructured grids. The program takes a coarse input grid and refines it in a structured way. The resulting regular grid structure can be exploited using extremely memory-efficient data structures. This puts simulations of impressive scale into the realms of possibility. On HLRB II at the Leibniz Computing Centre Munich, a linear system of equations with 300 billion unknowns has been solved using 9170 processors.

  • Mehrgitterverfahren für ab-initio-Molekulardynamiksimulationen

    (Own Funds)

    Term: 1. January 2006 - 31. December 2014

    The development of efficient tools to calculate the electronic structure of molecules as well as extended systems on an ab initio level greatly enlarged the importance of theoretical simulation methods for fields like new materials research, catalysis or nanotechnology.
    The majority of modern computer codes for large-scale systems are based on the expansion of electronic wavefunctions and densities in terms of plane waves. However, since some of the necessary integrals are evaluated in Fourier space but others can only be calculated in real space, the 3D-FFT is heavily used to transform back and forth. This leads to complications for the parallelization of the approach for massively parallel computer systems. The goal of this project is to provide a fast, parallel multigrid solver that deals with these problems. 
    Special problems in the development of these multigrid solvers include the efficient handling of open boundary conditions as well as adapted higher-order methods for the treatment of PDEs with variable and jumping coefficients.

  • The pe Rigid Body Physics Engine

    (Own Funds)

    Term: since 1. January 2006

    This research project focuses on the development of the pe physics engine. pe is an advanced C++ framework for the simulation of rigid, completely undeformable bodies with arbitrary shape. pe offers both collision solvers for physically accurate simulations as well as fast solvers suitable for computer games. The major focus of pe are large-scale and massively parallel rigid body simulations with up to several billion interacting rigid bodies. The currently largest simulation with 28 billion non-spherical bodies was performed on the SuperMUC Petascale System at the Leibniz Supercomputing Center on 262144 processor cores.

  • Parallele Löser und effiziente Diskretisierungsmethoden für bioelektrische Feldberechnungen

    (Own Funds)

    Term: 1. January 2006 - 31. December 2014

    The reconstruction of the bioelectric field in the human brain from non-invasive measurements like electroencephalographic recordings (EEG) has the potential to become a powerful tool in neurology.
    From a mathematical point of view, the reconstruction can be considered as an inverse problem, which can be solved by repeated numerical simulations of the potential distribution, that we call forward problem, for assumed dipolar current sources in the brain.
    The sources to be localized during the inverse problem and to be modeled in the forward problem are electrolytic currents within the dendrites of the large pyramidal cells of activated neurons in the cortex sheet of the human brain. The resulting primary current is generally formulated as a mathematical dipole.
    In our project we are interested in the modelling of the mathematical dipoles and the efficient solution of the forward and inverse problem.

  • Performance-Optimierung für zukünftige Hardware

    (Own Funds)

    Term: since 1. June 2006

    To get high performance in numerical applications, characteristics of the executing platform have to be considered. The number of cores per CPU are likely to further increase, and heterogeneous, accelerated architectures to establish, but even reconfigurable units are possible. We therefore investigate and develop performance optimization techniques on modern and alternative hardware, like for instance multicore systems, GPGPUs, and other accelerator architectures.

2005

  • TERRA-NEO - Integrated Co-Design of an Exascale Earth Mantle Modeling Framework

    (Third Party Funds Group – Sub project)

    Overall project: SPP 1648: Software for Exascale Computing
    Term: 12. October 2005 - 30. September 2019
    Funding source: DFG / Schwerpunktprogramm (SPP)
    URL: http://www.terraneo.fau.de

    Much of what one refers to as geological activity of the Earth is due to the fact that heat is transported from the interior of our planet to the surface in a planetwide solid-state convection in the Earth’s mantle. For this reason, the study of the dynamics of the mantle is critical to our understanding of how the entire planet works. Processes from earthquakes, plate tectonics, crustal evolution to the geodynamo are governed by convection in the mantle. Without a detailed knowledge of Earth‘s internal dynamic processes, we cannot hope to deduce the many interactions between shallow and deep Earth processes that dominate the Earth system. The vast forces associated with mantle convection cells drive horizontal movement of Earth’s surface in the form of plate tectonics, which is well known albeit poorly understood. They also induce substantial vertical motion in the form of dynamically maintained topography that manifests itself prominently in the geologic record through sea level variations and their profound impact on the ocean and climate system. Linking mantle processes to their surface manifestations is seen widely today as one of the most fundamental problems in the Earth sciences, while being at the same time a matter of direct practical relevance through the evolution of sedimentary basins and their paramount economical importance.Simulating Earth mantle dynamics requires a resolution in space and time that makes it one of the grand challenge applications in the computational sciences. With exascale systems of the future it will be possible to advance beyond the deterministic forward problem to a stochastic uncertainty analysis for the inverse problem. In fact, fluid dynamic inverse theory is now at hand that will allow us to track mantle motion back into the past exploiting the rich constraints available from the geologic record, subject to the availability of powerful geodynamical simulation software that could take advantage of these future supercomputers.The new community code TERRA-NEO will be based on a carefully designed multi-scale spacetime discretization using hybridized Discontinuous Galerkin elements on an icosahedral mesh with block-wise refinement. This advanced finite element technique promises better stability and higher accuracy for the non-linear transport processes in the Earth mantle while requiring less communication in a massively parallel setting. The resulting algebraic systems with finally more than 1012 unknowns per time step will be solved by a new class of communication-avoiding, asynchronous multigrid preconditioners that will achieve maximal scalability and resource-optimized computational performance. A non-deterministic control flow and a lazy evaluation strategy will alleviate the traditional over-synchronization of hierarchical iterative methods and will support advanced resiliency techniques on the algorithmic level.The software framework of TERRA-NEO will be developed specifically for the upcoming heterogeneous exascale computers by using an advanced architecture-aware design process. Special white-box performance models will guide the software development leading to a holistic co-design of the data structures and the algorithms on all levels. With this systematic performance engineering methodology we will also optimize a balanced compromise between minimal energy consumption and shortest run time.This consortium is fully committed to the interdisciplinary collaboration that is necessary for creating TERRA-NEO as new exascale simulation framework. To this end, TERRA-NEO brings top experts together that cover all aspects of CS&E, from modeling via the discretization to solvers and software engineering for exascale architectures.

2004

  • Lattice Boltzmann Methoden in der Nanotechnologie

    (Own Funds)

    Term: 1. October 2004 - 31. December 2005

    The production of nanoscaled particles with specific characeristics is crucial for many applications. To improve understanding of the properties of such aggregates in fluid suspensions we use the Lattice Boltzmann method. This allows us to determine basic parameters for single aggregates, like the drag force. More complex problems like the breaking in shear flow or further agglomeration of the molecules can also be simulated this way. 

    Our approach requires the incorporation of boundary conditions for moving obstacles into the fluid simulation to calculate the bidirectional influences of fluid and obstacles. Furthermore the behaviour of the aggregates themselves can be computed using a rigid body physics simulation. We are currently working on including the effects of long range potentials into the simulation. To compute segregation processes with many aggregates and larger regions of fluid, the implementation will be parallelized to run on large clusters or supercomputers.

  • Lattice-Boltzmann simulation and visualization of free surface flows

    (Third Party Funds Single)

    Term: 14. February 2004 - 31. December 2005
    Funding source: Deutsche Forschungsgemeinschaft (DFG)

    Fluids with free surfaces are not only important in various situations during everyday life, e.g. when pouring water into a glass, but also for many productions processes like casting or foaming. This project uses the free surface algorithm developed in the course of the FreeWIHR project, where it is used to simulate the foaming of liquid metals, with the target of adapting and optimizing it for additional applications as computer graphics and nano-technology. 

    Due to its computational complexity, the animation of liquids in computer graphics is an active topic of research. We were able to show that the Lattice-Boltzmann method can be used to efficiently produce visualizations of fluid simulations. Furthermore, it can be combined with level set methods to improve the visual quality.

    By now the fluid solver developed at the LSS is integrated into the 3D application Blender thanks to a grant from Google.

2003

  • Expression Templates für partielle Differentialgleichungen

    (Third Party Funds Single)

    Term: 1. March 2003 - 1. August 2008
    Funding source: DFG-Einzelförderung / Forschungsstipendium (EIN-SFOR)

    Die Implementierung von numerischen Algorithmen zur Lösung von partiellen Differentialgleichungen kostet viel Zeit und ist insbesondere dann schwierig, wenn eine sehr effiziente Implementierung und eine Parallelisierung notwendig ist. Mit Hilfe von Expression Templates können numerische Algorithmen wesentlich einfacher effizient implementiert und parallelisiert werden. Gezeigt wurde dies in der Bibliothek ExPDE, mit der partielle Differentialgleichungen mit linearen Finiten Elementen auf uniformen Gittern diskretisiert und parallel mit bis zu 600 Prozessoren effizient gelöst werden können. Um Expression Templates für allgemeine Finite Elemente auf adaptiven Gittern entwickeln zu können, sind grundlegend neue Konzepte notwendig. Diese sollen an einem 2D Programm auf unstrukturierten Gittern erforscht werden. Ziel ist es hierbei, Expression Templates so zu entwickeln, daß automatische Parallelisierung bezüglich verschiedener Parallelisierungskonzepte möglich ist.

  • FreeWiHR - Simulation von Metallschäumen

    (Own Funds)

    Term: 1. January 2003 - 31. December 2011

    In the last few years methods, cellular automata (CA) became increasingly popular to simulate the physical phenomena that have to be considered when developing and manufacturing new materials. Among these phenomena are the formation of grain structures or dendrites during solidification. A special CA called Lattice Gas or Lattice Boltzmann Method (LBM) is perfectly suited for modeling flows in complex and time- dependent geometries as they are encountered in the context of metal foams or of composite materials that are manufactured by infiltrating fiber or powder preforms. In both cases, free surfaces have to be modeled and simulated accurately. In the last three years, a new algorithm has been successfully developed by the 'Material Science and Technology Group, University of Erlangen' (WTM) to describe free surfaces in the context of LBM in two dimensions.
    Based on these promising techniques, the model will now be extended to three dimensions. This step implies an increase in the computational costs by a factor of about 1000 to 10000. To keep the computational time within reasonable limits the use of high performance computers is mandatory.
    The goal of the project is to port the extended model to the super computer Hitachi SR8000-F1 in a cooperation of the 'Material Science and Technology Group' (WTM) and the 'System Simulation Group, University of Erlangen' (LSS).
    The research focus of the WTM will be the development of numerical methods that can handle complex surfaces in three dimensions in the context of LBM. On the other hand, the LSS will concentrate its research on implementing and testing data structures to store the surface topology efficiently and are able to exploit the given computer hardware (shared/distributed memory parallelism, adaptive load balancing, cache hierarchy).

  • ParExPDE II - Efficient Object Oriented Multigrid Methods and Applications

    (Own Funds)

    Term: 1. November 2003 - 31. December 2011

    During the KONWIHR supported project Par-EXPDE a library for the numerical treatment of partial differential equations has been developed. This library stands out by its user- friendlyness whereas the therewith created programs are very efficient regarding the execution speed thanks to the use of so-called Expression Templates. In addition, it provides a user-transparent parallelisation for the execution on high performance computers or clusters of workstations.
    The aim of the project is the progressive development of the library particularly with regard to applications in the fields:

    • simulation of solid-state lasers

    • calculation of bio-electric fields

    • simulation of nanoparticles

2002

  • Flownoise - Numerische Simulation strömungsinduzierten Lärms

    (Own Funds)

    Term: 1. July 2002 - 30. June 2004

    The goal of the Flownoise project is the simulation of flow-induced sound (noise). Flow induced noise is a very common phanomenon in the industrialised world, examples of noise pollution sources are fans, cars, trains and planes.
    This project investigates the noise generation due to turbulent (air) flow. The challenge lies in the coupling of the existing solvers for the flow and the acoustic wave propagation respectively. In constrast to the better understood case of fluid-structure interaction where the data exchange can usually be restricted to surfaces, this problem requires the exchange of volume data. The computational requirements of the turbulent flow simulation necessitate the use of high performance computers. 
    The Department for System Simulation participates in the parallelisation of the acoustic solver and its portation to the Hitachi SR8000 supercomputer at the Leibniz Rechenzentrum in Munich. Also part of this participation is the development of a parallel Algebraic Multigrid algorithm used as preconditioner in the iterative solvers.

  • Mehrgitterverfahren in der Bildverarbeitung

    (Own Funds)

    Term: 1. January 2002 - 31. December 2011

    The use of PDEs in image processing is internationally a recent field of research. The project deals with the development of a multigrid framework for variational approaches in image processing. As applications we consider e.g. optical flow to estimate motion in image sequences, image inpainting for noise reduction, error correction or compression of video data, non-rigid image registration of medical data sets or tomographic image reconstruction.
    In that cases multigrid techniques can be valuable. In the context of the project we develop a parallel C++ code in order to be able to handle also bigger, real medical datasets.

2001

  • BEO - Rationelle Energieverwendung in der Industrie - Prozesswärme

    (Own Funds)

    Term: 1. December 2001 - 30. June 2005

    The BEO project creates a software environment to simulate high temperature processes in 3D. The key aspects are object oriented Software-design to enable the further development and extension of the package. In a first step heat conduction and radiation are taken into account. The simulation of the heat conduction is based on a Finite Element Method on unstructured meshes. To cope with the enormous computational effort for the global 3D Simulation it is possible to use "distributed memory" parallel computers.
    It is the aim to design a simulation workbench, where different simulation codes can be coupled and the common modules of simulation like grid generation, linear equation solvers, visualization and easy GUI creation are provided. As a reference implementation a user friendly, but still powerful tool to simulate furnaces for crystal growth, will be programmed.

  • Development of a simulation tool for the prognosis of the spreading and the degradation of contaminants in the saturated and vadose zone

    (Third Party Funds Group – Sub project)

    Overall project: Nachhaltige Altlastenbewältigung unter Einbeziehung des natürlichen Reinigungsvermögens
    Term: 1. June 2001 - 31. May 2003
    Funding source: Bayerisches Staatsministerium für Umwelt und Gesundheit (StMUG) (bis 09/2013)
    URL: https://www.altlasten-bayern.de/projekte/verbundvorhaben-na/

    The project included the mathematical modelling of natural attenuation processes in the subsurface and the extension of a software tool for complex reactive multicomponent processes in the framework of mixed hybrid and conforming finite elements. New  parameter identification methods allow the parametrization of unknown functions or a formfree optimization, and help to overcome the dilemma of missing data in complex models. Work included instationary 3D simulations and scenarios of  contaminated sites explored by project partners. The findings of the joint research project resulted in guidelines for authorities and consulting engineers dealing with natural attenuation at contaminated sites.

  • Iterative Solvers for Inverse Bioelectric Field Problems

    (Own Funds)

    Term: 1. October 2001 - 30. September 2004

    Inverse problems are broadly characterized by their use of mathematical models for determining unknown system inputs, sources, parameters and/or states from observed system outputs and responses. This is the reverse of the typical, forward solution process wherein all system inputs, sources and parameters are known and mathematical models are used to predict the outputs and states.

    An important class of inverse problems are those found in bioelectric field imaging. This model based analysis and visualization of bioelectric fields is of growing importance in the fields of Cardiology, Neurology and Neurosurgery. A characteristic of such problems is that because of the complex geometries, the number of degrees of freedom tends to be very large (on the order of millions) such that it is essential to create and use efficient solution techniques.

    The aim of the project is to design new efficient solvers for these class of inverse problems. The research will be based on multilevel, conjugate gradient and row projection techniques. We plan to develop a mathematical analysis and to incorporate the algorithms into the SCIRun problem solving environment. SCIRun is a scientific programming environment that allows the interactive construction, debugging and steering of large-scale scientific computations. It will allow for testing the performance of the new algorithms on meshes generated from realistic patient MRI scans.

  • Par-EXPDE- Effiziente objektorientierte Mehrgitterverfahren auf hierarchisch-hybriden, adaptiven Gittern

    (Own Funds)

    Term: 1. November 2001 - 30. October 2003

    The goal of the project is the parallelisation and porting of the finite element program EXPDE to the Federal Top-Level Computer. EXPDE is a flexible finite element multigrid solver which works on semi-unstructured grids. It has been successfully used to solve nonlinear heat conduction, elasticity, transport and Stokes problems.
    This program is to be ported to the Hitachi SR8000 in close collaboration with the gridlib project. Vital importance is attached to the development of innovative object-oriented programming techniques for supercomputers.

2000

  • Beweistheorie in der Deskriptiven Komplexitätstheorie

    (Own Funds)

    Term: 1. January 2000 - 31. May 2012

    Für die in der Deskriptiven Komplexitätstheorie (oder Endlichen Modelltheorie) verwendeten Logiken (wie DTC, TC, Fixpunktlogiken, Logiken zweiter Stufe, Logiken mit verallgemeinerten Quantoren, etc.) gibt es keine finitären Kalküle, die die allgemeingültigen Sätze generieren; schon für FOL gibt es keinen finitären Kalkül, der alle Sätze liefert, die in allen endlichen Modellen wahr sind.
    Dennoch existieren meistens Kalküle mit infinitären Regeln, die genau die (im Endlichen) allgemeingültigen Sätze der betreffenden Logik herleiten. Hierbei genügen bereits Anwendungen der infinitären Regeln, die eine sehr geringe komputationelle (und deskriptive!) Komplexität besitzen.
    Ziele des Projekts:
    (a) Entwicklung spezifisch beweistheoretischer Methoden zur Bestimmung der Ausdrucksstärke der betreffenden Logiken
    (b) Komplementierung des (semantischen) Model-Checking durch formale (eventuell infinitäre!) Herleitbarkeit.

  • DIME - Datenlokale Iterationsverfahren zur effizienten Lösung partieller Differentialgleichungen

    (Third Party Funds Single)

    Term: 1. June 2000 - 30. April 2006
    Funding source: Deutsche Forschungsgemeinschaft (DFG)
    URL: http://dime.fau.de

    Die Geschwindigkeit, mit der moderne Rechnerarchitekturen arithmetische Operationen durchführen können, übertrifft bei weitem die Geschwindigkeit, mit der die benötigten Daten vom Speicher dem Prozessor zugeführt werden können. Es wird häufig versucht, dieses Problem durch die Verwendung von schnellen Zwischenspeichern (Caches) zu umgehen. Um allerdings die Cache-Hierarchien möglichst effizient auszunutzen, müssen die numerischen Algorithmen an die Architektur angepasst werden. Das Ziel des Projektes ist es, Implementierungstechniken für numerische Verfahren zur Lösung partieller Differentialgleichungen zu entwickeln, die die Speicherhierarchien bestmöglich ausnutzen.

  • gridlib - Simulation und Visualisierung großer Datenmengen

    (Own Funds)

    Term: 1. November 2000 - 30. October 2003

    The combination of state of the art numerical methods such as multigrid und multilevel methods with high performance computers makes it possible to tackle problem sizes in the TerraByte range. The pre- and postprocessing of such data sets are high performance computing tasks in their own right. The main aim of this project is the development of a grid management software that will provide a common platform for both simulation and visualization methods. The grid management has to support unstructured grids, distributed memory machines and solver specific data layout in memory to allow the integration of existing solvers into the grid framework.
    In this project, the system simulation group investigates efficient data structures for multigrid methods on hybrid hierarchical grids, which are expected to be included in the grid framework.

1997

  • Genauigkeit numerischer Methoden für die Konvektions-Diffusions-Gleichung

    (Own Funds)

    Term: 1. June 1997 - 31. May 2001

    Thema des Projektes ist die Genauigkeit numerischer Methoden für die Konvektions-Diffusions-Gleichung und die Navier-Stokes-Gleichungen. Die untersuchten Methoden beruhen auf Extrapolation und der Konstruktion spezieller numerischer Quadraturformeln. Da eine effiziente Methode auch schnelle Löser benötigt, werden im Projekt auch Mehrgitter, kaskadische Algorithmen und adaptive Methoden behandelt.