Podcast "Modellansatz"

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Podcast-Episoden

Banach-Tarski Paradox

Modellansatz 094

Nicolas Monod teaches at the École polytechnique fédérale in Lausanne and leads the Ergodic and Geometric Group Theory group there. In May 2016 he was invited to give the Gauß lecture of the German Mathematical Society (DMV) at the Technical University in Dresden. He presented 100 Jahre Zweisamkeit – The Banach-Tarski Paradox. The morning after his lecture we met to talk about paradoxes and hidden assumptions our mind makes in struggling with geometrical representations and measures. A very well-known game is Tangram. Here a square is divided into seven pieces (which all are polygons). These pieces can be rearranged by moving them around on the table, e.g.. The task for the player is to form given shapes using the seven pieces – like a cat etc.. Of course the Tangram cat looks more like a flat Origami-cat. But we could take the Tangram idea and use thousands or millions of little pieces to build a much more realistic cat with them – as with pixels on a screen. In three dimensions one can play a similar game with pieces of a cube. This could lead to a LEGO-like three-dimensional cat for example. In this traditional Tangram game, there is no fundamental difference between the versions in dimension two and three. But in 1914 it was shown that given a three-dimensional ball, there exists a decomposition of this ball into a finite number of subsets, which can then be rearranged to yield two identical copies of the original ball. This sounds like a magical trick – or more scientifically said – like a paradoxical situation. It is now known under the name Banach-Tarski paradox. In his lecture, Nicolas Monod dealt with the question: Why are we so surprised about this result and think of it as paradoxical? One reason is the fact that we think to know deeply what we understand as volume and expect it to be preserved under rearrangements (like in the Tangram game, e.g.).Then the impact of the Banach-Tarski paradox is similar for our understanding of volume to the shift in understanding the relation between time and space through Einstein's relativity theory (which is from about the same time). In short the answer is: In our every day concept of volume we trust in too many good properties of it. It was Felix Hausdorff who looked at the axioms which should be valid for any measure (such as volume). It should be independent of the point in space where we measure (or the coordinate system) and if we divide objects, it should add up properly. In our understanding there is a third hidden property: The concept "volume" must make sense for every subset of space we choose to measure. Unfortunately, it is a big problem to assign a volume to any given object and Hausdorff showed that all three properties cannot all be true at the same time in three space dimensions. Couriously, they can be satisfied in two dimensions but not in three. (...)

Erschienen: 02.06.2016
Dauer: 27:47

Weitere Informationen zur Episode "Banach-Tarski Paradox"


Verkehrsmodellierung I

Modellansatz 093

Peter Vortisch bekleidet seit 2010 eine Professur für Verkehrswesen am Karlsruher Institut für Technologie (KIT) und ist Leiter des Instituts für Verkehrswesen. Wir haben über die Entwicklung der Modellierung von Verkehr gesprochen und dabei den Schwerpunkt zunächst auf die Anfangszeit gelegt, in der sich die in der Forschung geborene Idee Schritt für Schritt in ein Softwareprodukt entwickelte und wo und warum sich die Idee und das Produkt durchsetzen konnten. Peter Vortisch hat in Karlsruhe eigentlich Informatik studiert und kam zum Verkehrswesen zunächst als wissenschaftliche Hilfskraft. Er hat dann bald mit an den ersten Simulationen programmiert. Solche Simulationen wurden damals auf Großrechnern durchgeführt, von denen es nur wenige gab. Die Forschungen und theoretischen wie praktischen Überlegungen wurden im wesentlichen von Professor Wiedemann vorangetrieben. Seine Karlsruher Gruppe war die erste, die das in Deutschland erfolgreich erprobte und schließlich als Standard eingeführt hat. Es gab damals Forschungsprojekte z.B. zur Wirkung von Tempolimits im Auftrag des Verkehrsministeriums. In der Zwischenzeit entwickelte sich die Rechentechnik weiter und mit dem Siegeszug des PCs wanderte die Simulation vom Rechenzentrum auf die Schreibtische. Damals war es möglich, auf so einem Rechner ein Modell mit etwa 20 Fahrzeugen in Echtzeit zu simulieren - heut sind die Rechner so viel schneller, dass mehrere 100.000 Fahrzeuge möglich sind. Aber auch mit so wenigen Fahrzeugen war es ein wichtiger Schritt hin zur Kommerzialisierung der Verkehrsmodelle. In den USA gab es damals z.B. ein öffentlich subventioniertes Produkt für Verkehrsplaner, was einen durchschlagenden Erfolg hatte und die Simulation in allen Büros etablierte. In Karlsruhe entwickelte sich ein Spin off aus dem Institut, die Firma ptv entwickelte das Produkt und die Vermarktung der Verkehrssimultion zunächst in Deutschland. Seither besteht eine enge Zusammenarbeit mit dem Institut für Verkehrswesen. Im Zuge dieser Professionalisierung wurde die Verwendung des Produktes durch Verkehrsingenieure der neue Standard. Es gab zwei große deutsche Unternehmen, die die Entwicklung der Software stark beschleunigt haben. Zunächst die Firma SIEMENS weil sie die Wirkung von Ampelsteuerungen besser vorhersehen wollte. U.a. auch im Zusammenhang mit der Grün-Anforderung durch den ÖPNV. Vor dem Aufbau auf einer echter Kreuzung sollte die Simulation auf dem Rechner beweisen, dass auch der gewünschte Effekt durch die Ampelsteuerung erreicht werden würde. Das wurde schließlich sogar Teil der SIEMENS Software Verkehrsplanung. Verkehrsplaner in den Städten haben in dieser Zeit weitergehende Ideen noch nicht so gut angenommen. Dafür war dann die Firma Volkswagen ein Vorreiter. Sie hat sich eigentlich für Abgasemissionen interessiert, wofür man Temperaturverläufe der Motoren braucht. Es wurde daraus die Aufgabe abgeleitet, für eine ganze Stadt den Verkehr über den Tag hinweg zu simulieren (inkl. parken). (...)

Erschienen: 26.05.2016
Dauer: 17:27

Weitere Informationen zur Episode "Verkehrsmodellierung I"


Viscoelastic Fluids

Modellansatz 092

This is the second of four conversations Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th of April 2016 in Oxford. Helen Wilson always wanted to do maths and had imagined herself becoming a mathematician from a very young age. But after graduation she did not have any road map ready in her mind. So she applied for jobs which - due to a recession - did not exist. Today she considers herself lucky for that since she took a Master's course instead (at Cambridge University), which hooked her to mathematical research in the field of viscoelastic fluids. She stayed for a PhD and after that for postdoctoral work in the States and then did lecturing at Leeds University. Today she is a Reader in the Department of Mathematics at University College London. So what are viscoelastic fluids? If we consider everyday fluids like water or honey, it is a safe assumption that their viscosity does not change much - it is a material constant. Those fluids are called Newtonian fluids. All other fluids, i.e. fluids with non-constant viscosity or even more complex behaviours, are called non-Newtonian and viscoelastic fluids are a large group among them. Already the name suggests, that viscoelastic fluids combine viscous and elastic behaviour. Elastic effects in fluids often stem from clusters of particles or long polymers in the fluid, which align with the flow. It takes them a while to come back when the flow pattern changes. We can consider that as keeping a memory of what happened before. This behaviour can be observed, e.g., when stirring tinned tomato soup and then waiting for it to go to rest again. Shortly before it finally enters the rest state one sees it springing back a bit before coming to a halt. This is a motion necessary to complete the relaxation of the soup. Another surprising behaviour is the so-called Weissenberg effect, where in a rotation of elastic fluid the stretched out polymer chains drag the fluid into the center of the rotation. This leads to a peak in the center, instead of a funnel which we expect from experiences stirring tea or coffee. The big challenge with all non-Newtonian fluids is that we do not have equations which we know are the right model. It is mostly guess work and we definitely have to be content with approximations. And so it is a compromise of fitting what we can model and measure to the easiest predictions possible. Of course, slow flow often can be considered to be Newtonian whatever the material is. The simplest models then take the so-called retarded fluid assumption, i.e. the elastic properties are considered to be only weak. Then, one can expand around the Newtonian model as a base state. The first non-linear model which is constructed in that way is that of second-order fluids. They have two more parameters than the Newtonian model, which are called normal stress coefficients. (...)

Erschienen: 05.05.2016
Dauer: 21:11

Weitere Informationen zur Episode "Viscoelastic Fluids"


ÖPNV

Modellansatz 091

Klaus Nökel arbeitet in der Firma ptvgroup an der Verkehrsmodellierung. Er war und ist an vielen Aspekten der Entwicklung der ptv-Software beteiligt. Einer seiner Schwerpunkte sind Modelle für den öffentlichen Nahverkehr - kurz ÖPNV. Oft kann man nur mit geeigneten Modellen und Simulationen den für Fördergelder erforderlichen Nachweis über einen zu erwartenden Nutzen von Baumaßnahmen erbringen. In Karlsruhe ist der Tunnel für die Straßenbahnen (in Karlsruhe kurz UStrab genannt) ein prominentes Beispiel einer solchen Großbaustelle. Die wichtigste Fragen zum erwarteten Nutzen, ist wie sich die Reisezeit verkürzt: Der Kosten-Nutzen-Quotient sollte hier natürlich möglichst klein sein. Die gesamten Baukosten sind dabei relativ einfach zu ermitteln. Die Nutzen-Seite ist dagegen nicht so einfach zu schätzen. Man braucht dafür ja Zahlen darüber, was für die Fahrgäste (quantifizierbar) besser wird- insbesondere im Bezug auf Zeiteinsparung. Um diese Frage beantworten zu können, muss für alle Einwohner eine Routenplanung für jeden Tag durchgeführt werden. In Bezug auf ÖPNV sind dies insbesondere die Mobliltätsentscheidungen zwischen Weg zu Fuß, mit dem Auto oder Fahrrad und dem ÖPNV. Das betrifft vor allem die Wege zur Arbeit, zu Freizeitaktivitäten und zum Einkaufen. Die Wohn- und Arbeitsorte liegen hier über längere Zeit fest - alle anderen Größen sind jedoch variabel und Entscheidungen wo man beispielsweise einkaufen geht, können sich mit besserer Erreichbarkeit verändern. Hier muss aufgrund vorliegender Informationen zu Wegen in der Stadt die Wahl des Verkehrsmittels modelliert werden und welche Route mit welchem Verkehrsmittel typischerweise gewählt wird. Die Frage ist dann, ob es zu Verschiebungen in der Verkehrsmittelwahl kommen wird, nachdem sich die Infrastruktur geändert hat (wie z.B. durch den Tunnel bei uns in Karlsruhe). Die Angebotsseite ist vergleichsweise einfach zu beschreiben: Verkehrsnetz(e) wie Straßen und Liniennetz des ÖPNV mit zugehörigem Fahrplan sind bekannte Daten. Die Kenntnisse über die Nachfrage sind komplex und setzen sich aus verschiedenen Anteilen zusammen. Ein gut verstandener Teil hier ist der soziodemographische z.B. ob ein Auto zur Verfügung oder nicht. Typischerweise haben junge Leute auf dem Weg zur Schule oder in die Ausbildung kein Auto zur Verfügung. Ebenso kann man gut beschreiben, wo gewohnt, gearbeitet und typischerweise eingekauft wird. Die Frage, welche Wege zurückgelegt werden, wird nicht wirklich gezählt oder genau ermittelt, sondern modelliert. Dabei sind viele Fragen nicht eindeutig beantwortbar. Manches sind auch ganz persönliche Vorlieben, so wie verschiedene Personen höhere Wegekosten gegenüber höherer Wegezeit sehr unterschiedlich gewichten. Eine typische Datenbeschaffungsmethode ist bisher, Menschen über einen gewissen Zeitraum Tagebuch zu ihren Mobilitätsentscheidungen führen zu lassen. (...)

Erschienen: 28.04.2016
Dauer: 46:54

Weitere Informationen zur Episode "ÖPNV"


Fußgängermodelle

Modellansatz 090

Dr. Tobias Kretz arbeitet in der Firma PTV Group in Karlsruhe an der Modellierung und Simulation von Fußgängerströmen. Er studierte Physik an der Universität Karlsruhe und behandelte in seiner Diplomarbeit Teilchen-Zerfallsprozesse. Anschließend führte ihn die Suche nach interessanten Anwendungen physikalischer Konzepte zur Arbeitsgruppe Physik von Transport und Verkehr an der Universität Duisburg-Essen. Dort promovierte er im Themenfeld der Fußgängersimulation bei Prof. Schreckenberg. Damit war er genau der Experte, den die ptv suchte, als sie sich entschied, die Verkehrssimulations-Software im Haus um den Aspekt der Fußgängersimulation zu erweitern. Eine erste für Karlsruhe interessante Anwendung der neuen Software VISWALK war die Simulation der Großveranstaltung Das Fest hier in Karlsruhe. Die Simulation von Fußgängerströmen ist eine noch junge Disziplin. Sie entwickelte sich zunächst für Evakuierungs- und Notfall-Szenarien. Heute dient die Fußgängersimulationssoftware beispielsweise der Planung in großen Bahnhöfen. Denn hängt die Frage, ob man einen Anschlußzug kann, nicht auch von der Problematik ab, dass man dabei von anderen Fahrgästen behindert wird? Außerdem ist die Untersuchung der von Effizienz von Laufwegen sehr hilfreich in der Planung von Bauvorhaben. In der Fußgängersimulation werden verschiedene Methoden aus der Mathematik und Physik benutzt. In der Arbeitsgruppe von Herrn Schreckenberg waren es vor allem Zellularautomaten. Im nun vorhandenen Modul VISWALK wurde bei der ptv vor allem auf das Social force Modell gesetzt, das auf einem Newtonschen Ansatz (also dem Zusammenhang von Kraft und Beschleunigung) beruht und auf eine Beschreibung durch Differentialgleichungen für die einzelnen Fußgänger führt. Dieses System muss numerisch gelöst werden. Die schrittweise Lösung entspricht dabei der zeitlichen Entwicklung der Bewegung. Die Grundidee beim Social Force Modell ist, dass man sich vorstellt, dass die am Fußgänger angreifende Kräfte seine Beschleunigung (inklusive der Richtung) verändern und damit seine Bewegung bestimmen. Das einfachste Modell ist der Wunsch das Ziel zu erreichen (driving force), denn es genügt dafür eine zum gewünschten Ziel ziehende starke Kraft. Dabei muss man aber anderen Fußgängern und Hindernissen ausweichen. Das Ausweichen kann man aber leider nicht in genau ein Modell (also genau ein erwartetes Verhalten) übersetzen; es gibt dazu einfach zu viele Einflussfaktoren. Physikalisch werden sie daher als abstoßende Kräfte im Nahfeld von anderen Fußgängern und Hindernissen modelliert. Wichtige Fragen, die im Algorithmus zu berücksichtigen sind, wären beispielsweise, wie nah geht ein typischer Fußgänger typischerweise an anderen Fußgängern vorbei geht, und welche Umwege typischerweise am attraktivsten erscheinen. Aus eigener Erfahrung kennt man den inneren Kampf, wie man mit Gruppen, die sozusagen als ein weiches Hindernis im Weg stehen, umgeht. Hindurchdrängeln vermeidet man oft. (...)

Erschienen: 21.04.2016
Dauer: 1:01:05

Weitere Informationen zur Episode "Fußgängermodelle"


Crop Growth

Modellansatz 089

This is the first of four conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th of April 2016 in Oxford. Josie Dodd finished her Master's in Mathematical and Numerical Modelling of the Atmosphere and Oceans at the University of Reading. In her PhD project she is working in the Mathematical Biology Group inside the Department of Mathematics and Statistics in Reading. In this group she develops models that describe plant and canopy growth of the Bambara Groundnut - especially the plant interaction when grown as part of a crop. The project is interdisciplinary and interaction with biologists is encouraged by the funding entity. Why is this project so interesting? In general, the experimental effort to understand crop growth is very costly and takes a lot of time. So it is a great benefit to have cheaper and faster computer experiments. The project studies the Bambara Groundnut since it is a candidate for adding to our food supply in the future. It is an remarkably robust crop, draught tolerant and nitrogent inriching, which means the production of yield does not depend on fertilizer. The typical plant grows 150 days per year. The study will find results for which verfication and paramater estimations from actual green house data is available. On the other hand, all experience on the modelling side will be transferable to other plants up to a certain degree. The construction of the mathematical model includes finding equations which are simple enough but cover the main processes as well as numerical schemes which solve them effectively. At the moment, temperature and solar radiation are the main input to the model. In the future, it should include rain as well. Another important parameter is the placement of the plants - especially in asking for arrangements which maximize the yield. Analyzing the available data from the experimental partners leads to three nonlinear ODEs for each plant. Also, the leave production has a Gaussian distribution relationship with time and temperature. The results then enter the biomass equation. The growth process of the plant is characterized by a change of the rate of change over time. This is a property of the plant that leads to nonlinearity in the equations. Nevertheless, the model has to stay as simple as possible, while firstly, bridging the gap to complicated and more precise models, and secondly, staying interpretable to make people able to use it and understand its behaviour as non-mathematicians. This is the main group for which the models should be a useful tool. So far, the model for interaction with neighbouring plants is the computational more costly part, where - of course - geometric consideration of overlapping have to enter the model. Though it does not yet consider many plants (since green house sized experimental data are available) the model scales well to a big number of plants due to its inherent symmetries. (...)

Erschienen: 14.04.2016
Dauer: 20:47

Weitere Informationen zur Episode "Crop Growth"


Verkehrswesen

Modellansatz 088

Im Gespräch mit Ulrike Leyn wollten wir den Blick auf Aufgaben im heutigen Verkehrswesen richten. Wir begannen die Unterhaltung damit, zu erkunden, auf welchem Weg Ulrike Leyn zum Verkehrswesen gekommen ist und schließlich für das Thema Feuer gefangen hat. Am Anfang stand wohl ihre Entscheidung für das Studienfach Wirtschaftsingenieurwesen aus dem einfachen und sehr nachvollziehbaren Grund, sich damit thematisch nicht so stark festlegen zu müssen und im Anschluss sehr viele auch sehr verschiedenartige Möglichkeiten des beruflichen Einstiegs zu haben. Im Wirtschaftsingenieurwesen gibt es je nach Universität verschiedene Ausbildungsstrategien. An einigen muss man sich zu Beginn auf eine Ingenieurdisziplin festlegen, die dann mit ökonomischen Fächern kombiniert wird. In Karlsruhe ist die Ausbildung jedoch ingenieurtechnisch sehr breit angelegt. Es werden also Grundlagen für sehr verschiedene Ingenieurwissenschaften im Studium gelehrt und erst in der Vertiefung erfolgt eine Spezialisierung nach eigener Neigung. Außerdem ist auch der Anteil zwischen ökonomisch ausgerichteten und ingenieurstechnischen Fächern am Karlsruher Institut für Technologie (KIT) je nach persönlicher Wahl stark variabel. Das waren zwei Aspekte, die Ulrike Leyn darin bestärkten in Karlsruhe zu studieren. Für sie war es schließlich die Wahl der Fächerkombination 'Grundlagen der Raum- und Infrastrukturplanung', die zum ersten Schritt in die Richtung Verkehrwsesen wurde. Die Interdisziplinarität des Themas hat sie von Anfang an sehr angesprochen. Deshalb schrieb sie schließlich auch ihre Diplomarbeit am Institut für Verkehrswesen. Direkt im Anschluss begann sie, als wissenschaftliche Mitarbeiterin am Institut zu arbeiten. In ihrer jetzigen Tätigkeit im Verkehrswesen kann Ulrike Leyn vor allem ausnutzen, dass sie im Studium gelernt hat, sich in sehr viele verschiedene Probleme selbstständig einzuarbeiten. Außerdem erwies sich ihre Tätigkeit als Tutorin der Vorlesung Programmieren in Java als sehr hilfreich, um Simulationen anzupassen und automatisiert auszuwerten. In Karlsruhe am KIT ist Verkehrswesen als Teil des Bauingenieurwesens an der KIT-Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften etabiliert. Inzwischen gibt es auch einen eigenen Master-Studiengang Mobilität und Infrastruktur. Neben der Möglichkeit als Ingenieurs-Vertiefung im Wirtschaftsingenieurwesen (und der technischen VWL) kann es auch als Zusatzfach in Informatik, Physik oder Wirtschaftsmathematik gewählt werden oder als technisches Fach im Master Technomathematik. Die Lehrangebote des Instituts erstrecken sich über mehrere Bereiche. Das Projekt, an dem Ulrike Leyn für lange Zeit gearbeitet hat und das gerade abgeschlossen wurde, soll die Möglichkeit bieten, Verkehrs-Simulation auf Computern so zu verwenden, dass man sie einfacher als Ergänzung bzw. Ersatz der Richtlinien im Handbuch für die Bemessung von Straßenverkehrsanlagen (HBS) einsetzen kann. (...)

Erschienen: 07.04.2016
Dauer: 41:03

Weitere Informationen zur Episode "Verkehrswesen"


Perkolation

Modellansatz 087

Sebastian Ziesche hat bei Martin Zerner an der Universität in Tübingen Perkolationstheorie kennen gelernt und sich von der Faszination seines akademischen Lehrers anstecken lassen. Er hat nach dem Diplom in Karlsruhe in der Arbeitsgruppe von Günther Last das Vorhaben verfolgt, die Perkolationsmethoden auf zufällige Mosaike zu erweitern und darüber zu promovieren. Dieses Projekt hat er Anfang 2016 erfolgreich abgeschlossen. Perkolation ist ein Modell der statistischen Physik zur Modellierung poröser Strukturen mit Hilfe von Zufallsprozessen. Es geht dabei vor allem um die Quantifizierung von Durchlässigkeit. Als einfachstes Beispiel kann man sich ein regelmäßiges Gitter z.B. in der Ebene oder im Raum vorstellen, in dem jeder Knoten zufällig und unabhängig von allen anderen Knoten mit Wahrscheinlichkeit 1-p entfernt wird. Eine wichtige Frage ist, wie groß Zusammenhangskomponenten in so einer Struktur sein können. Dieses Modell hat nur einen Parameter (mit welcher Wahrscheinlichkeit p verbleibt ein Knoten im Gitter oder nicht) um verschiedene Strukturen unterscheidbar zu machen. Untersuchte Eigenschaften der Zusammenhangskomponeten bzw. Cluster sind Fragen nach deren Durchmesser oder Volumen. In der Regel eignet sich das Zählen von Knoten gut als Entfernungsmaß. Insbesondere die Frage, ob Cluster unendlich groß sein können erweist sich als interessant. Die Wahrscheinlichkeit dafür, dass es unendlich große Cluster gibt, hängt von dem Parameter p ab und ist entweder 0 (unwahrscheinlich) oder 1 (d.h. fast sicher). Das liegt daran, dass nach dem Null-Eins-Gesetz von Kolmogorov Ereignisse, die nicht vom Zustand endlich vieler Knoten abhängen, nur die Wahrscheinlichkeit 0 oder 1 haben können. Nach Überschreiten eines gewissen (sogenannten kritischen) Parameters wird also die Wahrscheinlichkeit, dass es einen unendlich großes Cluster gibt, von 0 auf 1 springen. Das Verhalten im ebenen Fall ist deutlich besser verstanden und zeigt im Dreiecks-Gitter eine gewisse Dualität, da immer entweder die vorhandenen oder die gelöschten Knoten einen unendlich großen Cluster bilden (außer im kritischen Fall). Im drei-dimensionalen Fall hingegen könnten unendlich große Cluster in beiden Mengen gleichzeitig existieren, falls der kritische Parameter kleiner als 1/2 ist. Mathematisch ist das gar nicht so einfach zu untersuchen. Ein typisches Verfahren ist es, Würfel der Kantenlänge n als Repräsentanten in allen möglichst vielen Realisierungen zu simulieren (die uns verfügbare Rechenleistung begrenzt dabei die Anzahl simulierbarer Realisierungen) und aus den so gewonnenen Strukturbeobachtungen auf das unendlich große Gebiet zu schließen. Die Perkolationstheorie fragt anders herum auch nach lokalen Konsequenzen aus dem Wissen um die Existenz unendlich großer Cluster. Die FKG-Ungleichung ist hier in beiden Richtungen (von lokal nach global und umgekehrt) ein Hauptwerkzeug. (...)

Erschienen: 31.03.2016
Dauer: 42:13

Weitere Informationen zur Episode "Perkolation"


Complex Geometries

Modellansatz 086

Sandra May works at the Seminar for Applied Mathematics at ETH Zurich and visited Karlsruhe for a talk at the CRC Wave phenomena. Her research is in numerical analysis, more specifically in numerical methods for solving PDEs. The focus is on hyperbolic PDEs and systems of conservation laws. She is both interested in theoretical aspects (such as proving stability of a certain method) and practical aspects (such as working on high-performance implementations of algorithms). Sandra May graduated with a PhD in Mathematics from the Courant Institute of Mathematical Sciences (part of New York University) under the supervision of Marsha Berger. She likes to look back on the multicultural working and learning experience there. We talked about the numerical treatment of complex geometries. The main problem is that it is difficult to automatically generate grids for computations on the computer if the shape of the boundary is complex. Examples for such problems are the simulation of airflow around airplanes, trucks or racing cars. Typically, the approach for these flow simulations is to put the object in the middle of the grid. Appropriate far-field boundary conditions take care of the right setting of the finite computational domain on the outer boundary (which is cut from an infinite model). Typically in such simulations one is mainly interested in quantities close to the boundary of the object. Instead of using an unstructured or body-fitted grid, Sandra May is using a Cartesian embedded boundary approach for the grid generation: the object with complex geometry is cut out of a Cartesian background grid, resulting in so called cut cells where the grid intersects the object and Cartesian cells otherwise. This approach is fairly straightforward and fully automatic, even for very complex geometries. The price to pay comes in shape of the cut cells which need special treatment. One particular challenge is that the cut cells can become arbitrarily small since a priori their size is not bounded from below. Trying to eliminate cut cells that are too small leads to additional problems which conflict with the goal of a fully automatic grid generation in 3d, which is why Sandra May keeps these potentially very small cells and develops specific strategies instead. The biggest challenge caused by the small cut cells is the small cell problem: easy to implement (and therefore standard) explicit time stepping schemes are only stable if a CFL condition is satisfied; this condition essentially couples the time step length to the spatial size of the cell. Therefore, for the very small cut cells one would need to choose tiny time steps, which is computationally not feasible. Instead, one would like to choose a time step appropriate for the Cartesian cells and use this same time step on cut cells as well. (...)

Erschienen: 24.03.2016
Dauer: 32:39

Weitere Informationen zur Episode "Complex Geometries"


Helmholtzzerlegung

Modellansatz 085

Jens Babutzka hat Anfang 2016 seine Promotion an der KIT-Fakultät für Mathematik verteidigt. Das Gespräch dreht sich um einen Teil seiner Forschungsarbeit - dem Nachweis der Gültigkeit der sogenannten Helmholtz Zerlegung im Kontext von Gebieten mit einer sich periodisch wiederholenden Geometrie. Das lässt sich für die Untersuchung von photonischen Kristallen ausnutzen unter der Wirkung einer Zeit-harmonischen Wellengleichung. Für die Untersuchung von partiellen Differentialgleichungen auf Lösbarkeit, Eindeutigkeit der Lösungen und deren Regularität gibt es verschiedene Grundwerkzeuge. Eines ist die Helmholtz Zerlegung. Falls sie in einem Raum möglich ist, kann man jedes Vektorfeld des Raumes eindeutig aufteilen in zwei Anteile: einen Gradienten und einen zweiten Teil, der unter der Anwendung der Divergenz das Ergebnis Null hat (man nennt das auch divergenzfrei). Wann immer Objekte miteinander skalar multipliziert werden, von denen eines ein Gradient ist und das andere divergenzfrei, ist das Ergebnis Null. Anders ausgedrückt: sie stehen senkrecht aufeinander. Die Untersuchung der partiellen Differentialgleichung lässt sich dann vereinfachen, indem eine Projektion auf den Teilraum der divergenzfreien Funktionen erfolgt und erst im Anschluss die Gradienten wieder "dazu" genommen, also gesondert behandelt werden. Da die Eigenschaft divergenzfrei auch physikalisch als Quellenfreiheit eine Bedeutung hat und alle Gradienten wirbelfrei sind, ist für verschiedene Anwendungsfälle sowohl mathematisch als auch physikalisch motivierbar, dass die Aufteilung im Rahmen der Helmholtz Zerlegung hilfreich ist. Im Kontext der Strömungsmechanik ist die Bedingung der Divergenzfreiheit gleichbedeutend mit Inkompressibilität des fließenden Materials (dh. Volumina ändern sich nicht beim Einwirken mechanischer Kräfte). Für das Maxwell-System kann es sowohl für das magnetische als auch für das elektrische Feld Divergenzfreiheitsbedingungen geben. Ob die Helmholtz Zerlegung existiert, ist im Prinzip für viele Räume interessant. Grundbausteine für die Behandlung der partiellen Differentialgleichungen im Kontext der Funktionalanalysis sind die Lebesgue-Räume L^q(\Omega). Eine (verallgemeinerte) Funktion ist in L^q(\Omega), wenn das Integral (des Betrags) der q-ten Potenz der Funktion über Omega existiert. Eine Sonderrolle spielt hier der Fall q=2, weil dieser Raum ein Skalarprodukt hat. Das gibt ihm eine sehr klare Struktur. Darüber hinaus ist er zu sich selbst dual. Unter anderem führt das dazu, dass die Helmholtz Zerlegung in L^2(\Omega) für beliebige Gebiete \Omega mit genügend glattem Rand immer existiert. Wenn q nicht 2 ist, sind Gebiete \Omega bekannt, in denen die Helmholtz Zerlegung existiert, aber auch Gegenbeispiele. Insbesondere bei der Behandlung von nichtlinearen Problemen reicht es aber häufig nicht, sich auf den Fall q=2 zu beschränken, sondern die Helmholtz Zerlegung für möglichst viele q wird eine wesentliche Voraussetzung für die weitere Theorie. (...)

Erschienen: 17.03.2016
Dauer: 39:02

Weitere Informationen zur Episode "Helmholtzzerlegung"


Podcast "Modellansatz"
Merken
QR-Code