Podcast "Modellansatz"

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Podcast-Episoden

Sensoreinsatzplanung

Modellansatz 154

Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. (...)

Erschienen: 25.01.2018
Dauer: 58:46

Weitere Informationen zur Episode "Sensoreinsatzplanung"


Luftspalt

Modellansatz 153

Gudrun unterhält sich mit Tabitha Hoffmann über ihre im Dezember 2017 vorgelegte Masterarbeit mit dem Titel: On the Applicability of Computational Fluid Dynamics on the Determination of Elements in the Thermal Circuit of Electrical Machines. Das Projekt war eine Zusammenarbeit mit der Firma SEW-Eurodrive in Bruchsal. Das Temperaturverhalten von Elektromotoren ist von großem Interesse, denn kennt man die Temperaturverteilung im Elektromotor, kann man Aussagen über das Betriebsverhalten treffen und einzelne Komponenten effektiv vor Überhitzung schützen. Besonders interessant ist dabei der Raum zwischen Rotor und Stator der elektrischen Maschine, der als Luftspalt bezeichnet wird. Um die Auswirkung von Geometrieänderungen auf den thermischen Widerstand am Luftspalt abschätzen zu können, könnten ergänzende Computersimulationen große Vorteile bringen. Im Rahmen der Arbeit von Tabitha wird erstmals prinzipiell untersucht, ob aktuell die numerische Strömungsrechnung (engl. Computational Fluid Dynamics, kurz CFD) - gekoppelt mit Wärmeübertragungssimulationen - den thermischen Widerstand am Luftspalt genau genug bestimmen kann, um hier von Nutzen zu sein. In erster Näherung lässt sich der Luftspalt relativ elementar als Ringraum darstellen. Noch interessanter wären natürlich Ergebnisse, die auf einer möglichst präzisen Geometrienachbildung des Luftspaltes im Computer beruhen. Eine umfangreiche experimentelle wie theoretische Studie liegt zum Glück in Form der Dissertation von Becker aus dem Jahr 1957 vor. Beckers experimentelle Daten sind fundiert und präzise und bilden somit eine gute Grundlage für die Validierung der Simulationsergebnisse in der Masterarbeit. Exemplarisch werden von Tabitha zwei typische CFD-Zugänge gewählt: Einerseits Ansys CFX, da es ein weit verbreitetes und bei SEW gut eingeführtes kommerzielles Softwarepaket ist (es arbeitet als Black box auf der Basis von Finite-Volumen-Methoden ) und andererseits OpenLB, welches eine open source Forschungssoftware ist (auf der Basis von Lattice Boltzmann Methoden (LBM)), die in der Gruppe von Mathias Krause ständig weiterentwickelt wird. Beide Softwarepakete haben je eigene Vor- und Nachteile und stellen zwei typische Fälle dar. Das betrifft z. B. die anwenderfreundliche Benutzeroberfläche in einer kommerziellen Software, die jedoch auf den konkreten Anwendungsfall nur eingeschränkt speziell zugeschnitten werden kann vs. ein in der Schnittstelle nicht so ausgereiftes Produkt, für das jedoch recht schnell konkrete Module für das vorliegende Problem programmiert werden können. Außerdem sind auch die numerischen Paradigmen beider Pakete grundlegend unterschiedlich. Ansys CFX ist klassisch auf die numerische Lösung von kontinuierlich formulierten partiellen Differentialgleichungen spezialisiert, während LBM ein diskretes Modell für Strömung wählt und dieses dynamisch entfaltet. (...)

Erschienen: 11.01.2018
Dauer: 33:55

Weitere Informationen zur Episode "Luftspalt"


Kinetische Theorie

Modellansatz 152

Seit September 2017 ist Martin Frank am KIT tätig. Er ist einerseits ein Direktor des Steinbuch Centre for Computing (SCC) und leitet dort die Arbeitsgruppe für Computational Science and Mathematical Methods. Andererseits gehört er als Professor der KIT-Fakultät für Mathematik an, hält also mathematische Lehrveranstaltungen und führt junge Leute zur Promotion. In diesen beiden Rollen drückt sich schon die Interdisziplinarität seiner Arbeit aus. Er hat schon langjährige Erfahrung in dieser Doppelrolle gesammelt durch ähnliche Aufgaben an der RWTH Aachen. Gudrun wollte sich mit unserem neuen Kollegen über sein hauptsächliches Forschungsthema, die kinetische Theorie unterhalten. Diese Denkweise wurde zur Modellierung von Gasen entwickelt und ist inspiriert von physikalischen Vorstellungen, die kinetische Energie als inhärente Eigenschaft von Materie ansieht. Die kinetische Gastheorie schaut auf die mikroskopische Ebene, um schließlich makroskopische Größen wie Wärme und Temperatur besser zu erklären. Im sogenannten idealen Gas bewegen sich unfassbar viele kleine Massepunkte entsprechend der Newtonschen Mechanik frei, ungeordnet und zufällig im Raum, stoßen dabei ab und zu zusammen und wir empfinden und messen den Grad der Bewegungsaktivität der Teilchen als Wärme. Die Einheit, die man dieser Größe zunächst zuwies war Kalorie von lat. Calor=Wärme. Heute ist die richtige SI-Einheit für Energie (und damit auch Wärme) das Joule. Die messbare Größe Temperatur ist damit vereinfacht ausgedrückt die mechanische Engergie im Gassystem und das Modell liefert eine kinetische Theorie der Wärme. Man kann es aber auch als Vielteilchensystem von mikroskopischen Teilchen ansehen aus denen sich in klar definierten (unterschiedlichen) Grenzwertprozessen makroskopische Größen und deren Verhalten ableiten lassen. Die Untersuchung dieser Grenzwerte ist eine mathematisch sehr anspruchsvolle Aufgabe und bis heute ein offenes Forschungsfeld, in dem nur Stück für Stück spezielle Fragen beantwortet werden. Eine Schwierigkeit ist dabei nämlich, dass automatisch immer sehr unterschiedliche Skalen nebeneinander existieren und in ihrer Interaktion richtig gefaßt und verstanden werden müssen. Außerdem ist in der Regel jeder Grenzwert, für den sich interessante Forschungsergebnisse ergeben, innerhalb der Theorie eine Singularität. Schon Hilbert hatte 1900 die axiomatische Fassung der Physik zwischen Mechanik und Wahrscheinlichkeitsrechnung als eines der wichtigen mathematischen Probleme für das 20. Jahrhundert dargestellt. Wir sind seitdem vorangekommen, aber es bleibt noch sehr viel zu tun. Zum Beispiel ist die mögliche Korreliertheit zwischen den Teilchenbewegungen für Gase eine offene Frage (außer für kurze Zeiten). Ein Vorteil gegenüber der Zeit Hilberts ist heute, dass wir inzwischen auch den Computer benutzen können, um Modelle zu entwickeln und zu analysieren. Dafür muss man natürlich geeignete numerische Methoden entwickeln. In der Arbeit von Martin Frank sind es in der Regel Integro-Differentialgleichungen mit hyperbolischer partieller Differentialgleichung für die Modellierung von Bewegungen ohne Dämpfung. Diese haben schon durch die Formulierung viele Dimensionen, nämlich jeweils 3 Orts- und 3 Geschwindigkeitskomponenten an jedem Ort des Rechengebietes. Deshalb sind diese Simulationen nur auf großen Parallelrechnern umsetzbar und nutzen High Performance Computing (HPC). Hieraus erklärt sich auch die Doppelrolle von Martin Frank in der Verantwortung für die Weiterentwicklung der HPC-Gruppe am Rechenzentrum des KIT und der Anwendung von Mathematik auf Probleme, die sich nur mit Hilfe von HPC behandeln lassen. Sehr interessant ist in dieser Theorie die gegenseitige Beeinflussung von Numerik und Analysis in der Behandlung kleiner Parameter. Außerdem gibt es Anknüpfungspunkte zur Lattice Boltzmann Research Group die am KIT das Software-Paket OpenLB entwickeln und anwenden. (...)

Erschienen: 21.12.2017
Dauer: 25:52

Weitere Informationen zur Episode "Kinetische Theorie"


Zerstäubung

Modellansatz 151

Corina Schwitzke ist Gruppenleiterin im Institut für thermische Strömungsmaschinen (ITS) am KIT. Gudrun wollte gern ein Gespräch über partikelbehaftete Strömungen mit ihr führen, denn dies ist ein wichtiges Thema in beiden Arbeitsgruppen. In Corinas Institut gilt das Interesse vor allem der Zerstäubung von Kerosin zu feinen Tröpfchen in Flugtriebwerken Seit 10 Jahren gibt es dort Strömungssimulation mit einer sogenannten Partikelmethode. Die Partikel in dieser Anwendung sind Stützstellen der Rechenmethode und repräsentieren die Flüssigkeit, z.B. Kerosin, und das Gas, d.h. die verdichtete Luft. Vom Blickpunkt der Simulation aus sind die Partikel eigentlich nur Diskretisierungspunkte, die sich mit der Strömung mitbewegen. Sie repräsentieren dabei ein Volumen und die benutzten Koordinaten "schwimmen" mit dem Fluid, d.h. die Methode benutzt ein Lagrange-Koordinatensystem. Die Gleichungen, die der Simulation zugrunde liegen, sind die Navier-Stokes Gleichungen - zunächst isotherm. Falls die Temperaturänderung mitbetrachtet werden muss, dann erfolgt das durch das Lösen der Energiegleichung, für die die diskrete Fassung sehr einfach zu realisieren ist. Das für den Zerstäubungsprozess gut geeignete numerische Verfahren, das am ITS umgesetzt wurde (und dort auch noch weiter entwickelt wird) ist Smoothed particle Hydrodynamics (SPH). Die Methode wurde zu Beginn der 1970er Jahre für die Simulation von Galaxie-Entstehung entwickelt. Ein großer Vorteil ist, dass das Verfahren sich extrem gut parallel implementieren läßt und die Simulation Gebiete ausspart, wo zunächst nichts passiert. Außerdem ist es einfacher, die Physik des Tröpfchenzerfalls zu modellieren als mit den klassischen kontinuumsmechanischen Ansätzen. Der wichtigste Aspekt für die Simulation der Kraftstoffzerstäubung ist die Oberflächenspannung. Sie muss physikalisch und numerisch richtig beschrieben werden und führt dann dazu dass ein Flüssigkeitsfilm in Tropfen zerfällt. Hier geht das Wissen um Oberflächenspannungskoeffizienten ein, die aus Experimenten gewonnen werden ebenso wie die erwartbaren Kontaktwinkel an Wänden. Das Kräftegleichgewicht von angreifenden Scher- und Oberflächenkräften muss die modellierende Physik abbilden - die numerischen Partikel bekommen daraus direkt eine Geschwindigkeit zugewiesen, die auch ausdrückt, ob der Film reißt oder zusammenhängend bleibt. Diese Partikelmethode vermeidet die Probleme von gitterbasierten Verfahren beim Reißen des Films, denn Grenzflächen werden automatisch mittransportiert. Durch die gut skalierende parallele Implementierung ist es möglich, mit einigen Milliarden Partikeln zu rechnen. Die Ergebnisse der Simulationen haben vielfältige Anwendungen. Eine ist es Schadstoffemission zu minimieren. Das ist möglich durch erzwingen der vollständigen Verbrennung des Kraftstoffes oder durch die Vermeidung der Entstehung von Stick- und Schwefeloxiden im Prozess. Das kann durch die Kraftstoffverteilung und über die Temperaturniveaus gesteuert werden. (...)

Erschienen: 14.12.2017
Dauer: 31:07

Weitere Informationen zur Episode "Zerstäubung"


Mikrowellen

Modellansatz 150

Gudrun unterhält sich diesmal mit Johanna Mödl. Johanna hat von August bis Oktober 2017 ihre Bachelorarbeit Analytische und numerische Untersuchungen zum mikrowelleninduzierten Temperaturanstieg von zylindrischen Probekörpern aus Beton geschrieben. Der Hintergrund war ein Thema aus dem Institut für Massivbau und Baustofftechnologie (Abt. Baustoffe und Betonbau). Dort wird untersucht, wie hochenergetische Mikrowellen solche Temperaturunterschiede in (trockenen) Betonkörpern erzeugen, dass der Werkstoff an der Oberfläche zerstört wird. Um Erfahrungswerte im Umgang mit diesem Verfahren zu erhalten, werden derzeit Laborexperimente durch das Institut für Massivbau und Baustofftechnologie und das Institut für Hochleistungsimpuls- und Mikrowellentechnik, beides Institute des Karlsruher Instituts für Technologie, durchgeführt. Auf Basis der Messergebnisse wird versucht, den Vorgang durch einfache Gleichungen zu beschreiben, um vorhersagen zu können, wie er sich in größerem Maßstab verhält. Aufgrund der Komplexität des Prozesses werden nur vereinfachende Modelle betrachtet. Da diese sich durch partielle Differentialgleichungen beschreiben lassen, sollte der Vorgang während der Bachelorarbeit aus mathematischer Sicht analysiert werden. Die Ausbreitung der Mikrowellen-Energie als Wärme im Baustoff wird durch die Wärmeleitungsgleichung gut beschrieben. Dies ist eine in der Mathematik wohlstudierte Gleichung. Im Allgemeinen lassen sich aber analytische Lösungen nur schwer oder gar nicht berechnen. Daher mussten zusätzlich numerische Verfahren gewählt und implementiert werden, um eine Approximation der Lösung zu erhalten. Johanna entschied sich für das Finite-Differenzen-Verfahren im Raum und ein explizites Eulerverfahren in der Zeitrichtung, da beide einfach zu analysieren und zu implementieren sind. Erfreulicherweise stimmt die numerisch auf diese Weise approximierte Lösung mit den experimentellen Ergebnissen in den hauptsächlichen Gesichtspunkten überein. Die Wärme breitet sich von der Quelle in den Beton aus und es kommt im zeitlichen Verlauf zu einer kontinuierlichen Erwärmung in den Körper hinein. Das größte Problem und die vermutliche Ursache dafür, dass die Meßdaten noch nicht ganz genau mit den Simulationen übereinstimmen ist, dass man physikalisch sinnvollere Randbedingungen bräuchte. Im Moment wird - wie üblich - davon ausgegangen, dass am Rand des Betonzylinders, wo nicht die Energie eintritt, der Körper Umgebungstemperatur hat. Hier bräuchte man eine phyiskalische Modellierung, die das korrigiert.

Erschienen: 07.12.2017
Dauer: 20:28

Weitere Informationen zur Episode "Mikrowellen"


Wahlprognosemodelle

Modellansatz 149

Gudrun hat sich mit Oliver Beige unterhalten. Im Gespräch geht es um die theoretische Seite von Modellen für Wahlprognosen. Dabei beziehen sie sich in vielen Beispielen auf den Wahlkampf in den USA und insbesondere auf die Besonderheiten der Kampagne von Donald Trump. Die Gelegenheit bot sich vor einem gemeinsamen Konzertbesuch in Berlin-Neukölln in der Alten Welt Siralti. In der Theorie sind Wahlprognosemodell traditionell in der Politologie verankert, wurden aber immer mehr durch ökonomische Modelle verbessert. Die größte Veränderung der letzten Jahre ist, dass es immer mehr empirische Daten gibt, die auch zum Teil der Öffentlichkeit zur Verfügung stehen. Solche Daten und Diskussionen zur Wertung finden sich z.B. auf der Webseite FiveThirtyEight. Große Berühmtheit erreichte schließlich Nate Silver dadurch, dass er 2008 in 49 von 50 US-Bundeststaaten das Ergebnis der US-Präsidentschaftswahlen korrekt vorhergesagt hatte. Im Wahljahr 2012 stimmte seine Vorhersage sogar in allen 50 Staaten. Seine Ergebnisse erzielte er dabei lediglich durch Aggregation von veröffentlichten Umfrageergebnissen. Im Wahljahr 2016 hat aber Donald Trump die Wahl gewonnen obwohl Nate Silvers Modelle (und die Modelle ähnlich arbeitender Wahlforscher) die Wahrscheinlichkeit dafür, dass Hillary Clinton die Präsidentschaftswahl für sich entschieden wird, auf 70% - 99% beziffert hatten. Es stellt sich die Frage, wo der Fehler dieser Prognosemodelle lag. Wenn man im Jahr 2016 genau zuhörte, gab es auch Stimmen, die Donald Trump schon im Frühjahr als wahrscheinlichen Gewinner der Wahlen sahen - z.B. die Zeitung Los Angeles Times. Sie wurden in den Medien zwar lieber als Ausreißer dargestellt, behielten aber schließlich recht. Wieso? Sie hatten den Demographiewandel in den USA in ihre Modellbildung einbezogen. Um zu verstehen, was damit gemeint ist, muss man zunächst einmal klarer beschreiben, wie US-Wahlen traditionell bisher abliefen, und welche Modelle daraus abgeleitet wurden. Es gibt ein schönes Denkmodell, das veranschaulicht, wie das sogenannte Hotelling Gesetz (1929) wirkt. Man stelle sich zwei Eisverkäufer am Strand vor. Wie sollten sie jeweils ihren Stand so positionieren, dass sie möglichst viele Kunden anziehen? Die stille Annahme dabei ist, dass die Badenden gleichmäßig über den Strand verteilt sind und alle irgendwann Lust auf ein (genau ein) Eis bekommen. Das verblüffende Ergebnis ist: Ein Equilibrium der Einflussbereiche der beiden Verkäufer stellt sich ein, wenn beide in der Mitte des Strandes nebeneinander stehen. Im Wahlkampf in den USA folgt man dieser Strategie, indem beide endgültigen Präsidentschaftskandidaten wenig ideologisch unterscheidbar aufgebaut werden. Begünstigt wird das auch durch das mehrstufige Wahlsystem, denn die Vorwahlen (Primaries) kann man dazu nutzen, dass die extremeren Kandidaten herausgefiltert werden. Dann entscheidet über den Sieg schließlich vor allem die erfolgreiche Mobilisierung der Wechselwähler. (...)

Erschienen: 23.11.2017
Dauer: 40:09

Weitere Informationen zur Episode "Wahlprognosemodelle"


Weather Generator

Modellansatz 148

Gudrun is speaking with the portuguese engineer Bruno Pousinho. He has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. Bruno spent his second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of his supervisor at KIT while he worked on his Master's thesis at the Chair of Renewable and Sustainable Energy Systems (ENS) at TUM in Garching. His direct contact person there was Franz Christange from the group of Prof. Thomas Hamacher. Renewable energy systems are a growing part of the energy mix. In Germany between 1990 and 2016 it grew from 4168 GW to 104024 GW. This corresponds to an annual power consumption share of 3.4% and 31.7%, respectively. But in the related research this means a crucial shift. The conventional centralized synchronous machine dominated models have to be exchanged for decentralized power electronic dominated networks - so-called microgrids. This needs collaboration of mechanical and electrical engineers. The interdisciplinary group at TUM has the goal to work on modeling future microgrids in order to easily configure and simulate them. One additional factor is that for most renewable energy systems it is necessary to have the right weather conditions. Moreover, there is always the problem of reliability. Especially for Photovoltaics (PV) and wind turbines Weather phenomena as solar irradiation, air temperature and wind speed have to be known in advance in order to plan for these types of systems. There are two fundamentally different approaches to model weather data. Firstly the numerical weather and climate models, which provide the weather forecast for the next days and years. Secondly, so-called weather generators. The numerical models are very complex and have to run on the largest computer systems available. For that in order to have a simple enough model for planning the Renewable energy resources (RER) at a certain place weather generators are used. They produce synthetic weather data on the basis of the weather conditions in the past. They do not predict/forecast the values of a specific weather phenomenon for a specific time but provides random simulations whose outputs show the same or very similar distributional properties as the measured weather data in the past. The group in Garching wanted to have a time dynamic analytical model. The model is time continuous which grant it the ability of having any time sampling interval. This means it wanted to have a system of equations for the generation of synthetic weather data with as few as possible parameters. When Bruno started his work, there existed a model for Garching (developped by Franz Christange) with about 60 parameters. The aim of Bruno's work was to reduce the number of parameters and (...)

Erschienen: 16.11.2017
Dauer: 38:24

Weitere Informationen zur Episode "Weather Generator"


Dämpfung viskoser Flüssigkeiten

Modellansatz 147

Gudrun und Karoline Disser trafen sich am Rand eines Seminarvortrages an der TU in Darmstadt. Dort arbeitet Karoline am internationalen Graduiertenkolleg Mathematical Fluid Dynamics als Postdoc. Der Forschungsgegenstand, über den die beiden schließlich ins Gespräch kamen, ist die Bewegung starrer Körper, in denen eine Flüssigkeit eingeschlossen ist. Ein recht anschauliches Beispiel hierfür ist die Frage, wie man herausfinden kann, ob ein Ei schon gekocht oder noch roh ist. Wenn man es auf einer glatten Fläche aufrecht stehend rotieren lässt, bleibt das gekochte Ei fast aufrecht, während sich das rohe Ei schnell hinlegt und weiter um eine kurze Achse rotiert. Die Flüssigkeit verhindert die Präzession um die lange Achse. Allgemeiner ausgedrückt untersucht Karoline Trägheitsbewegungen gekoppelter Systeme, die aus einem starren Körper bestehen mit einem Hohlraum, der vollständig mit einer viskosen Flüssigkeit gefüllt ist. Sie zeigt mathematisch, dass bei beliebigen Anfangsdaten mit endlicher kinetischer Energie, jede korrespondierende schwache Lösung im Laufe der Zeit in eine gleichmäßige Rotation übergeht. Darüber hinaus ist diese Rotation nur um die Trägheitsachse mit dem größeren Trägheitsmoment stabil. Anschaulich ist das bei einem symmetrischen Körper oft die geometrisch kürzeste Achse. Unabhängig von der Geometrie und den Parametern zeigt dies, dass - wenn das System genug Zeit hat - das Vorhandensein von Flüssigkeit Präzession des Körpers verhindert. Die theoretischen Untersuchungen wurden durch numerische Simulationen begleitet. In diesem Video zu einem Experiement eines mit Flüssigkeit gefülltem starrem Körpers wird der Effekt illustriert, dass wenn er zuerst um die lange Achse angedreht wird, in der freien Bewegung schnell zu einer Rotation um eine kurze Achse findet. Interessant ist auch der Fall, wenn sich das flüssige Material nicht ähnlich wie Wasser verhält, sondern ein sogenanntes Nichtnewtonsches Fluid ist. Hierfür gibt es viele Anwendungen - zum Beispiel, wenn auch elastische Verformungen möglich sind. Das heißt konkret: In den partiellen Differentialgleichungen treten noch mehr nichtlineare Terme auf als im Fall der Navier-Stokes Gleichungen für wasserähnliche Stoffe. Für diese Terme müssen neue Techniken entwickelt werden.

Erschienen: 09.11.2017
Dauer: 39:50

Weitere Informationen zur Episode "Dämpfung viskoser Flüssigkeiten"


Advanced Mathematics

Modellansatz 146

Gudrun Thäter and Jonathan Rollin talk about their plans for the course Advanced Mathematics (taught in English) for mechanical engineers at the Karlsruhe Institute of Technology (KIT). The topics of their conversation are relevant in the mathematical education for engineers in general (though the structure of courses differs between universities). They discuss how to embrace university mathematics, how to study, what is the structure of the educational program and what topics will be covered in the first semester in Karlsruhe. For students starting an engineering study course it is clear, that a mathematical education will be an important part. Nevertheless, most students are not aware that their experiences with mathematics at school will not match well with the mathematics at university. This is true in many ways. Mathematics is much more than calculations. As the mathematical models become more involved, more theoretical knowledge is needed in order to learn how and why the calculations work. In particular the connections among basic ideas become more and more important to see why certain rules are valid. Very often this knowledge also is essential since the rules need to be adapted for different settings. In their everyday work, engineers combine the use of well-established procedures with the ability to come up with solutions to yet unsolved problems. In our mathematics education, we try to support that skills insofar as we train certain calculations with the aim that they become routine for the future engineers. But we also show the ideas and ways how mathematicians came up with these ideas and how they are applied again and again at different levels of abstraction. This shall help the students to become creative in their engineering career. Moreover seeing how the calculation procedures are derived often helps to remember them. So it makes a lot of sense to learn about proofs behind calculations, even if we usually do not ask to repeat proofs during the written exam at the end of the semester. The course is structured as 2 lectures, 1 problem class and 1 tutorial per week. Moreover there is a homework sheet every week. All of them play their own role in helping students to make progress in mathematics. The lecture is the place to see new material and to learn about examples, connections and motivations. In this course there are lecture notes which cover most topics of the lecture (and on top of that there are a lot of books out there!). So the lecture is the place where students follow the main ideas and take these ideas to work with the written notes of the lecture later on. The theory taught in the lecture becomes more alive in the problem classes and tutorials. In the problem classes students see how the theory is applied to solve problems and exercises. But most importantly, students must solve problems on their own, with the help of the material from the lecture. Only in this way they learn how to use the theory. (...)

Erschienen: 12.10.2017
Dauer: 1:06:00

Weitere Informationen zur Episode "Advanced Mathematics"


Lilium

Modellansatz 145

Gudrun traf Patrick Nathen im April 2017 neben dem Flugfeld in Oberpfaffenhofen. Vielen ist dieser Ort ein Begriff, weil das Deutsche Zentrum für Luft- und Raumfahrt dort seinen Sitz hat. Auch das von Patrick mitgegründete Startup Lilium Aviation hat dort seine Büros. Die Vision von Lillium ist es ein Anbieter wie Uber zu werden - allerdings für den Luftraum. Dafür wird ein senkrecht startender Jet entwickelt, der mit Elektromotoren relativ leise und mit wenig Platzbedarf beim Starten und Landen Personen in Ballungsgebieten schnell von Punkt zu Punkt transportiert: Mobility on demand. Die Fluggeräte starten senkrecht wie Hubschrauber und auf Reisehöhe werden sie zum Jet. Diesem Traum waren sie zum Zeitpunkt unseres Gespräches schon sehr nahe: Der Prototyp flog und befand sich im Zulassungsverfahren der Europäischen Agentur für Flugsicherheit (EASA). Neben den Fluggeräten muss auch die Infrastruktur entwickelt werden. Einerseits lassen sich die Helipads als Landeplätze in Metropolregionen nutzen, andererseits braucht es auch die Software, die Nutzer, Geräte und Landemöglichkeiten miteinander verbinden wird. In der Zukunft soll es sogar möglich werden, auf Piloten ganz zu verzichten, weil die Geräte vom Boden ferngesteuert werden. Statt - wie Gudrun an dem Morgen - über eine Stunde aus der Innenstadt von München nach Oberpfaffenhofen zu fahren, würde sich die Reisezeit für diese Strecke auf etwa 5 min verkürzen. Das klingt zu schön, um wahr zu werden - diese Idee müssen Menschen erst für möglich halten bevor es Normalität werden kann. Die Geschichte von Lilium begann 2013 in der WG von vier Ingenieurstudenten - Daniel Wiegand, Matthias Meiner, Patrick Nathen and Sebastian Born - mit einer "spinnerten" Idee. Alle haben an der Fakultät für Maschinenwesen der TU München studiert oder promoviert. Sehr schnell hatten sie einen ersten großen Investor gefunden, sind auf ein Team von 40 Leuten gewachsen (Stand April - inzwischen sind es schon 70) und nun wird der Zweisitzer im 1:1 Modell getestet. Das Folgeprodukt soll schließlich auch eine bemannte Zertifizierung bekommen und eine effektive Problemlösung für die Allgemeinheit werden. Das betrifft dicht besiedelte Metropolregionen genauso wie ländliche Regionen mit wenig ÖPNV-Optionen. Dafür haben sie in der zweiten Finanzierungsrunde 90 Millionen Euro Kapital eingeworben. Beim Starten und Landen gibt es auch in der von Lilium entwickelten Technologie Lärm wegen der Propeller, die für den Auftrieb sorgen. Da aber möglichst wenig Lärmentwicklung eine wichtige Voraussetzung dafür ist, dass sich die Technologie möglichst weit durchsetzen wird, wurde nach neuen Ideen zur Lärmvermeidung gesucht. Jetzt hat der Propeller eine Hülle. Dadurch wird weniger Schall abgestrahlt und die Effizienz erhöht. Im Reiseflug trägt sich der Flieger selbst. Um so einfach wie möglich zu bauen, muss man aber mit dem für Starten und Landen nötigen großen Motor irgendwie leben. (...)

Erschienen: 05.10.2017
Dauer: 47:42

Weitere Informationen zur Episode "Lilium"


Podcast "Modellansatz"
Merken
QR-Code