Podcast "Modellansatz"

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Podcast-Episoden

CAMMP Week

Modellansatz 174

In dieser Folge unterhält sich Gudrun gleich mit vier Personen. Im Gespräch geht es um ein ganz besonderes Angebot für Schülerinnen und Schüler: die CAMMP-week. Die Abkürzung CAMMP steht hier für "Computational and Mathematical Modeling Program" (deutsch: "Computergestütztes Mathematisches Modellierungsprogramm"). Das Programm wurde in der Arbeitsgruppe von Martin Frank während seiner Tätigkeit an der RWTH in Aachen entwickelt. Mit seinem Wechsel ans KIT in Karlsruhe gibt es nun seit Januar 2018 auch ein Standbein am KIT. Mit Kirsten Wohak hatte Gudrun schon über das Konzept, die Idee und konkrete Beispiele für CAMMP gesprochen. Dabei entstand der Wunsch, unbedingt auch Schülerinnen und Schüler zu Wort kommen zu lassen, die an einer CAMMP-Veranstaltung teilgenommen haben. Elly Bastian und Christian Beitzinger haben vom 24.-29. Juni 2018 an der diesjährigen CAMMP week in der Jugendherberge in Voeren (Belgien) teilgenommen und hatten Lust, im Podcast über ihre Erfahrungen zu berichten. Elly ist derzeit noch Schülerin der 10. Klasse am Goethe-Gymnasium in Gaggenau und Christian ist in der K1 im Tulla-Gymnasium in Rastatt. Zwei Programmgestalterinnen waren ebenfalls mit in der Podcast-Gesprächsrunde, nämlich Kirsten Wohak und Maren Hattebuhr. Sie gehören am KIT zur Arbeitsgruppe von Martin Frank Computational Science and Mathematical Methods. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik. Das Angebot der CAMMP week richtet sich an Schüler und Schülerinnen der Oberstufe, die an Mathematik interessiert sind, an Mathematiklehrpersonen sowie Personen im Referendariat oder Lehramtsstudium und findet jährlich in der Jugendherberge in Voeren in Belgien statt. In Karlsruhe wird zusätzlich noch eine zweite Modellierungswoche in Zusammenarbeit mit dem MINT-EC angeboten, an welcher Schülerinnen und Schüler von Schulen, die Teil des MINT-Schulnetzwerks sind, teilnehmen können. In beiden Wochen werden die Teilnehmenden in Gruppen aufgeteilt, die jeweils aus sechs Schülerinnen und Schülern und zwei (angehenden) Lehrkräften bestehen. Bei den zu lösenden Problemen handelt es sich um reale Fragestellungen aus der Forschung von Firmen oder Universitätsinstituten. Jede Gruppe erhält eine individuelle Aufgabenstellung, an der sie innerhalb der fünf Tage forscht. Dabei wird sie auch wissenschaftlich betreut. Die Schülerteams präsentieren ihre Ergebnisse den Firmen am Ende der Woche im Rahmen einer repräsentativen Abschlussveranstaltung. Hier sind auch die Familien und die Schulen dabei. Welche Wege führen junge Menschen nun in die CAMMP week? Elly hatte Anfang 2018 die Arbeit der Gruppe um Martin Frank im Rahmen ihres BOGY-Praktikums kennen gelernt und dabei Lust bekommen, noch mehr praktische Mathematik zu machen. Obwohl sie keine andere Person kannte, die auch nach Belgien fahren würde, war ihre Lust so groß, dass sie sich auf das Abenteuer einlassen wollte. (...)

Erschienen: 19.07.2018
Dauer: 39:45

Weitere Informationen zur Episode "CAMMP Week"


Dynamical Sampling

Modellansatz 173

Gudrun met the USA-based mathematician Roza Aceska from Macedonia in Turin at the Conference MicroLocal and Time-Frequency Analysis 2018. The topic of the recorded conversation is dynamical sampling. The situation which Roza and other mathematician study is: There is a process which develops over time which in principle is well understood. In mathematical terms this means we know the equation which governs our model of the process or in other words we know the family of evolution operators. Often this is a partial differential equation which accounts for changes in time and in 1, 2 or 3 spatial variables. This means, if we know the initial situation (i.e. the initial conditions in mathematical terms), we can numerically calculate good approximations for the instances the process will have at all places and at all times in the future. But in general when observing a process life is not that well sorted. Instead we might know the principal equation but only through (maybe only a few) measurements we can find information about the initial condition or material constants for the process. This leads to two questions: How many measurements are necessary in order to obtain the full information (i.e. to have exact knowledge)? Are there possibilities to choose the time and the spatial situation of a measurement so clever as to gain as much as possible new information from any measurement? These are mathematical questions which are answered through studying the equations. The science of sampling started in the 1940s with Claude Shannon who found fundamental limits of signal processing. He developed a precise framework - the so-called information theory. Sampling and reconstruction theory is important because it serves as a bridge between the modern digital world and the analog world of continuous functions. It is surprising to see how many applications rely on taking samples in order to understand processes. A few examples in our everyday life are: Audio signal processing (electrical signals representing sound of speech or music), image processing, and wireless communication. But also seismology or genomics can only develop models by taking very intelligent sample measurements, or, in other words, by making the most scientific sense out of available measurements. The new development in dynamical sampling is, that in following a process over time it might by possible to find good options to gain valuable information about the process at different time instances, as well as different spatial locations. In practice, increasing the number of spatially used sensors is more expensive (or even impossible) than increasing the temporal sampling density. These issues are overcome by a spatio-temporal sampling framework in evolution processes. The idea is to use a reduced number of sensors with each being activated more frequently. Roza refers to a paper by Enrique Zuazua (...)

Erschienen: 12.07.2018
Dauer: 33:23

Weitere Informationen zur Episode "Dynamical Sampling"


Sternenschwerpunkt

Modellansatz 172

Am Rande des Treffens des German Chapters of European Women in Mathematics sprach Gudrun mit Carla Cederbaum. Das Treffen der Mathematikerinnen fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Carla hielt einen der Hauptvorträge und gab einen Einblick in ihre Forschung unter dem Titel "Where is the center of mass of a star -- and what does this have to do with Mathematics?" Die Ideen der Vorlesung dienten als Einstieg in das Gespräch zum Arbeitsgebiet von Carla: Mathematische Relativitätstheorie. Dieses Thema schlägt eine Brücke zwischen Physik und Mathematik. Carla hat sich schon immer sehr für Mathematik und Physik interessiert und sich zunächst für ein Physikstudium entschieden. Später hat die Mathematik sich als attraktiver erwiesen, aber die physikalische Anwendungen liegen ihr weiterhin am Herzen. Nun benutzt sie mathematische Methoden der geometrischen Analysis und Differentialgeometrie gemeinsamen mit ihren grundlegenden Vorstellungen von Physik für ihre Forschung. Im Zentrum des Vortrages stand, welche Schritte es möglich gemacht haben, das klassische Konzept Schwerpunkt auf die Situation zu übertragen, dass sich Objekte so wie Sterne oder Galaxien so schwer sind bzw. sich so schnell bewegen, dass sie den Gesetzmäßigkeiten der Relativitätstheorie unterliegen. Der Schwerpunkt eines physikalischen Systems ist eines der ältesten und grundlegendsten Konzepte der mathematischen Physik und Geometrie. Das Verstehen der Position und Bewegung des Massenschwerpunktes eines Systems ist oft der erste Schritt zum Verständnis der Gesamtdynamik des Systems. Geht man jedoch über die klassische Mechanik hinaus, wird der Begriff immer komplizierter und muss neu definiert werden. Beispielsweise hängt der Schwerpunkt einer Massenverteilung in besonderer Weise vom gewählten Beobachter ab und er muss sich für Objekte wie schwarzes Löcher eignen. Hier kann er nicht als "Ereignis" (Punkt) in der Raumzeit beschrieben werden. Jede Vorstellung vom Massenschwerpunkt muss also notwendigerweise abstrakter sein. In ihrer Doktorarbeit untersuchte Carla sogenannte geometrostatische Systeme, d.h. asymptotisch flache statische Lösungen der Einstein-Gleichungen im Vakuum. Anders ausgedrückt sind das statisch isolierte relativistische Systeme, deren Materie kompakten Träger hat. Ihr Ziel war es, ein tieferes Verständnis ihrer Asymptotik zu erlangen und mehr Einblick in ihre physikalische Interpretation (z.B. Masse und Schwerpunkt) zu gewinnen. Des weiteren war es spannend, inwieweit klassische und solche relativistischen Begriffe ineinander übergehen im Grenzwert kleiner Geschwindigkeiten. Der Vortrag zeigte, worin die Herausforderungen bestehen und zeigte welche Techniken von ihr erfolgreich angewendet worden waren. Als erstes grundlegendes Problem für nicht statische Systeme erweist sich, dass die Beschreibung vom Beobachter abhängen muss. Eine grundlegende Idee ist es, die Lage des Schwerpunktes als Zentrum einer unendlichen Schar von ineinander liegenden Sphären zu beschreiben. Je größer diese Kugeloberflächen werden, (...)

Erschienen: 05.07.2018
Dauer: 54:59

Weitere Informationen zur Episode "Sternenschwerpunkt"


Algebraic Geometry

Modellansatz 171

Gudrun spent an afternoon at the Max Planck Institute for Mathematics in the Sciences (MPI MSI) in Leipzig. There she met the Colombian mathematician Eliana Maria Duarte Gelvez. Eliana is a PostDoc at the MPI MSI in the Research group in Nonlinear Algebra. Its head is Bernd Sturmfels. They started the conversation with the question: What is algebraic geometry? It is a generalisation of what one learns in linear algebra insofar as it studies properties of polynomials such as its roots. But it considers systems of polynomial equations in several variables so-called multivariate polynomials. There are diverse applications in engineering, biology, statistics and topological data analysis. Among them Eliana is mostly interested in questions from computer graphics and statistics. In any animated movie or computer game all objects have to be represented by the computer. Often the surface of the geometric objects is parametrized by polynomials. The image of the parametrization can as well be defined by an equation. For calculating interactions it can be necessary to know what is the corresponding equation in the three usual space variables. One example, which comes up in school and in the introductory courses at university is the circle. Its representation in different coordinate systems or as a parametrized curve lends itself to interesting problems to solve for the students. Even more interesting and often difficult to answer is the simple question after the curve of the intersection of surfaces in the computer representation if these are parametrized objects. Moreover real time graphics for computer games need fast and reliable algorithms for that question. Specialists in computer graphics experience that not all curves and surfaces can be parametrized. It was a puzzling question until they talked to people working in algebraic geometry. They knew that the genus of the curve tells you about the possible vs. impossible parametrization. For the practical work symbolic algebra packages help. They are based on the concept of the Gröbner basis. Gröbner basis help to translate between representations of surfaces and curves as parametrized objects and graphs of functions. Nevertheless, often very long polynomials with many terms (like 500) are the result and not so straightforward to analyse. A second research topic of Eliana is algebraic statistics. It is a very recent field and evolved only in the last 20-30 years. In the typical problems one studies discrete or polynomial equations using symbolic computations with combinatorics on top. Often numerical algebraic tools are necessary. It is algebraic in the sense that many popular statistical models are parametrized by polynomials. The points in the image of the parameterization are the probability distributions in the statistical model. The interest of the research is to study properties of statistical models using algebraic geometry, for instance describe the implicit equations of the model. (...)

Erschienen: 28.06.2018
Dauer: 51:28

Weitere Informationen zur Episode "Algebraic Geometry"


InfSup-Bedingung

Modellansatz 170

Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung. Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck. Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung. Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist. Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig.

Erschienen: 21.06.2018
Dauer: 20:05

Weitere Informationen zur Episode "InfSup-Bedingung"


Maschinenbau HM

Modellansatz 169

Gudrun sprach mit Gabriel Thäter. Er ist der langjährigen Hörerschaft schon bekannt, denn er hat im Februar 2015 als Schüler über sein BOGY-Praktikum am Institut für angewandte und numerische Mathematik berichtet. Heute ist er Maschinenbau-Student am KIT und absolviert gerade sein viertes Semester. Damit hat Gabriel die drei Semester, in denen Mathematik zum Studienplan für Maschinenbauer gehört - die sogenannte Höhere Mathematik (HM) I-III - erfolgreich abgeschlossen. Außerdem arbeitet er schon das zweite Semester als Tutor in der HM-Ausbildung für das Studienjahr, das nach ihm das Studium aufgenommen hat. Gudrun wollte im Gespräch aus erster Hand erfahren, wie die Mathe-Ausbildung bei ihm angekommen ist. Der Ausgang war, mit welchen Wünschen und Erwartungen Gabriel sich für ein Studium im Maschinenbau entschieden hat. Tatsächlich war Maschinenbau nicht sein erster Wunsch, sondern er hatte sich zunächst für ein Duales Studium in Luft- und Raumfahrttechnik beworben. Das Duale Studium vereinigt Praxisphasen in einem Unternehmen mit Studienphasen an einer Fachhochschule und führt zum Abschluss Bachelor. Während der Studienzeit zahlt das Unternehmen ein Gehalt. Diese Studiensituation ist ist so attraktiv, dass der Wettbewerb um die wenigen Studienplätze immer sehr stark ist - auch wenn es nicht die ideale Ausgangssituation für eine Forschungstätigkeit später ist, da die theoretische Ausbildung nicht so breit aufgestellt sein kann wie im Bachelor an einer Universität. Ein Studium des Maschinenbaus kam Gabriels Wunschbild Raumfahrttechnik am nächsten, zumal mit einem Studium in Karlsruhe für ihn auch kein Wohnort-Wechsel nötig wurde. Inzwischen ist Gabriel mit der "zweiten Wahl" sehr zufrieden, denn sein Studium erweist sich für ihn sehr vielseitig und bereitet ihn auf unterschiedliche Spezialisierungsmöglichkeiten vor. Im Moment plant er, sich in der Richtung Thermische Strömungsmaschinen zu vertiefen. Gabriel war darauf gefasst, dass Mathematik an der Uni etwas mehr Zeit und Mühe kosten wird als in der Schule. Es hat ihn aber doch etwas überrascht, wie sehr sich Stoffdichte und Unterrichtstempo von der Schule unterscheiden. Trotzdem hat er seinen Ehrgeiz darin gesetzt, die Übungsaufgaben möglichst richtig und vollständig zum gegegebnen Termin einzureichen. Um für die schriftliche Prüfung am Ende des Semester zugelassen zu werden, muss man in der Summe der Übungsblätter 1-10 eine gewisse Mindestpunktzahl erreichen. Für Gabriel hat sich die Arbeit in einer Gruppe bewährt. Für die Prüfungsvorbereitung hat er auch alte Klausuren aus der Fachschaft herangezogen. Die Aufteilung des Lernens in der Vorlesung, der zentralen Übung und in den Tutorium hat ihm gut gefallen. Jede Veranstaltung hat ihren Platz und ihren eigenen Nutzen für ihn gezeigt. Als Tutor sieht er nun die Lehre auch ein wenig von der anderen Seite. Er unterrichtet selbst pro Woche eine Stunde, in der die Studierenden Fragen zu den aktuellen Aufgaben stellen (...)

Erschienen: 14.06.2018
Dauer: 32:59

Weitere Informationen zur Episode "Maschinenbau HM"


Erdbebensicheres Bauen

Modellansatz 168

Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen. Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben). In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala. In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen. Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse. Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen. Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger (...)

Erschienen: 07.06.2018
Dauer: 1:24:27

Weitere Informationen zur Episode "Erdbebensicheres Bauen"


Automatic Differentiation

Modellansatz 167

Gudrun talks with Asher Zarth. He finished his Master thesis in the Lattice Boltzmann Research group at the Karlsruhe Institute for Technology (KIT) in April 2018. Lattice Boltzmann methods (LBM) are an established method of computational fluid dynamics. Also, the solution of temperature-dependent problems - modeled by the Boussinesq approximation - with LBM has been done for some time. Moreover, LBM have been used to solve optimization problems, including parameter identification, shape optimization and topology optimization. Usual optimization approaches for partial differential equations are strongly based on using the corresponding adjoint problem. Especially since this method provides the sensitivities of quantities in the optimization process as well. This is very helpful. But it is also very hard to find the adjoint problem for each new problem. This needs a lot of experience and deep mathematical understanding. For that, Asher uses automatic differentiation (AD) instead, which is very flexible and user friendly. His algorithm combines an extension of LBM to porous media models as part of the shape optimization framework. The main idea of that framework is to use the permeability as a geometric design parameter instead of a rigid object which changes its shape in the iterative process. The optimization itself is carried out with line search methods, whereby the sensitivities are calculated by AD instead of using the adjoint problem. The method benefits from a straighforward and extensible implementation as the use of AD provides a way to obtain accurate derivatives with little knowledge of the mathematical formulation of the problem. Furthermore, the simplicity of the AD system allows optimization to be easily integrated into existing simulations - for example in the software package OpenLB which Asher used in his thesis. One example to test the algorithm is the shape of an object under Stokes flow such that the drag becomes minimal. It is known that it looks like an american football ball. The new algorithm converges fast to that shape.

Erschienen: 24.05.2018
Dauer: 34:57

Weitere Informationen zur Episode "Automatic Differentiation"


Computergrafik

Modellansatz 166

Das Treffens des German Chapters of European Women in Mathematics fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Am Rande der Konferenz der Mathematikerinnen sprach Gudrun mit Susanne Krömker. Sie leitet seit 2004 die Computergrafik-Gruppe des Interdisziplinären Zentrums für Wissenschaftliches Rechnen(IWR) an der Ruprecht-Karls-Universität Heidelberg. In der Computergrafik geht es grob gesagt um Analyse und Bearbeitung von Daten und ihre Darstellung als visuelle Information, d.h. es kommen sehr viele unterschiedliche Anforderungen zusammen. Andererseits sind die Themen, die jeweils dahinter stecken auch ganz besonders vielgestaltig. Für Susanne begann 1989 die Faszination mit der Darstellung einer reaktiven Strömung, bei der explosionsartig Wärme freigesetzt wird. Im Experiment ist die Apparatur geborsten, die Simulation liefert die Erklärung durch eine von den Wänden reflektierte Druckwelle und die Visualisierung macht den zeitlich enorm kurzen Explosionsvorgang mit Temperatur- und Druckverteilung im reaktiven Gemisch anschaulich. Anschließend hat sie sich in ihrer Promotion mit partiellen Differentialgleichungen zur Beschreibung katalytischer Prozesse an Oberflächen beschäftigt, sich aber nie ganz von dem Thema Computergrafik getrennt, das in den 1990er Jahren dann richtig Fahrt aufnahm. Heute ist die Computergrafik technisch gesehen eine typische Anwendung für Hochleistungsrechnen. Außerdem gibt es immer wieder interessante Entwicklungen, die die Möglichkeiten von Grafikkarten unkonventionell ausnutzen. Aber es geht auch darum, geeignete Methoden zu entwicklen und zu implementieren, mit denen die von 3D-Scannern erfassten Messdaten auf ihren Informationsgehalt reduziert werden können. Grundsätzlich müssen dabei immer dreidimensionale Vorgänge auf dem zweidimensionalen Bildschirm dargestellt werden. Dazu braucht man projektive Geometrie - ein Thema, das in der Vorlesung mitunter abstrakt und von der Realität weit entfernt scheint. In ihrer Geometrie-Vorlesung für Sudierende der Mathematik kann Susanne ihre Erfahrungen aus der Informatik sehr anschaulich einbringen wie hier im Video für die Fano Ebene. Etwa seit dem Jahr 2000 gab es in der Arbeitsgruppe von Susanne viele besonders interessante und sehr unterschiedliche Projekte. Ein Forschungsschwerpunkt lag dabei in der Kombination von Computertomographie und Oberflächendaten, um aus beiden Bildgebungsverfahren im Resultat ein verbessertes Bild zu erhalten: ILATO-Projekt (Improving Limited Angle computed Tomography by Optical data integration). Außerdem hat sich die enge Zusammenarbeit mit Archäologen, Historikern und Geologen als besonders fruchtbar erwiesen. Beispiele dafür sind der theoriebildende Diskurs zum digitalen Modell des Klosters Lorsch (seit 1991 Weltkulturerbe der UNESCO) oder die Rekonstruktion von Inschriften in Tafeln und auf Grabsteinen, z.B. auf dem jüdischen Friedhof in Worms. Diese Analyse basiert auf Multiskalen Integralinvarianten, (...)

Erschienen: 17.05.2018
Dauer: 36:32

Weitere Informationen zur Episode "Computergrafik"


CAMMP

Modellansatz 165

Gudrun hat sich mit Kirsten Wohak unterhalten. Sie ist seit Januar 2018 in der Arbeitsgruppe Computational Science and Mathematical Methods von Prof. Frank tätig. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik. Thema des Gespräches war jedoch ein ganz besonderes Angebot für Schülerinnen und Schüler: Das Computational and Mathematical Modeling Program (CAMMP) . Zusammen mit Maren Hattebuhr kümmert sie sich um das schon an der RWTH Aachen erprobte Konzept nun auch in Karlsruhe. Beantwortet wird die Frage: Wie funktionieren eigentlich... Animationsfilme, Fitnesstracker, Google, GPS, mp3, Shazam, Solarkraftwerke, Sicherung der Privatsphäre in Sozialen Netzwerken..., ... und was hat das mit Mathe zu tun? Anhand solchen praxisorientierter Fragestellungen aus dem eigenen Alltag werden Schüler und Schülerinnen in die Grundlagen der mathematischen Modellierung eingeführt. Dabei finden mathematische Inhalte, wie beispielsweise Winkelsätze oder Matrizenrechnung Anwendung, die bereits aus dem Unterricht bekannt sind. Neben inhaltlicher Arbeit werden in den Workshops vor allem prozessbezogene Kompetenzen gefördert. Das typische Format ist ein sogenannter CAMMP-day. Er findet jeweils am Schülerlabor Mathematik im Mathebau statt und wird auf Anfrage je nach Themenwahl mit Oberstufen- bzw. Mittelstufenkursen von ein bis zwei wissenschaftlichen Mitarbeitern/-innen durchgeführt. Die Schüler/innen erhalten morgens zunächst eine Einführung, die die Bedeutung von mathematischer Modellierung und Simulation für Wissenschaft und Industrie anhand verschiedener Beispiele veranschaulicht. Anschließend finden die Workshops statt. Nachmittags werden die Ergebnisse von Schülerinnen und Schülern vorgestellt und im Bezug auf die Anfangssituation diskutiert. Seit dem 23. April 2018 läuft für sechs Montage der Schnupperkurs Mathematik zum Thema GPS und Navigation und am heutigen Girls' day findet der Shazam-Kurs statt.

Erschienen: 26.04.2018
Dauer: 35:33

Weitere Informationen zur Episode "CAMMP"


Podcast "Modellansatz"
Merken
QR-Code