Podcast "Modellansatz"

Mathematik und ihre Anwendungen

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Von

Sebastian Ritterbusch

Gudrun Thäter

Teaser

Episoden: Neueste Episoden


Propensity Score Matching

Modellansatz 207

Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen. Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin. Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben. Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen. Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können. Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden. Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), (...)

Erschienen: 13.06.2019
Dauer: 1:09:59

Podcast-Webseite: Episode "Propensity Score Matching"


Zellkerne

Modellansatz 206

Gudrun unterhält sich in dieser Folge mit Lennart Hilbert, dem Leiter des Hilbert Labs am KIT. Das Labor ist Teil des Instituts für Toxikologie und Genetik (ITG), einem multidisziplinären Zentrum für biologische und chemische Forschung am KIT. Lennart Hilbert ist außerdem Juniorprofessor für Systembiologie/Bioinformatik am Zoologischen Institut des KIT. Das Thema von Lennarts Gruppe ist Computational Architectures in the Cell Nucleus. Das kann man auf zwei unterschiedliche Arten interpretieren. Einerseits untersucht Lennarts Gruppe den räumlichen Aufbau des Zellkerns mit Hilfe von Computern. Es heißt aber auch dass man aufgrund der dabei gewonnenen Erkenntnisse als Fernziel Datenverarbeitung mit Hilfe des Zellkernes als Informationsspeicher ermöglichen will. Gudrun und Lennart haben sich im Rahmen eines Treffens des KIT-Zentrums MathSEE kennengelernt, das im letzten Gespräch vorgestellt wurde. Mit der Hilfe von Super Auflösungs Mikroskopie schauen Lennart und seine Gruppe in das Innere von Zellkernen und sehen dabei dreidimensionale Bilder. Diese Bilder gleichen sie mit den Ergebnissen von den bisher standardmäßig durchgeführten Sequenzierexperimenten von Molekularbiologen ab. "Sehen" erfolgt mit empfindlichen Digitalkameras, deren Bilder geeignet gefiltert werden. Dabei ist eine einschränkende Randbedingung, dass die betrachteten Samples gegen Licht empfindlich sind, aber Licht für die visuelle Darstellung unabdingbar nötig ist - je kleiner die Details, desto mehr Licht. Man kann sich unschwer vorstellen, dass zur Bearbeitung diese Art von Fragen Informatik, Physik, Biologie und Mathematik nötig sind. Damit sich im Rahmen der Zusammenarbeit alle einbringen können, ist es hilfreich, wenn die Methoden einfach und die Ergebnisse visuell unmittelbar verständlich sind. Eine Grundannahme ist, dass die räumliche Organisation im Zellkern den Informationsflüssen aus der DNA-Sequenz entspricht. Die treibende Frage ist: Wie funktioniert Gensteuerung? Der betrachtete Regelkreis ist, dass die DNA als Bibliothek funktioniert. Aus einem Teil wird eine RNA-Kopie erstellt, sodass bestimmte Proteine hergestellt werden können. Diese Eiweiße aber steuern anschließend, welche Teile der DNA als nächstes gelesen werden (das schließt den Regelkreis). In der Systembiologie untersucht man dies bisher in Form von Differentialgleichungssystemen auf einer Metaebene. Wie das aber passiert ist aber noch relativ unklar. Die Hoffnung ist: Neues Sehen hilft hier, neues zu lernen und hierfür ist neueste Technik hilfreich. Die Molekulare Ebene ist der Teil der Biologie, wo im Moment am meisten Neues passiert. Lennart hat in Bremen Physik studiert und anschließend an der McGill University in Montréal in Physiologie promoviert. Hier hat er zum ersten Mal zwischen Theorie und Experiment in zwei Gruppen gleichzeitig gearbeitet. In Dresden am Zentrum für Systembiologie (Max Planck Institut für Molekulare Zellbiolgie und Genetik und Max Planck Institut (...)

Erschienen: 06.06.2019
Dauer: 57:48

Podcast-Webseite: Episode "Zellkerne"


MathSEE

Modellansatz 205

Gudrun spricht in dieser Folge mit Tanja Hagedorn, die Geschäftsführerin des KIT-Zentrums MathSEE ist. Das Karlsruher Zentrum für Technologie (KIT) besteht aus sehr vielen Instituten, die in fünf thematischen Bereichen zusammengeschlossen sind. Andererseits gibt es die eher horizontal durch alle Bereiche hindurch sortierenden Gremien, die KIT-Zentren heißen. Hier sind Forscherinnen und Forscher Mitglied und es "werden Fragestellungen, die von fundamentaler Bedeutung für die Existenz und Weiterentwicklung der Gesellschaft sind oder die aus dem Streben nach Erkenntnis resultieren, bearbeitet." ( lt. Webseite). Sieben solche Zentren gibt es seit Gründung des KITs: Energie, Information · Systeme · Technologien, Mobilitätssysteme, Elementarteilchen- und Astroteilchenphysik, Klima und Umwelt, Materialien, Mensch und Technik. Allerdings gab es ursprünglich kein Thema, unter dem die vielen Aktivitäten, die die Mathematik am KIT für die Gesellschaft leistet (und die auch nicht nur in der KIT-Fakultät für Mathematik stattfinden), ein Zuhause finden könnte. Deshalb entstand der Wunsch nach einem passenden Zentrum im KIT. Das KIT-Zentrum Mathematics in Sciences, Engineering, and Economics, kurz "MathSEE", gibt es nun seit Oktober 2018. In MathSEE kooperieren theoretisch-mathematisch und anwendungsorientiert arbeitenden Wissenschaftlerinnen und Wissenschaftler in gemeinsamen Forschungsprojekten. Aufgabe von MathSEE ist es auch, diese Forschung nach außen hin sichtbar zu machen sowie neue interdisziplinäre mathematische Forschung am KIT zu fördern. Da gilt es vor allen Dingen auch, Vermittlung zwischen Großforschungs- und Universitätsbereich zu betreiben. MathSEE bietet unter anderem eine Anschubförderung für neue interdisziplinäre Projekte] an, deren erste Ausschreibungsrunde gerade erfolgreich abgeschlossen wurde und die ersten sieben Projekte eine Förderung erhalten haben. Die nächste Bewerbungsfrist ist Ende Juni 2019. Keimzelle von MathSEE war insbesondere der Sonderforschungsbereich 1173: Wellenphänomene: Analysis und Numerik. Doch auch andere bestehende große Drittmittelprojekte in der Mathematik wie das Graduiertenkolleg 2229: Asymptotic Invariants and Limits of Groups and Spaces bilden die Grundlage für die Entstehung von MathSEE. Sie haben dazu geführt, dass die besondere Stellung der Mathematik an der technischen Forschungseinrichtung KIT und die Forschungsstärke der Mathematik sichtbarer wurden. Die Initiative der Sprecherin Marlis Hochbruck hat die Gründung von MathSEE dann ins Rollen gebracht. Der engagierte Wissenschaftliche Sprecher von MathSEE, Prof. Martin Frank, ist in seiner Doppelrolle als Professor in der Mathematik und SCC-Direktor perfekt für die Aufgabe. Um gezielter zusammen arbeiten zu können, ist MathSEE mit seinen momentan knapp 130 Mitgliedern weiter untergliedert in Methodenbereiche: MB 1: Mathematische Strukturen: Formen, Geometrie, Zahlentheorie und Algebra, MB 2: Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation, MB 3: Inverse Probleme, Optimierung, MB 4: Stochastische Modellbildung, statistische Datenanalyse und Vorhersage. (...)

Erschienen: 30.05.2019
Dauer: 45:23

Podcast-Webseite: Episode "MathSEE"


Monte-Carlo Simulationen

Modellansatz 204

Gudrun spricht mit Alina Sage, die gerade eine Masterarbeit am Deutschen Krebsforschungszentrum in Heidelberg (DKFZ) abgeschlossen hat. Mit Mark Bangert, dem Leiter der Arbeitsgruppe dort hatte Gudrun vo einigen Monaten über die Physik der Strahlentherapie gesprochen. Auch mit Alina gibt es schon eine Folge im Modellansatz, denn sie hat über ihre Erfahrungen als Studienbotschafterin berichtet. In der Masterarbeit von Alina geht es darum, die Unsicherheiten beim Bestrahlungsvorgang besser zu modellieren. In der Fachsprache heißt das noch recht junge Forschungsgebiet Uncertainty Quantification. Es gibt natürlich unterschiedliche Ursachen, die zu einer nicht punktgenauen Umsetzung des Bestrahlungsplanes für Patienten führen. Alina wählte daraus zwei, die ihr besonders wichtig erschienen: * dass der Strahl nicht aus einer Punktquelle kommt, sondern die Quelle um ein Zentrum herum streut * dass der Patient nicht ganz exakt an dem Ort liegt, wie er in der Simulation angenommen wird, sondern etwas verschoben dazu. Beide Prozesse lassen sich recht gut mit einer Normalverteilung beschreiben. Eine Normalverteilung wird durch eine glockenförmige Kurve dargestellt. Das Maximum ist der Wert, der als der wahrscheinlichste angenommen wird. Er heißt Erwartungswert. Wie stark die Prozesse von diesem Wert abweichen, ist in der Glockenkurve dadurch ausgedrückt, ob die Kurve steil zu diesem Maximum hin anssteigt und anschließend wieder fällt (dann weicht sie wenig ab) oder eher breit aussieht. Das wird im Parameter Varianz (oder Standardabweichung) ausgedrückt. Um mit Hilfe von Simulationen die Unsicherheit zu beziffern, verwendet Alina das Instrument der Monte-Carlo-Simulation. Sie benutzt die Open source software TOPAS. Insbesondere heißt Monte-Carlo-Simulation, dass sie eine riesige Anzahl von möglichen Pfaden der Strahlungspartikel simulieren lässt, um dann aus Tausenden von solchen Verläufen eine Näherung für den Erwartungswert der im Gewebe deponierten Bestrahlungsdosis zu errechnen. Die Partikel folgen dabei jeweils einem Random Walk. Im Prinzip muss man diese Simulationen für beide Prozesse machen, die mit ihrer Unsicherheit betrachtet werden. Hier kommt Alina jedoch eine Eigenschaft der Normalverteilung zu Gute: wenn zwei normal verteilte Prozesse unabhängig voneinander einwirken, lässt sich die Summe ihrer Wirkungen in einem einzigen normal verteilten Prozess ausdrücken. D.h. hier, dass Alina für diesen Prozess nur einmal die Monte-Carlo-Simulation durchführen muss. Das spart extrem viel Rechenleistung ein. Im Prozess der unabsichtlichen Verschiebung des Patienten um kleine Längen ist es insbesondere von Belang, wenn z.B. in der Nähe der Lunge bestrahlt wird. Fast alle Organe und Gewebe im Körper haben eine Dichte, die der von Wasser entspricht. Damit kann man den Weg der Partikel in Wechselwirkung mit dem Körper recht einfach modellieren. Wenn jedoch die Luft gefüllte Lunge auf dem Partikelweg ist, wird viel weniger Energie deponiert (...)

Erschienen: 02.05.2019
Dauer: 28:59

Podcast-Webseite: Episode "Monte-Carlo Simulationen"


Emmy Noether

Modellansatz 203

Gudrun war im Dezember 2018 wieder zu Gast an der FU in Berlin. Schon zum dritten Mal ist Mechthild Koreuber ihre Gesprächspartnerin für den Podcast Modellansatz. Der Anlass des Gespräches war, dass im November 2018 unter dem Schlagwort Noethember die Mathematikerin Emmy Noether in den Fokus gerückt wurde. Auf unterschiedlichen Plattformen und in vielseitigen Formaten wurden die einzelnen Tage eines ganzen Monats der Darstellung ihres Lebens und Werks gewidmet. Für jeden Tag gab es Vorschläge für einzelne Stationen und Aspekte ihres Lebens, die in unterschiedlicher Art und Weise aufgenommen und dargestellt wurden. Unser Episodenbild entstand auch im Rahmen dieser Aktion und wurde uns von Constanza Rojas-Molina zur Verfügung gestellt. Unser Podcast hat im Dezember etwas verspätet auch zum Noethember beigetragen. Die Veröffentlichung des zweiten der beiden aufgezeichneten Emmy-Noether-Gespräche hat nun einige Monate Abstand zum November 2018. Das hat einen guten Grund: im Gespräch geht es neben der Person Emmy Noether auch um die Idee einer Konferenz aus Anlass des 100. Jahrestages ihrer Habilitation. Die Details der Konferenz waren im Gespräch noch etwas vage, aber die im Dezember gemachten Pläne werden Anfang Juni in Berlin tatsächlich Realität. Für diesen Teil des Gespräches stieß Rupert Klein dazu. Gudrun hatte sich im Rahmen des Noethember an Mechthild Koreuber gewandt, weil diese ein Buch über Emmy Noether und ihre Schule geschrieben hat, das 2015 im Springer Verlag erschienen ist. Schon beim ersten Gespräch zu Gender und Mathematik entstand der Plan, später eine Folge zu der Seite von Emmy Noether zu führen, die im Buch dargestellt wird. Nun gab es dafür zwei konkrete Anlässe, den Plan zu realisieren. Was hat Mechthild so sehr an der Person Noethers fasziniert, dass sie sich viele Jahre mit der Person und der daraus entstandenen Schule beschäftigt hat neben ihren anderen beruflichen Aufgaben? Dabei hatte sie erst sehr spät im Mathematikstudium den Namen Emmy Noether zum ersten mal gehört. Schon damals faszinierte sie der Widerspruch zwischen der Leistung der Pionierin und ihrer Anziehungskraft auf den mathematischen Nachwuchs zur eigenen prekären Stellung im Wissenschaftsbetrieb und ihrer Außenseiterrolle als Frau. Sie wollte ergründen, woher das starkes Streben nach Wissen und dem Verbleiben in der Mathematik unter schwierigsten Bedingungen kam. Der sehr berühmte und gestandene Kollege Hermann Weyl sagte selbst "Sie war mir intellektuell überlegen". Am Beispiel Emmy Noethers schärft sich die Frage danach: was ist mathematische Produktivität, unter welchen Rahmenbedingungen kann sie entstehen, unterschiedliche Felder verbinden und ganz neue Theorierahmen für Mathematik entwickeln. Warum ist gerade Emmy Noether das gelungen? Im Umfeld von Noether gibt es weitere sehr interessante Frauen, die heute größtenteils fast vergessen sind wie Marie-Louise Dubreil-Jacotin, die erste französische Mathematikprofessorin. (...)

Erschienen: 25.04.2019
Dauer: 59:37

Podcast-Webseite: Episode "Emmy Noether"


Frequenzkämme

Modellansatz 202

Gudrun traf sich zum Gespräch mit Janina Gärtner. Sie hat an der KIT-Fakultät Mathematik gerade ihre Promotion mit dem Titel "Continuation and Bifurcation of Frequency Combs Modeled by the Lugiato-Lefever Equation" abgeschlossen. Die Arbeit war Teil der Forschung im SFB 1173: Wellenphänomene und ist interdisziplinär zwischen Mathematik und Elektrotechnik entstanden. Im Zentrum stehen Frequenzkämme, die Janina theoretisch und praktisch betrachtete. Einerseits geht es um analytische Untersuchungen zur Existenz und Regularität von bestimmten Lösungen der zugehörigen Gleichung. Andererseits werden numerisch bestimmte Fälle gelöst, für die sich die Arbeitsgruppe in der E-Technik besonders interessiert. Frequenzkämme sind optische Signale, die aus vielen Frequenzen bestehen und mehrere Oktaven überspannen können. Sie entstehen beispielsweise indem monochromatisches Laserlicht in einen Ringresonator eingekoppelt wird und die resonanten Moden des Ringresonators angeregt werden. Durch Mischung und aufgrund des nichtlinearen Kerr-Effekts des Resonatormaterials werden Frequenzkämme mit unterschiedlichen Eigenschaften erzeugt. Die mathematische Beschreibung des elektrischen Feldes innerhalb des Ringresonators erfolgt durch die Lugiato-Lefever Gleichung. Von besonderem Interesse sind dabei sog. Solitonen-Kerrkämme („Soliton Kerr Combs“ oder auch „Dissipative Kerr-Soliton Combs“), die aus im Resonator umlaufenden zeitlich und räumlich stark lokalisierten Solitonen-Impulsen entstehen. Solitonen-Kerrkämme zeichnen sich durch eine hohe Zahl an Kammlinien und damit eine große optische Bandbreite, durch geringes Phasenrauschen und durch eine hohe Robustheit aus. Ausgangspunkt von Janinas Untersuchungen ist der Existenzbeweis von Soliton-artigen Frequenzkämmen für den Fall, dass die Dispersion positiv ist. Anschließend können die Parameterbereiche angegeben werden, für die das praktisch auftritt. Mathematisch ist der erste Trick, dass man sich auf zeitlich konstante (stationäre) Lösungen beschränkt. Da örtlich nur eine Variable betrachtet wird, wird aus der partiellen eine gewöhnliche Differentialgleichung. Für diese Gleichung betrachtet Janina zunächst einen sehr einfachen Fall (sogenannte homokline Triviallösungen): Lösungen, die gegen eine Konstante streben. Die Gleichung wird dafür zunächst ohne Dämpfungs- und ohne Anregungsterme betrachtet. Es zeigt sich, dass die einzigen homoklinen Lösungen rein imaginär sind. Anschließend wird zuerst die Anregung hinzugenommen und mit Aussagen zu Eindeutigkeit und Verzweigungen können die Lösungen hier fortgesetzt werden. Selbst nach Hinzunahme der Dämpfung funktionieren noch Fortsetzungsargumente in einer gewissen Umgebung. Das passt aber gut zu der Idee, dass man die Verzweigungsstellen finden möchte. Mit Hilfe der Software pde2path können analytisch alle Verzweigungspunkte bestimmt werden. Anschließend werden anhand von konkreten Beispielen alle primären Verzweigungen vom Ast der Triviallösungen (...)

Erschienen: 11.04.2019
Dauer: 32:02

Podcast-Webseite: Episode "Frequenzkämme"


Bestrahlungstherapie

Modellansatz 201

Gudrun sprach im Janur 2019 mit Mark Bangert vom Deutschen Krebsforschungszentrum in Heidelberg. Er arbeitet dort seit vielen Jahren als Physiker in der medizinischen Physik. Sein Thema ist die Optimierung von Bestrahlungstherapien. Der Punkt, an dem sich die Arbeit von Mark und Gudrun seit Ende 2018 berühren, ist eine Masterarbeit von Alina Sage in der Bestrahlungsplanung. Ein Gespräch mit ihr werden wir ebenfalls bald veröffentlichen. Es gibt viele und unterschiedliche Betätigungsfelder für Physiker in der medizinischen Physik, unter anderem in der Strahlentherapie oder Radiologie (CT- und MRI-Bildgebung). Marks Hauptaufgabe ist die Simulation und Optimierung von Strahlungsdosen die Tumor-Kranke appliziert bekommen, um die Nebenwirkungen zu minimieren und die Wirkung zu maximieren. Die Modelle hierfür haben eine geometrische Basis und berücksichtigen den Strahlungstransport. Hier geht es um die Abschwächung und Auffächerung in Interaktion mit Haut und inneren Organen. Die Therapie an und für sich ist schon stark digitalisiert. Jede Krebstherapie startet mit einem CT-Bild. Basierend darauf wird ein digitales Patientenmodel entwickelt und segmentiert, um den Tumor abzugrenzen. Das Abgrenzen des Tumors leisten hauptsächlich die Mediziner, Methoden der automatischen Bilderkennung halten hier nur sehr langsam Einzug. Anschließend wird entschieden: Wo soll bestrahlt werden und wo soll möglichst viel Energie absorbiert werden - gleichzeitg aber auch: Wo muss man vorsichtig sein (z.B. Herz, Speiseröhre, Niere, Rektum usw.). Anschließend wird dann simuliert, wie Strahlung auf das digitale Modell des Patienten wirkt. Man kann die Dosis und die zeitliche, räumliche Verteilung der Strahlung variieren und optimieren. Das führt auf eine patientenspezifische Optimierung der Dosis-Gabe, die nur für häufig auftretende Tumore gut standardisierbar und automatisierbar ist. Zeitlich hat sich bewährt, dass die Strahlung über 30 Tage in 6 Wochen verteilt verabreicht wird, da sich gesundes Gewebe so besser von der Strahlungsbelastung erholen kann. Aber viele Probleme bleiben offen: Unter anderem können Patienten nicht ganz still halten, sondern müssen beispielsweise atmen. Deshalb bewegt sich der Tumor während der Bestrahlung. Der momentane Ausweg ist, dass man ein größeres Volumen rings um den Tumor markiert. Eine bessere Variante wäre, wenn die Strahlung nur eingeschaltet ist, sobald der Tumor im optimalen Fenster ist oder wenn der Strahl der Tumorbewegung folgt. Dadurch würden die Nebenwirkungen stark verringert. An solchen Fragen forscht Marks Gruppe bevor nach ausführlichen Qualitätssicherungsmaßnahmen derartige Neuerungen zur Standardbehandlung werden. Bestrahlungshard- und Software werden zusammen entwickelt und mit vorhandener Bildgebung integriert. Auch diese Tools müssen verbessert werden, um immer genauer zu werden. Der kranke Mensch ändert sich über den langen Behandlungszeitraum von bis zu 6 Wochen oft sehr stark und der Tumor erst recht. (...)

Erschienen: 05.04.2019
Dauer: 43:58

Podcast-Webseite: Episode "Bestrahlungstherapie"


Gravitationslose Strömung

Modellansatz 200

Gudrun ist zu Besuch an der ETH in Zürich und spricht dort mit Laura Keller. Laura hat an der ETH Mathematik und theoretische Physik studiert und wurde dort auch promoviert. Anschließend forschte und unterrichtete sie jeweils einige Jahre in Münster, Lausanne und Luzern. Heute arbeitet sie als Senior Scientist an Strömungsmodellen, wie sie in Anwendungen in der Biologie, z.B. im menschlichen Körper vorkommen. Hier gibt es ganz unterschiedliche biologische und medizinische Fragen. Bekanntlich enthält der menschliche Körper viel Wasser. Die Bewegung von Blut oder Gehirnflüssigkeit ist aber nicht wie die von Wasser, sondern u.a. durch im Fluid gelöste Zellen mitbestimmt, die mit der Flüssigkeit in unterschiedlich breiten Gefäßen transportiert werden. Auch Tumorwachstum lässt sich mit solchen Gleichungen studieren. Wenn man eine konkrete Frage im Blick hat, muss man als nächstes entscheiden, was man genau erreichen will: braucht man ein Modell, mit dem man Beobachtungen im Prinzip nachvollziehen kann oder muss es ein Modell sein, das kalibriert ist und möglichst genau experimentelle Daten abbildet und Prognosen geben kann? Im Einzelnen heißt das zu entscheiden, welche Effekte sind wichtig und werden in das Modell einbezogen? Beispielsweise kann man für eine partikelbehaftete Strömung sowohl Partikel als auch die Strömung gleichzeitig vollständig modellieren oder man homogenisiert beide zu einer Flüssigkeit mit Eigenschaften, die so ungefähr die wichtigen Eigenschaften der Mischung hat. Klassisch nimmt man hier gern Oldroyd-B-Modelle für Partikelströmungen, da sie sowohl ein elastisches als auch ein viskoses Strömungsverhalten zeigen. Sind gelöste Zellen aber solche Partikel oder nicht? Ein denkbarer Zugang, biologische in Flüssigkeit gelagerte Zellen zu untersuchen wäre es auch, mit den unterschiedlichen Dichten als Hauptinformation zu arbeiten. Es ist nicht so klar, wohin man am sinnvollsten vom Standardmodell abweicht, um die Modelle realitätsnäher zu machen. Laura kommt aus der geometrischen Analysis und macht deshalb besonders gern die Arbeiten zur prinzipiellen mathematischen Absicherung von Modellen. D.h. sie beweist in ihren Arbeiten Existenz, Eindeutigkeit und Regularität von Lösungen der sehr nichtlinearen Gleichungssysteme. Mathematisch ist es immer hilfreich, wenn man im Modell bestimmte Struktureigenschaften wie Symmetrie oder Energieminima ausnutzen kann. Ein wichtiges Thema sind für sie Strömungen ohne Gravitation. Im Experiment kann man z.B. einen horizontalen Zylinder betrachten und durch eine Drehbewegung um die Symmetrieachse die mittlere Gravitation zum verschwinden bringen. Die publikumswirksamen Anwendungen sind hier Probleme mit Muskeln und Bandscheiben im Weltall. Allerdings sind physiologische Befunde für bettlägerige Personen ähnlich wie die für Personen im Weltall, denn denen fehlt der für ihren Bewegungsapparat wichtige Wechsel zur Gravitationsrichtung über den Verlauf des Tages hinweg. (...)

Erschienen: 21.03.2019
Dauer: 1:00:59

Podcast-Webseite: Episode "Gravitationslose Strömung"


Methan

Modellansatz 199

Gudrun traf sich im Februar 2019 mit Jennifer Schröter und Christian Scharun vom Institut für Meteorologie und Klimaforschung - Atmosphärische Spurengase und Fernerkundung zum Gespräch. Christian, Sebastian und Gudrun waren auf dem ersten Treffen des MATHSEE-Methodenbereichs Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation ins Gespräch gekommen und hatten ein baldiges Podcastgespräch verabredet. Christian holte noch seine Kollegin Jennifer ins Boot und im Februar 2019 saßen die drei (ohne Sebastian) in Gudruns Büro, um sich über die Weiterentwicklung von Klimamodellen zu unterhalten. Das Wetter und das Klima werden durch Vorgänge in der Erdatmosphäre in der Kopplung mit Wärme- und Wassertransport in den Ozeanen bestimmt. Auch der Mensch hat darauf einen Einfluss. Zum ersten Mal wurde das wahrscheinlich durch die Entstehung des Ozon-Loches ins breite Bewußtsein geholt. Im Projekt, für das Christian arbeitet, geht es u.a. darum, mit einem Computermodell nachzubilden, inwieweit austretendes Methan (ein Spurengas, das z.B. an Erdgas-Bohrlöchern auftritt) einen Einfluss auf die Entwicklung des Klimas nehmen kann. Grundlage hierfür sind sehr genaue Messungen und die Weiterentwicklung des Computermodells. Im Modell werden Strömungs-, Strahlungs- und chemische Prozesse berücksichtigt. Es wird in enger Zusammenarbeit mit dem Deutschen Wetterdienst (DWD), dem Max-Planck-Institut für Meteorologie Hamburg (MPI-M) und dem Deutschen Klimarechenzentrum (DKRZ) entwickelt. Das Modell wird zur täglichen Wettervorhersage wie auch Klimaprognosen verwendet. Die Gruppe Globale Modellierung MOD des IMK-ASF fügt ein Modul zur Simulation der atmosphärischen Chemie vom Boden bis in die mittlere Atmosphäre hinzu. Das Thema ist in sich fächerübergreifend, weil physikalische und chemische Prozesse verstanden werden müssen und auf den modernsten Großcomputern simuliert werden. Christian hat sein Lehramtsstudium mit dem ersten Staatsexamen für die Fächer Geographie und Mathematik abgeschlossen. Jennifer ist promovierte Physikerin und seit einigen Jahren Hauptenwicklerin für chemische Prozesse in ICON-ART. Als ein wichtiges Produkt der Arbeit der Gruppe sieht sie auch an, Daten, die bei der Berechnung entstehen, der Öffentlichkeit in einer nutzbaren Art zur Verfügung zu stellen. In den Punkten der Modellentwicklung, Performanceverbesserung und Bereitstellung von Forschungsdaten arbeitet sie mit dem Rechenzentrum des KITs, dem Steinbuch Center for Computing eng zusammen.

Erschienen: 07.03.2019
Dauer: 51:48

Podcast-Webseite: Episode "Methan"


Nutzerkomfort

Modellansatz 198

Gudrun unterhält sich in dieser Episode mit Marcel Schweiker. Marcel arbeitet in der KIT-Fakultät für Architektur im Fachgebiet Bauphysik & Technischer Ausbau. Die Gruppe schlägt in ihren Themen Brücken zum Bauingenieurwesen, dem Maschinenbau und der Psychologie. Sie interessieren sich für Lösungen im Neubau und Bestand, die langfristig hohen Nutzungskomfort mit niedriger Umwelt- und Ressourcenbelastung verbinden. Marcel hat Architektur in Kassel studiert und sich dabei mehr und mehr für die Rolle des Menschen im umbauten Raum interessiert. Deshalb hat er das Architekturstudium durch ein Ergänzungsstudium Technik-, Wirkungs- und Innovationsmanagement abgerundet. Parallel hat er noch ein Zusatzstudium Energie und Umwelt absolviert und ist zertifizierter Gebäudeenergieberater. Im Anschluss hat er sich für eine Promotion in Japan entschieden. An der Tokyo City University (Laboratory for Built Environmental Research) wurde er 2010 in Umweltinformationswissenschaften promoviert. Seitdem ist er am KIT tätig und hat sich inzwischen auch hier habilitiert. Ein schönes Anschauungsobjekt für die Themen des Gespräches ist das 2015 bezogene Kollegiengebäude Mathematik. Der erste Sommer im Haus begann nämlich schon mit dem Einzug im April 2015. Damals hatte man sich erhofft, mit den nötigen Beschattungsmaßnahmen für das Atrium noch etwas Zeit zu haben und das Gebäude bezogen, obwohl die Technik noch nicht funktionierte. In mehreren Schritten sind inzwischen die geplanten Maßnahmen für die Lüftung und Beschattung des Gebäudes im Wesentlichen in Betrieb gegangen und zeigen sich als durchaus geeignet, einen Komfort auch im Sommer zu ermöglichen. Trotzdem hat an dem sehr sonnigen Februartag des Gespräches, die niedrig stehende Sonne das Büro sehr aufgeheizt. Im Sommer sorgt die Regelung der Außenbeschattung rechtzeitig für Verdunklung - im Winter hätte Gudrun selbst vor der Mittagspause für Beschattung sorgen müssen, um das zu vermeiden. Schon sind Marcel und Gudrun mitten im Gespräch über das für und wider von Kontrolle durch zentrale Modelle oder durch die Personen im Raum. Ein Forschungsergebnis ist dass, die empfundene Kontrolle sich auf das thermische Empfinden der Personen auswirkt. Ob man ein Fenster prinzipiell öffnen kann oder nicht hat Einfluss auf thermische Zufriedenheit. Solche Experimente werden z.B. im Raumklimateststand LOBSTER der Arbeitsgruppe durchgeführt. Dort werden experimentelle Studien durchgeführt, während derer die Studienteilnehmer*innen unter unterschiedlichen Temperatur- und Lichtbedingungen arbeiten. Es werden dabei auch physiologische Reaktionen des Körpers gemessen. Der Teststand hat eine etwa 10mx10m große Grundfläche und enthält zwei Büroräume. Es ist eine Temperaturregelung über alle Wände (inkl. Decke und Boden) möglich. So ist es auch möglich, Bedingungen außerhalb der Norm zu untersuchen. Man weiß, dass sich der menschliche Körper an warme Temperaturen anpassen kann. Überhaupt ist die Wahrnehmung der Temperatur relativ (...)

Erschienen: 01.03.2019
Dauer: 1:05:32

Podcast-Webseite: Episode "Nutzerkomfort"


Podcast "Modellansatz"
Merken
QR-Code