Podcast "Modellansatz"

Mathematik und ihre Anwendungen

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Von

Sebastian Ritterbusch

Gudrun Thäter

Teaser

Episoden: Neueste Episoden


Poiseuillestrom

Modellansatz 215

In dieser Folge spricht Gudrun mit Ayca Akboyraz und Alejandro Castillo. Beide sind im Masterstudiengang Chemieingenieurwesen bzw. Bioingenieurwesen am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Ayca stammt aus der Türkei und Alejandro ist in Mexico aufgewachsen. Beide haben in ihren Heimatländern deutsche Schulen besucht. Anschließend haben sie sich jeweils um ein Studium in Deutschland beworben. Ayca hatte sich zunächst für Wirtschaftsingenieurwesen entschieden, hat aber nach einiger Zeit gemerkt, dass ihr Chemieingenieurwesen viel mehr liegt. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. In der klassischen Theorie der Strömungsmechanik werden auf der Grundlage der Erhaltung von Masse, Impuls und Energie und unter berücksichtigung typischer Materialeigenschaften die Navier-Stokes-Gleichungen als Modell für das Strömungsverhalten von z.B. Wasser hergeleitet. Die beiden unbekannten Größen in diesem System partieller Differentialgleichungen sind das Geschwindigkeitsfeld und der Druckgradient. Wenn geeigneten Rand- und Anfangsbedingungen für die Geschwindigkeit vorgeschrieben werden, liegt im Prinzip die Lösung des Gleichungssystem fest. Sie kann aber in der Regel nur numerisch angenähert berechnet werden. (...)

Erschienen: 15.08.2019
Dauer: 47:10

Podcast-Webseite: Episode "Poiseuillestrom"


Gastransport

Modellansatz 214

In dieser Folge spricht Gudrun mit Larissa Dietz und Jonathan Jeppener. Beide sind im Masterstudiengang Verfahrenstechnik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. Das Projekt von Larissa und Jonathan betrachtete den Stofftransport von CO2-Gas in flachen Photobioreaktoren. Mit ihrer großen Oberfläche erlauben sie viel einfallendes Licht. Algenzucht im industriellen Maßstab ist unerlässlich, um die weltweite Nachfrage nach schnell nachwachsender Nahrung und erneuerbaren Energiequellen zu befriedigen. Derzeit nutzen die meisten Produzenten kosteneffiziente und einfach zu bedienende offene Teiche. Die Nachfrage nach gut steuerbaren geschlossenen Photobioreaktoren steigt durch die erhöhte Effizienz der gut einstellbaren Reaktorbedingungen. Weitere Vorteile gegenüber offenen Reaktoren sind ein geringerer CO2- und Wasserverlust und eine größere Vielfalt an kultivierbaren Arten. Für ein optimales Algenwachstum müssen die regulierende Flüssigkeitsdynamik, der Lichttransfer, biochemische Reaktionen und deren gegenseitige Wechselwirkung optimiert werden. Die Untersuchung dieser Parameter mit Hilfe gekoppelter numerischer Simulationen vermeidet teure Experimente und trägt somit zur Verbesserung (...)

Erschienen: 08.08.2019
Dauer: 29:19

Podcast-Webseite: Episode "Gastransport"


GAMM Juniors

Modellansatz 213

Gudrun hat sich Ende Mai 2019 in Mannheim mit Kerstin Lux und Benjamin Unger verabredet, um mit ihnen über ihre Erfahrungen als GAMM Junioren zu sprechen. Benjamin ist aktuell Sprecher dieses Nachwuchsgremiums der Gesellschaft für Angewandte Mathematik und Mechanik (kurz GAMM). Kerstin wurde Ende 2018 als GAMM Juniorin vorgeschlagen und ist jetzt das erste Jahr dabei. Gudrun und Kerstin hatten sich im März 2019 in Bonn bei einer Konferenz über Optimierung kennengelernt und das Podcastgespräch verabredet. Kerstin ist zur Zeit Doktorandin in der Arbeitsgruppe von Simone Göttlich an der Uni in Mannheim, weshalb sich Mannheim als guter Treffpunkt für ein ruhiges Gespräch anbot. Etwas später am gleichen Tag wurde auch das Podcastgespräch mit Simone Göttlich geführt. Die GAMM sagt über das Gremium: "GAMM-Junioren sind junge NachwuchswissenschaftlerInnen und Mitglieder der GAMM, die für die Jahre 2012 bis 2014 erstmals aus einer Reihe an Vorschlägen ernannt wurden. In der Hauptversammlung der GAMM im Rahmen der Jahrestagung 2011 in Graz wurde die Nominierung junger Nachwuchswissenschaftler beschlossen, die sich durch herausragende Leistungen in Diplom- und/oder Doktorarbeiten auf dem Gebiet der Angewandten Mathematik oder Mechanik auszeichnen. Ende 2011 wurden daraufhin die ersten 10 GAMM-Junioren nominiert, wobei eine Vorauswahl auf Basis von Vorschlägen durch die Hochschulvertreter der GAMM getroffen wurde. In jedem Jahr werden 10 weitere GAMM-Junioren ernannt, so dass die Gruppe nach einer Anlaufphase von drei Jahren auf 30 Personen angewachsen sein wird. Nach drei Jahren endet automatisch die Mitgliedschaft als GAMM-Junior. Während dieser Zeit sind die GAMM-Junioren beitragsbefreit. Mittels der kostenfreien GAMM-Mitgliedschaft und der dynamischen personellen Zusammensetzung der Gruppe soll eine zusätzliche finanzielle und ideelle Förderung von Nachwuchswissenschaftlern erreicht werden. Durch die Überschneidung der Amtszeit der Mitglieder können diese ihr fachliches und organisatorisches Wissen an die nachfolgenden Generationen der GAMM Juniors weitergeben." Die Rolle GAMM-Junior wird also als Preis für Studierende, Doktoranden und Post-Doktoranden verliehen und beinhaltet eine kostenlose Mitgliedschaft in der GAMM für drei Jahre. Kerstin und Benjamin erleben es als lebendiges Netzwerk von gleichgesinnten, die voneinander sowohl fachlich als auch darüber hinaus lernen und die sich gegenseitig unterstützen. Die GAMM vertritt Interessen der angewandten Mathematik und Mechanik vor allem auf europäischer und deutscher Ebene. Kerstin und Benjamin erleben insbesondere die Jahrestagungen als Familientreffen. Die Forschungsthemen sind oft Disziplinen übergreifend und die GAMM ermöglicht es, eine gemeinsame Sprache zu erarbeiten zwischen Mathematik und Mechanik. Die GAMM gibt drei Zeitschriften heraus: die GAMM-Mitteilungen, die ZAMM und die PAMM (Proceedings der Jahrestagung). Natürlich sind die Jahrestagungen stets offen für nicht-Mitglieder. (...)

Erschienen: 01.08.2019
Dauer: 1:00:04

Podcast-Webseite: Episode "GAMM Juniors"


Formoptimierung

Modellansatz 212

Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist. Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert. Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden. In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen: mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren. Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend (...)

Erschienen: 18.07.2019
Dauer: 23:24

Podcast-Webseite: Episode "Formoptimierung"


Batteries

Modellansatz 211

In June 2019 Gudrun talked with Serena Carelli. Serena is member of the Research Training Group (RTG) Simet, which is based in Karlsruhe, Ulm and Offenburg. It started its work in 2017 and Gudrun is associated postdoc therein. The aim of that graduate school is to work on the better understanding of Lithium-ion batteries. For that it covers all scales, namley from micro (particles), meso (electrodes as pairs) to macro (cell) and involves scientists from chemistry, chemical engineering, material sciences, electro engineering, physics and mathematics. The group covers the experimental side as well as modeling and computer simulations. Serena is one of the PhD-students of the program. She is based in Offenburg in the group of Wolfgang Bessler (the deputy speaker of the RTG). Her research focusses on End-of-life prediction of a lithium-ion battery cell by studying the mechanistic ageing models of the graphite electrode among other things. Mathematical modelling and numerical simulation have become standard techniques in Li-ion battery research and development, with the purpose of studying the issues of batteries, including performance and ageing, and consequently increasing the model-based predictability of life expectancy. Serena and others work on an electrochemical model of a graphite-based lithium-ion cell that includes combined ageing mechanisms: 1. Electrochemical formation of the solid electrolyte interphase (SEI) at the anode, 2. breaking of the SEI due to mechanical stress from volume changes of the graphite particles, causing accelerated SEI growth, 3. gas formation and dry-out of the electrodes, 4. percolation theory for describing the loss of contact of graphite particles to the liquid electrolyte, 5. formation of reversible and irreversible Li plating. The electrochemistry is coupled to a multi-scale heat and mass transport model based on a pseudo-3D approach. A time-upscaling methodology is developed that allows to simulate large time spans (thousands of operating hours). The combined modeling and simulation framework is able to predict calendaric and cyclic ageing up to the end of life of the battery cells. The results show a qualitative agreement with ageing behavior known from experimental literature. Serena has a Bachelor in Chemistry and a Master's in Forensic Chemistry from the University of Torino. She worked in Spain, the Politécnico de Torino and in Greece (there she was Marie Curie fellow at the Foundation for Research and Technology - Hellas) before she decided to spend time in Australia and India.

Erschienen: 11.07.2019
Dauer: 56:57

Podcast-Webseite: Episode "Batteries"


Elastoplastizität

Modellansatz 210

Gudrun spricht mit Lydia Wagner über Elastoplastizität. Lydia hat im Rahmen ihrer im Mai 2019 abgeschlossenen Promotion Versetzungen in kristallinen Festkörpern numerisch simuliert. Elastizität beschreibt die (reversible) Verformung von Festkörpern unter Belastung. Bei zu großer Belastung reagieren Materialien nicht mehr elastisch, sondern es entstehen irreversible Deformationen. Das nennt man Plastizität. Im Rahmen der Kontinuumsmechanik wird die Deformation durch ein Kräftegleichgewicht basierend auf der Impuls- und Drehimpulserhaltung modelliert. Die konkreten Eigenschaften des Materials werden hierbei über eine spezifische Spannungs-Dehnungs-Relation berücksichtigt. Dabei tritt Plastizität auf, wenn im Material eine kritische Spannung erreicht wird. In klassischen phänomenologischen Plastizitätsmodellen der Kontinuumsmechanik wird dieses Verhalten über eine Fließbedingung in Abhängigkeit der Spannung modelliert. Diese wird durch eine Fließregel und ggf. eine Verfestigungsregel ergänzt, die das plastische Materialverhalten nach Erreichen der Fließgrenze beschreiben. Plastizität ist ein physikalischer Prozess, der auf Kristallebene stattfindet. Ein kristalliner Festkörper wird plastisch verformt, wenn sich eindimensionale Gitterfehler – Versetzungen – durch Belastung im Kristallgitter bewegen, d. h. wenn sich die atomaren Bindungen umordnen. Durch Mittelungsprozesse kann dieses diskrete Verhalten in einem Kontinuumsmodell, dem Continuum dislocation dynamics (CDD) Modell, beschrieben werden. Eine numerische Realisierung von diesem erweiterten Modell und die Evaluation im Vergleich zu diskreten Simulationen ist die Themenstellung der Dissertation von Lydia. Die Physik erarbeitete sich Lydia in Zusammenarbeit mit Materialwissenschaftlern und Ingenieuren in der DFG-Forschergruppe Dislocation based Plasticity am KIT.

Erschienen: 04.07.2019
Dauer: 45:54

Podcast-Webseite: Episode "Elastoplastizität"


Verkehrsoptimierung

Modellansatz 209

Gudrun spricht in dieser Folge mit Simone Göttlich über Verkehrsoptimierung. Die Verabredung zum Gespräch war im März am Rande einer Tagung in Bonn erfolgt. Am 23. Mai 2019 war Gudrun dann einen Tag zu Gast in der Arbeitsgruppe von Simone an der Universität in Mannheim. Im Sport starten sie gemeinsam unter dem doppeldeutigen Namen "Team Göttlich". Verkehr erleben wir täglich zu Fuß, im Auto, auf dem Fahrrad oder im ÖPNV. Wir haben oft das Gefühl, dass einiges besser geregelt sein könnte, um den Verkehrsfluss zu verbessern. In der Stadt vermischen sich viele unterschiedliche Fragen sehr komplex, da viele unterschiedliche Verkehrsmittel um den Raum konkurrieren. Auf der Autobahn kann man sich auf den Autoverkehr konzentrieren. Aber auch dort muss das unterschiedliche Verhalten von schnell fahrenden Autos und langsamen Lastwagen berücksichtigt werden. Außerdem beeinflussen auch Auf- und Abfahrten die Durchlässigkeit der Autobahnspuren. Es gibt also viele Fragen und Probleme im Zusammenhang mit Verkehr. Ihre Beantwortung kann allen das Leben erleichtern und Kosten erheblich senken. Das Gespräch mit Simone beginnt beim Thema Daten. Wie viele Autos, Personen und Fahrräder bestimmte Strecken zu bestimmten Zeiten nutzen, wird stichprobenhaft recht genau gezählt. Zu einigen Zeiten fließt der Verkehr gut, aber z.B. zur sogenannten Rushhour kommt er ins stocken. Die gezählten Daten fließen in Verkehrsprognosemodelle beispielsweise für Routenplanung ein. Wir rufen dann einfach eine App auf und lassen uns die besten Routen vorschlagen. Für jede wird von der App eine voraussichtliche Reisedauer geschätzt. Für Autobahnverkehr werden außerdem auch ganz aktuelle Daten ergänzt. Um gemeldete Staus aber auch um die Verkehrsdichte auf besonders wichtigen Autobahnabschnitten, wo das automatisiert beobachtet wird. Als ein Beispiel dient im Gespräch von Gudrun und Simone die Autobahn A5 in der Nähe von Frankfurt, wo schon lange Jahre eine Anzeige gute Dienste leistet, die bei Einfahrt in den Ballungsraum die aktuell zu erwartende Fahrtzeit zu markanten Punkten wie beispielsweise dem Flughafen angibt. Als jemand, der sein Flugzeug erreichen muss, kann man dann ruhiger durch den dichten Verkehr reisen und sich an die reduzierte Höchstgeschwindigkeit halten, da man Planungssicherheit hat. Als Nebeneffekt senkt dies die Unfallwahrscheinlichkeit, weil auf hektische Überholmanöver verzichtet wird. Effekte, die man mit Verkehrsflußmodellen simulieren möchte sind erwartbare Engpässe beim Einziehen von Fahrspuren oder auch der sogenannte Stau aus dem Nichts, der bei hoher Verkehrsdichte auftreten kann. Wir alle wissen, dass auf Autobahnen Geschwindigkeitseinschränkungen auf Baustellen vorbereiten, um das Einfädeln der Spuren zu vereinfachen. Wenn der Verkehr dicht genug ist, breitet sich die Störung, die beim Einfädeln entsteht, entgegen der Fahrtrichtung wie eine Schockwelle aus. Das ist eine Beobachtung, die sicher alle schon einmal gemacht haben. (...)

Erschienen: 27.06.2019
Dauer: 41:06

Podcast-Webseite: Episode "Verkehrsoptimierung"


Research Software Engineering

Modellansatz 208

Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research! Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln. Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten. Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden. Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte. Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten. Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? (...)

Erschienen: 20.06.2019
Dauer: 1:59:37

Podcast-Webseite: Episode "Research Software Engineering"


Propensity Score Matching

Modellansatz 207

Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen. Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin. Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben. Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen. Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können. Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden. Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), (...)

Erschienen: 13.06.2019
Dauer: 1:09:59

Podcast-Webseite: Episode "Propensity Score Matching"


Zellkerne

Modellansatz 206

Gudrun unterhält sich in dieser Folge mit Lennart Hilbert, dem Leiter des Hilbert Labs am KIT. Das Labor ist Teil des Instituts für Toxikologie und Genetik (ITG), einem multidisziplinären Zentrum für biologische und chemische Forschung am KIT. Lennart Hilbert ist außerdem Juniorprofessor für Systembiologie/Bioinformatik am Zoologischen Institut des KIT. Das Thema von Lennarts Gruppe ist Computational Architectures in the Cell Nucleus. Das kann man auf zwei unterschiedliche Arten interpretieren. Einerseits untersucht Lennarts Gruppe den räumlichen Aufbau des Zellkerns mit Hilfe von Computern. Es heißt aber auch dass man aufgrund der dabei gewonnenen Erkenntnisse als Fernziel Datenverarbeitung mit Hilfe des Zellkernes als Informationsspeicher ermöglichen will. Gudrun und Lennart haben sich im Rahmen eines Treffens des KIT-Zentrums MathSEE kennengelernt, das im letzten Gespräch vorgestellt wurde. Mit der Hilfe von Super Auflösungs Mikroskopie schauen Lennart und seine Gruppe in das Innere von Zellkernen und sehen dabei dreidimensionale Bilder. Diese Bilder gleichen sie mit den Ergebnissen von den bisher standardmäßig durchgeführten Sequenzierexperimenten von Molekularbiologen ab. "Sehen" erfolgt mit empfindlichen Digitalkameras, deren Bilder geeignet gefiltert werden. Dabei ist eine einschränkende Randbedingung, dass die betrachteten Samples gegen Licht empfindlich sind, aber Licht für die visuelle Darstellung unabdingbar nötig ist - je kleiner die Details, desto mehr Licht. Man kann sich unschwer vorstellen, dass zur Bearbeitung diese Art von Fragen Informatik, Physik, Biologie und Mathematik nötig sind. Damit sich im Rahmen der Zusammenarbeit alle einbringen können, ist es hilfreich, wenn die Methoden einfach und die Ergebnisse visuell unmittelbar verständlich sind. Eine Grundannahme ist, dass die räumliche Organisation im Zellkern den Informationsflüssen aus der DNA-Sequenz entspricht. Die treibende Frage ist: Wie funktioniert Gensteuerung? Der betrachtete Regelkreis ist, dass die DNA als Bibliothek funktioniert. Aus einem Teil wird eine RNA-Kopie erstellt, sodass bestimmte Proteine hergestellt werden können. Diese Eiweiße aber steuern anschließend, welche Teile der DNA als nächstes gelesen werden (das schließt den Regelkreis). In der Systembiologie untersucht man dies bisher in Form von Differentialgleichungssystemen auf einer Metaebene. Wie das aber passiert ist aber noch relativ unklar. Die Hoffnung ist: Neues Sehen hilft hier, neues zu lernen und hierfür ist neueste Technik hilfreich. Die Molekulare Ebene ist der Teil der Biologie, wo im Moment am meisten Neues passiert. Lennart hat in Bremen Physik studiert und anschließend an der McGill University in Montréal in Physiologie promoviert. Hier hat er zum ersten Mal zwischen Theorie und Experiment in zwei Gruppen gleichzeitig gearbeitet. In Dresden am Zentrum für Systembiologie (Max Planck Institut für Molekulare Zellbiolgie und Genetik und Max Planck Institut (...)

Erschienen: 06.06.2019
Dauer: 57:48

Podcast-Webseite: Episode "Zellkerne"


Podcast "Modellansatz"
Merken
QR-Code