Modellansatz 044
Geometrie und Analysis sind auf den ersten Blick zwei sehr unterschiedliche Disziplinen in der Mathematik. Wie sie jedoch wunderbar zusammenpassen, erläutert Prof. Dr. Tobias Lamm im Gespräch mit Gudrun Thäter. Ein klassisches Beispiel für die geometrische Analysis ist das Problem der Dido: Wie kann man bei festgelegtem Umfang ein möglichst großes Gebiet abstecken? Es geht also darum den Flächeninhalt unter einer Nebenbedingung zu maximieren, und das ist ein typisches Variationsproblem, das stark von der gegebenen Geometrie abhängt. Ein anderes Beispiel sind Minimalflächen, wie man sie beim Olympiastadion in München und Seifenblasen sehen kann. Überraschenderweise sind Minimalflächen nicht immer eindeutig. Ein Weg dies zu analysieren geht über die Beschreibung des Problems durch Partielle Differentialgleichungen. Oft kann man über das Maximumsprinzip die Eindeutigkeit beweisen: Bei linearen elliptischen partiellen Differentialgleichungen sagt das Prinzip aus, dass das Maximum entweder auf dem Rand angenommen wird oder konstant ist. Betrachtet man nun die Differenz zweier angenommen unterschiedlicher Lösungen zu gleichen Randwerten, so folgt, dass die Differenz wegen der Linearität auch eine Lösung ist, und wegen des Maximumprinzips konstant 0 ist. Damit waren als Resultat dieses Widerspruchbeweises die zwei Lösungen identisch. Bei allgemeineren, u.a. nicht-linearen, Problemstellungen muss dieses Prinzip nicht unbedingt gelten, und so kann es zu mehreren Lösungen zur gleichen Aufgabenstellung kommen. Aktuelle Forschungsbereiche in der geometrischen Analysis sind der mittlere Krümmungsfluss und die geometrische Evolutionsgleichung im Allgemeinen. Ebenso geht es um die Frage, mit welcher minimalen Regularität für die Anfangsdaten, noch eine Lösung rekonstruiert werden kann. Ein weiteres Forschungsgebiet sind die recht jungen Willmore-Flächen. Das Willmore-Funktional ist sehr eng verwandt zur Plattengleichung, d.h. der Approximation des Durchbiegens von Platten. Es hat aber auch Anwendungen in der Zellbiologie in der Modellierung der Form der Zellen. Letztlich kommt es auch in der allgemeinen Relativitätstheorie zum Einsatz. Sehr aktuell ist der Beweis der Poincaré-Vermutung, die 2002 von Perelman bewiesen werden konnte.
Erschienen: 15.01.2015
Dauer: 41:35
Modellansatz 043
Auch Menschenströme können mathematisch beschrieben und mit geeigneten Modellen auch simuliert werden. Damit können große Veranstaltungen im Vorfeld besser geplant und ausgelegt werden, damit Engpässe oder sogar Katastrophen wie bei der Love-Parade 2010 möglichst verhindert werden. Henrieke Benner hat dazu die Parameter für die Simulation von Fußgängern im Gegenstrom kalibriert und spricht mit Gudrun Thäter über die Verfahren, Herausforderungen und Erkenntnisse. Mathematisch betrachtet sie die Fußgänger in einem mikroskopischen Modell, wo jede Person als eigenes Objekt simuliert wird. Entsprechend der Situation wirken nun virtuelle Kräfte auf diese Objekte, so verhindert eine virtuelle Abstoßungskraft zwischen zwei Personen, dass diese zusammenstoßen. Die betrachtete Simulation wird durch eine Vielzahl von Parametern konfiguriert, die mit realen Experimenten kalibriert werden müssen. Dies kann durch eine Optimierung der Parameter gelöst werden, die die Simulation den Experimenten möglichst weitgehend annähert.
Erschienen: 08.01.2015
Dauer: 25:44
Modellansatz 042
Jonathan Zachhuber war zum 12. Weihnachtsworkshop zur Geometrie und Zahlentheorie zurück an seine Alma Mater nach Karlsruhe gekommen und sprach mit Gudrun Thäter über Teichmüllerkurven. Kurven sind zunächst sehr elementare ein-dimensionale mathematische Gebilde, die über den komplexen Zahlen gleich viel reichhaltiger erscheinen, da sie im Sinne der Funktionentheorie als Riemannsche Fläche verstanden werden können und manchmal faszinierende topologische Eigenschaften besitzen. Ein wichtiges Konzept ist dabei das Verkleben von Flächen. Aus einem Rechteck kann man durch Verkleben der gegenüberliegenden Seiten zu einem Torus gelangen. Polynome in mehreren Variablen bieten eine interessante Art Kurven als Nullstellenmengen zu beschreiben: Die Nullstellen-Menge des Polynoms p(x,y)=x^2+y^2-1 ergibt über den reellen Zahlen den Einheitskreis. Durch Ändern von Koeffizienten kann man die Kurve verformen, und so ist die Nullstellenmenge von q(x,y)=2x^2+y^2-1 eine Ellipse. Über den komplexen Zahlen können diese einfachen Kurven dann aber auch als Mannigfaltigkeiten interpretiert werden, die über Karten und Atlanten beschrieben werden können. Das ist so wie bei einer Straßenkarte, mit der wir uns lokal gut orientieren können. Im Umland oder anderen Städten braucht man weitere Karten, und alle Karten zusammen ergeben bei vollständiger Abdeckung den Straßenatlas. Auch wenn die entstehenden abstrakten Beschreibungen nicht immer anschaulich sind, so erleichtern die komplexen Zahlen den Umgang mit Polynomen in einem ganz wichtigen Punkt: Der Fundamentalsatz der Algebra besagt, dass der Grad des Polynoms gleich der Anzahl der Nullstellen in ihrer Vielfachheit ist. Also hat nun jedes nichtkonstante Polynom mindestens eine Nullstelle, und über den Grad des Polynoms wissen wir, wie viele Punkte sich in der Nullstellenmenge bewegen können, wenn wir an den Koeffizienten Veränderungen vornehmen. Eine gute Methode die entstehenden Flächen zu charakterisieren ist die Bestimmung möglicher geschlossener Kurven, und so gibt es beim Torus beispielsweise zwei unterschiedliche geschlossene Kurven. Die so enstehende Fundamentalgruppe bleibt unter einfachen Deformationen der Flächen erhalten, und ist daher eine Invariante, die hilft die Fläche topologisch zu beschreiben. Eine weitere wichtige topologische Invariante ist das Geschlecht der Fläche. Die Teichmüllerkurven entstehen nun z.B. durch das Verändern von einem Koeffizienten in den Polynomen, die uns durch Nullstellenmengen Kurven beschreiben- sie sind sozusagen Kurven von Kurven. Die entstehenden Strukturen kann man als Modulraum beschreiben, und so diesen Konstruktionen einen Parameterraum mit geometrischer Struktur zuordnen. Speziell entstehen Punkte auf Teichmüllerkurven gerade beim Verkleben von gegenüberliegenden parallelen Kanten eines Polygons; durch Scherung erhält man eine Familie von Kurven, die in seltenen Fällen selbst eine Kurve ist. Ein Beispiel ist das Rechteck, das durch Verkleben zu einem Torus wird, aber durch Scherung um ganz spezielle Faktoren zu einem ganz anderen Ergebnis führen kann. Die durch Verklebung entstandenen Flächen kann man als Translationsflächen in den Griff bekommen. Hier liefert die Translationssymmetrie die Methode um äquivalente Punkte zu identifizieren. Für die weitere Analyse werden dann auch Differentialformen eingesetzt. Translationen sind aber nur ein Beispiel für mögliche Symmetrien, denn auch Rotationen können Symmetrien erzeugen. Da die Multiplikation in den komplexen Zahlen auch als Drehstreckung verstanden werden kann, sind hier Rotationen als komplexe Isomorphismen ganz natürlich, und das findet man auch in den Einheitswurzeln wieder.
Erschienen: 25.12.2014
Dauer: 48:06
Modellansatz 041
Prof. Dr. Wolfgang Härdle war im Rahmen des Workshop zu High Dimensional, High Frequency and Spatial Data in Karlsruhe und sprach mit Gudrun Thäter über sein Forschungsgebiet. Er befasst sich an der Humboldt-Universität zu Berlin mit der Bewertung von Risiken und ist am Lehrstuhl der Nachfolger von Ladislaw Bodjevich, der unter anderem für seine Arbeiten zum Gesetz der kleinen Zahlen berühmt geworden ist: Es sagt aus, dass auch wenn alle 37 Roulette-Zahlen gleich wahrscheinlich sind, nach 37 Würfen im Durchschnitt nur etwa 2/3 der Zahlen aufgetreten sind. Damit steht es nur scheinbar in gewissem Kontrast zum Gesetz der großen Zahlen, das bestimmt, wie die Auftrittshäufigkeit sich für viele Würfe der Gleichverteilung annähert. Das Flanken-Maß ist eine Eigenschaft von Profit and Loss (PnL, GuV)-Funktionen oder Zufallsvariablen, die die Dicke von Flanken oder Entferntheit von seltenen Ereignissen modelliert. Schon Ladislaw Bodjevich hat erkannt, dass das die Bewertung von Extremrisiken und wenige vorhandene Daten einen Widerspruch darstellt. Die Normalverteilung ist die Grenzverteilung gewichteter Zufallsgrößen, wenn der Grenzwert existiert, also bei vielen Ereignissen das Gesetz der großen Zahlen zum Einsatz kommen kann. Bei wenigen Ereignissen gelangt man zur Poisson-Verteilung. Obwohl sie theoretisch viele Prozesse gut beschreiben sollte, funktioniert die Normalverteilung in der Realität aus vielen Gründen oft schlechter als erwartet: Sich verändernde Prozesse können Mischverhältnisse von an sich normal-verteilten Bestandteilen verändern, ebenso kann sich die Volatilität bzw. die Streuung um den Erwartungswert über die Zeit verändern. Es kann aber auch eine vollkommene andere Verteilung vorliegen wie zum Beispiel die Extremwertverteilung, Weibull-Verteilung mit algebraisch abfallenden Tails oder der Pareto-Verteilung. Leider ist die stochastische Konvergenz von Extermwertverteilungen sehr schlecht, und erschwert so Vorhersagen und Bewertungen. So wurden strukturierte Finanzprodukte mit multivariaten Modellen und einer Normalverteilungsannahme viel zu vereinfacht modelliert. So waren CDO-Produkte daher vor der Finanzkrise ab 2007 viel zu billig und hatten einen beträchtlichen Anteil an der Krise. Die Risikobewertung ist aber nicht nur für die Bewertung von Katastrophen-Bonds für Versicherungen gegen Erdbeben wichtig, sondern auch für die Analyse von EEG von Kindern. Sie hilft aber auch den Risikofaktor Mensch im Sinne der Behaviour Finance zu verstehen.
Erschienen: 18.12.2014
Dauer: 26:41
Modellansatz 040
Prof. Dr. Wolfgang Lück befasst sich am HIM (Hausdorff Research Institute for Mathematics) und dem Mathematisches Institut der Universität Bonn mit der Topologie von Mannigfaltigkeiten und Flächen wie auf einem Torus oder einer Kugel. Speziell für Kugeln und Kreise gibt es die Sphären-Notation S^{n-1}, die die Oberflächen des Objekts im \mathbb{R}^n beschreiben. Damit ist S^1 eine Kreislinie und S^2 die Kugeloberfläche. Auch wenn Flächen lokal ähnliche Eigenschaften haben, kann die Situation global ganz anders aussehen: So unterscheidet sich die Vorstellung einer flachen Erde lokal nicht von der Kugelform der Erde, global sieht es aber ganz anders aus. Ebenso kennen wir auch jetzt noch nicht sicher die Topologie des Weltalls. Dazu beschränkt sich unser Vorstellungsraum oft auf drei Dimensionen, obwohl schon die relativistische Physik uns lehrt, unsere Umgebung als Raumzeit in 4 Dimensionen zu verstehen. Bei der Klassifikationen von Flächen auf unterschiedlichen Körpern verwendet man Homöomorphismen um ähnliche Flächen einander zuzuordnen, und letztlich unterscheiden sich die Flächenklassen dann nur noch durch die Anzahl der Löcher bzw. dem Geschlecht, was dann auch die Eigenschaften der Flächen bestimmt. Ein Weg das Geschlecht der Fläche zu bestimmen ist die Triangularisierung, eine andere Möglichkeit bietet die Analyse des Spektrums eines Operators wie dem Laplace-Operators, das auch in der Topologie von Graphen zum Einsatz kommen kann. Ein Beispiel für die Anwendung des Laplace-Operators ist die Wärmeleitungsgleichung, die zwar die lokalen Eigenschaften des Wärmetransports beschreibt, jedoch das Wärmegleichgewicht nach unendlicher Zeit die globalen Zusammenhänge beinhaltet. Ein wichtiger Begriff ist hier der Integralkern, der hilft Lösungen durch Integraloperatoren darzustellen. Ein wichtiger mathematischer Begriff ist dabei der L^2-Funktionenraum, der über die Fourier-Transformation auf bestimmten Gebieten mit dem l^2-Folgenraum identifiziert werden kann, und man dadurch auf Lösungen von partiellen Differentialgleichungen schließen kann. Besonderes Interesse liegt in der Topologie auf Invarianten, wie der Fundamentalgruppe, mit der man auch den Fundamentalsatz der Algebra beweisen kann. Ein weiteres Beispiel für eine Invariante ist die Windungszahl, die gerade in der Funktionentheorie zum Residuensatz und effizienten Integralberechnungsmethoden führt. Dabei entstehen oft nicht kommutative Verknüpfungen, wie man es zum Beispiel von der Matrizenmultiplikation oder den Symmetriegruppen kennen kann. Ein elementarer Einstieg in die Topologie ist auch über die Knotentheorie möglich, wo ebenso Knoten-Invarianten gefunden werden können, und über zum Beispiel Jones-Polynome klassifiziert werden können. Im weiteren Gespräch geht es um Themen wie die unterschiedlichen Bilder der Mathematik in Gesellschaft, Schule und Universität, die Bedeutung der Mathematik für Gesellschaft, die Ausbildung für Industrie und das Lehramt, und über den Stand und Möglichkeiten der Gleichberechtigung und Förderung von Frauen in der Wissenschaft.
Erschienen: 11.12.2014
Dauer: 1:16:08
Modellansatz 039
Auf den Vorschlag von Henning Krause verbreiteten viele Forschende unter dem Hashtag #1TweetForschung ihr Forschungsthema in Kurzform. So auch Lorenz Adlung, der in der Abteilung Systembiologie der Signaltransduktion am Deutschen Krebsforschungszentrum in Heidelberg die mathematische Modellbildung für biologische Prozesse erforscht. Bei der Anwendung einer Chemotherapie leiden Krebspatienten oft unter Blutarmut. Hier kann neben der Bluttransfusion das Hormon Erythropoetin, kurz EPO, helfen, da es die körpereigene Erzeugung von roten Blutkörperchen (Erythrozyten) unterstützt. Leider ist EPO als Dopingmittel bekannt, und um dem Doping noch deutlicher Einhalt zu gebieten, wurde im November 2014 in Deutschland ein Entwurf eines Anti-Doping-Gesetz vorgelegt. Trotz gängigem Einsatz und erprobter Wirkung von EPO ist die genaue Wirkung von EPO auf Krebszellen nicht bekannt. Daher verfolgt Lorenz Adlung den Ansatz der Systembiologie, um im Zusammenwirken von Modellbildung und Mathematik, Biologie und Simulationen sowohl qualitativ und quantitativ analysieren und bewerten zu können. Vereinfacht sind rote Blutkörperchen kleine Sauerstoff-transportierende Säckchen aus Hämoglobin, die auch die rote Farbe des Bluts verursachen. Sie stammen ursprünglich aus Stammzellen, aus denen sich im Differenzierungs-Prozess Vorläuferzellen bzw. Progenitorzellen bilden, die wiederum durch weitere Spezialisierung zu roten Blutkörperchen werden. Da es nur wenige Stammzellen gibt, aus denen eine unglaubliche große Anzahl von Trillionen von Blutkörperchen werden müssen, gibt es verschiedene Teilungs- bzw. Proliferationsprozesse. Das Ganze ergibt einen sehr komplexen Prozess, dessen Verständnis zu neuen Methoden zur Vermehrung von roten Blutkörperchen führen können. Den durch Differenzierung und Proliferation gekennzeichnete Prozess kann man mathematisch beschreiben. Eine zentrale Ansichtsweise in der Systembiologie der Signaltransduktion ist, Zellen als informationsverarbeitende Objekte zu verstehen, die zum Beispiel auf die Information einer höheren EPO-Konzentration in der Umgebung reagieren. Von diesem Ansatz werden durch Messungen Modelle und Parameter bestimmt, die das Verhalten angemessen beschreiben können. Diese Modelle werden in Einklang mit bekannten Prozessen auf molekularer Ebene gebracht, um mehr über die Abläufe zu lernen. Die erforderlichen quantitativen Messungen basieren sowohl auf manuellem Abzählen unter dem Mikroskop, als auch der Durchflusszytometrie, bei der durch Streuung von Laserlicht an Zellen durch Verwendung von Markern sogar Aussagen über die Zelloberflächen getroffen werden können. Zusätzlich kann mit der Massenspektrometrie auch das Innere von Zellen ausgemessen werden. In diesem Anwendungsfall werden die mathematischen Modelle in der Regel durch gekoppelte gewöhnliche Differenzialgleichungen beschrieben, die Zell- oder Proteinkonzentrationen über die Zeit beschreiben. Die Differenzialgleichungen und deren Parameter werden dabei sowohl mit Messungen kalibriert, als auch mit den Kenntnissen in der Molekularbiologie in Einklang gebracht. Die Anzahl der Parameter ist aber oft zu hoch, um naiv auf geeignete zu den Messungen passende Werte zu gelangen. Daher wird unter anderem das Latin Hypercube Sampling verwendet, um schnell nahe sinnvollen Parameterwerten zu gelangen, die durch gradienten-basierte Optimierungsverfahren verbessert werden können. Die Basis für diese Art von Optimierungsverfahren ist das Newton-Verfahren, mit dem man Nullstellen von Funktionen finden kann. Ein wichtiger Aspekt im Umgang mit Messergebnissen ist die Berücksichtigung von Messfehlern, die auch vom Wert der Messung abhängig verstanden werden muss- denn nahe der Messgenauigkeit oder der Sättigung können die relativen Fehler extrem groß werden. Die Bestimmung der Modellparameter ist schließlich auch ein Parameteridentifikationsproblem, wo insbesondere durch eine Sensitivitätsanalyse auch der Einfluss der geschätzten Parameter bestimmt werden kann. (...)
Erschienen: 27.11.2014
Dauer: 1:33:01
Modellansatz 038
Ein Graph ist eine Menge von Knoten und Kanten zwischen diesen Knoten. Man unterscheidet zwischen gerichteten Graphen, wo Einbahnstraßen darstellbar sind, oder den ungerichteten Graphen, wo Beziehungen zwischen zwei Knoten immer beidseitig sind. Beispiele sind die graphische Darstellung von Beziehungen in einem sozialen Netz oder Straßennetze, für deren Verarbeitung das Forschungsgebiet von Christian Schulz immer bedeutender wird, wie wir in seinem Gespräch mit Gudrun Thäter erfahren. Eine wichtige Aufgabe im Umgang mit Graphen ist die Aufteilung (oder fachsprachlich Partitionierung), von Graphen in kleinere Teile. Dies kommt z.B. der Parallelisierung der Arbeit auf den Graphen zugute, und ist unumgänglich, wenn Graphen eine Größe haben, die nicht mehr von einem Prozessor bearbeitet werden kann. Ein wichtiges Merkmal ist hier, die Aufteilung möglichst gleichmäßig vorzunehmen, damit die Aufteilung von z.B. Rechenzeit gleichmäßig erfolgt, und gleichzeitig wenig Kommunikation zwischen der Bearbeitung der Einzelteile erforderlich ist. Es geht um eine möglichst gute Skalierbarkeit der Graphverarbeitung. Ein wichtiges Anwendungsproblem ist die Routenplanung, bei der zwischen zwei Punkten auf der Erde die zeitlich kürzeste Verbindung berechnet werden soll. In der Informatik ist der Dijkstra-Algorithmus der passende Basis-Algorithmus für diese Aufgabe, doch er ist für große Graphen in seiner ursprünglichen Form sehr ineffizient. In Kombination mit einer passenden Graphpartitionierung und Algorithmen kann man das Verfahren deutlich effizienter ausführen und beschleunigen. Ein klassisches Verfahren zur Aufteilung ist das Mehrschichtverfahren über die Laplace-Matrix, wo ausgenutzt wird, dass zwischen den Eigenwerten der Matrix und der Schnittstruktur des Graphen enge Zusammenhänge bestehen. Dieses Verfahren wurde zum Mehrschichtverfahren für Graphen weiterentwickelt, bei dem in einer sogenannten Kontraktion benachbarte Knoten und parallele Kanten jeweils zusammengeführt werden, und der Graph zu einem kleinen und kantengewichteten Graph vereinfacht wird. Schließlich wird das Problem auf einem vereinfachten, groben Gitter gelöst, und dann jeweils mit lokalen Suchen auf feinere Graphen erweitert. Für die Kontraktion werden Heuristiken und Kantenbewertungsfunktionen verwendet. Ein weiterer Ansatz sind auch evolutionäre Algorithmen. Dabei wurde eine allgemeinere Umgebung geschaffen, die auf eine weite Klasse von Optimierungsproblemen angewendet werden kann. Die Graphentheorie ist natürlich auch Teil der diskreten Mathematik, und besonders berühmt ist auch das Traveling Salesperson Problem. Gleichzeitig ist das Thema aber auch in der Theoretischen Informatik, im Algorithm Engineering und in der Software-Entwicklung beheimatet.
Erschienen: 20.11.2014
Dauer: 35:51
Modellansatz 037
In den Materialwissenschaften ist man immer auf der Suche nach neuen Werkstoffen und Materialien. Sehr vielversprechend sind dabei Metallschäume, dessen Wärmeleitungseigenschaften Anastasia August am Institut für angewandte Materialien erforscht und über die sie uns im Gespräch mit Sebastian Ritterbusch erzählt. Zu den besonderen Eigenschaften von Metallschäumen gehören unter anderem die große Oberfläche bzw. Grenzfläche im Verhältnis zum Volumen wie bei Lungenbläschen und die hohe Wärmeleitungsfähigkeit im Verhältnis zum Gewicht. Gleichzeitig können Metallschäume mit Luft oder anderen Materialien wie Paraffin gefüllt werden, um besondere Eigenschaften zu erhalten. Neben Bierschaum ist auch der Badeschaum eine Möglichkeit Schäume mit ihrem außergewöhnlichem Verhalten kennenzulernen. Das geschäumte Materialgemisch erhält dabei aber typischerweise nicht durchschnittliche Materialeigenschaften, sondern es können Eigenschaften der einzelnen Materialien teilweise kombiniert werden; z.B. erhält ein Metall-Paraffinschaum eine recht hohe Wärmeleitfähigkeit vom Metall gepaart mit einer hohen Wärmekapazität und vor Allem mit einem günstigen Schmelzpunkt (45-80°C) vom Paraffin und ist damit ein sehr effizienter Latentwärmespeicher. In der Natur finden sich Schaumstrukturen zum Beispiel in Knochen, die bei hoher Stabilität ein deutlich geringeres Gewicht als ein massives Material haben. Aber auch für Knochenimplantate sind Metallschäume aus Titan durch die hohe Stabilität bei geringem Gewicht und guter Verträglichkeit sehr interessant. Problematisch ist für den Einsatz von Metallschäumen, dass noch viele quantitative Messgrößen fehlen, die Herstellung noch recht teuer ist, und insbesondere nur in kleinen Größen produziert werden kann. Als Unterscheidungsmerkmal hat sich neben der Unterscheidung in offen oder geschlossen porigen Schaum die ppi-Zahl als Maß für die Porendichte etabliert, dabei zählt man die Poren pro Inch (Zoll, entspricht 2,54 cm). Dazu erfasst man auch die mittlere Porengröße (Durchmesser), ihre Standardabweichung, die Porosität, die mittlere Stegdicke und deren Form. Weiterhin können sich Größen in verschiedenen Richtungen im Material unterscheiden, und dadurch merklich deren Eigenschaften verändern. Für die Herstellung von Metallschäumen gibt es unterschiedliche Verfahren: Zwei typische Vertreter sind das Pressen mit dem anschließenden Schmelzen von gemischtem Metall- und Metallhybridpulvern für geschlossen porige feste Schäume oder Gießverfahren, wo der Metallschaum für offen porige Materialien durch keramische Negativabbildungen von Polyurethan-Schäumen nachempfunden wird. Schon früh waren Schäume als möglichst dichte Packungen ein Forschungsfeld in der Mathematik. Im Jahr 1994 haben Weaire-Phelan eine noch optimalere regelmäßige Schaumstruktur veröffentlicht, die in der Architektur des zu den olympischen Sommerspielen 2008 in Peking errichteten Nationalen Schwimmzentrums verewigt wurde. Das ebenfalls zu den Sommerspielen errichtete Vogelnest hat im Gegenteil eine zufälligere Struktur. Lange hatte man keine verlässlichen Aussagen über die Wärmeleitfähigkeit von Metallschäumen. Bei einer Leitfähigkeit von etwa 200 W/(mK) von Aluminium erreicht ein Metallschaum Leitfähigkeiten zwischen 5-13 W/(mK) während man bei Luft von einer Leitfähigkeit von etwa 0.025 W/(mK) ausgehen kann. Außerdem haben Metallschäume einen hohen Oberflächenanteil, dies bezeichnet die vorhandene Oberfläche im Verhältnis zum Volumen. Während ein voller Metallwürfel ein Verhältnis von etwa 6 m^2/m^3 hat, kann ein Schaum ein Verhältnis von bis zu 500 m^2/m^3 erreichen. Eine interessante Fragestellung ist auch, ab welcher Porengröße die natürliche Konvektion in mit Luft gefüllten Metallschäumen eine Rolle gegenüber der Wärmeleitung spielt. Die relevante Größe ist hier die Rayleigh-Zahl, die für Metallschäume typischer Porengrößen ergibt, dass die natürliche Konvektion zu vernachlässigen ist. (...)
Erschienen: 13.11.2014
Dauer: 1:39:52
Modellansatz 036
Im Herbst beginnen die neuen Studiengänge der Mathematik am KIT und neben den Vorlesungen zur Linearen Algebra, Stochastik oder Numerik gehört die Analysis zu den mathematischen Vorlesungen, mit dem das Studium der Mathematik in den ersten Semestern beginnt. Dazu spricht Sebastian Ritterbusch mit Johannes Eilinghoff, der im letzten Jahr den Übungsbetrieb der Analysis-Vorlesungen mit großem Anklang organisiert hat. Die Analysis befasst sich besonders mit der Mathematik um Funktionen auf reellen Zahlen, welche Eigenschaften sie haben, und wie man diese differenzieren oder integrieren kann. Vieles zur Geschichte der Analysis findet man besonders in den Büchern von Prof. Dr. Michael von Renteln, der unter anderem über die Geschichte der Analysis im 18. Jahrhundert von Euler bis Laplace, die Geschichte der Analysis im 19. Jahrhundert von Cauchy bis Cantor, über Aspekte zur Geschichte der Analysis im 20. Jahrhundert von Hilbert bis J. v. Neumann und über die Die Mathematiker an der Technischen Hochschule Karlsruhe 1825-1945 geschrieben hat. Grundlage für die Mathematik in der Analysis sind die Zahlenmengen, wie die abzählbaren natürlichen Zahlen N, ganzen Zahlen Z, rationale Zahlen Q und schließlich die überabzählbaren reellen Zahlen R. Während die natürlichen Zahlen direkt mit dem Beweisprinzip der vollständigen Induktion in Verbindung stehen und für sich schon ein Thema der Zahlentheorie sind, benötigt man für die Analysis mindestens die reellen Zahlen. Diese kann man über konvergente Folgen bzw. Cauchy-Folgen rationaler Zahlen einführen. Für den Beweis der Äquivalenz dieser beiden Konvergenzbegriffe kann man die Dreiecksungleichung sehr gut gebrauchen. Ein Beispiel für eine Folge rationaler Zahlen, die gegen eine irrationale Zahl konvergieren ist a_n=(1+1/n)^n, die gegen die Eulersche Zahl e konvergiert, d.h. \lim_{n\rightarrow\infty}a_n=e. Aus jeder Folge kann man eine Reihe bilden, indem man die Folgenglieder aufsummiert. Wichtige Reihen sind die geometrische Reihe mit Summenwert \sum_{k=0}^\infty q^k=\frac1{1-q}, wenn |q|
Erschienen: 06.11.2014
Dauer: 2:13:59
Weitere Informationen zur Episode "Analysis und die Abschnittskontrolle"
Modellansatz 035
Die wissenschaftliche Fundierung des sportlichen Trainings kann sowohl im Amateur- als auch im Profibereich zur Verbesserung der individuellen Leistung beitragen. Marian Hoffmann ist Mitarbeiter des BioMotion Centers und beschäftigt sich mit dem Einsatz multivariater Verfahren zur Identifikationen leistungsrelevanter Einflussgrößen durch Strukturgleichungsmodelle in der Sportart Triathlon. Hierzu zählen beispielsweise Kraft- und Ausdauerfähigkeiten sowie technische und taktische Merkmale. Im Gespräch mit Gudrun Thäter erläutert er den Einsatz mathematischer Methoden zur Bearbeitung dieser interdisziplinären Aufgabenstellung mit dem Ziel, spezifische Trainingsempfehlungen auf Basis einer Leistungsstrukturanalyse in dieser Ausdauersportart generieren zu können.
Erschienen: 16.10.2014
Dauer: 29:53
Weitere Informationen zur Episode "Leistungsstrukturanalyse im Triathlon"