Modellansatz 074
How do populations evolve? This question inspired Alberto Saldaña to his PhD thesis on Partial symmetries of solutions to nonlinear elliptic and parabolic problems in bounded radial domains. He considered an extended Lotka-Volterra models which is describing the dynamics of two species such as wolves in a bounded radial domain: $\begin{array}{rcl}(u_1)_t-\mu_1\Delta u_1&=&a_1(t)u_1-b_1(t)u_1^2-\alpha_1(t)u_1u_2\\(u_2)_t-\mu_2\Delta u_2&=&a_2(t)u_2-b_2(t)u_2^2-\alpha_2(t)u_1u_2\end{array}$ For each species, the model contains the diffusion \mu of a individual beings, the birth rate a, the saturation rate or concentration b, and the aggressiveness rate \alpha. Starting from an initial condition, a distribution of u_1 and u_2 in the regarded domain, above equations with additional constraints for well-posedness will describe the future outcome. In the long run, this could either be co-existence, or extinction of one or both species. In case of co-existence, the question is how they will separate on the assumed radial bounded domain. For this, he adapted a moving plane method. On a bounded domain, the given boundary conditions are an important aspect for the mathematical model: In this setup, a homogeneous Neumann boundary condition can represent a fence, which no-one, or no wolve, can cross, wereas a homogeneous Dirichlet boundary condition assumes a lethal boundary, such as an electric fence or cliff, which sets the density of living, or surviving, individuals touching the boundary to zero. The initial conditions, that is the distribution of the wolf species, were quite general but assumed to be nearly reflectional symmetric. The analytical treatment of the system was less tedious in the case of Neumann boundary conditions due to reflection symmetry at the boundary, similar to the method of image charges in electrostatics. The case of Dirichlet boundary conditions needed more analytical results, such as the Serrin's boundary point lemma. It turned out, that asymtotically in both cases the two species will separate into two symmetric functions. Here, Saldaña introduced a new aspect to this problem: He let the birth rate, saturation rate and agressiveness rate vary in time. This time-dependence modelled seasons, such as wolves behaviour depends on food availability. The Lotka-Volterra model can also be adapted to a predator-prey setting or a cooperative setting, where the two species live symbiotically. In the latter case, there also is an asymptotical solution, in which the two species do not separate- they stay together. Alberto Saldaña startet his academic career in Mexico where he found his love for mathematical analysis. He then did his Ph.D. in Frankfurt, and now he is a Post-Doc in the Mathematical Department at the University of Brussels.
Erschienen: 10.12.2015
Dauer: 22:49
Modellansatz 073
Die Nullnummer eines Podcasts behandelt die Hintergründe, Themen und Motivation für die Reihe. Dazu ist Nele Heise zu Besuch nach Karlsruhe gekommen, und spricht mit Gudrun Thäter und Sebastian Ritterbusch über Podcasts, Wissenschaftskommunkation und den Modellansatz. Nele Heise, M.A., (@neleheise) ist freie Medienforscherin, Mitglied der Graduate School am Research Center Media and Communication Hamburg und beschäftigt sich in ihrem Promotionsprojekt mit den technischen und sozialen Rahmenbedingungen von Podcasting. Von 2005 bis 2011 studierte sie Kommunikationswissenschaft an der Universität Erfurt und war anschließend bis Sommer 2014 wissenschaftliche Mitarbeiterin in dem DFG-Projekt 'Die (Wieder-)Entdeckung des Publikums' am renommierten Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Als freie Medienforscherin setzt sie sich in Vorträgen, Gastartikeln, Workshops oder Paneldiskussionen mit Prozessen und Folgen des digitalen Wandels, ethischen Aspekten der Onlinekommunikation oder medialer Teilhabe auseinander. Nele kommt ursprünglich aus der freien Radio-Szene und hat 2003/2004 die Thüringen-Redaktion der Jugendzeitschrift SPIESSER aufgebaut. Im Haus der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) befindet sich auch das Nationale Institut für Wissenschaftskommunikation (NaWik) und Nele Heise wurde von Prof. Dr. Annette Lessmöllmann eingeladen, im assozierten Master-Studiengang Wissenschaft - Medien - Kommunikation vorzutragen: In Wissen to Go (Folien) stellte sie die Frage: "Was hat Wissenschaftskommunikation mit Podcasts zu tun?". Sie kam neben der Einführung in Podcasts und aktuellen Themen der Wissenschaftskommunikation zu Formaten, die von Wissenschaffenden selbst getragen werden. Besondere Beispiele waren hier Methodisch inkorrekt, der KonScience Podcast und natürlich auch der BredowCast, der mit von ihr initiiert wurde. Diese Darstellung der Wissenschaft, fernab von Hierarchien, sieht sie als ein Produkt des Digitalen Wandels, das zeigt, welche neuen Rollen und Modelle sich in der Wissenschaftskommunikation etablieren könnten. Der Podcast SciComm – wissen, was läuft von den Studierenden des Studiengangs befasst sich entsprechend offensiv mit den aktuellen Themen der Wissenschaftskommunikation und dem Bild der Wissenschaft in den Medien: In SciComm Folge 2 im Gespräch mit Dr. Sven Stollfuß geht es um die Nerds in Big Bang Theory oder CSI und das daraus resultierende Bild der Wissenschaft. Für den Modellansatz Podcast war der von der DLR und ESA ins Leben gerufene Raumzeit Podcast ein prägendes Element, in dem die Gespräche komplexe Themen nicht scheuen oder simplifizieren, sondern sie in der erforderlichen Breite spannend erklären und so die Hörerschaft ernst nehmen. Dieser Ansatz scheint sich auch daran zu bestätigen, dass das vergleichsweise komplizierte Thema der L-Funktionen in der Zahlentheorie eine der gefragtesten Folgen des Modellansatz Podcasts ist. Dies steht im erstaunlichen Widerspruch zum Selbstverständnis der Wissenschaft in abstrakteren Themenbereichen, bei denen oft von einem Desinteresse der Öffentlichkeit ausgegangen wird. Viele Gesprächspartnerinnen im Podcast sind am Ende positiv über die Art der Themenbehandlung überrascht, und das liegt sicher auch an den Eigenheiten des besonderen Mediums. Der Podcasts ist laut Tim Pritlove das "mit Abstand persönlichste Medium überhaupt". Der Raum für Fragen, für die Themen selbst statt Klischees, erleichtert die Kommunikation für die Wissenschaffenden ungemein. So werden auch Ideen, Fehlschläge und überraschende Ansätze der Forschenden zu einem faszinierenden und lehrreichen Kommunikationsthema im Gegensatz zu Publikationen oder vereinfachenden Zusammenfassungen, die sich oft nur auf Resultate reduzieren. Gleichzeitig wird den Forschenden auf eine sehr menschliche Art die Möglichkeit geboten, über ihre mathematischen Ideen, die Faszination und Ergebnisse ihrer Arbeit zu sprechen. (...)
Erschienen: 03.12.2015
Dauer: 1:26:52
Modellansatz 072
Durch Unterstützung von dem Fraunhofer Institut für Solare Energiesysteme ISE konnte sich Edwin Hernandez mit der Optimierung von Sonnenkollektoren befassen. Speziell ging es dabei um Thermische Sonnenkollektoren, bei denen das Sonnenlicht einen flüssigen Wärmeträger erhitzt. Diese Träger können Wasser, Salzlösungen oder Öle mit hohen Wärmekapazitäten sein. Gängige Solarkollektoren verwenden inkompressible Fluide, wie Öle oder Wasser unter hohem Druck, die ihre Phase während der Erwärmung und Abkühlung nicht ändern. Die spannende Frage ist nun, wie sich die Verwendung von kompressiblen Fluiden auswirkt, beispielsweise bei Fluiden, die- wie Wasser- bei Erhitzung gasförming werden. Dies hat Edwin Hernandez simuliert. Die Grundlage für die Simulation ist das lang erprobte PFM (plug flow model) im ColSim - Collector Simulation Environment des ISE für inkompressible Fluide, wo vorausgesetzt wird, dass immer die gleiche Masse ein Rohrstück betritt, wie sie das Stück am anderen Ende verlässt. Diese Massenbilanz für ein Rohrstück wird bei kompressiblen Fluiden verletzt, da die gasförmige Phase ein deutlich höheren Platzbedarf hat. Im Modell wird das Rohr Im Kollektor sinnvollerweise eindimensional angesetzt, da die Länge des Rohrs die Dicke bei weitem überschreitet. Darauf werden die Bilanzgleichungen formuliert. Die enstehenden Gleichungen werden diskretisiert und approximativ gelöst. Die Umsetzung eines erweiterten PFM-Verfahrens (EPFM) und der SIMPLER-Methode erfolgte als neues Modul im ColSim - Collector Simulation Environment Framework. Die neue Methode berücksichtigt ein viel umfangreicheres physikalisches Modell, ist im Gegensatz zu den direkten Lösern des PFM-Verfahrens nun aber auch nur iterativ und damit hier mit mehr Rechenaufwand lösbar.
Erschienen: 26.11.2015
Dauer: 24:13
Modellansatz 071
Ein Auslandsstudium ist eine ganz besondere Ergänzung zum Studium: Benedikt Kottler und Hakan Demirel konnten im Rahmen einer Direktkooperation ihr Studium und ihre Forschungen für ein Semester in Brasilien durchführen. Mit Gudrun Thäter sprechen die beiden über ihre dortigen mathematischen Arbeitsgebiete und ihren Aufenthalt. Benedikt Kottler hat sich in Vorbereitung seiner Master-Arbeit mit der Molekulardynamik befasst. Er möchte die Interaktion von molekularen Partikeln im Rahmen der Kontinuumsmechanik modellieren und mit der Software OpenLB durchführen. Diese Prozesse treten schon in der Betrachtung des Wassermoleküls H_2O auf. Eine naheliegende Anwendung ist daher die Simulation von Filtrationsprozessen, wo kleine Schmutzpartikel aus einem Fluid herausgefiltert werden sollen. Das Forschungsthema von Hakan Demirel dreht sich um Feinstaub im Stadtgebiet, genauer um die drei Themen Windsimulation, Partikelsimulation und Feinstaub-Emission durch den Autoverkehr. Dazu konnte er in Brasilien auf eine Verkehrssimulation zurückgreifen und ein stochastisches Modell für Windrichtungen und -intensitäten aufstellen. Dabei hat sich ergeben, dass sich die Stadtgeometrie in der Form von Gebäuden und Straßenzügen einen großen Einfluss auf die sinnvolle Diskretisierung der Windmodelle haben und entsprechend berücksichtigt werden müssen. Die Idee für das Auslandssemester in Brasilien entstand nach einem Vortrag über die Simulationssoftware OpenLB, zu der bestehende Kooperationen zwischen Forschungseinrichtungen in Brasilien und dem KIT bestehen. Die Finanzierung wurde dabei insbesondere durch das Baden-Württemberg-Programm nach Bewerbungsphase ermöglicht. Natürlich gehört auch der Besuch von Vorlesungen zum Auslandsstudium, die teilweise für die beiden in englisch gehalten wurden- und sich teilweise von Vorlesungen in Karlsruhe unterschieden. Die positiven Kontakte zu den Studierenden und Gastfamilien in Brasilien gehören dabei genauso zum Austausch, wie die Erfahrungen unterschiedlicher bürokratischer Systeme.
Erschienen: 19.11.2015
Dauer: 32:40
Modellansatz 070
Im Rahmen eines Bogy-Praktikums hat Finn Schmidt sich mit dem RSA-Verfahren befasst, einem Vertreter der Asymmetrischen Verschlüsselungsverfahren und eine elementare Basis für private Kommunikation- besonders angesichts der globalen Überwachung, die 2013 nochmal besonders in die öffentliche Aufmerksamkeit rückte. Elementare Rechte, wie das im Grundgesetz gesicherte Recht auf das Postgeheimnis bei einem verschlossenen Briefumschlag, kann man in elektronischen Medien nur durch Kryptoverfahren erreichen. Aus mathematischer Sicht sind Primzahlen grundlegende Bausteine, aus denen RSA-Schlüsselpaare, bestehend aus einem privaten und einem öffentlichen Schlüssel, bestimmt werden. Dazu werden zwei große Primzahlen multipliziert- und das Produkt im öffentlichen Schlüssel preisgegeben. Dies schützt die einzelnen Faktoren, da die Rückrechnung in Form einer Faktorisierung viel aufwendiger als die Multiplikation ist. Zur Betrachtung der Sicherheit des Verfahrens, muss man genau diese Verfahren untersuchen. Ein effizientes Faktorisierungsverfahren ist das Quadratische Sieb, das auf der dritten binomischen Formel basiert. Dazu sucht man zwei Quadratzahlen, deren Differenz die zu faktorisierende Zahl ergibt, da man so eine Faktorisierung erhält. Ein noch besseres Verfahren verspricht der Shor-Algorithmus, jedoch benötigt dieser zur effizienten Ausführung einen Quantencomputer. Das RSA-Verfahren ist bei Betrachtung von Faktorisierungsmethoden auf gängigen Digitalrechnern in dem Sinne sicher, dass die Faktorisierung um Größenordnungen aufwendiger als die Schlüsselerzeugung ist. So kann jedes gewünschte Sicherheitsniveau erreicht werden. Dies ändert sich jedoch sobald Quantencomputer in beliebiger Größe realisiert werden können, da die Faktorisierung mit dem Shor-Algorithmus unmittelbar erfolgen kann. Außerdem werden heute sicher verschlüsselte Texte eventuell mit den leistungsfähigeren Computern der Zukunft in einigen Jahren relativ leicht zu entschlüsseln sein.
Erschienen: 12.11.2015
Dauer: 20:49
Modellansatz 069
This episode discusses the Born-Infeld model for Electromagnetodynamics. Here, the standard model are the Maxwell equations coupling the interaction of magnetic and electric field with the help of a system of partial differential equations. This is a well-understood classical system. But in this classical model, one serious drawback is that the action of a point charge (which is represented by a Dirac measure on the right-hand side) leads to an infinite energy in the electric field which physically makes no sense. On the other hand, it should be possible to study the electric field of point charges since this is how the electric field is created. One solution for this challenge is to slightly change the point of view in a way similar to special relativity theory of Einstein. There, instead of taking the momentum (mv^2) as preserved quantity and Lagrange parameter the Lagrangian is changed in a way that the bound for the velocity (in relativity the speed of light) is incorporated in the model. In the electromagnetic model, the Lagrangian would have to restrict the intensity of the fields. This was the idea which Borne and Infeld published already at the beginning of the last century. For the resulting system it is straightforward to calculate the fields for point charges. But unfortunately it is impossible to add the fields for several point charges (no superposition principle) since the resulting theory (and the PDE) are nonlinear. Physically this expresses, that the point charges do not act independently from each other but it accounts for certain interaction between the charges. Probably this interaction is really only important if charges are near enough to each other and locally it should be only influenced by the charge nearest. But it has not been possible to prove that up to now. The electrostatic case is elliptic but has a singularity at each point charge. So no classical regularity results are directly applicable. On the other hand, there is an interesting interplay with geometry since the PDE occurs as the mean curvature equation of hypersurfaces in the Minkowski space in relativity. The evolution problem is completely open. In the static case we have existence and uniqueness without really looking at the PDEs from the way the system is built. The PDE should provide at least qualitative information on the electric field. So if, e.g., there is a positive charge there could be a maximum of the field (for negative charges a minimum - respectively), and we would expect the field to be smooth outside these singular points. So a Lipschitz regular solution would seem probable. But it is open how to prove this mathematically. A special property is that the model has infinitely many inherent scales, namely all even powers of the gradient of the field. So to understand maybe asymptotic limits in theses scales could be a first interesting step. Denis Bonheure got his mathematical education at the Free University of Brussels and is working there as Professor of Mathematics at the moment.
Erschienen: 29.10.2015
Dauer: 29:16
Modellansatz 068
Stefanie Hollborn arbeitet an der Universität Mainz am Thema Elektrische Impedanztomographie, die im Vergleich zur Röntgentomographie deutlich weniger schädlich ist und im Vergleich zur Magnetresonanztomographie deutlich preiswerter ist. Mit Hilfe von Elektroden auf der Oberfläche von Objekten wird niedriger Strom auf den Rand des Objektes angelegt und anschließend die resultierende Spannung und dadurch die Impedanz gemessen. Mit Hilfe der daraus abgeleiteten Leitfähigkeitsverteilung im Schnittbild kann man dann Rückschlüsse darauf ziehen, ob im Körper Verunreinigungen vorhanden sind. Dies findet beispielsweise Anwendung bei der Sichtbarmachung, also der Tomographie, von Krebszellen oder beim Auffinden von Blasen in Zement. Der Vorteil des Verfahrens ist, dass es billig einsetzbar und nicht schädlich für lebende Organismen ist. Außerdem sind Kontraste häufig sehr gut auflösbar. Mathematisch werden die Gleichungen für die Wechselwirkung von Strom- und Magnetfeld als Modell zugrunde gelegt. Das Spannungspotential, das als Reaktion auf den Input vom Rand entsteht, lässt sich als Überlagerung von harmonischen Funktionen darstellen. Die Verunreinigungen sind überall da, wo eine harmonische Fortsetzung der Lösung vom Rand her nicht mehr möglich ist. Dort weicht das Feld dann nämlich vom homogenen Verhalten ab, das ohne die Verunreinigung vorliegen müsste. Frau Hollborn arbeitet insbesondere mit Daten die durch ein Paar eng nebeneinander liegende Elektroden entstehen. Die Hoffnung ist, daraus ein einfach einzusetzendes Werkzeug zu machen. Mathematisch muss hier ein eindimensionales Randwertproblem gelöst werden. Die Fortsetzung der Daten ins Innere ist jedoch ein so genanntes schlecht gestelltes Problem, bei dem Fehler verstärkt werden. Dieser Begriff geht zurück auf Jacques Hadamard, der den Begriff der gut gestellten Probleme eingeführt hat. Deshalb benutzt man insbesondere Vorwissen, um die Lösungen zu Regularisieren bzw. die regulären Lösungen aus der Schar aller möglichen Lösungen auszuwählen. Stefanie Hollborn hat sowohl Philosophie als auch Mathematik studiert. Für beide Gebiete ist die Logik ein fundamentales Konzept, wobei die formale mathematische Beschreibung ihre Anwendung sehr erleichtert.
Erschienen: 15.10.2015
Dauer: 30:49
Modellansatz 067
Wie wirkt sich die Biegesteifigkeit von Klaviersaiten auf die Stimmung aus? Dieser Frage ist Niels Ranosch nachgegangen und erklärt uns im Gespräch mit Gudrun Thäter seine Ergebnisse. Das Schwingen von Klaviersaiten wird oft mit mit der Wellengleichung modelliert und simuliert; die Annahme ist hier, dass die Saite unendlich dünn ist. Betrachtet man die Saite jedoch mit realistischer Querschnittsfläche, so treten durch Dehnung und Stauchung weitere Kräfte im Material auf, und man muss in einem erweiterten Modell gerade für dicke oder kurze Saiten die Biegesteifigkeit der Saiten berücksichtigen. Die Wellengleichung ist eine partielle Differentialgleichung, die die Auslenkung der Saite mit zweiten Ableitungen im Raum und Zeit beschreibt. Zur Erweiterung des Modells wurde die Saite in einzelne Teilfasern aufgeteilt, für die jeweils einzeln die Biegesteifigkeit berücksichtigt wurde. Beim Übergang zu unendliche dünnen Teilfasern erhält man eine erweiterte Differentialgleichung, in der nun auch Raumableitungen vierter Ordnung auftreten. Bei der Lösung des erweiterten Modells ergibt sich nun, dass die Obertöne nicht perfekte Vielfache des Grundtons sind, und daher bei genauer Stimmung des Grundtons nicht harmonisch zu höheren Tönen wären. Daher werden die Grundtöne der Saiten absichtlich leicht verstimmt, damit die Obertöne akzeptabel zu höheren Tönen passen. Ein weiteres Problem für die Harmonie auf dem Klavier liegt im Quintenzirkel oder am Pythagoreischen Komma: Grundsätzlich kann man nicht gleichzeitig Quinten mit Frequenzverhältnis 3/2 und Oktaven mit Frequenzverhältnis 2 auf einem Klavier perfekt stimmen; man kann durch Multiplikation mit 3/2 kein Vielfaches von 2 erreichen. Nach 12 Quinten kommt man dem Ton nach 7 Oktaven sehr nahe, und dies wurde als Grundlage für das Klavier mit 12 Tasten pro Oktave gewählt. Den Fehler versucht man dann mit unterschiedlichen Stimmungen irgendwie erträglich zu machen, wie mit der heutzutage gängigen gleichstufigen Stimmung.
Erschienen: 08.10.2015
Dauer: 32:06
Modellansatz 066
Nanophotonics is one great path into our future since it renders possible to build e.g. absorber, emitter or amplifier on a scale of a few dozen nanometers. To use this effectively we will have to understand firstly the resonances of plasmons and secondly the interaction of electromagnetic waves with complex media. Here on the one hand we can model light as waves and describe what is happening for the different frequencies of monochromatic light waves. We have to model the evolution in air or in more complex media. On the other hand - taking the more particle centered point of view - we can try to model the reaction of the photons to certain stimuli. The modelling is still in progress and explored in many different ways. The main focus of our guest Claire Scheid who is working on nanophotonics is to solve the corresponding partial differential equations numerically. It is challenging that the nanoscale-photons have to be visible in a discretization for a makro domain. So one needs special ideas to have a geometrical description for changing properties of the material. Even on the fastest available computers it is still the bottleneck to make these computations fast and precise enough. A special property which has to be reflected in the model is the delay in response of a photon to incoming light waves - also depending on the frequency of the light (which is connected to its velocity- also known as dispersion). So an equation for the the evolution of the electron polarization must be added to the standard model (which is the Maxwell system). One can say that the model for the permeability has to take into account the whole history of the process. Mathematically this is done through a convolution operator in the equation. There is also the possibility to explain the same phenomenon in the frequency space as well. In general the work in this field is possible only in good cooperation and interdisciplinary interaction with physicists - which also makes it especially interesting. Since 2009 Claire Scheid works at INRIA méditerranée in Sophia-Antipolis as part of the Nachos-Team and is teaching at the university of Nice as a member of the Laboratoire Dieudonné. She did her studies at the Ecole Normale Superieure in Lyon and later in Paris VI (Université Pierre et Marie Curie). For her PhD she changed to Grenoble and spent two years as Postdoc at the university in Oslo (Norway).
Erschienen: 01.10.2015
Dauer: 39:26
Modellansatz 065
Im Rahmen des ersten Alumnitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft. Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. (...)
Erschienen: 24.09.2015
Dauer: 40:14
Weitere Informationen zur Episode "InSAR - SAR-Interferometrie"