Podcast "Modellansatz"

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Podcast-Episoden

Photobioreaktoren

Modellansatz 064

Photobioreaktoren sind eine große Hoffnung für unsere Zukunft ohne Erdöl. Sie nutzen die Tatsache aus, dass verschiedenste Algensorten für uns nützliche Stoffe produzieren können. Im einfachsten Fall Futter für unsere Tiere, aber auch Äthanol als Treibstoff oder allgemein als Energieträger. Bei Grünalgen ist die Photosynthese der wichtige Stoffwechselprozess, der natürlich auch Licht braucht und Kohlendioxid. Bevor Photobioreaktoren wirklich effektiv arbeiten können, müssen jedoch viele Aspekte des Prozesses noch viel besser verstanden werden. Hier stehen wir erst am Anfang der Entwicklung. Judith Kolbe hat in ihrer Masterarbeit ein Modell erprobt, das die Verklumpung (technisch: Agglomeration) von Algen beim Fließen durch geschlossene Zylinder beschreiben soll. Das Anliegen ist, durch vorherige Simulation die Bedingungen im Reaktor so zu optimieren, dass die Verklumpung möglichst vermieden wird, damit es nicht zu Fäule und zum Absterben der Algen kommt. Besondere Effekte am Rand des Behälters wurden hier zunächst gar nicht betrachtet. Als Beispielfall wurden sehr kleine Algen- Mikroorganismen- betrachtet, für die die eigene Geometrie keine allzu große Rolle bei der Verklumpung spielt. Der wichtigste Aspekt im Modell ist die Annahme, dass die kugelförmigen Partikel einen Schmierfilm auf ihrer Oberfläche tragen. Zwei Partikel, die während ihrer Bewegung im Fluid zufällig zusammenstloßen, verschmelzen zu einem größeren, wenn die umgesetzte Energie im Schierfilm dissipieren kann. Die Strömung des Trägerfluids geht hier vor allem als Kraftwirkung auf die Algenpartikel ein (inklusive der Bewegungsrichtung). Der Vorteil dieses Modells ist zum einen, dass es so einfach ist, dass es nur wenige Parameter benötigt und zum anderen, dass die Interpretation der Ergebnisse klar ist (im sogenannten Postprocessing). Ein großer Nachteil ist, dass die Zahl der Partikel, die man einzeln so behandeln kann, durch die Rechenstärke schnell sehr stark eingeschränkt wird, selbst wenn ausgenutzt wird, dass man die Rechnungen hervorragend parallelisieren kann. Deshalb wurde in der Arbeit schließlich auch nur ein prototypischer Würfel von 4mm Seitenlänge in der Mitte des zylindrischen Reaktors simuliert.

Erschienen: 13.08.2015
Dauer: 35:19

Weitere Informationen zur Episode "Photobioreaktoren"


Sprache PDGL

Modellansatz 063

Catherine Bandle war bis 2003 Professorin am Mathematischen Institut der Universität in Basel. Aber auch über die Emeritierung hinaus ist sie sehr rege in der Forschung zu elliptischen und parabolischen partiellen Differentialgleichungen. Das zeigt sich an einer beeindruckenden Zahl von Publikationen, der Teilnahme an Tagungen und im Einbringen ihrer Erfahrung in die Tätigkeit von Gremien wie dem Landeshochschulrat Brandenburg und dem Steering Committee of the European Science Foundation program: Global and Geometric Aspects of Nonlinear Partial Differential Equations. Ihre Faszination für die Vielseitigkeit dieses Themas in den Anwendungen und die Zusammenhänge zur Geometrie haben sich über viele Jahrzehnte erhalten. Für den Workshop Nonlinear Days 2015 wurde sie für einen Hauptvortrag nach Karlsruhe eingeladen. Wir haben diese Gelegenheit genutzt, das Thema der Modellbildung mit Hilfe von partiellen Differentialgleichungen mit ihr etwas allgemeiner zu beleuchten. Traditionell stehen elliptische wie parabolische Gleichungen am Beginn der modernen Modellbildung von Prozessen in der Physik, der Biologie und Chemie. Hier sind es Diffusions-, Reaktions-, Transport- und Wachstumsprozesse, die zunächst durch gewöhnliche Differentialgleichungen beschrieben wurden. Allerdings waren vor etwa 150 Jahren die Anwendungen in Teilen schon zu komplex für dieses zu einfache Modell. Abhängigkeiten von Veränderungen in allen Raum- und der Zeitrichtung sollten interagierend erfasst werden. Das führte zwingend auf die partiellen Differentialgleichungen. Mit dem Aufstellen der Gleichungen verband sich die Hoffnung, durch die zugehörigen Lösungen Vorhersagen treffen zu können. Um diese Lösungen zu finden, brauchte es aber ganz neue Konzepte. Am Anfang der Entwicklung standen beispielsweise die Fourierreihen, die (unter den richtigen Voraussetzungen) eine Darstellung solcher Lösungen sein können. Werkzeuge wie Fourier- und Lapalacetransformation konnten zumindest für bestimmte Geometrien hilfreiche Antworten geben. Später wurder der Begriff der schwachen Lösung bzw. schwachen Formulierung geprägt und die damit verbundenen Sobolevräume auf verschiedenen Wegen entwickelt und untersucht. Die Suche nach den Lösungen der Gleichungen hat damit die theoretische Entwicklung in der Mathematik stark vorangetrieben. Heute sind wir froh, dass wir in der linearen Theorie (siehe auch Lemma von Lax-Milgram) vieles verstanden haben und versuchen uns Stück für Stück nichtlineare Modellen anzueignen. Ein erster Schritt ist häufig eine lokale Linearisierung oder das Zulassen von Nichtlinearitäten in untergeordneten Termen (semilineare Probleme). Ein integraler Bestandteil ist hier jedoch auch die Möglichkeit, mehr als eine Lösung der Gleichung zu haben und wir brauchen deshalb Konzepte, die physikalisch relevante unter ihnen zu finden. Hier sind Konzepte der Stabilität wichtig. Nur stabile Lösungen sind solche, die zu beobachtbaren Phänomenen führen. Wichtige Werkzeuge in der Lösungstheorie sind auch die Normen, in denen wir unsere Lösungen messen. Am überzeugendsten ist es, wenn sich Normen in Energien des Systems übersetzen lassen. Dann kann man auch die Stabilität im Rahmen von Energieerhaltung und Energieminimierung diskutieren.

Erschienen: 06.08.2015
Dauer: 31:59

Weitere Informationen zur Episode "Sprache PDGL"


Splitting Waves

Modellansatz 062

To separate one single instrument from the acoustic sound of a whole orchestra- just by knowing its exact position- gives a good idea of the concept of wave splitting, the research topic of Marie Kray. Interestingly, an approach for solving this problem was found by the investigation of side-effects of absorbing boundary conditions (ABC) for time-dependent wave problems- the perfectly matched layers are an important example for ABCs. Marie Kray works in the Numerical Analysis group of Prof. Grote in Mathematical Department of the University of Basel. She did her PhD 2012 in the Laboratoire Jacques-Louis Lions in Paris and got her professional education in Strasbourg and Orsay. Since boundaries occur at the surface of volumes, the boundary manifold has one spatial dimension less than the actual regarded physical domain. Therefore, the treatment of normal derivatives as in the Neumann boundary condition needs special care. The implicit Crank-Nicolson method turned out to be a good numerical scheme for integrating the time derivative, and an upwinding scheme solved the discretized hyperbolic problem for the space dimension. An alternative approach to separate the signals from several point sources or scatterers is to apply global integral boundary conditions and to assume a time-harmonic representation. The presented methods have important applications in medical imaging: A wide range of methods work well for single scatterers, but Tumors often tend to spread to several places. This serverely impedes inverse problem reconstruction methods such as the TRAC method, but the separation of waves enhances the use of these methods on problems with several scatterers.

Erschienen: 30.07.2015
Dauer: 19:44

Weitere Informationen zur Episode "Splitting Waves"


Perfekte Gleichgewichte

Modellansatz 061

Wie können wir die globale Erwärmung stoppen? Viola Caspari hat dazu eine spieltheoretische Masterarbeit abgeschlossen. Ihr Interesse galt sogenannten trembling-hand perfekten Gleichgewichten. Dies sind Nash Gleichgewichte mit der besonderen Eigenschaft, dass auch kleine Änderungen in den Daten die Eigenschaft, dass es sich um ein Nash-Gleichgewicht handelt, nicht ändert. Es sind also Strategiekombinationen, die für Entscheidungsfindungen besonders hilfreich sein können. Das Gefangenendilemma ist eines der grundlegenden theoretischen Beispiele aus der Spielttheorie, an dem man verschiedene Strategien illustrieren kann. Als Anwendungsfall behandelte Sie die Verteilung öffentlicher Güter mit unsicherem Schwellwert. Der Hintergrund hierfür sind die laufenden Verhandlungen zwischen allen Staaten, die dazu führen sollen, dass eine mittlere Erwärmung um 2 Grad Kelvin oder mehr vermieden werden kann. Die Erwärmung ist direkt gekoppelt an den CO2-Ausstoß der Staaten. Und natürlich haben alle Staaten Einfluss darauf, wie ihre CO2-Bilanz aussieht. Sie können beispielsweise Geld investieren, um Kohlekraftwerke durch erneuerbare Energieerzeuger abzulösen oder Filter in Schornsteine einbauen, und vieles mehr. Im Modell werden aus den Staaten also Spieler mit verschiedenen Strategien als Handlungsoptionen. Jede Strategie ist mit Kosten verbunden aber auch mit dem Nutzen in Form von eingesparten CO2-Ausstoß. Diese Relationen variieren auch nach der Größe der Wirtschaft der Länder. Gesucht sind nun Handlungsempfehlungen, die dafür sorgen, dass die Staaten solche Absprachen treffen, dass die Schwelle für die katastrophale Klimaveränderung aussbleibt und sich auch an diese Absprachen halten. Eine gute Methode hierfür ist die Einigung auf trembling-hand perfekte Nash-Gleichgewichte, weil hier eine Änderung der eigenen Strategie nur zur Verschlechterung für einen selbst führt. Der Egoismus dient also als Antrieb, sich an getroffene Abmachungen zu halten.

Erschienen: 23.07.2015
Dauer: 19:33

Weitere Informationen zur Episode "Perfekte Gleichgewichte"


Wilde Singularitäten

Modellansatz 060

Anja Randecker befasst sich in ihrer Forschung mit so genannten wilden Singularitäten, die im Zusammenhang mit Translationsflächen auftreten, und erklärt im Gespräch mit Gudrun Thäter die Faszination dieser mathematischen Konstruktionen. Translationsflächen sind im klassischen Fall Polygone in der Ebene, die an ihren Kanten topologisch verklebt werden. Beim Quadrat erhält man beispielsweise einen Donut, oder auch Torus. Lokal betrachtet verhält sich eine Translationsfläche wie eine Ebene, da man lokal immer eine Abbildung, eine mathematische Kartenabbildung, von einem kleinen Gebiet der Fläche in ein Gebiet der Ebene angeben kann - dabei geht aber die globale Gestalt der Fläche verloren. Man sieht also nicht mehr, dass der Donut in der Mitte ein Loch hat. Das entspricht dem Problem der Erstellung von Landkarten, was lokal zwar sehr gut funktioniert, aber bei größeren Flächen müssen die Kartenprojektionen starke Verzerrungen in Kauf nehmen. Beim Verkleben der parallelen Kanten von zwei Fünfecken (eins steht auf der Kante, eins auf der Spitze) werden, wie im Beispiel zuvor, alle Ecken miteinander identifiziert und werden zu einem Punkt. Dann erhält man ein Objekt, das wie zwei zusammengebackene Donuts aussieht. Dort verhalten sich alle Punkte auf dem Objekt wie zuvor, bis auf den Punkt, in dem alle Ecken identifiziert sind: Dort hat man einen Panoramablick von 1080 Grad, und somit eine Singularität - genauer eine konische Singularität. Hier hat der Punkt eine Umgebung, die isometrisch zu einer Überlagerung einer Kreisschreibe ist, da wir endliche viele Polygone in der Ebene verklebt haben. Nimmt man hingegen unendliche viele Polygone, oder unterteilt die Kanten in unendlich viele Segmente und verklebt diese, so können die verklebten Ecken eine viel wildere Umgebung haben. Das führt dann zu den so genannten wilden Singularitäten. Diese werden erst seit relativ kurzer Zeit erforscht, sie kommen aber auch bei dynamischen Systemen auf Translationsflächen vor. Hier möchte man in der aktuellen Forschung Begriffe der Konvergenz und damit eine Topologie auf einem Raum der Translationsflächen einführen, um das Verhalten von dynamischen Systemen auf diesem Raum beschreiben und analysieren zu können. Eine Frage ist hier, ob den wilden Singularitäten etwas ähnliches wie die Isometrie zur Kreisscheibe bei den konischen Singularitäten zugeordnet werden kann. Zunächst ist deren Umgebung überraschenderweise wegzusammenhängend. Die Umgebung kann aber auch unendliches Geschlecht besitzen, wie Anja Randecker nun beweisen konnte- die Umgebung hat also unendliche viele Löcher in der Umgebung- und nicht nur ein Loch wie der Donut.

Erschienen: 16.07.2015
Dauer: 26:25

Weitere Informationen zur Episode "Wilde Singularitäten"


Zweibeiner

Modellansatz 059

Wie bringt man einem Roboter das Gehen bei? Cornelius Kuhs hat sich dieser Frage am Humanoiden Fünf-Segment-Läufer am Institut für Technische Mechanik gestellt, und hat die Bewegungen am Modell von Differentialgleichungen auf die Energieeffizienz des Bewegungsablaufs studiert. Die Energieeffizienz bezieht sich hier auf die spezifischen Transportkosten, das ist hier die aufgebrachte Energie geteilt durch das Produkt von Gewicht und zurückgelegter Distanz. Die Bewegungsabläufe sind jedoch nicht durch analytisches Lösen der Differentialgleichungen des Modells zu bestimmen, hier wurden verschiedene Ansätze ausgetestet, die dann mittels mathematischer Optimierung auf einen möglichst geringen Energieverbrauch verbessert werden. Dabei sind viele physikalische Randbedingungen, wie der Position des Bodens, und technische Bedingungen, die beispielsweise das Umknicken des Kniegelenks verhindern, schon im Modell eingebaut. Darüber hinaus gibt es aber auch weitere Eigenschaften und Einschränkungen, die verschiedene Lösungen mehr oder weniger nützlich erscheinen lassen. Aus mathematischer Sicht sind die Eigenschaften der Zielfunktion, die in der Optimierung betrachtet wird, sehr interessant: Diese sind oft nur stückweise differenzierbar, was aber bei der Differenzenquotienten keine Probleme macht- außer es tritt ein Pol auf. Mit der Berechenbarkeit von Ableitungen stehen sehr effiziente Gradienten-basierte Optimierungsverfahren zur Verfügung, jedoch ist die Zielfunktion nicht ableitbar, so werden die erwünschten Konvergenzeigenschaften eventuell nicht erreicht. Ebenso interessant ist der Bereich der numerischen Integration, da auch hier Schwierigkeiten bei geringer Ableitbarkeit der Integranden auftreten können: Effiziente Verfahren höherer Ordnung werden nur dann schneller zum Ergebnis führen, wenn es stückweise höhere Ableitungen der Funktionen gibt, die auch beschränkt bleiben. Ebenso gibt es die Frage der Schrittweite oder der Diskretisierung in der numerischen Differenziation. Diese Fragestellungen führen auf das Gebiet der numerischen Stabilität: Hier stellt man sich nicht die Frage, ob der Roboter steht, sondern ob überhaupt ein Ergebnis berechenbar oder das Berechnete glaubhaft oder mit mehr Rechenkapazität überhaupt genauer berechnet werden kann.

Erschienen: 09.07.2015
Dauer: 36:37

Weitere Informationen zur Episode "Zweibeiner"


Acoustic Scattering

Modellansatz 058

Prof. Francisco Sayas from the Department of Mathematical Sciences of the University of Delaware in Newark has been visiting our faculty in June 2015. He is an expert in the simulation of scattering of transient acoustic waves. Scattering is a phenomenon in the propagation of waves. An interesting example from our everyday experience is when sound waves hit obstacles the wave field gets distorted. So, in a way, we can "hear" the obstacle. Sound waves are scalar, namely, changes in pressure. Other wave types scatter as well but can have a more complex structure. For example, seismic waves are elastic waves and travel at two different speeds as primary and secondary waves. As mathematician, one can abandon the application completely and say a wave is defined as a solution of a Wave Equation. Hereby, we also mean finding these solution in different appropriate function spaces (which represent certain properties of the class of solutions), but it is a very global look onto different wave properties and gives a general idea about waves. The equations are treated as an entity of their own right. Only later in the process it makes sense to compare the results with experiments and to decide if the equations fit or are too simplified. Prof. Sayas startet out in a "save elliptic world" with well-established and classical theories such as the mapping property between data and solutions. But for the study of wave equations, today there is no classical or standard method, but very many different tools are used to find different types of results, such as the preservation of energy. Sometimes it is obvious, that the results cannot be optimal (or sharp) if e.g. properties like convexity of obstacles do not play any role in getting results. And many questions are still wide open. Also, the numerical methods must be well designed. Up to now, transient waves are the most challenging and interesting problem for Prof. Sayas. They include all frequencies and propagate in time. So it is difficult to find the correct speed of propagation and also dispersion enters the configuration. On the one hand, the existence and regularity together with other properties of solutions have to be shown, but on the other hand, it is necessary to calculate the propagation process for simulations - i.e. the solutions - numerically. There are many different numerical schemes for bounded domains. Prof. Sayas prefers FEM and combines them with boundary integral equations as representative for the outer domain effects. The big advantage of the boundary integral representation is that it is physical correct but unfortunately, it is very complicated and all points on the boundary are interconnected. Finite Elements fit well to a black box approach which leads to its popularity among engineers. The regularity of the boundary can be really low if one chooses Galerkin methods. The combination of both tools is a bit tricky since the solver for the Wave Equations needs data on the boundary which it has to get from the Boundary element code and vice versa. Through this coupling it is already clear that in the coding the integration of the different tools is an important part and has to be done in a way that all users of the code which will improve it in the future can understand what is happening. Prof. Sayas is fascinated by his research field. This is also due to its educational aspect: the challenging mathematics, the set of tools still mainly unclear together with the intensive computational part of his work. The area is still wide open and one has to explain mathematics to other people interested in the results. In his carreer he started out with studying Finite Elements at the University in Zaragoza and worked on boundary elements with his PhD-supervisor from France. After some time he was looking for a challenging new topic and found his field in which he can combine both fields. (...)

Erschienen: 02.07.2015
Dauer: 40:39

Weitere Informationen zur Episode "Acoustic Scattering"


Steganographie

Modellansatz 057

Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt. Hier hat Marius Musch in einem Vortrag eine Einführung in die Steganographie gegeben, und spricht nun mit Sebastian Ritterbusch im Podcast. Bei der Steganographie geht es darum, eine geheime Nachricht so zu versenden, dass niemand außer dem gewünschten Empfänger die Existenz dieser Nachricht überhaupt vermutet. Der Begriff kommt aus dem griechischen und bedeutet in etwa "geheimes Schreiben". So wurden schon in der Antike erste simple Formen der Steganographie verwendet. Statt wie üblich die Nachricht in der Wachs auf einer Wachstafel zu kratzen, wurde die geheime Nachricht in das Holz darunter geritzt und wieder Wachs darüber gegossen. Anschließend konnte eine harmlose Nachricht in das Wachs geschrieben werden und die geheime Nachricht war verdeckt darunter. Mit der Zeit wurden die Verfahren dann raffinierter, so wurde im Zweiten Weltkrieg aus einem japanischen Kriegsgefangenenlager eine scheinbar harmlose Postkarte verschickt. Liest man aber nur die ersten beiden Wörter jeder Zeile ergibt sich ein völlig neues Bild und es werden die Truppenverluste der Amerikaner kommuniziert. In in einem anderen Fall vereitelte amerikanische Kriegsgefangene Jeremiah Denton die Propagandaversuche in Vietnam während des Kalten Krieges. Während eines TV-Interviews blinzelte er wiederholt das Wort T-O-R-T-U-R-E in Morsecode. In der heutigen Zeit ist es natürlich naheliegend die Steganographie in der digitalen statt der analogen Welt einzusetzen. So kann man zum Beispiel schon in (Plain-)Text eine geheime Nachricht verstecken. Viele Texteditoren zeigen standardmäßig Leerzeichen und Tabs am Zeilenende (trailing whitespace) nicht an. Dies macht sich das Tool SNOW (steganographic nature of whitespace) zu nutze, um geheime Nachrichten zu verstecken, oder man schreibt gleich komplette Programme in der etwas verrückten Programmiersprache Whitespace. Deutlich verbreiteter und effektiver ist es aber als Tarn-Medium (das so genannter Cover) ein Bild zu nehmen. Bilder haben viele nützliche Eigenschaften, insbesondere dass geringe Änderungen für das menschliche Auge unsichtbar bleiben. Aber auch ihre Größe ist vorteilhaft da ein Bild leicht um den Faktor 1000 größer ist, als die darin zu versteckende Nachricht. Bei einem Grauwertbild wird typischerweise ein Byte pro Pixel verwendet, also die Helligkeit jedes Bildpunktes wird durch einen Wert zwischen 0 für Schwarz und 255 für Weiß repräsentiert. Dieses Byte besteht wiederum aus 8 Bits, zum Beispiel der Folge 11110000 für den Wert 120. In der Steganographie kann man sich zu Nutze machen, dass das hinterste Bit (least significant bit) nur sehr wenig zum eigentlichen Farbwert beträgt. Es entscheidet nur ob die Zahl gerade oder ungerade ist und wenn der Wert geändert wird, fällt einem Menschen dieser geringe Helligkeitsunterschied gar nicht auf. Somit kann man nun seine geheime Nachricht von den ASCII-Werten in Binärzahlen konvertieren und anschließend in den least significant Bits (LSBs) einbetten. Man braucht also 8 Pixel pro Buchstabe. Weitere Verfahren gibt es auf Basis spezieller Eigenschaften von Datenformaten wie GIF, PNG oder JPEG. Bei der Steganographie gibt es aber auch einiges zu beachten. Besonders wichtig ist es die Nachricht vor dem Einbetten zu verschlüsseln. Zum einen kann uns ein Angreifer, der das Verfahren kennt und die Nachricht extrahiert, sie trotzdem nicht lesen. Zum anderen lässt sich ein gut verschlüsselter Ciphertext nicht von echtem Zufall unterscheiden, um Angriffe zu erschweren. Hat man aber Zugriff auf das Orginalbild, so wird der Unterschied und damit die Nachricht offensichtlich- hier sind besonders umgekehrte Bildersuchen hilfreich. (...)

Erschienen: 25.06.2015
Dauer: 1:40:04

Weitere Informationen zur Episode "Steganographie"


Spielcomputer

Modellansatz 056

Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt, und zog diesmal auch Mathe-Begeisterte an: Florian Gilges ist mit dem Life Science Lab als Schüler nach Karlsruhe gekommen, und will unter anderem Näherungen an die Kreiszahl \pi effizient berechnen. Dazu baut er sich einen eigenen Computer. Im Gespräch mit Sebastian Ritterbusch erklärt er uns, wie er dazu logische Gatter aus rotem Erz baut. Zunächst ist die Kreiszahl \pi (Pi) als das Verhältnis von Umfang zu Durchmesser eines beliebigen Kreises definiert und ermöglicht uns mit der Formel A = \pi r^2 auch aus dem Radius r die Fläche A eines Kreises zu berechnen. Da Pi jedoch eine sogenannte irrationale und transzendente Zahl ist (d.h. dass nach dem Komma unendlich viele Stellen folgen, die keine Wiederholung aufweisen), lässt sich der Wert nie exakt angeben. Um nun eine Näherung für Pi zu berechnen, lassen sich verschiedene Verfahren verwenden: Ein Kreis wird gezeichnet und Umfang und Durchmesser gemessen, das Verhältnis ist dann eine Näherung an Pi. Eine andere Möglichkeit ist die Berechnung durch eine Winkelfunktion: Der Arkustangens hat bei 1 den Wert \pi/4. Nimmt man also die Taylorentwicklung des Arkustangens mit x=1 und multipliziert mit 4, erhält man Pi. Neben der (von der Konvergenzgeschwindigkeit) relativ ineffizienten Taylor-Reihe gibt es noch viele weitere Verfahren, die ebenfalls Pi annähern. Die Berechnung will Florian in Minecraft durchführen, und baut sich dafür einen Rechner innerhalb dieses Spiels. Aber wie kann ein einfaches Spiel so etwas bieten? Schließlich ist Minecraft nur eine Nachahmung unserer Welt mit ganz natürlichen Ressourcen. So bietet eine Minecraft-Welt verschiedene Vegetations- und Klimazonen und verschieden Landschaften und Umgebungen, wie z.B. Laubwälder, Nadelwälder, Steppen, Wüsten, Schneegebiete, uvm. Es gibt jedoch auch Stoffe, die es in unserer Welt nicht gibt: Einer davon ist Redstone. Dieser besondere Stoff kann in Höhlen tief unter der Erde als Erz gefunden werden und gibt abgebaut ein Pulver, das ähnliche Eigenschaften, wie elektrische Leitungen hat. Aus Redstone-Pulver und weiteren Materialien, die man in der Welt findet, lassen sich Logikelemente bauen: Inverter, Verstärker, Verzögerer und Vergleicher. Diese Basiselemente können vom Spieler in die Welt gebaut und zu großen Schaltungen zusammengesetzt werden. Angefangen bei einfachen Speichern und Signalstärkespeichern (Redstone-Energie hat 16 Stufen von 0 bis 15), bis hin zu Logikgattern, wie UND-Gatter, XOR-Gatter und Flip-Flops. Kurzum lassen sich mit den Basiselementen alle Komponenten für einen Computer zusammenstellen, aber auch einfachere Dinge, wie Code-Schlösser und Tür-Steuerungen sind möglich. Doch so einfach, wie es nun erscheint, ist es nicht, denn jedes Basiselement hat eine Verzögerung von mindestens einer Zehntel- bis vier Zehntelsekunden. Das bedeutet, dass der Computer sehr langsam wird und Berechnungen sehr aufwendig werden. Deshalb ist Optimierung sehr wichtig, indem an jeder Stelle die Bauteile effizienter gemacht werden und die Mathematik zur Berechung ebenfalls (für den Computer) effizienter gestaltet wird. Hier konnte Florian das XOR-Gatter und den Programm-Zähler aus Halbaddierern und Volladdierern durch intelligente Kniffe deutlich beschleunigen. Eine weitere Möglichkeit besteht auch in der Nutzung von redundanten Binärdarstellungen, die bei einer großen Anzahl von Additionen große Geschwindigkeitsvorteile bringen können. Neben der Optimierung der Hardware ist auch die Optimierung der Software wichtig, was zur Mathematik zurückführt: Berechnungen wie Multiplikationen, Potenzen oder Wurzeln sind auf Logikebene komplizierte Operationen, auch wenn unsere Taschenrechner die Aufgaben in Sekundenbruchteilen lösen. (...)

Erschienen: 18.06.2015
Dauer: 2:02:30

Weitere Informationen zur Episode "Spielcomputer"


L-Funktionen

Modellansatz 055

Eine alte Fragestellung lautet, was die Summe der Kehrwerte aller natürlicher Zahlen ist. Mit anderen Worten: existiert der Grenzwert der Harmonischen Reihe \sum_{n=1}^\infty\frac{1}{n}? Die Antwort, die man im ersten Semester kennenlernen ist: Diese Reihe ist divergiert, der Wert ist nicht endlich. Über die spannenden Entwicklungen in der Zahlentheorie, die sich daraus ergaben, berichtet Fabian Januszewski im Gespräch mit Gudrun Thäter. Eine verwandte Fragestellung zur harmonischen Reihe lautet: Wie steht es um den Wert von \sum_{n=1}^\infty\frac{1}{n^2}? Diese Frage wurde im 17. Jahrhundert aufgeworfen und man wußte, daß der Wert dieser Reihe endlich ist. Allerdings kannte man den exakten Wert nicht. Diese Frage war als das sogannte Basel-Problem bekannt. Eine ähnliche Reihe ist $\sum_{n=1}^\infty\frac{2}{n(n+1)}.$ Ihr Wert läßt sich elementar bestimmen: $\begin{array}{rcl}\displaystyle \sum_{n=1}^\infty\frac{2}{n(n+1)}&=&\displaystyle1+ \frac{1}{3} + \frac{1}{6}+ \frac{1}{10}+\cdots \\ &=&\displaystyle2\left(\frac{1}{2}+ \frac{1}{6} + \frac{1}{12}+ \frac{1}{20}+\cdots\right)\\ &=& \displaystyle2\left(\left(1-\frac{1}{2}}\right) + \left(\frac{1}{2}-\frac{1}{3}\right) + \left(\frac{1}{3}-\frac{1}{4}\right)+\cdots\right)=2\,.\end{array}$ Dies war lange bekannt, und das Basel-Problem war ungleich schwieriger: Es blieb fast einhundert Jahre lang ungelöst. Erst Leonhard Euler löste es 1741: $\sum_{n=1}^\infty\frac{1}{n^2}=\frac{\pi^2}{6}\,.$ Die Riemann'sche \zeta-Funktion Die Geschichte der L-Reihen beginnt bereits bei Leonhard Euler, welcher im 18. Jahrhundert im Kontext des Basel-Problems die Riemann'sche \zeta-Funktion' \displaystyle\zeta(s)=\sum_{n=1}^\infty n^{-s} entdeckte und zeigte, dass sie der Produktformel \displaystyle\zeta(s)=\prod_{p}\frac{1}{1-p^{-s}} genügt, wobei p die Menge der Primzahlen durchläuft und s>1 eine reelle Variable ist. Diese Tatsache ist äquivalent zum Fundamentalsatz der Arithmetik: jede natürliche Zahl besitzt eine eindeutige Primfaktorzerlegung. Eulers Lösung des Basel-Problems besagt, daß \zeta(2)=\frac{\pi^2}{6} und diese Formel läßt sich auf alle geraden positiven Argumente verallgemeinern: \zeta(2k)=(2\pi i)^{2k}\cdot\left(-\frac{B_{2k}}{2(2k)!}, wobei B_{2k}\in\mathbb Q^\times die 2k-te Bernoulli-Zahl bezeichnet. Im 19. Jahrhundert zeigte Bernhard Riemann, dass die a priori nur für {\rm Re}(s)>1,\;s\in{\mathbb C} konvergente Reihe \zeta(s) eine holomorphe Fortsetzung auf {\mathbb C}-\{1\} besitzt, einer Funktionalgleichung der Form s \mapsto 1-s genügt und einen einfachen Pol mit Residuum 1 bei s=1 aufweist. Letztere Aussage spiegelt die Tatsache wieder, dass in \mathbb Z jedes Ideal ein Hauptideal ist und \pm1 die einzigen multiplikativ invertierbaren Elemente sind. Weiterhin weiß \zeta(s) viel über die Verteilung von Primzahlen. Setzen wir $\displaystyle \Lambda(s):=\pi^{-s/2}\Gamma(\frac{s}{2})\zeta(s)\,,$ dann zeigte Riemann, daß die so definierte vervollständigte Riemann'sche \zeta-Funktion auf ganz \mathbb C-\{0,1\} holomorph ist und der Funktionalgleichung \Lambda(s)=\Lambda(1-s) genügt. Da die \Gamma-Funktion Pole bei nicht-positiven ganzzahligen Argumenten besitzt, ergibt sich hieraus die Existenz und Lage der sogenannten "trivialen Nullstellen" von \zeta(s): \zeta(-2k)=0 für k\geq 1. Konzeptionell sollte man sich den Faktor \pi^{-s/2}\Gamma(\frac{s}{2}) als Eulerfaktor bei \infty vorstellen. John Tate zeigte in seiner berühmten Dissertation, daß dies tatsächlich sinnvoll ist: Die endlichen Eulerfaktoren werden von Tate als Integrale über \mathbb Q_p^\times interpretiert, und der "unendliche" Eulerfaktor ist ebenfalls durch ein entsprechendes Integral über \mathbb R^\times gegeben. Er legte damit den Grundstein für weitreichende Verallgemeinerungen. Die Riemann'sche \zeta-Funktion ist der Prototyp einer L-Funktion, einem Begriff, der langsam Schritt für Schritt verallgemeinert wurde. (...)

Erschienen: 11.06.2015
Dauer: 59:51

Weitere Informationen zur Episode "L-Funktionen"


Podcast "Modellansatz"
Merken
QR-Code