PLAY PODCASTS
Modellansatz

Modellansatz

252 episodes — Page 4 of 6

Schülerlabor

Ernestina Dittrich ist Studiendirektorin und hat Mathematik, Physik und Informatik am Gymnasium unterrichtet. Sie arbeitete außerdem am Studienseminar in Karlsruhe, ist Fachberaterin am Regierungspräsidium Karlsruhe und wurde 2005 an unsere Fakultät geholt, um die Abteilung für Didaktik zu verstärken und neue Ideen zu verwirklichen. Dieses Jahr geht sie in den Ruhestand und so wurde es höchste Zeit, ein Gespräch über das Schülerlabor Mathematik und die Entwicklung bis heute zu führen. Frau Dittrich hatte sich schon lange vor ihrem Wechsel an unsere Fakultät mit der Idee getragen, dass wie in der Physik auch in der Mathematik Experimente den Stoff auf neuartige Weise zugänglich machen könnten. Ist das Schulfach Mathematik meist polarisierend also entweder Horror- oder Lieblingsfach so stünde doch ein entdeckender und spielerischer Zugang ohne Formeln allen gleichermaßen offen. Das wurde nun seit 2005 an unserer Fakultät Stück für Stück verwirklicht. Insgesamt wurden 90 mathematische Experimente zusammengetragen. Es war das erste seiner Art in Baden Württemberg und lange Zeit auch das einzige. Von der 3.-12. Klasse sind Schülerinnen und Schüler aller Schulformen oder auch Lehrergruppen bzw. Referendare vom Studienseminar und Lehramtsstudierende willkommen. An je einem Freitag Nachmittag im Monat steht die Tür sogar für alle interessierten offen. Darüber hinaus gehen Exponate auch auf Reisen, z.B. zur Kinderuni, zum Wissenschaftsfestival EFFEKTE im Schlosspark oder zu anderen Wissenschaftsfesten wie im Luisenpark in Mannheim oder im Europapark Rust. Die weiteste Reise führte bisher zum Science Festival nach Abu Dhabi. Das Schülerlabor wird sehr gut angenommen. Schon über 1000 Schulklassen haben es besucht. In der Regel dauert eine Veranstaltung 90 min. Am Anfang steht eine Einführung in drei wichtige Experimente - dann dürfen sich alle frei bewegen. Für Fragen gibt es stets Betreuung durch Mitarbeiterinnen der Abteilung für Didaktik. Die Lehrpersonen der Schulklassen sind außerdem mit dabei. Alle Versuche sind kurz und knapp beschrieben und es gibt einen Kasten mit Tipps, wenn man allein einfach nicht weiterkommt. Natürlich geht es dabei meist lebhaft zu: Die Schülerinnen und Schüler unterhalten sich über Lösungsversuche, es gibt Jubelgeschreie, wenn etwas geklappt hat und an einigen Stationen müssen sich die Kinder auch bewegen, um die Aufgaben zu lösen. Nachdem das Labor für die ersten Jahre sein Domizil in der Hertzstraße hatte, ist es nun seit dem Umzug der Fakultät ins renovierte Kollegiengebäude Mathematik endlich auch für alle Mitarbeiter und Gäste der Fakultät sichtbar und spürbar, welche Arbeit hier stattfindet. Im Unterschied zu ähnlichen Angeboten in Museen ist die Zusammenstellung der Experimente und Exponate didaktisch nach verschiedenen Aspekten durchdacht. Z.B. gibt es viele verschiedenartige Angebote rings um das Thema platonische Körper (inkl. eines Workshops). Während des Gespräches wurden folgende Exponate angesprochen: Die Unendlichkeit (realisiert mit Spiegeln) Ich bin eine Funktion (ein Bewegungsspiel) Glockenkurve (Normalverteilung als Grenzprozess für Bernoulli-Experimente) Minimalhäute (Seifenhäute um Gestelle aus platonischen Körpern) Der Besuch im Schülerlabor ist kostenlos. Die Einrichtung und die nötigen Mitarbeiterstellen wurden bisher vor allem von der Hector Stiftung gefördert. Inzwischen gibt es von der Abteilung für Didaktik noch eine ganze Anzahl weiterer Angebote, die zum Teil auch das Schülerlabor nutzen. So ist das Labor ein Lehr-Lern-Labor in der Ausbildung der Lehramtsstudierenden, d.h. die Experimente werden in der Fachdidaktik-Ausbildung verwendet, um didaktische Konzepte für die Umsetzung der mathematischen Sachverhalte und Kompetenzen im Unterricht zu entwickeln. Es gibt bisher 15 Workshops für verschiedene Altersstufen (Dauer je 90 min), die Schulklassen und andere Gruppen buchen können. Die sogenannten Mathekids (7./8. Klasse) und Matheprofis (9./10. Klasse) sind ein Schuljahr lang jede Woche für 90 min in der Fakultät, um im Rahmen der Begabtenförderung Workshops zu erleben. Diese werden von zwei erfahrenen Lehrkräften und von Lehramtsstudierenden gehalten. Die Studierenden gewinnen Praxiserfahrung während ihrer Fachdidaktikausbildung. Die Kinder entwickeln durch kleine Forschungsaufträge dabei auch neue Workshops selbst. Für zwei dieser Projekte haben die Gruppen sogar einen Preis für junge Forscher - den sogenannten OsKarl gewonnen. Literatur und weiterführende Informationen Alle Schülerlabore am KIT Begabtenförderung am KIT Fotos vom girls' day 2015 im Schülerlabor

Aug 4, 201625 min

Metrische Geometrie

Petra Schwer ist seit Oktober 2014 Juniorprofessorin an unserer Fakultät. Sie arbeitet im Institut für Algebra und Geometrie in der Arbeitsgruppe Metrische Geometrie. Ab Oktober 2016 startet in diesem Institut ein neues Graduiertenkolleg mit dem Titel Asymptotic Invariants and Limits of Groups and Spaces und Petra Schwer freut sich darauf, dort viele mit ihrer Begeisterung anstecken zu können. Ihr Weg in die Algebra war nicht ganz direkt: Sie hat zunächst Wirtschaftsmathematik in Ulm studiert. Ein Wechsel an die Uni Bonn ebnete den Weg ins etwas abstraktere Fahrwasser. Zwei Ausflüge in die Industrie (zwischen Diplom und Promotionszeit und in der Postdoc-Phase) haben ihre Entscheidung für die akademische Mathematik bekräftigt. Im Gegensatz zur Differentialgeometrie, die von Ihrem Ursprung her auf analytischen Methoden und Methoden der Differentialrechnung (wie zum Beispiel des Ableitens) beruht, untersucht die Metrische Geometrie Mengen mit Abstandsfunktion. Darunter fallen auch die klassischen Riemannschen Geometrien, aber auch viel allgemeinere geometrische Strukturen, wie zum Beispiel Gruppen oder Graphen. Eine Metrik ist nichts anderers als eine Funktion, die einen Abstand zwischen zwei Punkten definiert. Die Euklidische Geometrie (in zwei bzw. drei Dimensionen) ist sicher allen aus der Schule bekannt. Sie ist ein Beispiel eines Geometriemodells in der metrischen Geometrie. Euklid versuchte erstmals Geometrie von Ihren Grundbausteinen her zu beschreiben. Er hat sich gefragt: Was ist ein Punkt? Was ist eine Gerade? Wie lässt sich der Abstand eines Punktes zu einer Geraden definieren? Schließlich stellte er eine Liste von grundlegenden Objekten sowie deren Eigenschaften und Beziehungen auf (Axiome genannt) die eine Geometrie erfüllen soll. Diese Axiome sind dabei die Eigenschaften, die sich nicht aus anderen ableiten lassen, also nicht beweisbar sind. Eines dieser Axiome besagte, dass durch einen festen Punkt genau eine Gerade parallel zu einer vorgegebenen anderen Geraden verläuft. Es entbrannte ein Jahrhunderte dauernder Streit darüber, ob sich dieses Parallelenaxiom aus den anderen aufgestellten Axiomen ableiten lässt, oder ob man diese Eigenschaft als Axiom fordern muss. Sehr viel später wurde klar, dass der Streit durchaus einen wichtigen und tief liegenden Aspekt unserer Anschauungsgeometrie berührte. Denn es wurden gleich mehrere Mengen (mit Abstandsfunktion) entdeckt, in denen diese Eigenschaft nicht gilt. Deshalb nannte man die Geometrien, in denen das Parallelenaxiom nicht gilt nichteuklidische Geometrien. Ein sehr nahe liegendes Beispiele für nichteuklidische Strukturen ist z.B. die Kugel-Oberfläche (damit auch unsere Erdoberfläche) wo die euklidische Geometrie nicht funktioniert. In der Ebene ist der traditionelle Abstand zwischen zwei Punkten die Länge der Strecke, die beide Punkte verbindet. Das lässt sich im Prinzip auf der Kugeloberfläche imitieren, indem man einen Faden zwischen zwei Punkten spannt, dessen Länge dann anschließend am Lineal gemessen wird. Spannt man den Faden aber "falschrum" um die Kugel ist die so beschriebene Strecke aber nicht unbedingt die kürzeste Verbindung zwischen den beiden Punkten. Es gibt aber neben der klassischen Abstandsmessung verschiedene andere sinnvolle Methoden, einen Abstand in der Ebene zu definieren. In unserem Gespräch nennen wir als Beispiel die Pariser Metrik (oder auch SNCF oder Eisenbahnmetrik). Der Name beschreibt, dass man im französischen Schnellzugliniennetz nur mit umsteigen in Paris (sozusagen dem Nullpunkt oder Zentrum des Systems) von Ort A nach Ort B kommt. Für den Abstand von A nach B müssen also zwei Abstände addiert werden, weil man von A nach Paris und dann von Paris nach B fährt. Das verleiht der Ebene eine Baumstruktur. Das ist nicht nur für TGV-Reisende wichtig, sondern gut geeignet, um über Ordnung zu reden. Ebenso sinnvoll ist z.B. auch die sogenannte Bergsteiger-Metrik, die nicht allein die Distanz berücksichtigt, sondern auch den Aufwand (bergauf vs. bergab). Damit ist sie aber in den relevanten Fällen sogar asymmetrisch. D.h. von A nach X ist es "weiter" als von X nach A, wenn X oben auf dem Berg ist und A im Tal. Analog ist es wenn man mit dem Boot oder schwimmend mit bzw. gegen die Strömung oder den Wind unterwegs ist. Dann misst man besser statt der räumlichen Distanz die Kraft bzw. Energie, die man für den jeweiligen Weg braucht. Für Karlsruher interessant ist sicher auch die KVV-Metrik, die wie folgt beschrieben wird: Um den Abstand von einem Punkt A zu einem anderen Punkt B der Ebene zu messen, läuft man von A und B senkrecht zur x-Achse (und trifft diese in Punkten A', bzw B') und addiert zu diesen beiden Abständen den Abstand von A' zu B'. Anschaulich gesprochen muss man also immer erst von A zur Kaiserstrasse, ein Stück die Kaiserstraße entlang und dann zu B. Eben so, wie die KVV ihre Strecken plant. Zwischen einer Ebene und z.B. der Kugeloberfläche gibt es einfach zu verstehende und doch wichtige geometrische Unters

Jul 28, 201642 min

Schulwegoptimierung

Sven Müller ist Professor für Verkehrsbetriebswirtschaft im Studiengang Verkehrssystemmanagement an der HTW hier in Karlsruhe. Im Rahmen seiner Promotion an der TU Dresden in der Gruppe von Knut Haase begann er der Frage nachzugehen, welche Faktoren die Verkehrsmittelwahl für den Schulweg beeinflussen. Hintergrund dieser Frage war, dass zu der Zeit in Dresden die Schließung von Schulstandorten heiß diskutiert wurde. Die Notwendigkeit von Schulschließungen war dabei nicht umstritten, jedoch welche konkrete Variante die für alle beste Lösung darstellen würde. Hier war die Diskussion emotional stark aufgeladen, d.h. ein Modell, das bei der Planung des Schulnetzes für objektive Informationen sorgt, wäre ganz besonders hilfreich. Am besten mit klaren Empfehlungen für optimale Lösungen in Bezug auf Schulwege und deren Kosten. Der naheliegende und auch herkömmliche Indikator für so ein Modell ist eine Distanzminimierung. Dadurch lassen sich objektive Aussagen zu minimalen Transportkosten für die Schüler ermitteln. Jedoch stellte sich schnell heraus, dass verlässliche Aussagen dazu fehlten, welche Verkehrsmittel die Schüler anteilig wählen und wieso. Ebenso welche Schulen die Schüler selbst wählen würden und wieso. Deshalb war ein wichtiger Ausgangspunkt für das Forschungsthema eine sehr groß angelegte Schüler-Befragung, die von den Studierenden im Rahmen eines Seminares geplant und durchgeführt wurde. Durch das große Engagement war die Stichprobe schließlich sehr groß. Es wurden dabei Fragebögen in fast allen Schulen verteilt und die Ergebnisse in einer selbst konzipierten Datenbank gesammelt - gut aufbereitet für eine anschließende Auswertung und Optimierung. So war es möglich, aus diesen Daten Prognosen zur Verkehrsmittelwahl in Abhängigkeit von Distanz und Verkehrsmitteloptionen zu erstellen und über verschiedene Schließungsszenarien eine optimale Verteilung der Schulen (in Bezug auf Kosten für die Stadt) zu ermitteln. All das floß auch in die Promotion von Sven Müller ein. Als wichtiges Problem für die mathematische Behandlung der Optimierung erwies sich, dass die Optimierungslösung auf die Daten zurückwirkt. Das führt auf ein dynamisches Problem, das mit herkömmlichen Methoden nicht behandelt werden kann. Auch bei der ÖPNV-Planung von optimierten Liniennetzen tritt das Problem auf: Kürzere Reisezeiten und mehr Direktverbindungen führen z.B. zu einem höheren Fahrgastaufkommen. Mathematisch ausgedrückt heißt das die Nebenbedingungen werden dynamisch und das Problem wird in der Regel nichtlinear. Betriebliche Problemstellungen haben oft ein ähnliches Problem, d.h. die Daten bleiben nicht fix sondern sind abhängig von der gefundenen Lösung. Ein wichtiges Teilergebnis des Forschungsvorhabens von Sven Müller ist eine exakte lineare Reformulierung für das ursprünglich nicht-lineare Optimierungsmodell. Ein weiteres grundsätzliches Problem ist, dass die Nutzenfunktion hinreichend genau beobachtet werden müsste. Ideal wäre es, wenn nur noch weißes Rauschen im Störterm berücksichtigt werden muss, d.h. alle zufälligen Anteile sind wirklich nur zufällig und unverbunden mit den beobachteten Daten. Das ist in der Realität leider nicht möglich und so führen nicht beobachtete Anteile zu Kovarianzen im Modell, die nicht null sind. Anders ausgedrückt, ist der stochastische Anteil nicht nur weißes Rauschen. Nebenbei gewann er noch einige andere Erkenntnisse. Z.B. ist es für die Prognose der Fahrradnutzung nicht ausreichend, die Distanz als Maß zu nehmen, da es bergauf- bzw. bergab gehen kann und das für die Entscheidung mindestens ebenso wichtig ist wie die Entfernung. Dieser Frage geht er zur Zeit auch mit seinen Studierenden im Studiengang Verkehrssystemmanagement an der HTW nach. Zwei weitere Themen, an denen Sven Müller zur Zeit arbeitet, weil sich gute Anknüpfungspunkte aus den eben geschilderten neuen Optimierungsstrategien bieten, sind z.B. die Versorgungsplanung in der Medizin und die Planung der Pilgerströme in Mekka.Genauer gesagt geht es bei der Versorgungsplanung um Vorsorgeprogramme (Prävention). Durch eine hohe Attraktivität des Angebots soll erreicht werden, das möglichst viele Patienten freiwillig teilnehmen. Auch hier ist die gute Erreichbarkeit der Ärzte wichtig, aber auch ihre Attraktivität. Es gilt abzuwägen, wie viele Ärzte an dem Präventionsprogramm mit welcher Kapazität teilnehmen sollen. Einerseits aus Kostengründen natürlich möglichst wenige. Aber andererseits ist gerade die kurze Wartezeit auf einen Termin ein Garant dafür, dass der Termin auch wahrgenommen wird. Somit führt die Optimierung wieder auf ein dynamisches Problem. Viele Standorte führen zu kurzen Wegen und weniger "no shows". Aber viele Untersuchungen bei einem Arzt stärken seine Kompetenz - verlängern aber die zu erwartende Wartezeit. Leider führt das außerdem auf ein nicht konvexes Optimierungsproblem, d.h. die Existenz von Optima folgt nicht mit traditionellen Methoden (bei denen ist Konvexität eine zentrale Voraussetzung). In Mekka sind

Jul 21, 201636 min

Hundert

Zur 100. Folge haben sich Gudrun und Sebastian bei Gudrun getroffen, um sich zum Jubiläum einfach mal in Ruhe über den Podcast, den Ursprung, was wir so erlebten und was vor uns liegt. Für Sebastian öffnete die Raumzeit-Folge zu Tandem-X die Augen, wieviel wissenschaftlicher Inhalt in einem Podcast übertragen werden kann. Schnell war Gudrun begeistert und nahm mit Sebastian die erste Folge zu ihrer Vorlesung über mathematische Modellbildung auf. Nach zwei weiteren Aufnahmen zur Aorta-Challenge und zur Unsichtbarkeit machten wir unsere ersten Versuche öffentlich. Schon früh stellte sich heraus, dass uns die Themen zur Mathematik nicht schnell ausgehen, da es so viele Abschlussarbeiten, Forschungsthemen und Vorlesungen gibt, die jeweils auch noch unter unterschiedlichen Sichtweisen betrachtet werden können. Im Storify sieht man, wie wir schon früh vielseitig unterstützt wurden und unsere Hörerzahl stieg schnell an: Ein besonderer Unterstützer war dabei Henning Krause, der uns eine Grußbotschaft sendete und ganz besonders die Qwirkle-Folge schätzt. Einen weiteren Gruß sandte uns Katrin Leinweber vom KonScience Podcast. Weitere Grüße erreichten uns aus Kanada von Anja Randecker aus unserer Folge zu Wilden Singularitäten, die nun in Toronto als Post-Doc weiter zu Translationsflächen forscht. Sehr haben wir uns auch über die Grüße aus dem Grünen von Martin Rützler gefreut, der selbst im Radio Mono Podcast, im DKG-Podcast und im Sendegarten regelmäßig zu hören ist, die deutschen GanzOhr-Wissenschaftspodcast-Treffen initiierte und die Wissenschaftspodcasts-Seite mit begründete. Neben Gesprächen über Vorlesungen, wie zur Analysis, Höhere Mathematik oder Digitale Währungen, hat nun Gudrun auch eine Vorlesung aufgenommen: Den Schnupperkurs zur Verkehrsmodellierung, der jeweils auf viele Gespräche im Podcast verweist. Bei Konscience gibt es interessante Konzepte zur Verknüpfung von Vortrag und Podcast, die auch auf Vorlesungen angewendet werden könnten. Ganz besondere Grüße erreichten uns von Lorenz Adlung, den wir in der Folge 39 zur Systembiologie im Podcast hatten. Lorenz ist auch ein begnadeter Science-Slammer, wie auch Anastasia August aus unserer Folge 37 zum Metallschaum. Sie ist weiterhin als Mathematikerin am Institut für Angewandte Materialien, wo sie aktuell an Gradierten Schäumen und Magischen Schäumen forscht und ein Graduiertenkolleg vorbereitet. Sebastian hat die Folge 98 zu Primzahlen und Gruppen sehr gefallen, wo Rebecca Waldecker den Einstieg in die Algebra und Zahlentheorie sehr anschaulich beschrieben hat. Besonders spannend sind auch Themen, die inzwischen zu Ausgründungen geführt haben: Markus Dahlem in M-Sense mit dem Thema Migräne, Tobias Hahn mit der Chromatographie, sowie Carlos Falquez, Iris Pantle und Balazs Pritz zu Strömungslärm. Im Zuge des SFB zu Wellenphänomenen haben wir auch ein Special zum Cooking Math Projekt durchgeführt, wo durch Gespräche die vielseitigen Kunstobjekte zur Mathematik dargestellt werden. Ein persönliches Special war für uns aber auch die Nullnummer in Folge 73, die wir mit Nele Heise aufnehmen konnten. Ebenso haben wir uns sehr über die Grüße von Melanie Bartos gefreut, die mit ihrem Podcast Zeit für Wissenschaft immer wieder über spannende wissenschaftliche Themen aus der Uni Insbruck berichtet. Natürlich haben uns auch Annika Brockschmidt und Dennis Schulz vom Science Pie Podcast aus Heidelberg einen wunderschönen Gruß gesendet, und auch Nora Ludewig und Markus Völter vom Omega Tau Podcast schlossen sich mit einer lieben Botschaft an. Und wir freuen uns die beiden im Oktober beim GanzOhr2016-Treffen der Wissenschaftspodcasts wieder zu sehen. Unsere Audiodaten laufen inzwischen durch die Open Source Podcast Audio Chain (OSPAC). Einen Einblick kann man im Vortrag zu OSPAC auf der Subscribe7 oder dem erweiterten Vortrag zu OSPAC auf der GPN16 erhalten, und auch LIGO-Rohdaten auswerten. Informationen zum Aufnehmen von Podcasts mit dem iPhone habe ich auf dem Sendegate hinterlegt. Spannend waren auch die Podcast Nachbarschafts-Graphen, die nun auch eine neue Fortsetzung auf dem FYYD Podcast-Verzeichnis. Wir haben einige Überraschungen in den bisher beliebtesten Folgen und am längesten gehörten Folgen im Modellansatz- welches dies sind, muss man sich beim Interesse im Podcast anhören.

Jul 14, 20162h 1m

Kointegrierte Prozesse

Markus Scholz hat gerade seine Dissertation Estimation of Cointegrated Multivariate Continuous-Time Autoregressive Moving Average Processes an der KIT-Fakultät für Mathematik verteidigt. Gudrun ergriff die Gelegenheit, mit ihm über die Idee und Anwendungsmöglichkeiten von Zeitreihen-Modellen zu sprechen. Prinzipiell stehen Zeitreihen einerseits für zeitlich geordnete (Mess-)Daten, die z.B. durch Abtasten (wiederholtes Messen) eines Vorgangs in der Realität entstehen. Andererseits werden sie in der Statistik als Ergebnis eines Stochastischen Prozesses interpretiert, der diese Zeitreihe als eine seiner Realisierungen erzeugt. Der stochastische Prozess ist hierbei ein Modell und soll die wichtigsten Eigenschaften der Daten erfassen. Er soll auch dazu dienen, zuverlässige Schätzungen zu liefern, wie sich die Zeitreihe wahrscheinlich in die Zukunft fortsetzt. Mitunter interessieren hier sogar nur so oberflächliche Informationen wie Saisonalität und Trends. Ein Aspekt, der im Titel der Arbeit von Markus Scholz als "Moving Average" beschrieben ist, ist die Eigenschaft, dass die Werte der Zeitreihe vor allem durch die letzten davor liegenden Meßpunkte beeinflusst sind und die "Erinnerung" an weiter in der Vergangenheit liegende Zustände abklingt. Im Modell ist hier stets eine Zufallsquelle integriert, die man sich wie ein Auswürfeln pro Zeitpunkt vorstellen kann. Wie erfolgt hier die Zuordnung zwischen Datenreihe und stochastischem Modell? In der Regel basiert die Wahl auf der Erfahrung über zuvor benutzte Modelle in ähnlichen Zusammenhängen und auf den bekannten Eigenschaften der Modelle. Anschließend müssen jedoch stochastische Tests belegen, dass die Zuordnung tatsächlich korrekt ist. Markus Scholz hat sich mit stochastischen Prozessen beschäftigt, die kontinuierlich in der Zeit sind statt - wie bisher beschrieben - diskret. Sie eignen sich z.B. zur Modellierung von Temperaturverläufen. Prinzipiell nimmt man dabei an, dass eine hoch genug gewählte Abtastrate den Übergang von diskreten Messungen zu einem als stetig angesehenen Prozess unkritisch macht. Der Aspekt, der ihn hier vor allem beschäftigt hat, war die Erweiterung bekannter Modelle um die Eigenschaft der Nicht-Stationarität. Das heißt kurz gesagt, die Grundeigenschaften des Prozesses können sich über die Zeit ändern. Das kennen wir ja auch von der Temperatur: Einerseitzs durchlaufen tägliche Tiefst-, Höchst- oder Mittelwerte der Temperatur im Jahresverlauf eine typische Kurve für eine betrachtete Region. Andererseits kann im konkreten Jahr ein untypischer Verlauf vorliegen und es ist gar nicht so leicht zu quantifizieren, ob es sich um eine untypische Beobachtung handelt oder sich z.B. die Mittelwerte tatsächlich statistisch signifikant ändern. Anders gesagt führt die Nicht-Stationarität im Modell auf Probleme bei zugehörigen Schätzungen, die in der Regel schwer zu lösen sind. Deshalb hat Markus Scholz zunächst einen handhabbaren Spezialfall ausgewählt, die sogenannten kointegrierte Prozesse. Als stochastische Quelle - dienen ihm Lévy-Prozesse, die Sprünge zulassen. Die einfachste Zufallsquelle wären Brownsche Bewegungen, die aber nur stetig (d.h. ohne Sprünge) möglich sind. Lévy- Prozesse sind flexibel haben jedoch nützliche Eigenschaften, die ihre Behandlung erleichtern, wie z.B. stationäre Inkremente. Grundidee der Arbeit war es, vorhandene Resultate für zeitdiskrete nicht-stationäre Modelle und zeitstetige stationäre Modelle so zu vereinen, dass ein neues zeitstetiges und nicht-stationäres Modell mit gut studierbaren Eigenschaften entsteht. Hierbei wurden Zustandsraummodelle verwendet, welche durch Matrizen charakterisiert werden, die die Eigenschaften des Modells bestimmen. Eine entscheidende Beweisidee beruht darauf, dass die Matrizen so transformiert werden können, dass ein Entkopplung in stationäre und nicht-stationäre Anteile erfolgt und die Benutzung der jeweils bekannten Resultate auf den zusammengesetzten Prozess möglich wird. Besonders wertvoll sind hier die entwickelten Schätzverfahren für kointegrierte Prozesse. In der Praxis haben die Zeitreihen meist einen ungefähren Gleichlauf über die Zeit, damit sind sie gemeinsam integriert, also kointegriert. Der Begriff Integration bedeutet, dass die nicht-stationären Zeitreihen durch Differenzenbildung auf neue stationäre Zeitreihen zurückgeführt werden können. Die Schätzmethode baut auf derMaximum-Likelihood-Schätzung auf, welches anschließend mit Hilfe eines numerisches Optimierungsverfahren gelöst wird. Für die Schätzmethode konnte die Konsistenz nachgewiesen werden, d.h. Schätzfolgen mit immer mehr Daten werden immer besser (Konvergenz in Wahrscheinlichkeit gegen wahren Wert). Referenzen C. Granger: Nobel Prize Lecture, 2003. R. Stelzer: CARMA Processes driven by Non-Gaussian Noise, TUM-IAS Primary Sources - Essays in Technology and Science, 1 no.1, 2012. E. Schlemm and R. Stelzer: Quasi maximum likelihood estimation for strongly mixing state space models and multivariate Lévy-driven CARMA pro

Jul 7, 201625 min

Primzahlen und Gruppen

Rebecca Waldecker ist Professorin für Algebra an der Martin-Luther-Universität Halle-Wittenberg. Sie besuchte Karlsruhe aus Anlass einer Konferenz zu Ehren von Richard Weiss und Gudrun nutzte die Gelegenheit, um mit ihr über das Faszinosum und die Nützlichkeit von Primzahlen und ihr Forschungsgebiet der Gruppentheorie zu sprechen. In der Vergangenheit gab es verschiedene Definitionen für Primzahlen, die sich über die Zeit zu dem heute gebräuchlichen geschärft haben: Eine Primzahl ist eine natürliche Zahl, die genau zwei verschiedene natürliche Teiler hat - sich selbst und 1.Die Zahl 1 ist damit keine Primzahl, aber z.B. ist die Zahl 2 prim sowie die Zahlen 3, 5, 7, 11, 13, 17, 19 usw. Ein grundlegendes Resultat besagt, dass sich alle natürlichen Zahlen eindeutig in Produkte von Primzahlen aufteilen lassen. Zahlen, die selbst nicht prim sind, nennt man deshalb zerlegbar bzw. zusammengesetzt, weil man sie mit Hilfe dieser Darstellung in die zugehörigen Primfaktoren aufteilen kann bzw. man diese als Grundbausteine der natürlichen Zahlen ansehen kann. Es gibt in diesem Zusammenhang viele interessante Fragen. Zum Beispiel: Wie viele Primzahlen gibt es? Gibt es beliebig große Primzahlzwillinge, d.h. zwei Primzahlen, die voneinander nur den Abstand 2 haben (wie z.B. 11 und 13)? Wie kann ich eine Zahl als Primzahl erkennen? Wie kann ich für jede Zahl (effektiv) die Zerlegung in Primfaktoren berechnen? Interessant ist, dass diese Fragen, die doch eher theoretisch und fast schon spielerisch wirken, heute eine große Relevanz erhalten, weil sich alle gebräuchlichen digitalen Verschlüsselungsverfahren (z.B. beim online-Banking) großer Primzahlen bedienen (je größere Primzahlen man verwenden kann, desto sicherer ist die zugehörige Verschlüsselung). Das liegt daran, dass es im Allgemeinen tatsächlich eine recht lange Rechenzeit braucht, um große Zahlen in mögliche Primfaktoren zu zerlegen. Wenn man sich jedoch davon löst, Primzahlen und Teiler nur auf natürliche Zahlen zu beziehen, wird die Welt noch ein wenig interessanter. Besonders einfach und fast offensichtlich ist es bei der Ausweitung auf ganze Zahlen. In den ganzen Zahlen gibt es mehr Teiler: Zum Beispiel hat die Zahl 3 dort (neben 3 und 1) auch noch die Teiler -1 und -3. Man muss dann entscheiden, welches die Grundbausteine für ganze Zahlen sein sollen. Noch etwas allgemeiner ausgedrückt: Wenn der Begriff der Primzahl auf andere Zahlbereiche verallgemeinert wird, dann gibt es zwei Eigenschaften, die man als charakterisch für "prim" ansehen kann: Einerseits die "Unzerlegbarkeit", also die Eigenschaft, nur die offensichtlichen Teiler zu besitzen. Primzahlen haben aber auch die Eigenschaft (im Bereich der ganzen Zahlen), dass, wenn sie ein Produkt von Zahlen teilen, sie automatisch mindestens einen der Faktoren teilen. Auch diese Eigenschaft kann man zur Verallgemeinerung der Eigenschaft "prim" benutzen. Häufig ist es so, dass in der Übertragung der Idee auf Objekte, die die Struktur eines algebraischen Rings haben (d.h. grob gesprochen, man "rechnet" in ihnen mehr oder weniger so, wie wir es von den ganzen Zahlen kennen) die Unzerlegbarkeit mit dem Begriff "irreduzibel" verallgemeinert wird und dass die andere Eigenschaft (wenn man ein Produkt teilt, dann auch mindestens einen der Faktoren) mit "prim" oder "Primelement" verallgemeinert wird. In manchen Zahlbereichen fallen diese Begriffe zusammen. Zum Beispiel ist das bei den ganzen Zahlen so und bei den im Gespräch erwähnten Ganzen Gaußschen Zahlen. Die Ganzen Gaußschen Zahlen werden aus allen Punkten mit ganzzahligen Koordinaten in der Gaußschen Zahlenebene gebildet. Diese Ebene ist eine geometrische Interpretation der Menge der komplexen Zahlen - die beiden Achsen geben Real- und Imaginärteil der jeweiligen komplexen Zahl an. Wählt man alle ganzzahligen Punkte, so ergibt das eine Struktur, die geometrisch betrachtet ein Gitter ist, und die algebraisch betrachtet den ganzen Zahlen nicht unähnlich ist. Allerdings wird die Multiplikation etwas interessanter, deshalb ändern sich die Eigenschaften von Primzahlen im Ring der Ganzen Gaussschen Zahlen. 2 ist dort keine Primzahl, sondern hat neben den offensichtlichen Teilern 2,-2,1,-1,i,-i,2i,-2i auch noch die Teiler 1+i, 1-i und noch einige mehr. Alle Primzahlen, die beim Teilen durch 4 in den Rest 3 lassen, bleiben prim in . Zum Beispiel 3, 7 und 11. Alle Primzahlen, die beim Teilen durch 4 in den Rest 1 lassen, sind nicht mehr prim in , sondern bekommen dort interessante zusätzliche Teiler. Das liegt daran, dass diese Zahlen sich als Summe von zwei Quadraten schreiben lassen. Streng genommen geht es hier nicht um die Eigenschaft, prim zu sein, sondern um die Eigenschaft, irreduzibel zu sein (siehe oben). Aber im Ring der Ganzen Gaussschen Zahlen fallen diese Begriffe zusammen. Wer sich dafür interessiert, findet beispielsweise beim Suchen mit den Stichworten Zwei-Quadrate-Satz von Fermat und Normfunktion bei den Ganzen Gaußschen Zahlen viele weitere Informationen und

Jun 30, 201648 min

Finanzen damalsTM

Auf der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe trafen sich Stephan Ajuvo und Sebastian Ritterbusch für einen Cross-Over Podcast vom damals TM Podcast und dem Modellansatz Podcast um über die Geschichte von Finanzen und Mathematik zu plaudern. Der damalsTM Podcast befasst sich damit, wie es kam, dass es kam, so dass es ist, wie es ist- und hatte in der letzten Zeit schon eine Reihe zu Geld (Geld I, Geld II, Geld III), wo die Entwicklung der Zahlungsmittel bisher bis zum 2. Weltkrieg behandelt wurden. Die Ökonomie zählt zu den Sozialwissenschaften, die oft Theorien auf Annahmen behandeln, während die Mathematik als Geisteswissenschaft sich gerne auch mal sehr exakt mit Theorien fernab der Realität befassen kann. Die Kryptographie ist jedoch ein schönes Beispiel, wie aus abstrakten mathematischen Theorien der Algebra und der Zahlentheorie plötzlich sehr reale Anwendungen aus unserem Alltag wurden. Mit Kryptoanalyse konnte man sowohl einfache Transpositionschiffren als auch die Enigma durch mathematische Verfahren knacken. Bevor vereinheitlichte Geldeinheiten eingeführt wurden, waren schon früh Objekte mit Geldfunktion eingesetzt, wo oft die Seltenheit und Wertigkeit des Materials schon für sich einen gewissen Wert sicherte. Ebenso früh kam es zu Geldversprechen wie dem Agrarkredit (zurück bis hin zum Codex Hammurapi), mit denen jetzige Ausgaben durch versprochene spätere Erntegewinne beglichen werden konnten. Dies führte zum Konzept des Zinses, mit dem das Verlustrisiko durch Ausfall und die erst spätere Zugängigkeit des Geldes bewerten kann. Das Größenordnung des Zehnt war gesellschaftlich zwar als Steuer akzeptiert, wurde jedoch als Zins schnell als Wucher gesehen, da der Zinseszins sehr schnell anwuchs. Daraus entstand auch die Gegenbewegung des Zinsverbots, das auch heute noch im Islamischen Bankwesen zu Umgehungsgeschäften führt. Die mit Geldgeschäften oft assoziierten Geldwechsler hatten als Arbeitsmittel eine Bank, die namensgebend für unsere heutigen Banken ist, und woran das Wort bankrott auch heute noch erinnert. Neben astronomischen Berechnungen, wie der Berechnung des Osterfests, war die Geldwirtschaft früh ein großes Anwendungsfeld für die Mathematik. Ein wichtiges Berechnungsmodell waren die Abzinsung und die Zinsformel, mit der man die Werte zwischen jetzt und in Zukunft unter Berücksichtigung des Zinses umrechnen konnte. Hier war das exponentielle Wachstum der Kreditentwicklung unter Zinseszinsen für viele nicht zu übersehen. Aber selbst, wenn man diese Berechnung beherrschte, so gab es das Zinsänderungsrisiko, das besonders bei langfristigen Verträgen zu erheblichen Änderungen zu den Kalkulationen führen konnte. Verschiedene Zinssätze verschiedener Landesherren führte auch unmittelbar zu unterschiedlichen Wechselkursen zwischen den lokalen Währungen der Landesherren. Zusätzlich gab es schon früh den Effekt der Teuerung oder Inflation oft durch unkontrolliertes Geldmengenwachstum. Ein Beispiel ist hier die Inflation durch die Entdeckung Amerikas. Es war damals noch nicht klar, wie der tatsächliche Wert des Geldes auch durch einen Warenkorb identifiziert werden kann. Ein sehr grobes aber dafür sehr leicht zugängiges aktuelles Indiz für den Wert verschiedener Währungen ist der Big-Mac Index. Aus der Anforderung des waren- und ortsübergreifenden Handels wurden die Börsen geboren: Hier konnten Waren und Währungen im Jetzt, aber auch in der Zukunft in Termingeschäften gehandelt werden. Schnell etablierte sich hier auch die Spekulation, die über Risikoübernahme zu einem wichtigen Bestandteil der Wirtschaft wurde. Ein bekanntes Beispiel für eine Fehlentwicklung ist die Tulpenkrise, bei der es zu einer Finanzblase bis hin zum Börsencrash kam, und exemplarisch für spätere Immobilienblasen wurde. Die Effekte konnten durch Hebeleffekte noch verstärkt werden, wenn Fremdkapital für mehr erwartete Rendite eingesetzt wurde. Eine Renditebetrachtung ist auch für die persönliche Finanzplanung sehr wichtig- so sollte jeder die Altersvorsorge frühzeitig angehen und dabei Risikoklassen und die Diversifikation zur Risikoverteilung beachten. Aus der Erfahrung, dass viele Finanzprodukte und Anlageberater die zugrunde liegenden Indices oft nur in der Vergangenheit schlagen, haben sich Finanzcommunities wie The Motley Fool gebildet, um sich gegenseitig zu informieren. Mathematisch kann man die Optimalität einer Investition auch als Multikriterielle Optimierung zwischen Rendite und Risiko im Sinne der Volatilität verstehen: Hier stellt sich heraus, dass hier zwischen den Kriterien abgewogen werden muss, und es nicht ein Optimum gibt, sondern die Linie der Pareto-Optimalität. Jedoch darf man nicht einfach aus der vergangenen Entwicklung auf Rendite und Risiko schließen: Gerade Ponzi-Systeme scheinen eine hohe Rendite bei geringer Volatilität und Risiko zu liefern, wo die Zinsen früherer Anleger nur durch die Investitionen durch angelockte Neuanleger bez

Jun 23, 20162h 8m

Ensemblevorhersagen

Stephan Hemri hat an der ETH in Zürich einen Bachelorstudiengang Umweltwissenschaften absolviert und sein Studium mit einem Master in Statistik abgerundet. Seine Masterarbeit entstand an der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL). Hierbei hat er auch statistisches Postprocessing kennengelernt. Mit diesem Wissen und dem vorhandenen Interesse übernahm er ein Promotionsthema von Tilmann Gneitling am Lehrstuhl für Computational Statstics an der KIT-Fakultät für Mathematik und am Heidelberger Institut für Theoretische Studien. Zu den Höhepunkten dieser Zeit zählt er die vier Monate, die er am Europäischen Wetterzentrum (Zentrum für Mittelfristprognose) in Reading mitforschen konnte. Schon seit langem werden für die Wettervorhersage numerische Modelle eingesetzt. Dabei werden Größen wie zum Beispiel Temperatur und Niederschlag auf einem globalen 3-dimensionale Gitter durch das Lösen von großen gekoppelten und nichtlinearen Gleichungssystemen bestimmt, die aus physikalischen Modellen hergeleitet sind, nach denen sich Luftmassen und Wasser in der Atmosphäre in etwa bewegen und dabei unser Wetter erzeugen. Ebenso wichtig - wenn auch weniger bekannt - sind hydrologische Vorhersagen zu Pegelständen an Flüssen, die mit ähnlichen Methoden für einige Zeit im voraus berechnet werden. Zu Beginn waren die damit verbundenen Rechnungen rein deterministisch, was den großen Nachteil hatte, dass die Ergebnisse der Modellläufe nichts über Unsicherheiten der Vorhersage aussagen konnten. Eine Idee, um Ungenauigkeiten der Modellrechnungen zu bestimmen, ist zu Ensemblevorhersagen überzugehen. Das heißt, man berechnet nicht nur eine Vorhersage, sondern mehrere Modelläufe, jeweils zu abgeänderten (gestörten) Anfangsbedingungen oder mit verschiedenen Modellen, um zu sehen, wie stark sie sich in den Ergebnissen unterscheiden. Sind sich die verschiedenen Rechnungen weitestgehend einig, ist die Vorhersage recht sicher zutreffend. Weichen sie stark voneinander ab, sind sie entsprechend wenig sicher. Die Datenlage in der Wettervorhersage ist sehr gut. Insofern, kann man natürlich im Nachgang immer abgleichen, inwiefern Vorhersagen eingetroffen sind und dies zur Verbesserung der Modelle benutzen. Aber trotzdem bleiben konkrete Aussagen wie z.B. Hochwasservorhersagen oder Vorhersagen zu Pegeln anhand von Niederschlags-Daten sehr schwierig, weil die Modelle nicht ausgereift sind und die Verbesserung nicht auf der Hand liegt. Zum Beispiel am Europäischen Wetterzentrum in Reading ist derzeit ein Ensemble bestehend aus 51 Modellenvarianten verfügbar. Zusammen mit einem deterministischen Modell höherer Auflösung, führt dies zu einem recht großen Ensemble von Vorhersagen. In der statistischen Nachbearbeitung (dem Postprocessing) wird vor allem nach systematischen Fehlern Ausschau gehalten. Dabei werden bedingte Wahrscheinlichkeits-Vorhersagen auf das Ensemble bezogen und parametrische Dichtefunktionen erzeugt. Als Trainingsperiode werden dabei z.B. die letzten 30 Tage gewählt. Bei hydrologischen Abschätzungen sind jahreszeitliche Trainingsperioden (gleiche Jahreszeiten, aber andere Jahre) häufig sehr hilfreich. Dieses Vorgehen führt in der Regel zu einer besseren Schätzung des zukünftigen Wetters und Pegelständen. Für die Temperatur kann man sich das Vorgehen am einfachsten vorstellen: Es gibt einen Ensemble-Mittelwert, dessen Fehler in etwa normalverteilt ist. Bei der Nachbearbeitung wird z.B. der Mittelwert-Parameter an den Mittelwert des Ensembles in linearer Weise angepasst. Auch die Varianz ist in erster Näherung eine lineare Funktion der Varianz des Ensembles. Das ist ein sehr einfaches Modell, aber schon hilfreich. Zwei grundlegende Ideen gehen in der Parameterschätzung ein. Zum einen nichthomogene Regression, die gut verstanden aber nicht so flexibel ist - zum anderen Baysean Model averaging. Über allen statistischen Verfahren und Verbesserungen bleibt jedoch auch die Forderung, dass die Nutzbarkeit der Ergebnisse für den Endnutzer gegeben sein muss. Deshalb wird - gerade bei Wasserstandsvorhersagen - manchmal dann doch nur ein zu erwartender Pegelstand übermittelt ohne alle im Prozess gewonnenen Erkenntnisse über mögliche Abweichungen von diesem approximativen Wert mitzuteilen. Literatur und weiterführende Informationen Cloke, H. L. and F. Pappenberger (2009). Ensemble flood forecasting: a review. Journal of Hydrology 375, 613--626. Gneiting, T., A. E. Raftery, A. H. Westveld, and T. Goldman (2005). Calibrated probabilistic forecasting using ensemble model output statistics and minimum CRPS estimation. Monthly Weather Review 133, 1098--1118. Raftery, A. E., T. Gneiting, F. Balabdoui, and M. Polakowski (2005). Using Bayesian model averaging to calibrate forecast ensembles, Monthly Weather Review 133, 1155--1174. Thorarinsdottir, T. L. and T. Gneiting (2010). Probabilistic forecasts of wind speed: ensemble model output statistics by using heteroscedastic censored regression, Journal of the Royal Statistical So

Jun 16, 201633 min

Probabilistische Robotik

Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Ziel

Jun 9, 20161h 42m

Banach-Tarski Paradox

Nicolas Monod teaches at the École polytechnique fédérale in Lausanne and leads the Ergodic and Geometric Group Theory group there. In May 2016 he was invited to give the Gauß lecture of the German Mathematical Society (DMV) at the Technical University in Dresden. He presented 100 Jahre Zweisamkeit – The Banach-Tarski Paradox. The morning after his lecture we met to talk about paradoxes and hidden assumptions our mind makes in struggling with geometrical representations and measures. A very well-known game is Tangram. Here a square is divided into seven pieces (which all are polygons). These pieces can be rearranged by moving them around on the table, e.g.. The task for the player is to form given shapes using the seven pieces – like a cat etc.. Of course the Tangram cat looks more like a flat Origami-cat. But we could take the Tangram idea and use thousands or millions of little pieces to build a much more realistic cat with them – as with pixels on a screen. In three dimensions one can play a similar game with pieces of a cube. This could lead to a LEGO-like three-dimensional cat for example. In this traditional Tangram game, there is no fundamental difference between the versions in dimension two and three. But in 1914 it was shown that given a three-dimensional ball, there exists a decomposition of this ball into a finite number of subsets, which can then be rearranged to yield two identical copies of the original ball. This sounds like a magical trick – or more scientifically said – like a paradoxical situation. It is now known under the name Banach-Tarski paradox. In his lecture, Nicolas Monod dealt with the question: Why are we so surprised about this result and think of it as paradoxical? One reason is the fact that we think to know deeply what we understand as volume and expect it to be preserved under rearrangements (like in the Tangram game, e.g.).Then the impact of the Banach-Tarski paradox is similar for our understanding of volume to the shift in understanding the relation between time and space through Einstein's relativity theory (which is from about the same time). In short the answer is: In our every day concept of volume we trust in too many good properties of it. It was Felix Hausdorff who looked at the axioms which should be valid for any measure (such as volume). It should be independent of the point in space where we measure (or the coordinate system) and if we divide objects, it should add up properly. In our understanding there is a third hidden property: The concept "volume" must make sense for every subset of space we choose to measure. Unfortunately, it is a big problem to assign a volume to any given object and Hausdorff showed that all three properties cannot all be true at the same time in three space dimensions. Couriously, they can be satisfied in two dimensions but not in three. Of course, we would like to understand why there is such a big difference between two and three space dimensions, that the naive concept of volume breaks down by going over to the third dimension. To see that let us consider motions. Any motion can be decomposed into translations (i.e. gliding) and rotations around an arbitrarily chosen common center. In two dimensions the order in which one performs several rotations around the same center does not matter since one can freely interchange all rotations and obtains the same result. In three dimensions this is not possible – in general the outcomes after interchanging the order of several rotations will be different. This break of the symmetry ruins the good properties of the naive concept of volume. Serious consequences of the Banach-Tarski paradox are not that obvious. Noone really duplicated a ball in real life. But measure theory is the basis of the whole probability theory and its countless applications. There, we have to understand several counter-intuitive concepts to have the right understanding of probabilities and risk. More anecdotally, an idea of Bruno Augenstein is that in particle physics certain transformations are reminiscent of the Banach-Tarski phenomenon. Nicolas Monod really enjoys the beauty and the liberty of mathematics. One does not have to believe anything without a proof. In his opinion, mathematics is the language of natural sciences and he considers himself as a linguist of this language. This means in particular to have a closer look at our thought processes in order to investigate both the richness and the limitations of our models of the universe. References: F. Hausdorff: Bemerkung über den Inhalt von Punktmengen. Math. Ann. 75 (3), 428–433, 1914. S. Banach and A.Tarski: Sur la décomposition des ensembles de points en parties respectivement congruentes, Fundamenta Mathematicae 6, 244–277, 1924. J. von Neumann: Zur allgemeinen Theorie des Maßes Fundamenta Mathematicae 13, 73–116, 1929. S. Wagon: The Banach–Tarski Paradox. Cambridge University Press, 1994. B.W. Augenstein: Links Between Physics and Set Theory, Chaos, Soli

Jun 2, 201627 min

Verkehrsmodellierung I

Peter Vortisch bekleidet seit 2010 eine Professur für Verkehrswesen am Karlsruher Institut für Technologie (KIT) und ist Leiter des Instituts für Verkehrswesen. Wir haben über die Entwicklung der Modellierung von Verkehr gesprochen und dabei den Schwerpunkt zunächst auf die Anfangszeit gelegt, in der sich die in der Forschung geborene Idee Schritt für Schritt in ein Softwareprodukt entwickelte und wo und warum sich die Idee und das Produkt durchsetzen konnten. Peter Vortisch hat in Karlsruhe eigentlich Informatik studiert und kam zum Verkehrswesen zunächst als wissenschaftliche Hilfskraft. Er hat dann bald mit an den ersten Simulationen programmiert. Solche Simulationen wurden damals auf Großrechnern durchgeführt, von denen es nur wenige gab. Die Forschungen und theoretischen wie praktischen Überlegungen wurden im wesentlichen von Professor Wiedemann vorangetrieben. Seine Karlsruher Gruppe war die erste, die das in Deutschland erfolgreich erprobte und schließlich als Standard eingeführt hat. Es gab damals Forschungsprojekte z.B. zur Wirkung von Tempolimits im Auftrag des Verkehrsministeriums. In der Zwischenzeit entwickelte sich die Rechentechnik weiter und mit dem Siegeszug des PCs wanderte die Simulation vom Rechenzentrum auf die Schreibtische. Damals war es möglich, auf so einem Rechner ein Modell mit etwa 20 Fahrzeugen in Echtzeit zu simulieren - heut sind die Rechner so viel schneller, dass mehrere 100.000 Fahrzeuge möglich sind. Aber auch mit so wenigen Fahrzeugen war es ein wichtiger Schritt hin zur Kommerzialisierung der Verkehrsmodelle. In den USA gab es damals z.B. ein öffentlich subventioniertes Produkt für Verkehrsplaner, was einen durchschlagenden Erfolg hatte und die Simulation in allen Büros etablierte. In Karlsruhe entwickelte sich ein Spin off aus dem Institut, die Firma ptv entwickelte das Produkt und die Vermarktung der Verkehrssimultion zunächst in Deutschland. Seither besteht eine enge Zusammenarbeit mit dem Institut für Verkehrswesen. Im Zuge dieser Professionalisierung wurde die Verwendung des Produktes durch Verkehrsingenieure der neue Standard. Es gab zwei große deutsche Unternehmen, die die Entwicklung der Software stark beschleunigt haben. Zunächst die Firma SIEMENS weil sie die Wirkung von Ampelsteuerungen besser vorhersehen wollte. U.a. auch im Zusammenhang mit der Grün-Anforderung durch den ÖPNV. Vor dem Aufbau auf einer echter Kreuzung sollte die Simulation auf dem Rechner beweisen, dass auch der gewünschte Effekt durch die Ampelsteuerung erreicht werden würde. Das wurde schließlich sogar Teil der SIEMENS Software Verkehrsplanung. Verkehrsplaner in den Städten haben in dieser Zeit weitergehende Ideen noch nicht so gut angenommen. Dafür war dann die Firma Volkswagen ein Vorreiter. Sie hat sich eigentlich für Abgasemissionen interessiert, wofür man Temperaturverläufe der Motoren braucht. Es wurde daraus die Aufgabe abgeleitet, für eine ganze Stadt den Verkehr über den Tag hinweg zu simulieren (inkl. parken). Sie haben sich in großem Umfang finanziell an den Entwicklungsarbeiten beteiligt. Prototyp wurde die Stadt Braunschweig. Ohne die heute selbstverständlich vorliegenden Daten zu Straßen und Kreuzungen war das ein sehr aufwändiges Vorhaben. Außerdem brauchte man neue Verfahren, die entscheiden, welche Wege die Fahrzeuge in der Stadt zurücklegend. Ein wichtiges neues Verfahren hierfür wurde die Dynamische Umlegung. Diese neue Fähigkeit des Programms hat zu einer deutlich weiteren Verbreitung geführt, denn es war nun ein wirklich professionelles Softwareprodukt auf dem Markt in Deutschland vorhanden. Der Funktionsumfang des ptv-Produktes war schließlich größer als das des USA-Standards. Da dort Verkehrssimulation aber schon Usus war, war es einfach mit dem noch besseren Produkt in den US-Markt einzusteigen. Ein weiterer wichtiger Markt war auch Großbritannien, da dort traditionell bei Planungen viel modelliert wird ("Mutterland der Modellierung"). Dort war der Einstieg geschafft, als sich Transport for London entschied, mit dem ptv-Produkt zu arbeiten. Podcasts und Videos PTV Youtube-Kanal U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen K.Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv

May 26, 201617 min

Viscoelastic Fluids

This is the second of four conversations Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th of April 2016 in Oxford. Helen Wilson always wanted to do maths and had imagined herself becoming a mathematician from a very young age. But after graduation she did not have any road map ready in her mind. So she applied for jobs which - due to a recession - did not exist. Today she considers herself lucky for that since she took a Master's course instead (at Cambridge University), which hooked her to mathematical research in the field of viscoelastic fluids. She stayed for a PhD and after that for postdoctoral work in the States and then did lecturing at Leeds University. Today she is a Reader in the Department of Mathematics at University College London. So what are viscoelastic fluids? If we consider everyday fluids like water or honey, it is a safe assumption that their viscosity does not change much - it is a material constant. Those fluids are called Newtonian fluids. All other fluids, i.e. fluids with non-constant viscosity or even more complex behaviours, are called non-Newtonian and viscoelastic fluids are a large group among them. Already the name suggests, that viscoelastic fluids combine viscous and elastic behaviour. Elastic effects in fluids often stem from clusters of particles or long polymers in the fluid, which align with the flow. It takes them a while to come back when the flow pattern changes. We can consider that as keeping a memory of what happened before. This behaviour can be observed, e.g., when stirring tinned tomato soup and then waiting for it to go to rest again. Shortly before it finally enters the rest state one sees it springing back a bit before coming to a halt. This is a motion necessary to complete the relaxation of the soup. Another surprising behaviour is the so-called Weissenberg effect, where in a rotation of elastic fluid the stretched out polymer chains drag the fluid into the center of the rotation. This leads to a peak in the center, instead of a funnel which we expect from experiences stirring tea or coffee. The big challenge with all non-Newtonian fluids is that we do not have equations which we know are the right model. It is mostly guess work and we definitely have to be content with approximations. And so it is a compromise of fitting what we can model and measure to the easiest predictions possible. Of course, slow flow often can be considered to be Newtonian whatever the material is. The simplest models then take the so-called retarded fluid assumption, i.e. the elastic properties are considered to be only weak. Then, one can expand around the Newtonian model as a base state. The first non-linear model which is constructed in that way is that of second-order fluids. They have two more parameters than the Newtonian model, which are called normal stress coefficients. The next step leads to third-order fluids etc. In practice no higher than third-order fluids are investigated. Of course there are a plethora of interesting questions connected to complex fluids. The main question in the work of Helen Wilson is the stability of the flow of those fluids in channels, i.e. how does it react to small perturbations? Do they vanish in time or could they build up to completely new flow patterns? In 1999, she published results of her PhD thesis and predicted a new type of instability for a shear-thinning material model. It was to her great joy when in 2013 experimentalists found flow behaviour which could be explained by her predicted instability. More precisely, in the 2013 experiments a dilute polymer solution was sent through a microchannel. The material model for the fluid is shear thinning as in Helen Wilson's thesis. They observed oscillations from side to side of the channel and surprising noise in the maximum flow rate. This could only be explained by an instability which they did not know about at that moment. In a microchannel inertia is negligible and the very low Reynolds number of suggested that the instability must be caused by the non-Newtonian material properties since for Newtonian fluids instabilities can only be observed if the flow configuration exeeds a critical Reynolds number. Fortunately, the answer was found in the 1999 paper. Of course, even for the easiest non-linear models one arrives at highly non-linear equations. In order to analyse stability of solutions to them one firstly needs to know the corresponding steady flow. Fortunately, if starting with the easiest non-linear models in a channel one can still find the steady flow as an analytic solution with paper and pencil since one arrives at a 1D ODE, which is independent of time and one of the two space variables. The next question then is: How does it respond to small perturbation? The classical procedure is to linearize around the steady flow which leads to a linear problem to solve in order to know the stability properties. The basic (steady) flow allows for

May 5, 201621 min

ÖPNV

Klaus Nökel arbeitet in der Firma ptvgroup an der Verkehrsmodellierung. Er war und ist an vielen Aspekten der Entwicklung der ptv-Software beteiligt. Einer seiner Schwerpunkte sind Modelle für den öffentlichen Nahverkehr - kurz ÖPNV. Oft kann man nur mit geeigneten Modellen und Simulationen den für Fördergelder erforderlichen Nachweis über einen zu erwartenden Nutzen von Baumaßnahmen erbringen. In Karlsruhe ist der Tunnel für die Straßenbahnen (in Karlsruhe kurz UStrab genannt) ein prominentes Beispiel einer solchen Großbaustelle. Die wichtigste Fragen zum erwarteten Nutzen, ist wie sich die Reisezeit verkürzt: Der Kosten-Nutzen-Quotient sollte hier natürlich möglichst klein sein. Die gesamten Baukosten sind dabei relativ einfach zu ermitteln. Die Nutzen-Seite ist dagegen nicht so einfach zu schätzen. Man braucht dafür ja Zahlen darüber, was für die Fahrgäste (quantifizierbar) besser wird- insbesondere im Bezug auf Zeiteinsparung. Um diese Frage beantworten zu können, muss für alle Einwohner eine Routenplanung für jeden Tag durchgeführt werden. In Bezug auf ÖPNV sind dies insbesondere die Mobliltätsentscheidungen zwischen Weg zu Fuß, mit dem Auto oder Fahrrad und dem ÖPNV. Das betrifft vor allem die Wege zur Arbeit, zu Freizeitaktivitäten und zum Einkaufen. Die Wohn- und Arbeitsorte liegen hier über längere Zeit fest - alle anderen Größen sind jedoch variabel und Entscheidungen wo man beispielsweise einkaufen geht, können sich mit besserer Erreichbarkeit verändern. Hier muss aufgrund vorliegender Informationen zu Wegen in der Stadt die Wahl des Verkehrsmittels modelliert werden und welche Route mit welchem Verkehrsmittel typischerweise gewählt wird. Die Frage ist dann, ob es zu Verschiebungen in der Verkehrsmittelwahl kommen wird, nachdem sich die Infrastruktur geändert hat (wie z.B. durch den Tunnel bei uns in Karlsruhe). Die Angebotsseite ist vergleichsweise einfach zu beschreiben: Verkehrsnetz(e) wie Straßen und Liniennetz des ÖPNV mit zugehörigem Fahrplan sind bekannte Daten. Die Kenntnisse über die Nachfrage sind komplex und setzen sich aus verschiedenen Anteilen zusammen. Ein gut verstandener Teil hier ist der soziodemographische z.B. ob ein Auto zur Verfügung oder nicht. Typischerweise haben junge Leute auf dem Weg zur Schule oder in die Ausbildung kein Auto zur Verfügung. Ebenso kann man gut beschreiben, wo gewohnt, gearbeitet und typischerweise eingekauft wird. Die Frage, welche Wege zurückgelegt werden, wird nicht wirklich gezählt oder genau ermittelt, sondern modelliert. Dabei sind viele Fragen nicht eindeutig beantwortbar. Manches sind auch ganz persönliche Vorlieben, so wie verschiedene Personen höhere Wegekosten gegenüber höherer Wegezeit sehr unterschiedlich gewichten. Eine typische Datenbeschaffungsmethode ist bisher, Menschen über einen gewissen Zeitraum Tagebuch zu ihren Mobilitätsentscheidungen führen zu lassen. Zusätzlich zu den so dokumentierten und hochgerechneten Entscheidungen müssen für das Modell als Vergleich auch noch mögliche Alternativen zu diesen Entscheidungen mit berechnet werden (inklusive Zeit- und Geldaufwand). Als mathematische Methode bietet sich ein Discrete Choice Modell an, denn es geht um endlich viele Alternativen zwischen denen gewählt wird. Es gibt darin einige objektive Anteile der persönlichen Nutzenfunktion und einen unbeobachtbaren Teil der Nutzenfunktion, der üblicherweise durch eine Wahrscheinlichkeitsverteilung im Modell realisiert werden kann und muss. Statistik insbesondere die Schätztheorie hilft bei der Bestimmung der Wahrscheinlichkeitsverteilungen aus vorliegenden Entscheidungen. Das Gewicht für das "Rauschen" ist eine Unbekannte im Modell. Je nach Standort für den das Modell entwickelt wird, unterscheidet sich das tatsächlich. In den letzten Jahren hat sich die Anzahl der Wahlmöglichkeiten für Mobilität durch verschiedene Sharing-Modelle außerdem stark erweitert, wie z.B. durch Carsharing oder Fahrrad-Leihe, die inzwischen auch niederschwellig und sehr flexibel geworden sind. Vor allem in Kombination mit herkömmlichen Transportmitteln liegt ein großes Potential, das gerade erschlossen wird (z.B. haben zur Zeit etwa 600 Städte in der Welt ein Leihfahrrad-System). Es wäre einfacher, wenn die Benutzung noch klarer standardisiert wäre und eine Benutzerführung so einfach wie in einer typischen App erfolgte. Sinnvoll und wünschenswert wären natürlich ausführliche Vorher-nachher-Untersuchungen, um die Güte der Vorhersagen der Modelle zu prüfen und auch zu verbessern. Bisher war das meist zu teuer, aber das ändert sich gerade, weil Datenmengen aus Smartphones nutzbar und einfach auswertbar werden. Zum Glück gibt es hier keine Berührung der Privatsphäre, weil nur anonyme Angaben aus großen Mengen von Bewegungsprofilen gebraucht werden aus denen keine Rückschlüsse auf einzelne Personen möglich sind. Die Städte versuchen für ihre Einwohner die Erreichbarkeits-Gerechtigkeit zu verbessern. Hier vereinfachen die neuen Verkehrsmittel potentiell das Problem der let

Apr 28, 201646 min

Fußgängermodelle

Dr. Tobias Kretz arbeitet in der Firma PTV Group in Karlsruhe an der Modellierung und Simulation von Fußgängerströmen. Er studierte Physik an der Universität Karlsruhe und behandelte in seiner Diplomarbeit Teilchen-Zerfallsprozesse. Anschließend führte ihn die Suche nach interessanten Anwendungen physikalischer Konzepte zur Arbeitsgruppe Physik von Transport und Verkehr an der Universität Duisburg-Essen. Dort promovierte er im Themenfeld der Fußgängersimulation bei Prof. Schreckenberg. Damit war er genau der Experte, den die ptv suchte, als sie sich entschied, die Verkehrssimulations-Software im Haus um den Aspekt der Fußgängersimulation zu erweitern. Eine erste für Karlsruhe interessante Anwendung der neuen Software VISWALK war die Simulation der Großveranstaltung Das Fest hier in Karlsruhe. Die Simulation von Fußgängerströmen ist eine noch junge Disziplin. Sie entwickelte sich zunächst für Evakuierungs- und Notfall-Szenarien. Heute dient die Fußgängersimulationssoftware beispielsweise der Planung in großen Bahnhöfen. Denn hängt die Frage, ob man einen Anschlußzug kann, nicht auch von der Problematik ab, dass man dabei von anderen Fahrgästen behindert wird? Außerdem ist die Untersuchung der von Effizienz von Laufwegen sehr hilfreich in der Planung von Bauvorhaben. In der Fußgängersimulation werden verschiedene Methoden aus der Mathematik und Physik benutzt. In der Arbeitsgruppe von Herrn Schreckenberg waren es vor allem Zellularautomaten. Im nun vorhandenen Modul VISWALK wurde bei der ptv vor allem auf das Social force Modell gesetzt, das auf einem Newtonschen Ansatz (also dem Zusammenhang von Kraft und Beschleunigung) beruht und auf eine Beschreibung durch Differentialgleichungen für die einzelnen Fußgänger führt. Dieses System muss numerisch gelöst werden. Die schrittweise Lösung entspricht dabei der zeitlichen Entwicklung der Bewegung. Die Grundidee beim Social Force Modell ist, dass man sich vorstellt, dass die am Fußgänger angreifende Kräfte seine Beschleunigung (inklusive der Richtung) verändern und damit seine Bewegung bestimmen. Das einfachste Modell ist der Wunsch das Ziel zu erreichen (driving force), denn es genügt dafür eine zum gewünschten Ziel ziehende starke Kraft. Dabei muss man aber anderen Fußgängern und Hindernissen ausweichen. Das Ausweichen kann man aber leider nicht in genau ein Modell (also genau ein erwartetes Verhalten) übersetzen; es gibt dazu einfach zu viele Einflussfaktoren. Physikalisch werden sie daher als abstoßende Kräfte im Nahfeld von anderen Fußgängern und Hindernissen modelliert. Wichtige Fragen, die im Algorithmus zu berücksichtigen sind, wären beispielsweise, wie nah geht ein typischer Fußgänger typischerweise an anderen Fußgängern vorbei geht, und welche Umwege typischerweise am attraktivsten erscheinen. Aus eigener Erfahrung kennt man den inneren Kampf, wie man mit Gruppen, die sozusagen als ein weiches Hindernis im Weg stehen, umgeht. Hindurchdrängeln vermeidet man oft. Das muss auch der Algorithmus so tun, wenn er menschliches Verhalten nachbilden soll. So kann man hier die Dichte der Gruppe in eine "Härte" des Hindernisses übersetzen. Je nachdem wie dicht gepackt der Raum ist, werden solche Entscheidungen aber auch unterschiedlich ausfallen. Berechnet wird natürlich stets die Bewegung des Schwerpunkts des Fußgängers. Für die visuelle Umsetzung im Programm wird das entsprechend graphisch aufbereitet, was natürlich auch einen gewissen Rechenaufwand verursacht. Das Modell selbst ist zeitkontinuierlich und so wird die Genauigkeit durch die für das numerische Verfahren gewählte Zeitschrittweite bestimmt. Etwa 20.000 Personen können zur Zeit in Echtzeit simuliert werden. Leider ist es im Programm bisher nahezu unmöglich zu berücksichtigen, wie sich Menschen in zusammen gehörenden Zweier- oder Dreier-Gruppen bewegen. Zum Glück ist das beispielsweise in der Simulation von Berufspendlern auf einem Bahnhof ein vernachlässigbares Phänomen. Ein weiterer Aspekt ist, dass die Ergebnisse der intern komplexen Simulation sich schließlich für den Verkehrsplaner in wenig komplexen Zahlenwerten spiegeln (wie in Dichten). Dabei muss auch eine Balance gefunden werden zwischen Komplexität des Modells und der Bedienbarkeit durch einen Verkehrsplaner im Arbeitsalltag. Zu einfache Modelle - wie solche, die nur Dichten von Personen berücksichtigen (sogenannte Makromodelle) - können eventuell nicht mehr wiedergeben, dass es in Korridoren gegenläufige Bewegungen gibt, was jedoch ein zentraler Aspekt der tatsächlichen Fußgängerbewegung ist. Daten zur Kalibrierung dieser Modelle sind nicht so einfach zu erheben. Eine Möglichkeit ist die Auswertung von Videos (z.B. von Überwachungskameras). Dabei weiß man natürlich nichts über den Hintergrund der beobachteten Personen (Alter, Größe, Dringlichkeit des Ortswechsels). In Laborexperimenten sind diese Informationen verfügbar, aber es bleibt immer eine künstliche Umgebung, die die Realitäts-Nähe der Ergebnisse potentiell gefährdet. Ein noch ganz neue

Apr 21, 20161h 1m

Crop Growth

This is the first of four conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th of April 2016 in Oxford. Josie Dodd finished her Master's in Mathematical and Numerical Modelling of the Atmosphere and Oceans at the University of Reading. In her PhD project she is working in the Mathematical Biology Group inside the Department of Mathematics and Statistics in Reading. In this group she develops models that describe plant and canopy growth of the Bambara Groundnut - especially the plant interaction when grown as part of a crop. The project is interdisciplinary and interaction with biologists is encouraged by the funding entity. Why is this project so interesting? In general, the experimental effort to understand crop growth is very costly and takes a lot of time. So it is a great benefit to have cheaper and faster computer experiments. The project studies the Bambara Groundnut since it is a candidate for adding to our food supply in the future. It is an remarkably robust crop, draught tolerant and nitrogent inriching, which means the production of yield does not depend on fertilizer. The typical plant grows 150 days per year. The study will find results for which verfication and paramater estimations from actual green house data is available. On the other hand, all experience on the modelling side will be transferable to other plants up to a certain degree. The construction of the mathematical model includes finding equations which are simple enough but cover the main processes as well as numerical schemes which solve them effectively. At the moment, temperature and solar radiation are the main input to the model. In the future, it should include rain as well. Another important parameter is the placement of the plants - especially in asking for arrangements which maximize the yield. Analyzing the available data from the experimental partners leads to three nonlinear ODEs for each plant. Also, the leave production has a Gaussian distribution relationship with time and temperature. The results then enter the biomass equation. The growth process of the plant is characterized by a change of the rate of change over time. This is a property of the plant that leads to nonlinearity in the equations. Nevertheless, the model has to stay as simple as possible, while firstly, bridging the gap to complicated and more precise models, and secondly, staying interpretable to make people able to use it and understand its behaviour as non-mathematicians. This is the main group for which the models should be a useful tool. So far, the model for interaction with neighbouring plants is the computational more costly part, where - of course - geometric consideration of overlapping have to enter the model. Though it does not yet consider many plants (since green house sized experimental data are available) the model scales well to a big number of plants due to its inherent symmetries. Since at the moment the optimizaition of the arrangements of plants has a priority - a lot of standardization and simplifying assumptions are applied. So for the future more parameters such as the input of water should be included, and it would be nice to have more scales. Such additional scales would be to include the roots system or other biological processes inside the plant. Of course, the green house is well controlled and available field data are less precise due to the difficulty of measurements in the field. During her work on the project and as a tutor Josie Dodd found out that she really likes to do computer programming. Since it is so applicable to many things theses skills open a lot of doors. Therefore, she would encourage everybody to give it a try. Literature and additional material Crops for the Future website Asha Sajeewani Karunaratne: Modelling the response of Bambara groundnut (Vigna subterranea (L.) Verdc) for abiotic stress, PhD thesis, University of Nottingham (2009). A.S. Karunaratne e.a.: Modelling the canopy development of bambara groundnut, Agricultural and Forest Meteorology 150, (7–8) 2010, 1007–1015.

Apr 14, 201620 min

Verkehrswesen

Im Gespräch mit Ulrike Leyn wollten wir den Blick auf Aufgaben im heutigen Verkehrswesen richten. Wir begannen die Unterhaltung damit, zu erkunden, auf welchem Weg Ulrike Leyn zum Verkehrswesen gekommen ist und schließlich für das Thema Feuer gefangen hat. Am Anfang stand wohl ihre Entscheidung für das Studienfach Wirtschaftsingenieurwesen aus dem einfachen und sehr nachvollziehbaren Grund, sich damit thematisch nicht so stark festlegen zu müssen und im Anschluss sehr viele auch sehr verschiedenartige Möglichkeiten des beruflichen Einstiegs zu haben. Im Wirtschaftsingenieurwesen gibt es je nach Universität verschiedene Ausbildungsstrategien. An einigen muss man sich zu Beginn auf eine Ingenieurdisziplin festlegen, die dann mit ökonomischen Fächern kombiniert wird. In Karlsruhe ist die Ausbildung jedoch ingenieurtechnisch sehr breit angelegt. Es werden also Grundlagen für sehr verschiedene Ingenieurwissenschaften im Studium gelehrt und erst in der Vertiefung erfolgt eine Spezialisierung nach eigener Neigung. Außerdem ist auch der Anteil zwischen ökonomisch ausgerichteten und ingenieurstechnischen Fächern am Karlsruher Institut für Technologie (KIT) je nach persönlicher Wahl stark variabel. Das waren zwei Aspekte, die Ulrike Leyn darin bestärkten in Karlsruhe zu studieren. Für sie war es schließlich die Wahl der Fächerkombination 'Grundlagen der Raum- und Infrastrukturplanung', die zum ersten Schritt in die Richtung Verkehrwsesen wurde. Die Interdisziplinarität des Themas hat sie von Anfang an sehr angesprochen. Deshalb schrieb sie schließlich auch ihre Diplomarbeit am Institut für Verkehrswesen. Direkt im Anschluss begann sie, als wissenschaftliche Mitarbeiterin am Institut zu arbeiten. In ihrer jetzigen Tätigkeit im Verkehrswesen kann Ulrike Leyn vor allem ausnutzen, dass sie im Studium gelernt hat, sich in sehr viele verschiedene Probleme selbstständig einzuarbeiten. Außerdem erwies sich ihre Tätigkeit als Tutorin der Vorlesung Programmieren in Java als sehr hilfreich, um Simulationen anzupassen und automatisiert auszuwerten. In Karlsruhe am KIT ist Verkehrswesen als Teil des Bauingenieurwesens an der KIT-Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften etabiliert. Inzwischen gibt es auch einen eigenen Master-Studiengang Mobilität und Infrastruktur. Neben der Möglichkeit als Ingenieurs-Vertiefung im Wirtschaftsingenieurwesen (und der technischen VWL) kann es auch als Zusatzfach in Informatik, Physik oder Wirtschaftsmathematik gewählt werden oder als technisches Fach im Master Technomathematik. Die Lehrangebote des Instituts erstrecken sich über mehrere Bereiche. Das Projekt, an dem Ulrike Leyn für lange Zeit gearbeitet hat und das gerade abgeschlossen wurde, soll die Möglichkeit bieten, Verkehrs-Simulation auf Computern so zu verwenden, dass man sie einfacher als Ergänzung bzw. Ersatz der Richtlinien im Handbuch für die Bemessung von Straßenverkehrsanlagen (HBS) einsetzen kann. Diese Richtlinie hilft die Qualitätsstufe von Anlagen einzuschätzen. Allerdings - insbesondere bei Nicht-Standard-Situationen ist es heute schon üblich, statt der stark vereinfachenden Rechnungen nach dieser Richtlinie, Simulationen zu benutzen. Denn die Voraussetzungen für die Anwendung der Richtlinien sind nur dann gegeben, wenn auch vorher Richtlinen-getreu gebaut wurde für Normalverkehrssituationen. Ein Schwerpunkt der Untersuchungen waren Autobahnen, wo z.B. Ein- und Ausfahrten und starke Anstiege besondere Herausforderungen an die Modellierung stellen. Das Ziel war kurz gesagt das Finden von Parametern, bei denen die durch Simulation erzeugten Ergebnisse denen nach der Richtlinie berechneten entsprechen. Das klingt einfacher als es ist. Ein generelles Problem ist beispielsweise, dass es häufig nicht genug verlässliche Verkehrsdaten gibt bzw. die Güte der Daten nicht offensichtlich ist. Trotzdem soll mit den so gefundenen Einstellungen der Realität möglichst gut entsprechende Simulationen möglich werden - sogar falls keine Daten vorhanden sind - wenn man nun mit den Einstellungen arbeitet, die im Projekt gefunden wurden. Die Parameter sind zugeschnitten auf die Situation auf deutschen Autobahnen (also auch ohne Tempolimit). Der Einfluss verschieden großer Anteile von Schwerverkehr auf der Autobahn wurde untersucht und als etwas vereinfachender Standard dann 10% gewählt. Es gibt neben Standard-LKWs auch längere Zugverbände, die dann mehr Platz brauchen. Das wird auch beim Einfädeln relevant. Bei der Bewertung der Güte der Modelle werden vor allem Endergebnisse von Simulationen für festgelegte makroskopische Größen wie z.B. die Kapazität der Strecke (nämlich typischerweise etwa 2000 PKW-Einheiten pro Fahrstreifen pro Stunde) zugrunde gelegt. Das Messen der Kapazität ist aber gar nicht so einfach, weil man eigentlich nur konkrete Fahrzeuganzahlen pro Zeit- oder Raumeinheit der Simulation oder der Realität entnehmen kann. Die Kapazität ist die Obergrenze für realisierbare Dichten, also das, was kurz vor dem Zusammenbrechen

Apr 7, 201641 min

Perkolation

Sebastian Ziesche hat bei Martin Zerner an der Universität in Tübingen Perkolationstheorie kennen gelernt und sich von der Faszination seines akademischen Lehrers anstecken lassen. Er hat nach dem Diplom in Karlsruhe in der Arbeitsgruppe von Günther Last das Vorhaben verfolgt, die Perkolationsmethoden auf zufällige Mosaike zu erweitern und darüber zu promovieren. Dieses Projekt hat er Anfang 2016 erfolgreich abgeschlossen. Perkolation ist ein Modell der statistischen Physik zur Modellierung poröser Strukturen mit Hilfe von Zufallsprozessen. Es geht dabei vor allem um die Quantifizierung von Durchlässigkeit. Als einfachstes Beispiel kann man sich ein regelmäßiges Gitter z.B. in der Ebene oder im Raum vorstellen, in dem jeder Knoten zufällig und unabhängig von allen anderen Knoten mit Wahrscheinlichkeit 1-p entfernt wird. Eine wichtige Frage ist, wie groß Zusammenhangskomponenten in so einer Struktur sein können. Dieses Modell hat nur einen Parameter (mit welcher Wahrscheinlichkeit p verbleibt ein Knoten im Gitter oder nicht) um verschiedene Strukturen unterscheidbar zu machen. Untersuchte Eigenschaften der Zusammenhangskomponeten bzw. Cluster sind Fragen nach deren Durchmesser oder Volumen. In der Regel eignet sich das Zählen von Knoten gut als Entfernungsmaß. Insbesondere die Frage, ob Cluster unendlich groß sein können erweist sich als interessant. Die Wahrscheinlichkeit dafür, dass es unendlich große Cluster gibt, hängt von dem Parameter p ab und ist entweder 0 (unwahrscheinlich) oder 1 (d.h. fast sicher). Das liegt daran, dass nach dem Null-Eins-Gesetz von Kolmogorov Ereignisse, die nicht vom Zustand endlich vieler Knoten abhängen, nur die Wahrscheinlichkeit 0 oder 1 haben können. Nach Überschreiten eines gewissen (sogenannten kritischen) Parameters wird also die Wahrscheinlichkeit, dass es einen unendlich großes Cluster gibt, von 0 auf 1 springen. Das Verhalten im ebenen Fall ist deutlich besser verstanden und zeigt im Dreiecks-Gitter eine gewisse Dualität, da immer entweder die vorhandenen oder die gelöschten Knoten einen unendlich großen Cluster bilden (außer im kritischen Fall). Im drei-dimensionalen Fall hingegen könnten unendlich große Cluster in beiden Mengen gleichzeitig existieren, falls der kritische Parameter kleiner als 1/2 ist. Mathematisch ist das gar nicht so einfach zu untersuchen. Ein typisches Verfahren ist es, Würfel der Kantenlänge n als Repräsentanten in allen möglichst vielen Realisierungen zu simulieren (die uns verfügbare Rechenleistung begrenzt dabei die Anzahl simulierbarer Realisierungen) und aus den so gewonnenen Strukturbeobachtungen auf das unendlich große Gebiet zu schließen. Die Perkolationstheorie fragt anders herum auch nach lokalen Konsequenzen aus dem Wissen um die Existenz unendlich großer Cluster. Die FKG-Ungleichung ist hier in beiden Richtungen (von lokal nach global und umgekehrt) ein Hauptwerkzeug. Sebastian Ziesche hat die Perkolationstheorie, die auf Gittern verstanden ist, auf zufällige Graphen erweitert. In einem zweistufigen Prozess wird also zunächst ein zufälliges Gitter erzeugt, das dann ausgedünnt wird. Ein Beispiel ist ein Voronoi-Mosaik. Die Methoden der klassischen Perkolationstheorie müssen durch Methoden ergänzt werden, die die besonderen geometrische Eigenschaften ausnutzen. In unserem Gespräch unterhielten wir uns außerdem darüber, wie wichtig es ist, dass Wissenschaftler den richtigen Rahmen finden, um junge Leute für ihre Themen zu begeistern und dass die Arbeit am Promotionsprojekt durchaus nicht geradlinig ist sondern von (postiven wie negativen) Überraschungen geprägt ist. Vieles lässt sich zu Beginn nicht absehen. Literatur und weiterführende Informationen G.R. Grimmett: Perkolation, Springer, 1999. A. Okabe et al.: Spatial Tessellations: Concepts and Applications of Voronoi Diagrams, 2nd Ed., Wiley, 2000.Podcasts A. August: Metallschaum, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 37, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/metallschaum

Mar 31, 201642 min

Complex Geometries

Sandra May works at the Seminar for Applied Mathematics at ETH Zurich and visited Karlsruhe for a talk at the CRC Wave phenomena. Her research is in numerical analysis, more specifically in numerical methods for solving PDEs. The focus is on hyperbolic PDEs and systems of conservation laws. She is both interested in theoretical aspects (such as proving stability of a certain method) and practical aspects (such as working on high-performance implementations of algorithms). Sandra May graduated with a PhD in Mathematics from the Courant Institute of Mathematical Sciences (part of New York University) under the supervision of Marsha Berger. She likes to look back on the multicultural working and learning experience there. We talked about the numerical treatment of complex geometries. The main problem is that it is difficult to automatically generate grids for computations on the computer if the shape of the boundary is complex. Examples for such problems are the simulation of airflow around airplanes, trucks or racing cars. Typically, the approach for these flow simulations is to put the object in the middle of the grid. Appropriate far-field boundary conditions take care of the right setting of the finite computational domain on the outer boundary (which is cut from an infinite model). Typically in such simulations one is mainly interested in quantities close to the boundary of the object. Instead of using an unstructured or body-fitted grid, Sandra May is using a Cartesian embedded boundary approach for the grid generation: the object with complex geometry is cut out of a Cartesian background grid, resulting in so called cut cells where the grid intersects the object and Cartesian cells otherwise. This approach is fairly straightforward and fully automatic, even for very complex geometries. The price to pay comes in shape of the cut cells which need special treatment. One particular challenge is that the cut cells can become arbitrarily small since a priori their size is not bounded from below. Trying to eliminate cut cells that are too small leads to additional problems which conflict with the goal of a fully automatic grid generation in 3d, which is why Sandra May keeps these potentially very small cells and develops specific strategies instead. The biggest challenge caused by the small cut cells is the small cell problem: easy to implement (and therefore standard) explicit time stepping schemes are only stable if a CFL condition is satisfied; this condition essentially couples the time step length to the spatial size of the cell. Therefore, for the very small cut cells one would need to choose tiny time steps, which is computationally not feasible. Instead, one would like to choose a time step appropriate for the Cartesian cells and use this same time step on cut cells as well. Sandra May and her co-workers have developed a mixed explicit implicit scheme for this purpose: to guarantee stability on cut cells, an implicit time stepping method is used on cut cells. This idea is similar to the approach of using implicit time stepping schemes for solving stiff systems of ODEs. As implicit methods are computationally more expensive than explicit methods, the implicit scheme is only used where needed (namely on cut cells and their direct neighbors). In the remaining part of the grid (the vast majority of the grid cells), a standard explicit scheme is used. Of course, when using different schemes on different cells, one needs to think about a suitable way of coupling them. The mixed explicit implicit scheme has been developed in the context of Finite Volume methods. The coupling has been designed with the goals of mass conservation and stability and is based on using fluxes to couple the explicit and the implicit scheme. This way, mass conservation is guaranteed by construction (no mass is lost). In terms of stability of the scheme, it can be shown that using a second-order explicit scheme coupled to a first-order implicit scheme by flux bounding results in a TVD stable method. Numerical results for coupling a second-order explicit scheme to a second-order implicit scheme show second-order convergence in the L^1 norm and between first- and second-order convergence in the maximum norm along the surface of the object in two and three dimensions. We also talked about the general issue of handling shocks in numerical simulations properly: in general, solutions to nonlinear hyperbolic systems of conservation laws such as the Euler equations contain shocks and contact discontinuities, which in one dimension express themselves as jumps in the solution. For a second-order finite volume method, typically slopes are reconstructed on each cell. If one reconstructed these slopes using e.g. central difference quotients in one dimension close to shocks, this would result in oscillations and/or unphysical results (like negative density). To avoid this, so called slope limiters are typically used. There are two main ingredients

Mar 24, 201632 min

Helmholtzzerlegung

Jens Babutzka hat Anfang 2016 seine Promotion an der KIT-Fakultät für Mathematik verteidigt. Das Gespräch dreht sich um einen Teil seiner Forschungsarbeit - dem Nachweis der Gültigkeit der sogenannten Helmholtz Zerlegung im Kontext von Gebieten mit einer sich periodisch wiederholenden Geometrie. Das lässt sich für die Untersuchung von photonischen Kristallen ausnutzen unter der Wirkung einer Zeit-harmonischen Wellengleichung. Für die Untersuchung von partiellen Differentialgleichungen auf Lösbarkeit, Eindeutigkeit der Lösungen und deren Regularität gibt es verschiedene Grundwerkzeuge. Eines ist die Helmholtz Zerlegung. Falls sie in einem Raum möglich ist, kann man jedes Vektorfeld des Raumes eindeutig aufteilen in zwei Anteile: einen Gradienten und einen zweiten Teil, der unter der Anwendung der Divergenz das Ergebnis Null hat (man nennt das auch divergenzfrei). Wann immer Objekte miteinander skalar multipliziert werden, von denen eines ein Gradient ist und das andere divergenzfrei, ist das Ergebnis Null. Anders ausgedrückt: sie stehen senkrecht aufeinander. Die Untersuchung der partiellen Differentialgleichung lässt sich dann vereinfachen, indem eine Projektion auf den Teilraum der divergenzfreien Funktionen erfolgt und erst im Anschluss die Gradienten wieder "dazu" genommen, also gesondert behandelt werden. Da die Eigenschaft divergenzfrei auch physikalisch als Quellenfreiheit eine Bedeutung hat und alle Gradienten wirbelfrei sind, ist für verschiedene Anwendungsfälle sowohl mathematisch als auch physikalisch motivierbar, dass die Aufteilung im Rahmen der Helmholtz Zerlegung hilfreich ist. Im Kontext der Strömungsmechanik ist die Bedingung der Divergenzfreiheit gleichbedeutend mit Inkompressibilität des fließenden Materials (dh. Volumina ändern sich nicht beim Einwirken mechanischer Kräfte). Für das Maxwell-System kann es sowohl für das magnetische als auch für das elektrische Feld Divergenzfreiheitsbedingungen geben. Ob die Helmholtz Zerlegung existiert, ist im Prinzip für viele Räume interessant. Grundbausteine für die Behandlung der partiellen Differentialgleichungen im Kontext der Funktionalanalysis sind die Lebesgue-Räume . Eine (verallgemeinerte) Funktion ist in , wenn das Integral (des Betrags) der q-ten Potenz der Funktion über Omega existiert. Eine Sonderrolle spielt hier der Fall , weil dieser Raum ein Skalarprodukt hat. Das gibt ihm eine sehr klare Struktur. Darüber hinaus ist er zu sich selbst dual. Unter anderem führt das dazu, dass die Helmholtz Zerlegung in für beliebige Gebiete mit genügend glattem Rand immer existiert. Wenn nicht ist, sind Gebiete bekannt, in denen die Helmholtz Zerlegung existiert, aber auch Gegenbeispiele. Insbesondere bei der Behandlung von nichtlinearen Problemen reicht es aber häufig nicht, sich auf den Fall zu beschränken, sondern die Helmholtz Zerlegung für möglichst viele wird eine wesentliche Voraussetzung für die weitere Theorie. Das liegt u.a. an der dann verfügbaren Einbettung in Räume mit punktweisen Eigenschaften. Jens Babutzka hat in seiner Promotion unter anderem bewiesen, dass die Helmholtz Zerlegung für -Räume für die Gebiete mit einer sich periodisch wiederholenden Struktur gilt. Mathematisch muss er hierfür nachweisen, dass das schwache Neumannproblem immer eine (bis auf Konstanten) eindeutige Lösung hat in . Dabei hilft ihm die periodische Struktur der Geometrie. Mithilfe eines erst kürzlich bewiesenen Theorems von Bernhard Barth über Blochoperatoren kann er das Problem auf eine Familie von Phasenoperatoren auf der (beschränkten) periodischen Zelle reduzieren. Falls diese Operatoren regulär genug sind, lassen sie sich fortsetzen von auf . Anschließend überprüft er, ob die so erzeugte Abbildung auch wirklich die Helmhotz Zerlegung ist. Hier ist ein wesentliches Hilfsmittel, dass unendlich glatte Funktionen mit kompaktem Träger dicht in den Teilräumen liegen. Außerdem ist die Fouriertheorie in der besonderen Form der Blochoperatoren hilfreich. Sie hilft später auch beim Auffinden des Spektrums des betrachteten Wellenoperators. Für beschränkte Gebiete hängt es im Wesentlichen von der Glattheit des Randes ab, ob die Helmholtz Zerlegung in gilt. Das liegt u.a. daran, dass man in der Lage sein muss, eine eindeutige Normalenrichtung für jeden Punkt des Randes zu finden. Für Knicke im Rand kann es hier Probleme geben, die dazu führen, dass das schwache Neumann Problem nur noch für in einem kleineren Intervallbereich lösbar ist, und nicht mehr für alle zwischen und wie das bei glattem Rand der Fall ist. Literatur und weiterführende Informationen A. Figotin and P. Kuchment: Band-Gap Structure of Spectra of Periodic Dielectric and Acoustic Media. II. Two-Dimensional Photonic Crystals, SIAM J. Appl. Math., 56, 1561–1620, 1995. P. Galdi: An Introduction to the Mathematical Theory of the Navier-Stokes Equations - Steady-State Problems, Springer, 2011. B. Barth: The Bloch Transform on Lp-Spaces, KIT-Dissertation, 2013. W. Dörlfer e.a: Photonic Crystals: Mathematical

Mar 17, 201639 min

Newton-Verfahren

Mathematik mit Kunst und Design erklären - das war ein Ziel des Cooking Math-Projekts. Robert Winkler forscht an der Fakultät für Mathematik zu numerischen Verfahren für schlecht gestellte Probleme. Das hilft z.B. Elektrische Impedanztomographie genauer und schneller zu machen. Seine Teilnahme am Cooking Math Projektes hat uns zum jetzigen Zeitpunkt zusammengeführt. Die Aufgabenstellung der Elektrischen Impedanztomographie ist es, aus Messungen auf der Oberfläche eines Körpers Rückschlüsse auf die Zusammensetzung im Inneren zu ziehen. Dazu dient bei der Elektrische Impedanztomographie die elektrische Leitfähigkeit im Innern, die Auswirkungen auf gemessene elektrische Potentiale an der Körperoberfläche hat. Aus physikalischen Zusammenhängen (hier Ohmsches Gesetz und Kirchhoffsche Regeln) lassen sich partielle Differentialgleichungen herleiten, die aus der Leitung im Innern die Oberflächenpotentiale berechenbar machen. Das nennt man Vorwärtsproblem. In der Praxis braucht man aber genau die andere Richtung - das sogenannte inverse Problem - denn man hat die Werte auf dem Rand gemessen und will unter den gleichen physikalischen Annahmen auf den Ablauf im Inneren schließen. Der Zusammenhang, der so modellhaft zwischen Leitfähigkeit und Potential am Rand entsteht, ist hochgradig nichtlinear. Außerdem ist er instabil, das heißt kleine Messfehler können dramatische Auswirkungen auf die Bestimmung der Leitfähigkeit haben. Daher müssen bei der numerischen Bearbeitung Verfahren gefunden werden, die die partielle Differentialgleichung numerisch lösen und dabei diese Nichtlinearität stabil behandeln können. Etabliert und sehr effektiv ist dabei das Newtonverfahren. Es ist weithin bekannt zur Nullstellensuche bei Funktionen von einer Variablen. Die grundlegende Idee ist, dass man ausgehend von einem Punkt in der Nähe der Nullstelle den Tangenten an der Funktion folgt um sich schrittweise der Nullstelle zu nähern. Durch die Information, die in der Tangentenrichtung verschlüsselt ist, entsteht so ein Verfahren zweiter Ordnung, was in der Praxis heißt, dass sich nach kurzer Zeit in jedem Schritt die Zahl der gültigen Stellen verdoppelt. Großer Nachteil ist, dass das nur dann funktioniert, wenn man nahe genug an der Nullstelle startet (dh. in der Regel braucht man zuerst ein Verfahren, das schon eine gute erste Schätzung für die Nullstelle liefert). Außerdem gibt es Probleme, wenn die Nullstelle nicht einfach ist. Wenn man das Newtonverfahren zum finden von Optimalstellen nutzt (dort wo die Ableitung eine Nullstelle hat), kann es natürlich nur lokale Minima/Maxima finden und auch nur dasjenige, das am nächsten vom Startwert liegt. Im Kontext der inversen Probleme wird das Newtonverfahren auch eingesetzt. Hier muss natürlich vorher eine geeignete Verallgemeinerung gefunden werden, die so wie die Ableitungen im eindimensionalen Fall eine Linearisierung der Funktion in einer (kleinen) Umgebung des Punktes sind. Der Kontext, in dem das recht gut möglich ist, ist die schwache Formulierung der partiellen Differentialgleichung. Der passende Begriff ist dann die Fréchet-Ableitung. Betrachtet man das Problem mathematisch in einem Raum mit Skalarprodukt (Hilbertraum), kann die Linearisierung mit dem Verfahren der konjugierten Gradienten behandelt werden. Dieses Verfahren findet besonders schnell eine gute Näherung an die gesuchte Lösung, indem es sich Eigenschaften des Skalarprodukts zunutze macht und die aktuelle Näherung schrittweise in besonders "effektive" Richtungen verbessert. Um das lineare Problem stabiler zu machen, nutzt man Regularisierungen und geht von vornherein davon aus, dass man durch Fehler in den Daten und im Modell ohnehin in der Genauigkeit eingeschränkt ist und in der numerischen Lösung nicht versuchen sollte, mehr Genauigkeit vorzutäuschen. Eine typische Regularisierung bei der Elektrische Impedanztomographie ist die Erwartung, dass die Leitfähigkeit stückweise konstant ist, weil jedes Material eine zugehörige Konstante besitzt. Im zugehörigen Cooking Math-Projekt soll der Modellerierungs- und Lösungsfindungsprozess visualisiert werden. Eine Idee hierfür ist das Spiel "Topfschlagen". Literatur und weiterführende Informationen R. Winkler, A. Rieder: Model-Aware Newton-Type Inversion Scheme for Electrical Impedance Tomography, Preprint 14/04 am Institut für Wissenschaftliches Rechnen und Mathematische Modellbildung, KIT, 2014. (Eingereicht zur Veröffentlichung in Inverse Problems 31, (2015) 045009). O. Scherzer: Handbook of Mathematical Methods in Imaging, Springer Verlag, ISBN 978-0-387-92919-4, 2011. Podcasts S. Hollborn: Impedanztomographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/impedanztomographie J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://mode

Mar 10, 201631 min

Dynamische Randbedingungen

David Hipp hat am Projekt Cooking Math mitgearbeitet. In seinem darin vorgestellten Forschungsprojekt betrachtet er eine relativ einfache Form der Wellengleichung, die jedoch gut für die Beschreibung von akustischen Wellen geeignet ist. Die Gleichung beschreibt die Wellenausbreitung im Raum mit Hilfe einer partiellen Differentialgleichung. Die Lösung der Wellengleichung ist eine Funktion deren Variablen die Zeit und der Ort sind. Konkret werden in der Gleichung zeitliche und räumliche Änderungen des Zustands, also der Funktion, in Beziehung gesetzt, um die Wellenausbreitung zu beschreiben. Das mathematische Modell für Wellenausbreitung in beschränkten Gebieten umfasst neben der partiellen Differentialgleichung (die hier die Wellengleichung ist) auch noch die Anfangsbedingung, die den Zustand und die Geschwindigkeit zu Beginn des Prozesses festlegt, sowie die Bedingungen am Rand des Gebietes. Physikalisch ist klar, dass Wellen, wenn sie auf die Oberfläche am Rand treffen beispielsweise reflektiert, gebrochen oder gestreut werden können - je nachdem welche Materialeigenschaften der Rand hat. David Hipp untersucht in seiner Forschung insbesondere den Einfluss der Randbedingungen auf die Simulationen solcher Probleme - in seinem Fall also die Wellenausbreitung im Raum. Klassisch wird häufig die Dirichlet oder Neumann-Randbedingung gewählt bzw. die Robin Bedingung als Mischung der beiden. Diese drei Bedingungen auf dem Rand sind allerdings nicht immer realistisch genug, weil sie keine Bewegungen auf dem Rand erlauben.. Deshalb untersucht man derzeit dynamische Randbedingungen - das sind eben solche Bedingungen, die Bewegungen der Welle auf dem Rand zulassen. Damit kann die Wellen Energie an die Wand abgeben und die Wand selbst aktiver Teil der Wellenausbreitung wird. Das kann dann sogar zu Oberflächenwellen auf der Wand führen. Konventionelle numerische Verfahren müssen auf diese neuartigen Randbedingungen erst angepasst werden. Zwar kann David Hipp auf die Finite Elemente Diskretisierung im Raum in Kombination mit klassichen Zeitschrittverfahren zurückgreifen, jedoch muss geprüft werden ob diese Verfahren immer noch so gute Ergebnisse liefern, wie man sie von üblichen Anwendungen gewohnt ist. Eine Herausforderung der dynamischen Randbedingungen ist es, dass unterschiedliche Skalen im Prozess auftreten können, die dann auch so berücksichtigt werden müssen. Zum Beispiel schwingen die Wand und die akustische Welle mit unterschiedlichen Geschwindigkeiten oder Frequenzen. Im Moment genügt es für seine Testrechnungen, das Randgitter der FE-Diskretisierung zu belassen. In Zukunft geht es aber auch darum, hier Anpassungen für unterschiedlichste Materialien möglich zu machen um den verschiedenen Skalen gerecht zu werden. David Hipp ging im Cooking Math Projekt sehr offen und mit wenigen konkreten Vorstellungen in die Zusammenarbeit mit der Hochschule für Gestaltung (HfG) hinein. Schlussendlich ist das vorliegende Ergebnis der Zusammenarbeit mit Oliver Jelko von der HfG eine Mischung aus Lehrvideo zur Mathematik der Wellenausbreitung und professioneller Animation numerischer Testrechnungen für drei unterschiedliche Randbedingungen: Dirichlet, Neumann und akustische Randbedingung. Die akustische Randbedingung ist eine dynamische Randbedingung, die auf der modellhaften Vorstellung beruht, dass die Wand aus vielen winzigen Federn besteht, welche zu schwingen beginnen, wenn sie durch auftreffende akustische Wellen dazu angeregt werden. Als Mathematiker gehört die visuelle Darstellung der Ergebnisse zu unserer Arbeit und ist z.B. auch eine Form von Verifizierung. Aber die professionelle Animation zu Dirichlet-, Neumann und akustischen Randbedingungen durch einen Gestalter ist leichter zugänglich und erlaubt ein intuitives Verständnis. Das Video aus dem Cooking Math Projekt Literatur und Zusatzinformationen J. T. Beale, S. I. Rosencrans: Acoustic boundary conditions, Bull. Amer. Math. Soc. 80, 1276-1278, 1974. S. Larsson, V. Thomee: Partial Differential Equations with Numerical Methods, Springer, 2003. V. Rao: Boundary Condition Thinking, ein populärwissenschaftlicher Zugang zu Randbedingungen, 2011. R.P. Vito and S.A. Dixon: Blood Vessel Constitutive Models, 1995–2002, Annual Review of Biomedical Engineering 5, 413-439, 2003. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration

Mar 3, 201641 min

Zeitintegration

Die numerische Zeitintegration gewöhnlicher und partieller Differentialgleichungen ist an der Fakultät für Mathematik ein großes Forschungsgebiet, insbesondere in dem kürzlich gestarteten Sonderforschungsbereich SFB1173 zum Thema Wellenphänomene. Das Ziel dieser Forschung ist es, numerische Verfahren für Probleme zu entwickeln, für die man keine analytische Lösung angeben kann. Patrick Krämer forscht hierbei an besonders effizienten Verfahren für Beispiele aus der Quantenphysik, speziell der Maxwell-Klein-Gordon Gleichung. Darin ist die Klein-Gordon-Gleichung mit den Maxwell-Gleichungen verbunden. Die Klein-Gordon Gleichung ist das relativistische Analogon zur Schrödingergleichung, die die nicht-relativistische Bewegung atomarer Teilchen bzw. dessen Wahrscheinlichkeitsverteilung im Raum modelliert. Durch die Kombination mit den Maxwellgleichungen können nun die Wechselwirkung von elektromagnetischen Feldern mit den Teilchen unter Berücksichtigung relativistischer Effekte beschrieben werden. Die Lösung der Maxwell-Klein-Gordon Gleichung kann als Welle betrachtet werden, die sehr schnelle zeitliche Oszillationen aufweist. Um eine gute numerische Lösung der Maxwell-Klein-Gordon Gleichung zu erhalten, benötigt man Verfahren, die diese Oszillationen gut auflösen können. Für die bisher bekannten Verfahren ist es dafür notwendig sehr kleine Zeitschrittweiten zu wählen. Patrick Krämer verfolgt bei seinem Verfahren nun die Idee, nicht jede einzelne der schnellen Oszillationen zu bestimmen. Stattdessen wird nur die Einhüllende der Welle numerisch berechnet, die sich zeitlich wesentlich langsamer verändert, und anschließend mit der hohen Frequenz der schnellen Oszillation multipliziert. Die Einhüllende lässt sich hierbei numerisch sehr effizient bestimmen, durch Anwendung eines Splitting-Verfahrens auf ein Schrödinger-Poisson System, dessen Lösung nur langsame Oszillationen aufweist und damit deutlich größere Zeitschrittweiten zulässt. Die Arbeit von Patrick Krämer war auch Teil des Cooking Math Projekts, das mit Studierenden der Hochschule für Gestaltung (HfG) unter Federführung von Jill Enders und Chris Spatschek durchgeführt wurde. Die wissenschaftliche Arbeit wurde hier in einen Film umgesetzt, der die Arbeit und Denkweise eines Mathematikers vorstellt. Literatur und Zusatzinformationen E. Faou, K. Schratz: Asymptotic preserving schemes for the Klein–Gordon equation in the non-relativistic limit regime, Numerische Mathematik 126.3: 441-469, 2014. N. Masmoudi, K. Nakanishi: Nonrelativistic limit from Maxwell-Klein-Gordon and Maxwell-Dirac to Poisson-Schrödinger, International Mathematics Research Notices 2003.13: 697-734, 2003. Schwabl, Franz. Quantenmechanik für Fortgeschrittene (qm ii), Springer-Verlag, 2008. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting

Feb 25, 201630 min

Splitting

Johannes Eilinghoff befasst sich in seiner Forschung mit mathematischen Fragen in der Quantenmechanik und war mit diesem Thema am Projekt Cooking Math beteiligt. Das Projekt wurde von Promovierenden im Sonderforschungsbereich Wellenphänomene (SFB) an der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) und Studierenden der Hochschule für Gestaltung (HfG) unter Federführung von Jill Enders und Chris Spatschek durchgeführt. Kurz vor unserem Gespräch - im November 2015 - waren das Projekt Cooking Math und die entstandenen Arbeiten beim 16. Science Slam Karlsruhe zu Gast, der im jubez stattfand. Die Idee des Projektes ist es, dass Designstudenten von der HfG im Rahmen ihres Studiums die Promotionsprojekte von Mathematikern als Vorlage nehmen, um deren (Teil-)Inhalte kommunizierend zu gestalten. Vorgängerprojekt und zum Teil Anleihe für die Idee war das Projekt Science Vision von Jill Enders und Chris Spatchek. Die Motivation des SFB für die Teilnahme war, die mathematische Forschungsarbeit auf ungewohntem Weg zu kommunizieren. Es waren schließlich sechs Mathematik-Doktoranden und acht Designstudierende an dem Projekt beteiligt. Der Ablauf gestaltete sich wie folgt: An zwei Terminen hielten die Mathematiker Vorträge über ihre Arbeit. Später teilten sich die Designer bestimmte mathematischen Themen (und damit einem der Promovenden) zu und bearbeiteten es in diesen Gruppen weiter. Johannes Eilinghoff hat mit Christina Vinke zusammengearbeitet. Sie hatte die Idee, zunächst einen für ein Laienpublikum verständlichen Text zu schreiben, der die Grundideen der Arbeit von Johannes beinhaltet. Johannes hatte bis dahin schon Erfahrungen mit Vorträgen für mathematisch Vorgebildete, aber hier war es eine besondere Herausforderung den Spagat zwischen der Korrektheit des Textes und seiner Verständlichkeit zu meistern. Die endgültige Version entstand in Zusammenarbeit der beiden (auch mit den beiden Betreuern) und in mehreren Iterationsstufen. Sie wurde im Soundstudio von Johannes eingesprochen und in Abschnitte zu je 2-3 Sätzen unterteilt. Als Visualisiserung des Forschungsgebietes dient außerdem eine auf den Boden gezeichnete Zickzack-Linie, die das Thema von Johannes (Splitting-Verfahren) symbolisiert. Wenn man diese Linie entlangeht, werden jeweils an den Ecken die Teilstrecken die mathematischen Ideen per Kopfhörer vom Band vorgelesen. Johannes schätzt im Rückblick auch den Einblick in die Arbeit an der Hochschule für Gestaltung. Text zum Vorsprechen beim Kunstprojekt „Cooking Math“ mit der Hochschule für Gestaltung. Station 1: Lieber Zuhörer, mein Name ist Johannes Eilinghoff. Ich bin Doktorand im Fach Mathematik an der technischen Universität in Karlsruhe. Während Sie der Linie vor Ihnen folgen, erkläre ich Ihnen, was ich erforsche und warum Sie auf einer Linie laufen. Ich bin beteiligt an einem großen Rätsel der Wissenschaft: Wir wollen Teilchen aus der Quantenmechanik besser verstehen. Dafür würden wir gerne wissen, wie sich kleinste Teilchen, wie zum Beispiel Elektronen, im Raum bewegen. Station 2: Wenn ich mit meiner Arbeit anfange, weiß ich eines so gut wie Sie: Wenn Sie jetzt auf die Uhr schauen, können Sie genau sagen, zu welcher Zeit Sie auf dem Ausgangspunkt gestanden sind. Auch ich kenne die Ausgangszeit und Anfangsposition meiner Elektronen. Was Sie noch nicht wissen, ist, mit welcher Geschwindigkeit Sie sich bewegen werden und zu welchem Zeitpunkt Sie in der Mitte oder am Ende der Linie angelangt sein werden. Genau das interessiert mich in meiner Forschung.Station 3: Leider betrachte ich nicht Sie als Forschungsgegenstand. Sie sind schön groß, wunderbar langsam und auf der ausgewiesenen Linie relativ berechenbar. Meine Elektronen sind so klein, dass es so ist als ob Sie, lieber Zuhörer, versuchen würden, eine Maus auf dem Mond zu beobachten. Sie sind flink und tanzen so unberechenbar, dass wir einen Computer und eine mathematische Gleichung brauchen, um das Unmögliche für uns möglich zu machen.Station 4: Wir wollen wissen: Zu welcher Zeit ist das Elektron an welchem Ort? Und mit welcher Geschwindigkeit bewegt es sich? Für die Lösung dieser Fragen verfolge ich folgenden Ansatz: Meine Gleichung besteht aus zwei Teilen. Ich weiß, dass jeder meiner beiden Teile mit dem Computer einfach und schnell zu lösen ist. Die Idee ist nun, die gute Lösbarkeit der beiden Teile für mein ursprüngliches Problem zu nutzen. Mein Vorgehen kann man sich vorstellen wie diese Linie auf dem Boden. Es ist einfach, einen Teil eines geraden Wegstücks entlang zu gehen. Wenn Sie das Wegstück immer weiter geradeaus laufen würden, würden Sie die Linie verlassen und nicht ans Ziel kommen.Station 5: Um ans Ziel zu kommen, macht mein Computer das Folgende: Er berechnet die Lösung des einen Teils. Diese verwendet er um den anderen Teil zu lösen. Dessen Lösung verwendet er wieder für den ersten Teil und so weiter. Bildlich können Sie sich das wie einen Gang auf dieser Linie vorstellen: Erst nach vorne, dann entlang der Linie

Feb 18, 201615 min

Cooking Math

Mathematik mit Kunst und Design erklären- das war ein Ziel des Kurses von Jill Enders und Chris Spatschek im Cooking Math-Projekt über das uns die beiden im Gespräch mit Gudrun Thäter und Sebastian Ritterbusch berichten. Jill und Chris haben an der Hochschule für Gestaltung (HfG) Karlsruhe studiert und mit Science Vision dort ihr Diplom abgeschlossen. Bei Science Vision ging es darum, dass Wissenschaftler und Designer für je eine 10-minütige Präsentation zusammen gebracht wurden, wo die wissenschaftlichen Inhalte ansprechend dargestellt wurden. Das Thema war Jill gut bekannt, da sie das Design der sehr erfolgreichen Science Slams ihrer Schwester Guilia Enders entworfen hatte und schließlich auch die Illustrationen im Bestseller Darm mit Charme erstellte. Im Rahmen des SFB für Wellenphänomene gab es dann die Initiative ein entsprechendes Projekt als Kurs an der HfG für Doktoranden an der Fakultät für Mathematik zu starten. Im Gegensatz zur Science Vision wurde hier die Art der Darstellung offen gelassen. Gestartet hat das Projekt mit Workshops, bei denen die Designergruppen in die mathematischen Inhalte von den Doktoranden eingeführt wurden. Im Anschluss arbeiteten die von Jill und Chris betreuten Teams aus meisst zwei Designern und einem Mathematiker in Kleingruppen selbstständig. Eine erste Vorführung der Ergebnisse gab es beim Sommerloch der HfG und die Schlusspräsentation fand anlässlich des 16. Science Slam in Karlsruhe am 5. November 2015 im Jubez Karlsruhe statt. Eine Ausstellung im Kollegiengebäude Mathematik (und eine weitere Kooperation mit dem SFB) ist für das Jahr 2016 geplant. Literatur und Zusatzinformationen Desiree Kabis und Wendy Fox: GRAFIK/NUMERIK, Formeln verwandeln sich in famose Formen, Hochschule für Gestaltung Karlsruhe (HfG), Karlsruher Institut für Technologie (KIT), Cooking Math, 2016. SFB 1173 Wellenphänomene: Analysis und Numerik, Karlsruher Institut für Technologie (KIT), 2015. J. Enders, C. Spatschek: Science Vision Conference, Hochschule für Gestaltung Karlsruhe (HfG), Kalsruher Institut für Technologie (KIT), Universität Heidelberg, 2013.

Feb 11, 201642 min

Quantenchaos

Diesmal traf sich Gudrun zum Gespräch mit Anke Pohl, die zur Zeit am Max-Planck-Institut für Mathematik in Bonn arbeitet. Das Thema der Unterhaltung ist Mathematisches Quantenchaos. Anke Pohl untersucht nämlich, welchen Zusammenhang die geometrischen und spektralen Eigenschaften Riemannscher Mannigfaltigkeiten haben. Historisch ist das Interesse an diesen Eigenschaften und ihren Wechselwirkungen bei physikalischen Betrachtungen entstanden, wie z.B. bei den Studien der Schwingungen einer Membran. Im Jahre 1910 vermuteten Lorentz und Sommerfeld, dass der Flächeninhalt einer Membran (die ein Beispiel für eine Riemannsche Mannigfaltigkeit ist) durch die (Ober-)töne dieser Membran (die durch die Eigenwerte eines gewissen Operators bestimmt sind, der die Schwingungen der Membran beschreibt) bestimmt sind. Bereits kurze Zeit später gelang es Hermann Weyl, diese Vermutung mathematisch zu beweisen. Im Laufe der Zeit ist die Untersuchung solcher Zusammenhänge zu einem Teilgebiet der Mathematik und Mathematischen Physik angewachsen, welches sowohl hinsichtlich Motivation als auch in Bezug auf Methoden eng mit diversen anderen Teilgebieten der Mathematik, wie z.B. der Geometrie, der Zahlentheorie und der Analysis, zusammenhängt. Und auch heute noch liefern physikalische Erkenntnisse und Intuitionen gute Heuristiken bzw. sind wegweisend für mathematische Ansätze. Aktuelle große Vermutungen mit sowohl mathematischer als auch physikalischer Motivation sind beispielsweise die Rudnick-Sarnak Vermutung über eindeutige Quantenergodizität auf gewissen kompakten Riemannschen Mannigfaltigkeiten (Gleichverteilung von Eigenfunktionen im Mittel bei wachsendem Eigenwert; für den Beweis von eindeutiger arithmetischer Quantenergodizität wurde E. Lindenstrauss 2010 eine Fieldsmedaille verliehen), die Phillips-Sarnak Vermutung über die (Nicht-)Existenz von quadrat-integrierbaren Eigenfunktionen auf gewissen nicht-arithmetischen Mannigfaltigkeiten, die Sarnaksche Vermutung über das Größenwachstum von Eigenfunktionen bei wachsendem Eigenwert, oder die Sjöstrandsche Vermutung über die asymptotische Anzahl von Resonanzen in Streifen bei hyperbolischen Flächen unendlichen Inhalts. Details und weiterführende Informationen zu diesen und anderen Vermutungen sind beispielsweise in den Übersichtsartikel in den untenstehenden Referenzen enthalten. Anke Pohls befasst sich zur Zeit mit bestimmten Flüssen, den sogenannten geodätischen Flüssen, auf einer speziellen Klasse von Riemannschen Mannigfaltigkeiten. Als erste, recht elementare, Beispiele für Mannigfaltigkeiten kann man sich zunächst Oberflächen vorstellen. Wenn man auf ihnen Größen definiert hat, die zum Messen von Abständen und Winkel dienen, werden sie Riemannsche Mannigfaltigkeit genannt. Wie bei den oben genannten Membranen sind Geodäten. Mathematisch werden die Schwingungen als Lösungen des Laplaceoperators in der zugrundeliegenden Geometrie beschrieben bzw. mit Hilfe der Eigenwerte und Eigenfunktionen des Operators. Aus der Anschauung ist klar, dass die Schwingungen von den geometrischen Eigenschaften der Fläche abhängen. Wenn z.B. die Fläche oder Membran eingerissen ist oder ein Loch hat, klingt sie anders als wenn sie geschlossen ist bzw. gut eingespannt ist. Für kompakte Flächen ist bekannt, dass es unendlich viele solcher Eigenfunktionen gibt. Je nach Grad der Offenheit (also z.B. eine Fläche mit Riss oder Loch) ist es jedoch schwierig zu sagen, wie sich die Schar der Lösungen verändert. Ein interessantes Beispiel wäre z.B. zu betrachten, dass an einer Stelle die eingespannte Fläche im Unendlichen verankert ist, aber das darunterliegende Volumen endlich ist. Vorstellen kann man sich das etwa so, dass man an dieser Stelle die Fläche samt ihren Abständen unendlich weit zieht. Man fragt sich dann, ob eine Welle auf der Fläche auch diese Singularität überlebt. Ein methodischer Ansatz, solche und andere Fragen zu studieren, ist es, Beziehungen zu anderen Objekten, vor allem rein geometrischen, zu finden. Selbergs Beweis zur Unendlichkeit der Anzahl der Eigenfunktionen auf gewissen hyperbolischen Flächen zeigt zunächst, dass die Eigenwerte der Eigenfunktionen (spektrale Objekte) durch die Längen der geschlossenen Geodäten (geometrische Objekte) bestimmt sind. Genauer, sie sind unter den Nullstellen einer generierenden Zetafunktion für das Längenspektrum der Geodäten. Ausnutzung zusätzlicher Eigenschaften der Flächen, wie z.B. Kompaktheit oder zusätzliche Symmetrien, erlaubt dann (manchmal) zu bestimmen, ob Nullstellen existieren und ob sie von Eigenwerten stammen. Anke Pohl schaut sich die Geodäten auf bestimmten hyperbolischen Flächen an, diskretisiert sie und findet ein assoziiertes diskretes dynamisches System auf dem reellen Zahlenstrahl. Für dieses diskrete System sucht sie gewisse invariante Größen, z. B. invariante Maße oder Dichten. Genauer fragt sie nach Eigenfunktionen des assoziierten Transferoperators mit gewissen Parametern (inversen Temperaturen). An dieser Stelle sieht man

Jan 28, 201631 min

Incredible Proof Machine

In den Räumen des Entropia e.V. traf sich Joachim Breitner mit Sebastian Ritterbusch, um ihm von Computerbeweisen und der Incredible Proof Machine (http://incredible.pm/) zu erzählen. Diese hatte er mit Unterstützung von Kollegen und Freunden für einen dreitägigen Workshop im Oktober 2015 am Science College Jülich mit Schülerinnen und Schülern im Start-Stipendium für motivierte und neu zugewanderte Jugendliche in Mittel- und Oberstufe unter Unterstützung der Deutsche Telekom Stiftung entworfen. Der mathematische Beweis ist grundlegender Bestandteil der Mathematik und die Technik des Beweisen wird im Mathematik- oder Informatikstudium vielfach geübt, wie es auch im Modell036 Podcast zur Analysis beschrieben wurde. Dennoch wird das wichtige Thema nur selten in der Schule angesprochen, da korrekte Beweise sehr formal und abstrakt sind. Mit einem spielerischen Zugang wird der Einstieg in die exakte Beweistheorie für Schüler und Mathematik-Interessierte nicht nur möglich, sondern ermöglicht auch neue Formen der Lehre wie den Modell051 Flipped Classroom. Beweise gehen von bestehenden Aussagen und festgelegten Axiomen aus, um neue Aussagen oder Erkenntnisse zu belegen. Von der Aussage "es regnet" kann man beispielsweise mit einem fiktiven Axiom "wenn es regnet, werden Straßen nass" schließen, dass gilt: "die Straße ist nass". Und man kann daraus mit der Technik des Widerspruch-Beweis zeigen, dass aus der Aussage "die Straße ist trocken" folgt, dass "es regnet nicht" gilt. Denn (und das ist der Beweis), würde es regnen, so wäre die Straße nass, also nicht trocken. Wann ist aber nun ein Beweis richtig? Diese Frage kann sich jeder selbst beantworten, in dem man einen vorliegenden Beweis versucht nachzuvollziehen. Eine Alternative ist die Beweisprüfung mit dem Computer, wie beispielsweise mit Isabelle. Diese Art von Software richtet sich allerdings in erster Linie an fortgeschrittene Nutzer und setzt Kentnisse in sowohl in der Logik als auch in der (funktionalen) Programmierung voraus, und so suchte Joachim nach einer einfachereren Methode, beweisen zu lernen und die Ergebnisse maschinell zu prüfen. Mit der von ihm kreierten Incredible Proof Machine werden Beweise durch Ziehen und Setzen bildlich erstellt, in der Form eines Graphen. So wird das Beweisen zu einem Puzzle-Spiel mit Erfolgserlebnis, das man nach und nach lösen kann, ohne dabei die exakte Mathematik zu verlassen. In dem Spiel gibt es viele Aufgaben, die zu lösen sind. In der Übersicht sind diese in Lektionen geordnet und zeigen jeweils durch einen breiten Strich, dem Inferenzstrich getrennt, von welchen Aussagen oben man welche Aussagen unten beweisen soll. Wählt man eine Aufgabe aus, so sieht man die gegebenen Aussagen, die oberhalb des Striches waren, als Quellen auf einem Arbeitsblatt. Die zu beweisenden Aussagen erscheinen als Senken. Von den Quellen kann man nun per Maus Verbindungen zu den Senken ziehen- entweder direkt, oder mit Hilfe zusätzlicher Blöcke, bzw. gegebener Beweisregeln, aus einer Toolbox links, die ebenfalls zur Verfügung stehen und weitere gegebene Axiome darstellen. Sind alle offenen Senken bewiesen, so leuchtet unten eine Zeile grün auf, als Bestätigung für einen geschafften Level- eine positive Bestärkung, die nicht ganz so spektakulär ist, wie bei Populous. Während man auf dem Arbeitsblatt spielt, gibt die Incredible Proof Machine unmittelbar Rückmeldung, falls eine Verbindung so keinen Sinn macht: Will man die Aussage B mit Aussage A beweisen, so wird die Linie zwischen den beiden sofort rot, und gibt dem Spielenden die Hilfestellung, wo mindestens ein Fehler steckt. Die logischen Aussagen und die gegebenen Beweisregeln verwenden eine gängige Notation zur Beschreibung logischer Verknüpfungen. Ein ∨ (sieht wie der kleine Buchstabe v aus), steht für die logische Oder-Verknüpfung und die Notation stammt vom lateinischen Wort vel. Das umgekehrte Symbol ∧ steht für die logische Und-Verknüpfung. In der ersten Lektion gibt es zwei Blöcke bzw. Beweisregeln für die Und-Verknüpfung: Einmal ein Block mit zwei Eingängen X und Y und einem Ausgang X∧Y, sowie einem Block mit einem Eingang X∧Y und zwei Ausgängen X und Y. Die Lektion 1 behandelt damit den grundlegenden Umgang mit dem System und die Konjugation. Die Lektion 2 führt die Implikation ein. Eine Implikation, oder auch Folge, beschreibt die Aussage, dass aus einer Aussage eine zweite zwingend folgt. Zur Anwendung einer Implikation gibt es in dieser Lektion eine Beweisregel, die eine Implikation anwendet. Ein weiterer Block ermöglicht eine Implikation zu erzeugen, in dem die Vorbedingung in einem Einschub angenommen bzw. angeboten wird, und man daraus das Zielereignis dann herleiten muss. Die Prüfung der Beweise in der Incredible Proof Machine erfolgt durch einen Beweisprüfer in Haskell, einer funktionalen Programmiersprache, die auch schon im Modell047 Podcast zum Tiptoi zur Sprache kam. Der Beweisprüfer wurde mit ghcjs nach JavaScript kompiliert und läuft damit komplett im Browser. Übe

Jan 21, 20162h 57m

Automorphe Formen

Hans-Georg Rück ist Professor an der Universität in Kassel in der Arbeitsgruppe Algorithmische Algebra und diskrete Mathematik. Im Rahmen des diesjährigen Weihnachtsworkshops der Arbeitsgruppe Zahlentheorie und Algebraische Geometrie an unserer Fakultät sprach er zu Drinfeld automorphen Formen. In unserem Gespräch gehen wir der Frage nach, was das ist und zu welchen strukturellen Einsichten diese Werkzeuge dienen können. Automorphe Form ist ein sehr alter Begriff. Ausgangspunkt sind holomorphe Funktionen z.B. auf der oberen komplexen Halbebene. Statt Funktionen in einer komplexen Variablen werden jedoch Gruppen angewendet. Die automorphen Formen zeichnen sich dadurch aus, dass sie Invarianzeigenschaften unter bestimmten Gruppen haben. Ein einfaches Beispiel für so eine Invarianzeigenschaft ist, wenn eine Funktion z.B. den gleichen Wert für die komplexen Zahlenwerte z und z+1 hat - also periodisch ist. Ein Beispiel für eine komplexere Operation ist es, die Zahl z nicht in eine Funktion einzusetzen, sondern eine Matrix auf sie anzuwenden. Historisch entstanden sind solche Fragestellungen z.B. dadurch, dass man den Umfang von Ellipsen ausrechnen wollte. Gelöst wurde diese Frage mit Hilfe der Weistraßschen ℘-Funktion. Diese erfüllt eine algebraische Gleichung - die sogenannte elliptische Funktion. Hiervon werden ganze Klassen von Funktionen abgeleitet. Insbesondere auch die automorphen Funktionen. Interessant daran ist, dass man gut mit automorphen Funktionen rechnen kann. Die automorphen Formen haben die angenehme Eigenschaft, dass Reihendarstellungen häufig nach einer endlichen Zahl von Gliedern abbrechen und auch Integrale sich durch solche endliche Reihen darstellen lassen. Außerdem hängen sie mit elliptischen Kurven zusammen, die letztlich ein wesentlicher Zugang waren, um den Satz von Fermat zu beweisen. Im Kontext der hier betrachteten Drinfeld automorphen Formen werden statt ganzer Zahlen als Argumente Funktionenkörper als Werte eingesetzt. Ein einfacher Funktionenkörper ist die Menge der Polynome in x. Er lässt sich (so wie der Körper der ganzen Zahlen auf rationale Zahlen erweitert wird) auf rationale Funktionen erweitern. Das Rechnen mit meromorphen Funktionen und Potenzreihen kann man auf Polynome übertragen. Geometrische Interpretationen sind recht einfach. Für die Gruppe GL(2) ist das Grundgebilde eine unterteilte Gerade also ein endlicher Graph. Da es in der Regel Funktionen auf endlichen Gebilden sind, kann man es gut mit Hilfe eines Computer ausrechnen. Die nächsten Schritte in der Untersuchung der Drinfeld automorphen Formen müssen nun sein: Die L-Reihe bestimmen und Werte an kritischen Stellen bestimmen. Hier besteht ein einger Zusammenhang zur Riemannschen zeta-Funktion. Literatur und Zusatzinformationen J-P. Serre: A course in Arithmetic, Graduate Texts in Mathematics, Springer-Verlag, 1973. Insbesondere ist das "Chapter VII, Modular Forms" wichtig. M. Waldschmidt (ed.): From Number Theory to Physics, 2nd ed, Springer-Verlag, 2010. Wichtig ist besonders Kapitel 4 zu Modular Forms. D. Zagier: Modular Forms of One Variable, Sommerkurs, 1991. E.-U. Gekeler et.al: Proceedings of a Workshop on Drinfeld Modules, Modular Schemes and Applications, World Scientific, 1997. J. Bruinier e.a. The 1-2-3 of Modular Forms: Lectures at a Summer School in Nordfjordeid, Norway, (ed. K. Ranestad) Universitext, Springer-Verlag, Berlin-Heidelberg-New York, 2008. F. Januszweski: L-Funktionen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 53, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

Jan 14, 201621 min

Qwirkle Gruppe

In vielen Spielen steckt Mathematik, seien es Minecraft, Wasserraketen oder Tiptoi. Lisa Mirlina und Felix Dehnen haben sich Qwirkle (ein Spiel der Schmidt Spiele von Susan McKinley Ross) einmal ganz genau angesehen. Die beiden konnten als Teilnehmer des Hector-Seminar an einem Kooperationsprojekt mit der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) teilnehmen. Hier betreute sie Prof. Dr. Frank Herrlich in dem Projekt auf der Suche nach der perfekten Qwirkle-Lösung- wofür die beiden ihm ganz herzlich danken. Das Legespiel war 2011 Spiel des Jahres und besteht aus 108 Spielsteinen aus sechs verschiedenen Farben und sechs verschiedenen Formen- jede Kombination kommt dabei dreimal vor. Jeder Spielteilnehmer versucht aus seinen eigenen sechs nachzuziehenden Spielsteinen gleiche Formen oder gleiche Farben auf dem Tisch in Reihen zusammenzulegen. Wie bei Scrabble gibt es für jedes Anlegen Punkte- es müssen aber alle entstehende Reihen korrekt sein- von Farbe oder Form, wie bei Mau-Mau oder Domino. Das Spielziel ist eine möglichst hohe Anzahl von Punkten zu erreichen. Den mathematischen Hintergrund zum Spiel fanden die beiden in der Topologie: Auf einem Tisch kann man höchstens 36 Steine perfekt anordnen- auf einer anderen topologischen Struktur eventuell mehr. Mit Hilfe von Verklebungen kann man zu Flächen wie beispielsweise auf einem Torus gelangen- wenn man die jeweils die gegenüberliegenden Seiten miteinander verklebt: Auf einem Torus haben wirklich alle Steine vier Nachbarn- und nicht nur die Steine im Inneren. Die Frage ist nun, ob es möglich ist, eine Fläche zu finden, wo jeder der 108 Steine in genau zwei perfekten Qwirkle-Reihen- also jeder Form oder Farbe- liegen kann. Neben einem Torus kann man durch Verkleben aus einem Quadrat oder Rechteck auch die Sphäre, das Möbiusband, die Projektive Ebene oder die Kleinsche Flasche erzeugen. Dabei sind das Möbiusband, die projektive Ebene und die Kleinsche Flasche nicht mehr orientierbar, da man keinen Normalenvektor angeben kann. Die projektive Fläche hat in ihrer Darstellung durch homogene Koordinaten eine wichtige Anwendung in der Computergrafik, da Verschiebungen auch als lineare Abbildungen umgesetzt werden können und die gesamte Berechnung deutlich erleichtert. Auch frühere Folgen zu Teichmüllerkurven (Modell042) und wilden Singularitäten (Modell060) haben im Modellansatz Podcast Topologie und Verklebungen behandelt. Die Topologie ist dabei überhaupt nicht so theoretisch, wie sie zunächst erscheint- denn da wir nicht auf einer Ebene oder flachen Erde leben, können wir einmal um die Erde herumgehen, und nach langem Weg wieder an dem gleichen Ort wieder ankommen. Wir können auch andere Winkelsummen von Dreiecken bestimmen. Diese Experimente können wir beim Universum leider nicht leicht durchführen, und so ist die Forschung nach der Topologie des Universums sehr aktuell. In der Topologie können Flächen bzw. zwei topologische Räume als äquivalent angesehen werden, wenn sie durch eine Homöomorphie, also durch eine stetige und stetig umkehrbare Abbildung in einander überführt werden können. So ist eine Tasse (mit einem Henkel) zu einem Torus homöomorph- nicht jedoch zu einem Becher ohne Henkel. Dies führt auf das interessante Gebiet der topologischen Klassifikation der Flächen, denn man kann durch eine genügend feine Unterteilung der Fläche in beispielsweise Dreiecke, einer Triangulierung, zusammen mit einigen Regeln die Art der Fläche bestimmen. Dies führt auf den verallgemeinerten Satz von Euler für orientierbare Flächen, wo die Zahl der Ecken, die Zahl der Flächen, die Zahl der Kanten und das Geschlecht bezeichnet: Das Drei Häuser-Problem ist ein Knobelrätsel zu diesem Satz, da das Problem auf einer Ebene oder eine Sphäre nicht lösbar ist, jedoch auf dem Torus eine Lösung besitzt. Für das Qwirkle-Spiel liefert der Dreifach-Torus (oder eine Brezel) eine Lösung für 8 Steine, wo jeweils zwei Steine doppelt sind und daher auf einem Tisch nicht so anzuordnen wären: Für 18 Steine haben sie eine unsymmetrische Lösung gefunden, die sich nicht so leicht auf mehr Steine erweitern ließ: Mit der Treppenstruktur wie bei 8 Steinen mit einer 9er Struktur kann man aber eine Lösung aus 108 Steinen konstruieren: Nach dem Satz von Euler ist diese Lösung auf einer Fläche, die einem Fünf-Torus entspricht- oder einer Brezel mit zwei Löchern zu viel. Dies ist aber nicht die einzige Lösung für 108 Steine- mit Gruppentheorie kann man nach weiteren Lösungen suchen: Denn so, wie die Steine sich nach Verklebung in einer Richtung wiederholen, so können auch Gruppen genau diese Wiederholungen darstellen. Ein sehr einfaches Beispiel ist die zyklische Gruppe aus drei Elementen 0, 1, 2, die man mit der Addition verknüpft, und bei Ergebnissen über 2 wieder drei abzieht, wie man in dieser Verknüpfungstafel ablesen kann: +012001211202201Auf drei Elementen kann man aber auch die Symmetrische oder Permutations-Gruppe definieren: In dieser sind alle möglichen sechs Vertauschu

Dec 24, 20151h 36m

Transparent Boundaries

If we are interested in the propagation of waves around a small region of interest, like e.g. an obstacle inside a very big ("unbounded") domain, one way to bring such problems to the computer and solve them numerically is to cut that unbounded domain to a bounded domain. But to have a well-posed problem we have to prescribe boundary conditions on the so-called artificial boundary, which are not inherent in our original problem. This is a classical problem which is not only connected to wave phenomena. Sonia Fliss is interested in so-called transparent boundary conditions. These are the boundary conditions on the artificial boundaries with just the right properties. There are several classical methods like perfectly matched layers (PML) around the region of interest. They are built to absorb incoming waves (complex stretching of space variable). But unfortunately this does not work for non-homogeneous media. Traditionally, also boundary integral equations were used to construct transparent boundary conditions. But in general, this is not possible for anisotropic media (or heterogenous media, e.g. having periodic properties). The main idea in the work of Sonia Fliss is quite simple: She surrounds the region of interest with half spaces (three or more). Then, the solutions in each of these half spaces are determined by Fourier transform (or Floquet waves for periodic media, respectively). The difficulty is that in the overlap of the different half spaces the representations of the solutions have to coincide. Sonia Fliss proposes a method which ensures that this is true (eventually under certain compatibility conditions). The chosen number of half spaces does not change the method very much. The idea is charmingly simple, but the proof that these solutions exist and have the right properties is more involved. She is still working on making the proofs more easy to understand and apply. It is a fun fact, that complex media were the starting point for the idea, and only afterwards it became clear that it also works perfectly well for homogeneous (i.e. much less complex) media. One might consider this to be very theoretical result, but they lead to numerical simulations which match our expectations and are quite impressive and impossible without knowing the right transparent boundary conditions. Sonia Fliss is still very fascinated by the many open theoretical questions. At the moment she is working at Ecole Nationale Supérieure des Techniques avancées (ENSTA) near Paris as Maitre de conférence. Literature and additional material C. Besse, J. Coatleven, S. Fliss, I. Lacroix-Violet, K. Ramdani: Transparent boundary conditions for locally perturbed infinite hexagonal periodic media, arXiv preprint arXiv:1205.5345, 2012. S. Fliss, P. Joly: Exact boundary conditions for time-harmonic wave propagation in locally perturbed periodic media, Applied Numerical Mathematics 59.9: 2155-2178, 2009. L. Bourgeois, S. Fliss: On the identification of defects in a periodic waveguide from far field data, Inverse Problems 30.9: 095004, 2014.

Dec 17, 201526 min

Population Models

How do populations evolve? This question inspired Alberto Saldaña to his PhD thesis on Partial symmetries of solutions to nonlinear elliptic and parabolic problems in bounded radial domains. He considered an extended Lotka-Volterra models which is describing the dynamics of two species such as wolves in a bounded radial domain: For each species, the model contains the diffusion of a individual beings, the birth rate , the saturation rate or concentration , and the aggressiveness rate . Starting from an initial condition, a distribution of and in the regarded domain, above equations with additional constraints for well-posedness will describe the future outcome. In the long run, this could either be co-existence, or extinction of one or both species. In case of co-existence, the question is how they will separate on the assumed radial bounded domain. For this, he adapted a moving plane method. On a bounded domain, the given boundary conditions are an important aspect for the mathematical model: In this setup, a homogeneous Neumann boundary condition can represent a fence, which no-one, or no wolve, can cross, wereas a homogeneous Dirichlet boundary condition assumes a lethal boundary, such as an electric fence or cliff, which sets the density of living, or surviving, individuals touching the boundary to zero. The initial conditions, that is the distribution of the wolf species, were quite general but assumed to be nearly reflectional symmetric. The analytical treatment of the system was less tedious in the case of Neumann boundary conditions due to reflection symmetry at the boundary, similar to the method of image charges in electrostatics. The case of Dirichlet boundary conditions needed more analytical results, such as the Serrin's boundary point lemma. It turned out, that asymtotically in both cases the two species will separate into two symmetric functions. Here, Saldaña introduced a new aspect to this problem: He let the birth rate, saturation rate and agressiveness rate vary in time. This time-dependence modelled seasons, such as wolves behaviour depends on food availability. The Lotka-Volterra model can also be adapted to a predator-prey setting or a cooperative setting, where the two species live symbiotically. In the latter case, there also is an asymptotical solution, in which the two species do not separate- they stay together. Alberto Saldaña startet his academic career in Mexico where he found his love for mathematical analysis. He then did his Ph.D. in Frankfurt, and now he is a Post-Doc in the Mathematical Department at the University of Brussels. Literature and additional material A. Saldaña, T. Weth: On the asymptotic shape of solutions to Neumann problems for non-cooperative parabolic systems, Journal of Dynamics and Differential Equations,Volume 27, Issue 2, pp 307-332, 2015. A. Saldaña: Qualitative properties of coexistence and semi-trivial limit profiles of nonautonomous nonlinear parabolic Dirichlet systems, Nonlinear Analysis: Theory, Methods and Applications, 130:31 46, 2016. A. Saldaña: Partial symmetries of solutions to nonlinear elliptic and parabolic problems in bounded radial domains, PhD thesis, Johann Wolfgang Goethe-Universität Frankfurt am Main, Germany, 2014. A. Saldaña, T. Weth: Asymptotic axial symmetry of solutions of parabolic equations in bounded radial domains, Journal of Evolution Equations 12.3: 697-712, 2012.

Dec 10, 201522 min

Nullnummer

Die Nullnummer eines Podcasts behandelt die Hintergründe, Themen und Motivation für die Reihe. Dazu ist Nele Heise zu Besuch nach Karlsruhe gekommen, und spricht mit Gudrun Thäter und Sebastian Ritterbusch über Podcasts, Wissenschaftskommunkation und den Modellansatz. Nele Heise, M.A., (@neleheise) ist freie Medienforscherin, Mitglied der Graduate School am Research Center Media and Communication Hamburg und beschäftigt sich in ihrem Promotionsprojekt mit den technischen und sozialen Rahmenbedingungen von Podcasting. Von 2005 bis 2011 studierte sie Kommunikationswissenschaft an der Universität Erfurt und war anschließend bis Sommer 2014 wissenschaftliche Mitarbeiterin in dem DFG-Projekt 'Die (Wieder-)Entdeckung des Publikums' am renommierten Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Als freie Medienforscherin setzt sie sich in Vorträgen, Gastartikeln, Workshops oder Paneldiskussionen mit Prozessen und Folgen des digitalen Wandels, ethischen Aspekten der Onlinekommunikation oder medialer Teilhabe auseinander. Nele kommt ursprünglich aus der freien Radio-Szene und hat 2003/2004 die Thüringen-Redaktion der Jugendzeitschrift SPIESSER aufgebaut. Im Haus der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) befindet sich auch das Nationale Institut für Wissenschaftskommunikation (NaWik) und Nele Heise wurde von Prof. Dr. Annette Lessmöllmann eingeladen, im assozierten Master-Studiengang Wissenschaft - Medien - Kommunikation vorzutragen: In Wissen to Go (Folien) stellte sie die Frage: "Was hat Wissenschaftskommunikation mit Podcasts zu tun?". Sie kam neben der Einführung in Podcasts und aktuellen Themen der Wissenschaftskommunikation zu Formaten, die von Wissenschaffenden selbst getragen werden. Besondere Beispiele waren hier Methodisch inkorrekt, der KonScience Podcast und natürlich auch der BredowCast, der mit von ihr initiiert wurde. Diese Darstellung der Wissenschaft, fernab von Hierarchien, sieht sie als ein Produkt des Digitalen Wandels, das zeigt, welche neuen Rollen und Modelle sich in der Wissenschaftskommunikation etablieren könnten. Der Podcast SciComm – wissen, was läuft von den Studierenden des Studiengangs befasst sich entsprechend offensiv mit den aktuellen Themen der Wissenschaftskommunikation und dem Bild der Wissenschaft in den Medien: In SciComm Folge 2 im Gespräch mit Dr. Sven Stollfuß geht es um die Nerds in Big Bang Theory oder CSI und das daraus resultierende Bild der Wissenschaft. Für den Modellansatz Podcast war der von der DLR und ESA ins Leben gerufene Raumzeit Podcast ein prägendes Element, in dem die Gespräche komplexe Themen nicht scheuen oder simplifizieren, sondern sie in der erforderlichen Breite spannend erklären und so die Hörerschaft ernst nehmen. Dieser Ansatz scheint sich auch daran zu bestätigen, dass das vergleichsweise komplizierte Thema der L-Funktionen in der Zahlentheorie eine der gefragtesten Folgen des Modellansatz Podcasts ist. Dies steht im erstaunlichen Widerspruch zum Selbstverständnis der Wissenschaft in abstrakteren Themenbereichen, bei denen oft von einem Desinteresse der Öffentlichkeit ausgegangen wird. Viele Gesprächspartnerinnen im Podcast sind am Ende positiv über die Art der Themenbehandlung überrascht, und das liegt sicher auch an den Eigenheiten des besonderen Mediums. Der Podcasts ist laut Tim Pritlove das "mit Abstand persönlichste Medium überhaupt". Der Raum für Fragen, für die Themen selbst statt Klischees, erleichtert die Kommunikation für die Wissenschaffenden ungemein. So werden auch Ideen, Fehlschläge und überraschende Ansätze der Forschenden zu einem faszinierenden und lehrreichen Kommunikationsthema im Gegensatz zu Publikationen oder vereinfachenden Zusammenfassungen, die sich oft nur auf Resultate reduzieren. Gleichzeitig wird den Forschenden auf eine sehr menschliche Art die Möglichkeit geboten, über ihre mathematischen Ideen, die Faszination und Ergebnisse ihrer Arbeit zu sprechen. Dies trifft natürlich auch auf andere Forschungsgebiete zu, wie beispielsweise Daniel Meßner in den Stimmen der Kulturwissenschaft demonstriert. Auch beim BredowCast oder beim Forschergeist werden die Forschenden im Gespräch mit ihren vielfältigen Facetten und Interessen in natürlicher Weise zum Medium dargestellt. Daher waren die Forscherinnen, Absolventen und Lehrenden für den Modellansatz schon von Anfang an ein Schwerpunkt für die Auswahl der Gespräche. So fanden Themen der aktuellen Wissenschaft und faszinierende Abschlussarbeiten ihren Weg in den Podcast. Aber auch in der Lehre kann der Podcast die traditionellen Angebote unterstützen und häufige Fragen aus Sprechstunden im Dialog sehr zielgerichtet adressieren. Hier ist die Interaktion mit dem Podcast ein spannendes Thema, und Frameworks wie Podlove bieten eine umfassende Lösung, wie Publikation und Feedback für Podcasts gelöst werden kann. Ein Podcast aus der Praxis der Forschung und Lehre bietet auch die Chance, einen ausgewogeneren Einblick in die Realität der

Dec 3, 20151h 26m

Sonnenkollektoren

Durch Unterstützung von dem Fraunhofer Institut für Solare Energiesysteme ISE konnte sich Edwin Hernandez mit der Optimierung von Sonnenkollektoren befassen. Speziell ging es dabei um Thermische Sonnenkollektoren, bei denen das Sonnenlicht einen flüssigen Wärmeträger erhitzt. Diese Träger können Wasser, Salzlösungen oder Öle mit hohen Wärmekapazitäten sein. Gängige Solarkollektoren verwenden inkompressible Fluide, wie Öle oder Wasser unter hohem Druck, die ihre Phase während der Erwärmung und Abkühlung nicht ändern. Die spannende Frage ist nun, wie sich die Verwendung von kompressiblen Fluiden auswirkt, beispielsweise bei Fluiden, die- wie Wasser- bei Erhitzung gasförming werden. Dies hat Edwin Hernandez simuliert. Die Grundlage für die Simulation ist das lang erprobte PFM (plug flow model) im ColSim - Collector Simulation Environment des ISE für inkompressible Fluide, wo vorausgesetzt wird, dass immer die gleiche Masse ein Rohrstück betritt, wie sie das Stück am anderen Ende verlässt. Diese Massenbilanz für ein Rohrstück wird bei kompressiblen Fluiden verletzt, da die gasförmige Phase ein deutlich höheren Platzbedarf hat. Im Modell wird das Rohr Im Kollektor sinnvollerweise eindimensional angesetzt, da die Länge des Rohrs die Dicke bei weitem überschreitet. Darauf werden die Bilanzgleichungen formuliert. Die enstehenden Gleichungen werden diskretisiert und approximativ gelöst. Die Umsetzung eines erweiterten PFM-Verfahrens (EPFM) und der SIMPLER-Methode erfolgte als neues Modul im ColSim - Collector Simulation Environment Framework. Die neue Methode berücksichtigt ein viel umfangreicheres physikalisches Modell, ist im Gegensatz zu den direkten Lösern des PFM-Verfahrens nun aber auch nur iterativ und damit hier mit mehr Rechenaufwand lösbar. Literatur und Zusatzinformationen H. Walter: Modellbildung und numerische Simulation von Naturumlaufdampferzeugern, VDI-Verlag, 2001. J. F. Feldhoff, T. Hirsch, R. Pitz-Paal, L. Valenzula: Transient models and characteristics of once-through line focus systems, SolarPaces, Beijing, China, 2014. ColSim - Collector Simulation Environment

Nov 26, 201524 min

Brasilien

Ein Auslandsstudium ist eine ganz besondere Ergänzung zum Studium: Benedikt Kottler und Hakan Demirel konnten im Rahmen einer Direktkooperation ihr Studium und ihre Forschungen für ein Semester in Brasilien durchführen. Mit Gudrun Thäter sprechen die beiden über ihre dortigen mathematischen Arbeitsgebiete und ihren Aufenthalt. Benedikt Kottler hat sich in Vorbereitung seiner Master-Arbeit mit der Molekulardynamik befasst. Er möchte die Interaktion von molekularen Partikeln im Rahmen der Kontinuumsmechanik modellieren und mit der Software OpenLB durchführen. Diese Prozesse treten schon in der Betrachtung des Wassermoleküls auf. Eine naheliegende Anwendung ist daher die Simulation von Filtrationsprozessen, wo kleine Schmutzpartikel aus einem Fluid herausgefiltert werden sollen. Das Forschungsthema von Hakan Demirel dreht sich um Feinstaub im Stadtgebiet, genauer um die drei Themen Windsimulation, Partikelsimulation und Feinstaub-Emission durch den Autoverkehr. Dazu konnte er in Brasilien auf eine Verkehrssimulation zurückgreifen und ein stochastisches Modell für Windrichtungen und -intensitäten aufstellen. Dabei hat sich ergeben, dass sich die Stadtgeometrie in der Form von Gebäuden und Straßenzügen einen großen Einfluss auf die sinnvolle Diskretisierung der Windmodelle haben und entsprechend berücksichtigt werden müssen. Die Idee für das Auslandssemester in Brasilien entstand nach einem Vortrag über die Simulationssoftware OpenLB, zu der bestehende Kooperationen zwischen Forschungseinrichtungen in Brasilien und dem KIT bestehen. Die Finanzierung wurde dabei insbesondere durch das Baden-Württemberg-Programm nach Bewerbungsphase ermöglicht. Natürlich gehört auch der Besuch von Vorlesungen zum Auslandsstudium, die teilweise für die beiden in englisch gehalten wurden- und sich teilweise von Vorlesungen in Karlsruhe unterschieden. Die positiven Kontakte zu den Studierenden und Gastfamilien in Brasilien gehören dabei genauso zum Austausch, wie die Erfahrungen unterschiedlicher bürokratischer Systeme. Literatur und Zusatzinformationen OpenLB - Open source lattice boltzmann code International Student Office am KIT I. Waltschläger: Windsimulation im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. <http://modellansatz.de/windsimulation>

Nov 19, 201532 min

RSA-Faktorisierung

Im Rahmen eines Bogy-Praktikums hat Finn Schmidt sich mit dem RSA-Verfahren befasst, einem Vertreter der Asymmetrischen Verschlüsselungsverfahren und eine elementare Basis für private Kommunikation- besonders angesichts der globalen Überwachung, die 2013 nochmal besonders in die öffentliche Aufmerksamkeit rückte. Elementare Rechte, wie das im Grundgesetz gesicherte Recht auf das Postgeheimnis bei einem verschlossenen Briefumschlag, kann man in elektronischen Medien nur durch Kryptoverfahren erreichen. Aus mathematischer Sicht sind Primzahlen grundlegende Bausteine, aus denen RSA-Schlüsselpaare, bestehend aus einem privaten und einem öffentlichen Schlüssel, bestimmt werden. Dazu werden zwei große Primzahlen multipliziert- und das Produkt im öffentlichen Schlüssel preisgegeben. Dies schützt die einzelnen Faktoren, da die Rückrechnung in Form einer Faktorisierung viel aufwendiger als die Multiplikation ist. Zur Betrachtung der Sicherheit des Verfahrens, muss man genau diese Verfahren untersuchen. Ein effizientes Faktorisierungsverfahren ist das Quadratische Sieb, das auf der dritten binomischen Formel basiert. Dazu sucht man zwei Quadratzahlen, deren Differenz die zu faktorisierende Zahl ergibt, da man so eine Faktorisierung erhält. Ein noch besseres Verfahren verspricht der Shor-Algorithmus, jedoch benötigt dieser zur effizienten Ausführung einen Quantencomputer. Das RSA-Verfahren ist bei Betrachtung von Faktorisierungsmethoden auf gängigen Digitalrechnern in dem Sinne sicher, dass die Faktorisierung um Größenordnungen aufwendiger als die Schlüsselerzeugung ist. So kann jedes gewünschte Sicherheitsniveau erreicht werden. Dies ändert sich jedoch sobald Quantencomputer in beliebiger Größe realisiert werden können, da die Faktorisierung mit dem Shor-Algorithmus unmittelbar erfolgen kann. Außerdem werden heute sicher verschlüsselte Texte eventuell mit den leistungsfähigeren Computern der Zukunft in einigen Jahren relativ leicht zu entschlüsseln sein. Literatur und Zusatzinformationen Koziol et al: RSA – Primzahlen zur Verschlüsselung von Nachrichten, Skript und Arbeitsblätter, Fraunhofer Institut Algorithmen und Wissenschaftliches Rechnen SCAI und Mathematisches Institut der Universität zu Köln. A. Beutelspacher, J. Schwenk, K.-D. Wolfenstetter: Moderne Verfahren der Kryptographie, Vieweg, 2006. Bogy-Praktikum G. Thäter: Wasserraketen. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 49, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. <http://modellansatz.de/wasserraketen> S. Ritterbusch: Digitale Währungen. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. <http://modellansatz.de/digitale-waehrungen>

Nov 12, 201520 min

Electrodynamics

This episode discusses the Born-Infeld model for Electromagnetodynamics. Here, the standard model are the Maxwell equations coupling the interaction of magnetic and electric field with the help of a system of partial differential equations. This is a well-understood classical system. But in this classical model, one serious drawback is that the action of a point charge (which is represented by a Dirac measure on the right-hand side) leads to an infinite energy in the electric field which physically makes no sense. On the other hand, it should be possible to study the electric field of point charges since this is how the electric field is created. One solution for this challenge is to slightly change the point of view in a way similar to special relativity theory of Einstein. There, instead of taking the momentum () as preserved quantity and Lagrange parameter the Lagrangian is changed in a way that the bound for the velocity (in relativity the speed of light) is incorporated in the model. In the electromagnetic model, the Lagrangian would have to restrict the intensity of the fields. This was the idea which Borne and Infeld published already at the beginning of the last century. For the resulting system it is straightforward to calculate the fields for point charges. But unfortunately it is impossible to add the fields for several point charges (no superposition principle) since the resulting theory (and the PDE) are nonlinear. Physically this expresses, that the point charges do not act independently from each other but it accounts for certain interaction between the charges. Probably this interaction is really only important if charges are near enough to each other and locally it should be only influenced by the charge nearest. But it has not been possible to prove that up to now. The electrostatic case is elliptic but has a singularity at each point charge. So no classical regularity results are directly applicable. On the other hand, there is an interesting interplay with geometry since the PDE occurs as the mean curvature equation of hypersurfaces in the Minkowski space in relativity. The evolution problem is completely open. In the static case we have existence and uniqueness without really looking at the PDEs from the way the system is built. The PDE should provide at least qualitative information on the electric field. So if, e.g., there is a positive charge there could be a maximum of the field (for negative charges a minimum - respectively), and we would expect the field to be smooth outside these singular points. So a Lipschitz regular solution would seem probable. But it is open how to prove this mathematically. A special property is that the model has infinitely many inherent scales, namely all even powers of the gradient of the field. So to understand maybe asymptotic limits in theses scales could be a first interesting step. Denis Bonheure got his mathematical education at the Free University of Brussels and is working there as Professor of Mathematics at the moment. Literature and additional material M. Kiessling: Electromagnetic Field Theory Without Divergence Problems 1, The Born Legacy, Journal of Statistical Physics, Volume 116, Issue 1, pp 1057-1122, 2004. M. Kiessling: Electromagnetic Field Theory Without Divergence Problems 2, A Least Invasively Quantized Theory, Journal of Statistical Physics, Volume 116, Issue 1, pp 1123-1159, 2004. M. Kiessling: On the motion of point defects in relativistic fields, in Quantum Field Theory and Gravity, Conceptual and Mathematical Advances in the Search for a Unified Framework, Finster e.a. (ed.), Springer, 2012. Y. Brenier: Some Geometric PDEs Related to Hydrodynamics and Electrodynamics, ICM Vol. III pp 761--772, 2002.

Oct 29, 201529 min

Impedanztomographie

Stefanie Hollborn arbeitet an der Universität Mainz am Thema Elektrische Impedanztomographie, die im Vergleich zur Röntgentomographie deutlich weniger schädlich ist und im Vergleich zur Magnetresonanztomographie deutlich preiswerter ist. Mit Hilfe von Elektroden auf der Oberfläche von Objekten wird niedriger Strom auf den Rand des Objektes angelegt und anschließend die resultierende Spannung und dadurch die Impedanz gemessen. Mit Hilfe der daraus abgeleiteten Leitfähigkeitsverteilung im Schnittbild kann man dann Rückschlüsse darauf ziehen, ob im Körper Verunreinigungen vorhanden sind. Dies findet beispielsweise Anwendung bei der Sichtbarmachung, also der Tomographie, von Krebszellen oder beim Auffinden von Blasen in Zement. Der Vorteil des Verfahrens ist, dass es billig einsetzbar und nicht schädlich für lebende Organismen ist. Außerdem sind Kontraste häufig sehr gut auflösbar. Mathematisch werden die Gleichungen für die Wechselwirkung von Strom- und Magnetfeld als Modell zugrunde gelegt. Das Spannungspotential, das als Reaktion auf den Input vom Rand entsteht, lässt sich als Überlagerung von harmonischen Funktionen darstellen. Die Verunreinigungen sind überall da, wo eine harmonische Fortsetzung der Lösung vom Rand her nicht mehr möglich ist. Dort weicht das Feld dann nämlich vom homogenen Verhalten ab, das ohne die Verunreinigung vorliegen müsste. Frau Hollborn arbeitet insbesondere mit Daten die durch ein Paar eng nebeneinander liegende Elektroden entstehen. Die Hoffnung ist, daraus ein einfach einzusetzendes Werkzeug zu machen. Mathematisch muss hier ein eindimensionales Randwertproblem gelöst werden. Die Fortsetzung der Daten ins Innere ist jedoch ein so genanntes schlecht gestelltes Problem, bei dem Fehler verstärkt werden. Dieser Begriff geht zurück auf Jacques Hadamard, der den Begriff der gut gestellten Probleme eingeführt hat. Deshalb benutzt man insbesondere Vorwissen, um die Lösungen zu Regularisieren bzw. die regulären Lösungen aus der Schar aller möglichen Lösungen auszuwählen. Stefanie Hollborn hat sowohl Philosophie als auch Mathematik studiert. Für beide Gebiete ist die Logik ein fundamentales Konzept, wobei die formale mathematische Beschreibung ihre Anwendung sehr erleichtert. Literatur und weiterführende Informationen L. Borcea: Electrical impedance tomography, Inverse Probl. 18, R99-R136, 2002. M. Cheney, D. Isaacson, J. Newell: Electrical impedance tomography, SIAM Rev. 41, No.1, 85-101, 1999. M. Brühl, M. Hanke-Bourgeois: Kann die Mathematik der elektrischen Impedanztomographie zum Durchbruch verhelfen? Beitrag im Forschungsmagazin der Johannes Gutenberg-Universität Mainz, 2000. M. Hanke, S. Reusswig, N. Hyvönen: An inverse backscatter problem for electric impedance tomography, SIAM J. Math. Anal. 41.5, 1948-1966, 2009. S. Hollborn: Wie zwei Elektroden tiefe Einblicke gewähren

Oct 15, 201530 min

Klavierstimmung

Wie wirkt sich die Biegesteifigkeit von Klaviersaiten auf die Stimmung aus? Dieser Frage ist Niels Ranosch nachgegangen und erklärt uns im Gespräch mit Gudrun Thäter seine Ergebnisse. Das Schwingen von Klaviersaiten wird oft mit mit der Wellengleichung modelliert und simuliert; die Annahme ist hier, dass die Saite unendlich dünn ist. Betrachtet man die Saite jedoch mit realistischer Querschnittsfläche, so treten durch Dehnung und Stauchung weitere Kräfte im Material auf, und man muss in einem erweiterten Modell gerade für dicke oder kurze Saiten die Biegesteifigkeit der Saiten berücksichtigen. Die Wellengleichung ist eine partielle Differentialgleichung, die die Auslenkung der Saite mit zweiten Ableitungen im Raum und Zeit beschreibt. Zur Erweiterung des Modells wurde die Saite in einzelne Teilfasern aufgeteilt, für die jeweils einzeln die Biegesteifigkeit berücksichtigt wurde. Beim Übergang zu unendliche dünnen Teilfasern erhält man eine erweiterte Differentialgleichung, in der nun auch Raumableitungen vierter Ordnung auftreten. Bei der Lösung des erweiterten Modells ergibt sich nun, dass die Obertöne nicht perfekte Vielfache des Grundtons sind, und daher bei genauer Stimmung des Grundtons nicht harmonisch zu höheren Tönen wären. Daher werden die Grundtöne der Saiten absichtlich leicht verstimmt, damit die Obertöne akzeptabel zu höheren Tönen passen. Ein weiteres Problem für die Harmonie auf dem Klavier liegt im Quintenzirkel oder am Pythagoreischen Komma: Grundsätzlich kann man nicht gleichzeitig Quinten mit Frequenzverhältnis 3/2 und Oktaven mit Frequenzverhältnis 2 auf einem Klavier perfekt stimmen; man kann durch Multiplikation mit 3/2 kein Vielfaches von 2 erreichen. Nach 12 Quinten kommt man dem Ton nach 7 Oktaven sehr nahe, und dies wurde als Grundlage für das Klavier mit 12 Tasten pro Oktave gewählt. Den Fehler versucht man dann mit unterschiedlichen Stimmungen irgendwie erträglich zu machen, wie mit der heutzutage gängigen gleichstufigen Stimmung. Literatur und weiterführende Informationen Gareth Loy: Musimathics, MIT Press, 2007. S. M. Han, H. Benaroya, T. Wei: Dynamics of transversely vibrating beams using four engineering theories, Journal of sound and vibration 225.5: 935-988, 1999.

Oct 8, 201532 min

Nanophotonics

Nanophotonics is one great path into our future since it renders possible to build e.g. absorber, emitter or amplifier on a scale of a few dozen nanometers. To use this effectively we will have to understand firstly the resonances of plasmons and secondly the interaction of electromagnetic waves with complex media. Here on the one hand we can model light as waves and describe what is happening for the different frequencies of monochromatic light waves. We have to model the evolution in air or in more complex media. On the other hand - taking the more particle centered point of view - we can try to model the reaction of the photons to certain stimuli. The modelling is still in progress and explored in many different ways. The main focus of our guest Claire Scheid who is working on nanophotonics is to solve the corresponding partial differential equations numerically. It is challenging that the nanoscale-photons have to be visible in a discretization for a makro domain. So one needs special ideas to have a geometrical description for changing properties of the material. Even on the fastest available computers it is still the bottleneck to make these computations fast and precise enough. A special property which has to be reflected in the model is the delay in response of a photon to incoming light waves - also depending on the frequency of the light (which is connected to its velocity- also known as dispersion). So an equation for the the evolution of the electron polarization must be added to the standard model (which is the Maxwell system). One can say that the model for the permeability has to take into account the whole history of the process. Mathematically this is done through a convolution operator in the equation. There is also the possibility to explain the same phenomenon in the frequency space as well. In general the work in this field is possible only in good cooperation and interdisciplinary interaction with physicists - which also makes it especially interesting. Since 2009 Claire Scheid works at INRIA méditerranée in Sophia-Antipolis as part of the Nachos-Team and is teaching at the university of Nice as a member of the Laboratoire Dieudonné. She did her studies at the Ecole Normale Superieure in Lyon and later in Paris VI (Université Pierre et Marie Curie). For her PhD she changed to Grenoble and spent two years as Postdoc at the university in Oslo (Norway). Literature and additional material R. Léger, J. Viquerat, C. Durochat, C. Scheid and S. Lanteri: A parallel non-confoming multi-element DGTD method for the simulation of electromagnetic wave interaction with metallic nanoparticles, J. Comput. Appl. Math. Vol 270, p. 330-342, 2014. S. Descombes, C. Durochat, S. Lanteri, L. Moya, C. Scheid, J. Viquerat: Recent advances on a DGTD method for time-domain electromagnetism, Photonics and Nanostructures, Volume 11, issue 4, 291-302, 2013. K. Busch, M. König, J. Niegemann: Discontinuous Galerkin methods in nanophotonics, Laser and Photonics Reviews, 5, pp. 1–37, 2011.

Oct 1, 201539 min

InSAR - SAR-Interferometrie

Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen posit

Sep 24, 201540 min

Photobioreaktoren

Photobioreaktoren sind eine große Hoffnung für unsere Zukunft ohne Erdöl. Sie nutzen die Tatsache aus, dass verschiedenste Algensorten für uns nützliche Stoffe produzieren können. Im einfachsten Fall Futter für unsere Tiere, aber auch Äthanol als Treibstoff oder allgemein als Energieträger. Bei Grünalgen ist die Photosynthese der wichtige Stoffwechselprozess, der natürlich auch Licht braucht und Kohlendioxid. Bevor Photobioreaktoren wirklich effektiv arbeiten können, müssen jedoch viele Aspekte des Prozesses noch viel besser verstanden werden. Hier stehen wir erst am Anfang der Entwicklung. Judith Kolbe hat in ihrer Masterarbeit ein Modell erprobt, das die Verklumpung (technisch: Agglomeration) von Algen beim Fließen durch geschlossene Zylinder beschreiben soll. Das Anliegen ist, durch vorherige Simulation die Bedingungen im Reaktor so zu optimieren, dass die Verklumpung möglichst vermieden wird, damit es nicht zu Fäule und zum Absterben der Algen kommt. Besondere Effekte am Rand des Behälters wurden hier zunächst gar nicht betrachtet. Als Beispielfall wurden sehr kleine Algen- Mikroorganismen- betrachtet, für die die eigene Geometrie keine allzu große Rolle bei der Verklumpung spielt. Der wichtigste Aspekt im Modell ist die Annahme, dass die kugelförmigen Partikel einen Schmierfilm auf ihrer Oberfläche tragen. Zwei Partikel, die während ihrer Bewegung im Fluid zufällig zusammenstloßen, verschmelzen zu einem größeren, wenn die umgesetzte Energie im Schierfilm dissipieren kann. Die Strömung des Trägerfluids geht hier vor allem als Kraftwirkung auf die Algenpartikel ein (inklusive der Bewegungsrichtung). Der Vorteil dieses Modells ist zum einen, dass es so einfach ist, dass es nur wenige Parameter benötigt und zum anderen, dass die Interpretation der Ergebnisse klar ist (im sogenannten Postprocessing). Ein großer Nachteil ist, dass die Zahl der Partikel, die man einzeln so behandeln kann, durch die Rechenstärke schnell sehr stark eingeschränkt wird, selbst wenn ausgenutzt wird, dass man die Rechnungen hervorragend parallelisieren kann. Deshalb wurde in der Arbeit schließlich auch nur ein prototypischer Würfel von 4mm Seitenlänge in der Mitte des zylindrischen Reaktors simuliert. Literatur und weiterführende Informationen H. Chmiel: Bioreaktoren, Bioprozesstechnik, Spektrum Akademischer Verlag, 2011. C. T. Crowe, J. D. Schwarzkopf, M. Sommerfeld, Y. Tsuji: Multiphase flows with droplets and particles, CRC press, 2011. B. J. Ennis, G. Tardos, R. Pfeffer: A microlevel-based characterization of granulation phenomena, Powder Technology, 65(1), 257-272, 1991. D. Hänel: Molekulare Gasdynamik: Einführung in die kinetische Theorie der Gase und Lattice-Boltzmann-Methoden, Springer-Verlag, 2006. W. Pietsch, Wolfgang: Size enlargement by agglomeration, New York, Wiley, 1991. Podcast Konscience KNS015: Energie aus Biomasse, Erstmal die Chinchillas ruhigstellen, 2014.

Aug 13, 201535 min

Sprache PDGL

Catherine Bandle war bis 2003 Professorin am Mathematischen Institut der Universität in Basel. Aber auch über die Emeritierung hinaus ist sie sehr rege in der Forschung zu elliptischen und parabolischen partiellen Differentialgleichungen. Das zeigt sich an einer beeindruckenden Zahl von Publikationen, der Teilnahme an Tagungen und im Einbringen ihrer Erfahrung in die Tätigkeit von Gremien wie dem Landeshochschulrat Brandenburg und dem Steering Committee of the European Science Foundation program: Global and Geometric Aspects of Nonlinear Partial Differential Equations. Ihre Faszination für die Vielseitigkeit dieses Themas in den Anwendungen und die Zusammenhänge zur Geometrie haben sich über viele Jahrzehnte erhalten. Für den Workshop Nonlinear Days 2015 wurde sie für einen Hauptvortrag nach Karlsruhe eingeladen. Wir haben diese Gelegenheit genutzt, das Thema der Modellbildung mit Hilfe von partiellen Differentialgleichungen mit ihr etwas allgemeiner zu beleuchten. Traditionell stehen elliptische wie parabolische Gleichungen am Beginn der modernen Modellbildung von Prozessen in der Physik, der Biologie und Chemie. Hier sind es Diffusions-, Reaktions-, Transport- und Wachstumsprozesse, die zunächst durch gewöhnliche Differentialgleichungen beschrieben wurden. Allerdings waren vor etwa 150 Jahren die Anwendungen in Teilen schon zu komplex für dieses zu einfache Modell. Abhängigkeiten von Veränderungen in allen Raum- und der Zeitrichtung sollten interagierend erfasst werden. Das führte zwingend auf die partiellen Differentialgleichungen. Mit dem Aufstellen der Gleichungen verband sich die Hoffnung, durch die zugehörigen Lösungen Vorhersagen treffen zu können. Um diese Lösungen zu finden, brauchte es aber ganz neue Konzepte. Am Anfang der Entwicklung standen beispielsweise die Fourierreihen, die (unter den richtigen Voraussetzungen) eine Darstellung solcher Lösungen sein können. Werkzeuge wie Fourier- und Lapalacetransformation konnten zumindest für bestimmte Geometrien hilfreiche Antworten geben. Später wurder der Begriff der schwachen Lösung bzw. schwachen Formulierung geprägt und die damit verbundenen Sobolevräume auf verschiedenen Wegen entwickelt und untersucht. Die Suche nach den Lösungen der Gleichungen hat damit die theoretische Entwicklung in der Mathematik stark vorangetrieben. Heute sind wir froh, dass wir in der linearen Theorie (siehe auch Lemma von Lax-Milgram) vieles verstanden haben und versuchen uns Stück für Stück nichtlineare Modellen anzueignen. Ein erster Schritt ist häufig eine lokale Linearisierung oder das Zulassen von Nichtlinearitäten in untergeordneten Termen (semilineare Probleme). Ein integraler Bestandteil ist hier jedoch auch die Möglichkeit, mehr als eine Lösung der Gleichung zu haben und wir brauchen deshalb Konzepte, die physikalisch relevante unter ihnen zu finden. Hier sind Konzepte der Stabilität wichtig. Nur stabile Lösungen sind solche, die zu beobachtbaren Phänomenen führen. Wichtige Werkzeuge in der Lösungstheorie sind auch die Normen, in denen wir unsere Lösungen messen. Am überzeugendsten ist es, wenn sich Normen in Energien des Systems übersetzen lassen. Dann kann man auch die Stabilität im Rahmen von Energieerhaltung und Energieminimierung diskutieren. Literatur und Zusatzinformationen Catherine Bandle: Die Mathematik als moderne Weltsprache - Am Beispiel der Differenzialgleichungen, UniNova Wissenschaftsmagazin der Universität Basel, Band 87, 2000. R.Farwig: Skript zu Elementaren Differentialgleichungen, Technische Universität Darmstadt, 2008. Videos zu PDEs (in Englisch) Video zur Fourierreihenidee auf Deutsch

Aug 6, 201531 min

Splitting Waves

To separate one single instrument from the acoustic sound of a whole orchestra- just by knowing its exact position- gives a good idea of the concept of wave splitting, the research topic of Marie Kray. Interestingly, an approach for solving this problem was found by the investigation of side-effects of absorbing boundary conditions (ABC) for time-dependent wave problems- the perfectly matched layers are an important example for ABCs. Marie Kray works in the Numerical Analysis group of Prof. Grote in Mathematical Department of the University of Basel. She did her PhD 2012 in the Laboratoire Jacques-Louis Lions in Paris and got her professional education in Strasbourg and Orsay. Since boundaries occur at the surface of volumes, the boundary manifold has one spatial dimension less than the actual regarded physical domain. Therefore, the treatment of normal derivatives as in the Neumann boundary condition needs special care. The implicit Crank-Nicolson method turned out to be a good numerical scheme for integrating the time derivative, and an upwinding scheme solved the discretized hyperbolic problem for the space dimension. An alternative approach to separate the signals from several point sources or scatterers is to apply global integral boundary conditions and to assume a time-harmonic representation. The presented methods have important applications in medical imaging: A wide range of methods work well for single scatterers, but Tumors often tend to spread to several places. This serverely impedes inverse problem reconstruction methods such as the TRAC method, but the separation of waves enhances the use of these methods on problems with several scatterers. Literature and additional material F. Assous, M. Kray, F. Nataf, E. Turkel: Time-reversed absorbing condition: application to inverse problems, Inverse Problems, 27(6), 065003, 2011. F. Assous, M. Kray, F. Nataf: Time reversal techniques for multitarget identification, in Ultrasonics Symposium (IUS), IEEE International (pp. 143-145). IEEE, 2013. M. Grote, M. Kray, F. Nataf, F. Assous: Wave splitting for time-dependent scattered field separation, Comptes Rendus Mathematique, 353(6), 523-527, 2015.

Jul 30, 201519 min

Perfekte Gleichgewichte

Wie können wir die globale Erwärmung stoppen? Viola Caspari hat dazu eine spieltheoretische Masterarbeit abgeschlossen. Ihr Interesse galt sogenannten trembling-hand perfekten Gleichgewichten. Dies sind Nash Gleichgewichte mit der besonderen Eigenschaft, dass auch kleine Änderungen in den Daten die Eigenschaft, dass es sich um ein Nash-Gleichgewicht handelt, nicht ändert. Es sind also Strategiekombinationen, die für Entscheidungsfindungen besonders hilfreich sein können. Das Gefangenendilemma ist eines der grundlegenden theoretischen Beispiele aus der Spielttheorie, an dem man verschiedene Strategien illustrieren kann. Als Anwendungsfall behandelte Sie die Verteilung öffentlicher Güter mit unsicherem Schwellwert. Der Hintergrund hierfür sind die laufenden Verhandlungen zwischen allen Staaten, die dazu führen sollen, dass eine mittlere Erwärmung um 2 Grad Kelvin oder mehr vermieden werden kann. Die Erwärmung ist direkt gekoppelt an den CO2-Ausstoß der Staaten. Und natürlich haben alle Staaten Einfluss darauf, wie ihre CO2-Bilanz aussieht. Sie können beispielsweise Geld investieren, um Kohlekraftwerke durch erneuerbare Energieerzeuger abzulösen oder Filter in Schornsteine einbauen, und vieles mehr. Im Modell werden aus den Staaten also Spieler mit verschiedenen Strategien als Handlungsoptionen. Jede Strategie ist mit Kosten verbunden aber auch mit dem Nutzen in Form von eingesparten CO2-Ausstoß. Diese Relationen variieren auch nach der Größe der Wirtschaft der Länder. Gesucht sind nun Handlungsempfehlungen, die dafür sorgen, dass die Staaten solche Absprachen treffen, dass die Schwelle für die katastrophale Klimaveränderung aussbleibt und sich auch an diese Absprachen halten. Eine gute Methode hierfür ist die Einigung auf trembling-hand perfekte Nash-Gleichgewichte, weil hier eine Änderung der eigenen Strategie nur zur Verschlechterung für einen selbst führt. Der Egoismus dient also als Antrieb, sich an getroffene Abmachungen zu halten. Literatur und Zusatzinformationen C. Feige, K.-M. Ehrhart, J. Krämer: Voting on contributions to a threshold public goods game - an experimental investigation, KIT Working Paper 60, August 2014. S. Berninghaus, K.-M. Ehrhart, W. Güth: Strategische Spiele, eine Einführung in die Spieltheorie, Springer-Lehrbuch, Springer, Berlin, 3., verb. Aufl., 2010. R. Selten: Reexamination of the perfectness concept for equilibrium points in extensive games, International Journal of Game Theory, 4(1):25–55, 1975.

Jul 23, 201519 min

Wilde Singularitäten

Anja Randecker befasst sich in ihrer Forschung mit so genannten wilden Singularitäten, die im Zusammenhang mit Translationsflächen auftreten, und erklärt im Gespräch mit Gudrun Thäter die Faszination dieser mathematischen Konstruktionen. Translationsflächen sind im klassischen Fall Polygone in der Ebene, die an ihren Kanten topologisch verklebt werden. Beim Quadrat erhält man beispielsweise einen Donut, oder auch Torus: (Animation von Kieff zum Verkleben, veröffentlicht als Public Domain): Lokal betrachtet verhält sich eine Translationsfläche wie eine Ebene, da man lokal immer eine Abbildung, eine mathematische Kartenabbildung, von einem kleinen Gebiet der Fläche in ein Gebiet der Ebene angeben kann - dabei geht aber die globale Gestalt der Fläche verloren. Man sieht also nicht mehr, dass der Donut in der Mitte ein Loch hat. Das entspricht dem Problem der Erstellung von Landkarten, was lokal zwar sehr gut funktioniert, aber bei größeren Flächen müssen die Kartenprojektionen starke Verzerrungen in Kauf nehmen. Beim Verkleben der parallelen Kanten von zwei Fünfecken (eins steht auf der Kante, eins auf der Spitze) werden, wie im Beispiel zuvor, alle Ecken miteinander identifiziert und werden zu einem Punkt. Dann erhält man ein Objekt, das wie zwei zusammengebackene Donuts aussieht. Dort verhalten sich alle Punkte auf dem Objekt wie zuvor, bis auf den Punkt, in dem alle Ecken identifiziert sind: Dort hat man einen Panoramablick von 1080 Grad, und somit eine Singularität - genauer eine konische Singularität. Hier hat der Punkt eine Umgebung, die isometrisch zu einer Überlagerung einer Kreisschreibe ist, da wir endliche viele Polygone in der Ebene verklebt haben. Nimmt man hingegen unendliche viele Polygone, oder unterteilt die Kanten in unendlich viele Segmente und verklebt diese, so können die verklebten Ecken eine viel wildere Umgebung haben. Das führt dann zu den so genannten wilden Singularitäten. Diese werden erst seit relativ kurzer Zeit erforscht, sie kommen aber auch bei dynamischen Systemen auf Translationsflächen vor. Hier möchte man in der aktuellen Forschung Begriffe der Konvergenz und damit eine Topologie auf einem Raum der Translationsflächen einführen, um das Verhalten von dynamischen Systemen auf diesem Raum beschreiben und analysieren zu können. Eine Frage ist hier, ob den wilden Singularitäten etwas ähnliches wie die Isometrie zur Kreisscheibe bei den konischen Singularitäten zugeordnet werden kann. Zunächst ist deren Umgebung überraschenderweise wegzusammenhängend. Die Umgebung kann aber auch unendliches Geschlecht besitzen, wie Anja Randecker nun beweisen konnte- die Umgebung hat also unendliche viele Löcher in der Umgebung- und nicht nur ein Loch wie der Donut. Literatur und Zusatzinformationen A. Zorich: Flat surfaces, Frontiers in number theory, physics, and geometry I: 439-585, 2006. A. Randecker: Skript zur Vortragsreihe Unendliche Translationsflächen, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. P. Bowman, F. Valdez: Wild singularities of flat surfaces, Israel Journal of Mathematics, 197(1), 69-97, 2013. Modellansatz Podcast Modell040: Topologie Modellansatz Podcast Modell042: Teichmüllerkurven

Jul 16, 201526 min

Zweibeiner

Wie bringt man einem Roboter das Gehen bei? Cornelius Kuhs hat sich dieser Frage am Humanoiden Fünf-Segment-Läufer am Institut für Technische Mechanik gestellt, und hat die Bewegungen am Modell von Differentialgleichungen auf die Energieeffizienz des Bewegungsablaufs studiert. Die Energieeffizienz bezieht sich hier auf die spezifischen Transportkosten, das ist hier die aufgebrachte Energie geteilt durch das Produkt von Gewicht und zurückgelegter Distanz. Die Bewegungsabläufe sind jedoch nicht durch analytisches Lösen der Differentialgleichungen des Modells zu bestimmen, hier wurden verschiedene Ansätze ausgetestet, die dann mittels mathematischer Optimierung auf einen möglichst geringen Energieverbrauch verbessert werden. Dabei sind viele physikalische Randbedingungen, wie der Position des Bodens, und technische Bedingungen, die beispielsweise das Umknicken des Kniegelenks verhindern, schon im Modell eingebaut. Darüber hinaus gibt es aber auch weitere Eigenschaften und Einschränkungen, die verschiedene Lösungen mehr oder weniger nützlich erscheinen lassen. Aus mathematischer Sicht sind die Eigenschaften der Zielfunktion, die in der Optimierung betrachtet wird, sehr interessant: Diese sind oft nur stückweise differenzierbar, was aber bei der Differenzenquotienten keine Probleme macht- außer es tritt ein Pol auf. Mit der Berechenbarkeit von Ableitungen stehen sehr effiziente Gradienten-basierte Optimierungsverfahren zur Verfügung, jedoch ist die Zielfunktion nicht ableitbar, so werden die erwünschten Konvergenzeigenschaften eventuell nicht erreicht. Ebenso interessant ist der Bereich der numerischen Integration, da auch hier Schwierigkeiten bei geringer Ableitbarkeit der Integranden auftreten können: Effiziente Verfahren höherer Ordnung werden nur dann schneller zum Ergebnis führen, wenn es stückweise höhere Ableitungen der Funktionen gibt, die auch beschränkt bleiben. Ebenso gibt es die Frage der Schrittweite oder der Diskretisierung in der numerischen Differenziation. Diese Fragestellungen führen auf das Gebiet der numerischen Stabilität: Hier stellt man sich nicht die Frage, ob der Roboter steht, sondern ob überhaupt ein Ergebnis berechenbar oder das Berechnete glaubhaft oder mit mehr Rechenkapazität überhaupt genauer berechnet werden kann. Literatur und Zusatzinformationen E. Westervelt, J. Grizzle, C. Chevallereau, J. Choi, B. Morris: Feedback control of dynamic bipedal robot locomotion, CRC press, 2007. F. Bauer: Optimierung der Energieeffizienz zweibeiniger Roboter durch elastische Kopplungen, KIT Scientific Publishing, 2014.

Jul 9, 201536 min

Acoustic Scattering

Prof. Francisco Sayas from the Department of Mathematical Sciences of the University of Delaware in Newark has been visiting our faculty in June 2015. He is an expert in the simulation of scattering of transient acoustic waves. Scattering is a phenomenon in the propagation of waves. An interesting example from our everyday experience is when sound waves hit obstacles the wave field gets distorted. So, in a way, we can "hear" the obstacle. Sound waves are scalar, namely, changes in pressure. Other wave types scatter as well but can have a more complex structure. For example, seismic waves are elastic waves and travel at two different speeds as primary and secondary waves. As mathematician, one can abandon the application completely and say a wave is defined as a solution of a Wave Equation. Hereby, we also mean finding these solution in different appropriate function spaces (which represent certain properties of the class of solutions), but it is a very global look onto different wave properties and gives a general idea about waves. The equations are treated as an entity of their own right. Only later in the process it makes sense to compare the results with experiments and to decide if the equations fit or are too simplified. Prof. Sayas startet out in a "save elliptic world" with well-established and classical theories such as the mapping property between data and solutions. But for the study of wave equations, today there is no classical or standard method, but very many different tools are used to find different types of results, such as the preservation of energy. Sometimes it is obvious, that the results cannot be optimal (or sharp) if e.g. properties like convexity of obstacles do not play any role in getting results. And many questions are still wide open. Also, the numerical methods must be well designed. Up to now, transient waves are the most challenging and interesting problem for Prof. Sayas. They include all frequencies and propagate in time. So it is difficult to find the correct speed of propagation and also dispersion enters the configuration. On the one hand, the existence and regularity together with other properties of solutions have to be shown, but on the other hand, it is necessary to calculate the propagation process for simulations - i.e. the solutions - numerically.There are many different numerical schemes for bounded domains. Prof. Sayas prefers FEM and combines them with boundary integral equations as representative for the outer domain effects. The big advantage of the boundary integral representation is that it is physical correct but unfortunately, it is very complicated and all points on the boundary are interconnected. Finite Elements fit well to a black box approach which leads to its popularity among engineers. The regularity of the boundary can be really low if one chooses Galerkin methods. The combination of both tools is a bit tricky since the solver for the Wave Equations needs data on the boundary which it has to get from the Boundary element code and vice versa. Through this coupling it is already clear that in the coding the integration of the different tools is an important part and has to be done in a way that all users of the code which will improve it in the future can understand what is happening. Prof. Sayas is fascinated by his research field. This is also due to its educational aspect: the challenging mathematics, the set of tools still mainly unclear together with the intensive computational part of his work. The area is still wide open and one has to explain mathematics to other people interested in the results. In his carreer he started out with studying Finite Elements at the University in Zaragoza and worked on boundary elements with his PhD-supervisor from France. After some time he was looking for a challenging new topic and found his field in which he can combine both fields. He has worked three years at the University of Minnesota (2007-2010) and decided to find his future at a University in the U.S.. In this way he arrived at the University of Delaware and is very satisfied with the opportunities in his field of research and the chances for young researchers. Literature and additional material deltaBEM - Easy to Implement Boundary Integral Equations, open source software developed by Team Pancho at the Department of Mathematical Sciences in Delaware. A. R. Laliena, F. J. Sayas: Theoretical aspects of the application of convolution quadrature to scattering of acoustic waves, Numerische Mathematik, 112(4), 637-678, 2009. F. J. Sayas: Energy estimates for Galerkin semidiscretizations of time domain boundary integral equations, Numerische Mathematik, 124(1), 121-149, 2013. Modellansatz Podcast 003: Unsichtbarkeit (in German)

Jul 2, 201540 min

Steganographie

Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt. Hier hat Marius Musch in einem Vortrag eine Einführung in die Steganographie gegeben, und spricht nun mit Sebastian Ritterbusch im Podcast. Bei der Steganographie geht es darum, eine geheime Nachricht so zu versenden, dass niemand außer dem gewünschten Empfänger die Existenz dieser Nachricht überhaupt vermutet. Der Begriff kommt aus dem griechischen und bedeutet in etwa "geheimes Schreiben". So wurden schon in der Antike erste simple Formen der Steganographie verwendet. Statt wie üblich die Nachricht in der Wachs auf einer Wachstafel zu kratzen, wurde die geheime Nachricht in das Holz darunter geritzt und wieder Wachs darüber gegossen. Anschließend konnte eine harmlose Nachricht in das Wachs geschrieben werden und die geheime Nachricht war verdeckt darunter. Mit der Zeit wurden die Verfahren dann raffinierter, so wurde im Zweiten Weltkrieg aus einem japanischen Kriegsgefangenenlager eine scheinbar harmlose Postkarte verschickt. Liest man aber nur die ersten beiden Wörter jeder Zeile ergibt sich ein völlig neues Bild und es werden die Truppenverluste der Amerikaner kommuniziert. In in einem anderen Fall vereitelte amerikanische Kriegsgefangene Jeremiah Denton die Propagandaversuche in Vietnam während des Kalten Krieges. Während eines TV-Interviews blinzelte er wiederholt das Wort T-O-R-T-U-R-E in Morsecode. In der heutigen Zeit ist es natürlich naheliegend die Steganographie in der digitalen statt der analogen Welt einzusetzen. So kann man zum Beispiel schon in (Plain-)Text eine geheime Nachricht verstecken. Viele Texteditoren zeigen standardmäßig Leerzeichen und Tabs am Zeilenende (trailing whitespace) nicht an. Dies macht sich das Tool SNOW (steganographic nature of whitespace) zu nutze, um geheime Nachrichten zu verstecken, oder man schreibt gleich komplette Programme in der etwas verrückten Programmiersprache Whitespace. Deutlich verbreiteter und effektiver ist es aber als Tarn-Medium (das so genannter Cover) ein Bild zu nehmen. Bilder haben viele nützliche Eigenschaften, insbesondere dass geringe Änderungen für das menschliche Auge unsichtbar bleiben. Aber auch ihre Größe ist vorteilhaft da ein Bild leicht um den Faktor 1000 größer ist, als die darin zu versteckende Nachricht. Bei einem Grauwertbild wird typischerweise ein Byte pro Pixel verwendet, also die Helligkeit jedes Bildpunktes wird durch einen Wert zwischen 0 für Schwarz und 255 für Weiß repräsentiert. Dieses Byte besteht wiederum aus 8 Bits, zum Beispiel der Folge 11110000 für den Wert 120. In der Steganographie kann man sich zu Nutze machen, dass das hinterste Bit (least significant bit) nur sehr wenig zum eigentlichen Farbwert beträgt. Es entscheidet nur ob die Zahl gerade oder ungerade ist und wenn der Wert geändert wird, fällt einem Menschen dieser geringe Helligkeitsunterschied gar nicht auf. Somit kann man nun seine geheime Nachricht von den ASCII-Werten in Binärzahlen konvertieren und anschließend in den least significant Bits (LSBs) einbetten. Man braucht also 8 Pixel pro Buchstabe. Weitere Verfahren gibt es auf Basis spezieller Eigenschaften von Datenformaten wie GIF, PNG oder JPEG. Bei der Steganographie gibt es aber auch einiges zu beachten. Besonders wichtig ist es die Nachricht vor dem Einbetten zu verschlüsseln. Zum einen kann uns ein Angreifer, der das Verfahren kennt und die Nachricht extrahiert, sie trotzdem nicht lesen. Zum anderen lässt sich ein gut verschlüsselter Ciphertext nicht von echtem Zufall unterscheiden, um Angriffe zu erschweren. Hat man aber Zugriff auf das Orginalbild, so wird der Unterschied und damit die Nachricht offensichtlich- hier sind besonders umgekehrte Bildersuchen hilfreich. Im realen Einsatz sind meist Wasserzeichen, die Verfahren der Steganographie verwenden. Anders als bei der Steganographie, wo das Cover völlig irrelevant für die geheime Nachricht war, bezieht sich bei den Wasserzeichen die versteckte Nachricht auf das Cover. So bestätigt das Wasserzeichen auf einem Geldschein die Authentizität eben dieses Scheines. Es gibt aber auch Wasserzeichen die lange unbekannt waren. Zum Beispiel gibt es einige Drucker bekannter Hersteller, die in die ausgedruckten Seiten ein kaum sichtbares gelbes Punktemuster einbauen. In diesem Wasserzeichen steht sowohl das Datum des Druckes als auch die Seriennummer des Druckers. Auf Geldscheinen gibt es gelben Punkte in der EURion-Konstellation, die von Kopierern, Scannern und Software erkannt werden. Aber auch Spieler von Onlinerollenspielen wie World of Warcraft sind vor Wasserzeichen nicht sicher. So wurde 2012 in einem Forum bemerkt, dass die Screenshots aus dem Spiel per Wasserzeichen den Accountname und die Server-IP des Spielers beinhalten. Allerdings hinterlässt die Ste

Jun 25, 20151h 40m

Spielcomputer

Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt, und zog diesmal auch Mathe-Begeisterte an: Florian Gilges ist mit dem Life Science Lab als Schüler nach Karlsruhe gekommen, und will unter anderem Näherungen an die Kreiszahl effizient berechnen. Dazu baut er sich einen eigenen Computer. Im Gespräch mit Sebastian Ritterbusch erklärt er uns, wie er dazu logische Gatter aus rotem Erz baut. Zunächst ist die Kreiszahl (Pi) als das Verhältnis von Umfang zu Durchmesser eines beliebigen Kreises definiert und ermöglicht uns mit der Formel auch aus dem Radius die Fläche eines Kreises zu berechnen. Da Pi jedoch eine sogenannte irrationale und transzendente Zahl ist (d.h. dass nach dem Komma unendlich viele Stellen folgen, die keine Wiederholung aufweisen), lässt sich der Wert nie exakt angeben. Um nun eine Näherung für Pi zu berechnen, lassen sich verschiedene Verfahren verwenden: Ein Kreis wird gezeichnet und Umfang und Durchmesser gemessen, das Verhältnis ist dann eine Näherung an Pi. Eine andere Möglichkeit ist die Berechnung durch eine Winkelfunktion: Der Arkustangens hat bei 1 den Wert . Nimmt man also die Taylorentwicklung des Arkustangens mit x=1 und multipliziert mit 4, erhält man Pi. Neben der (von der Konvergenzgeschwindigkeit) relativ ineffizienten Taylor-Reihe gibt es noch viele weitere Verfahren, die ebenfalls Pi annähern. Die Berechnung will Florian in Minecraft durchführen, und baut sich dafür einen Rechner innerhalb dieses Spiels. Aber wie kann ein einfaches Spiel so etwas bieten? Schließlich ist Minecraft nur eine Nachahmung unserer Welt mit ganz natürlichen Ressourcen. So bietet eine Minecraft-Welt verschiedene Vegetations- und Klimazonen und verschieden Landschaften und Umgebungen, wie z.B. Laubwälder, Nadelwälder, Steppen, Wüsten, Schneegebiete, uvm. Es gibt jedoch auch Stoffe, die es in unserer Welt nicht gibt: Einer davon ist Redstone. Dieser besondere Stoff kann in Höhlen tief unter der Erde als Erz gefunden werden und gibt abgebaut ein Pulver, das ähnliche Eigenschaften, wie elektrische Leitungen hat. Aus Redstone-Pulver und weiteren Materialien, die man in der Welt findet, lassen sich Logikelemente bauen: Inverter, Verstärker, Verzögerer und Vergleicher. Diese Basiselemente können vom Spieler in die Welt gebaut und zu großen Schaltungen zusammengesetzt werden. Angefangen bei einfachen Speichern und Signalstärkespeichern (Redstone-Energie hat 16 Stufen von 0 bis 15), bis hin zu Logikgattern, wie UND-Gatter, XOR-Gatter und Flip-Flops. Kurzum lassen sich mit den Basiselementen alle Komponenten für einen Computer zusammenstellen, aber auch einfachere Dinge, wie Code-Schlösser und Tür-Steuerungen sind möglich. Doch so einfach, wie es nun erscheint, ist es nicht, denn jedes Basiselement hat eine Verzögerung von mindestens einer Zehntel- bis vier Zehntelsekunden. Das bedeutet, dass der Computer sehr langsam wird und Berechnungen sehr aufwendig werden. Deshalb ist Optimierung sehr wichtig, indem an jeder Stelle die Bauteile effizienter gemacht werden und die Mathematik zur Berechung ebenfalls (für den Computer) effizienter gestaltet wird. Hier konnte Florian das XOR-Gatter und den Programm-Zähler aus Halbaddierern und Volladdierern durch intelligente Kniffe deutlich beschleunigen. Eine weitere Möglichkeit besteht auch in der Nutzung von redundanten Binärdarstellungen, die bei einer großen Anzahl von Additionen große Geschwindigkeitsvorteile bringen können. Neben der Optimierung der Hardware ist auch die Optimierung der Software wichtig, was zur Mathematik zurückführt: Berechnungen wie Multiplikationen, Potenzen oder Wurzeln sind auf Logikebene komplizierte Operationen, auch wenn unsere Taschenrechner die Aufgaben in Sekundenbruchteilen lösen. Der einfachste Weg für die Multiplikation ist, dass man eine Additionskette bildet: . Führt man dieses Verfahren mit größeren Zahlen durch, wächst der Aufwand linear. Ein anderes Verfahren ist die schriftliche Multiplikation, aber es geht noch effizienter: Die Russische Bauernmultiplikation. Mit etwas Übung lassen sich so, wenn gerade kein Taschenrechner da ist, auch große Zahlen multiplizieren. Für den Computer sind jedoch beide Verfahren durch das Binärsystem äquivalent. Komplizierter sind dann schon Wurzeln. Diese lassen sich nicht so leicht berechnen, wie eine Addition oder Multiplikation. Ein mögliches Näherungsverfahren ist das Heron-Verfahren. Es gibt jedoch auch das schriftliche Wurzelziehen, das im Binärsystem leicht zu implementieren ist. Florian hat sich diese Techniken aus Videos wie dem Youtube-Kanal Schoolseasy selbst angelernt.

Jun 18, 20152h 2m

L-Funktionen

Eine alte Fragestellung lautet, was die Summe der Kehrwerte aller natürlicher Zahlen ist. Mit anderen Worten: existiert der Grenzwert der Harmonischen Reihe ? Die Antwort, die man im ersten Semester kennenlernen ist: Diese Reihe ist divergiert, der Wert ist nicht endlich. Über die spannenden Entwicklungen in der Zahlentheorie, die sich daraus ergaben, berichtet Fabian Januszewski im Gespräch mit Gudrun Thäter. Eine verwandte Fragestellung zur harmonischen Reihe lautet: Wie steht es um den Wert von ? Diese Frage wurde im 17. Jahrhundert aufgeworfen und man wußte, daß der Wert dieser Reihe endlich ist. Allerdings kannte man den exakten Wert nicht. Diese Frage war als das sogannte Basel-Problem bekannt. Eine ähnliche Reihe ist Ihr Wert läßt sich elementar bestimmen. Dies war lange bekannt, und das Basel-Problem war ungleich schwieriger: Es blieb fast einhundert Jahre lang ungelöst. Erst Leonhard Euler löste es 1741: Die Riemann'sche -Funktion Die Geschichte der L-Reihen beginnt bereits bei Leonhard Euler, welcher im 18. Jahrhundert im Kontext des Basel-Problems die Riemann'sche -Funktion' entdeckte und zeigte, dass sie der Produktformel genügt, wobei die Menge der Primzahlen durchläuft und eine reelle Variable ist. Diese Tatsache ist äquivalent zum Fundamentalsatz der Arithmetik: jede natürliche Zahl besitzt eine eindeutige Primfaktorzerlegung. Eulers Lösung des Basel-Problems besagt, daß und diese Formel läßt sich auf alle geraden positiven Argumente verallgemeinern: , wobei die -te Bernoulli-Zahl bezeichnet. Im 19. Jahrhundert zeigte Bernhard Riemann, dass die a priori nur für konvergente Reihe eine holomorphe Fortsetzung auf besitzt, einer Funktionalgleichung der Form genügt und einen einfachen Pol mit Residuum bei aufweist. Letztere Aussage spiegelt die Tatsache wieder, dass in jedes Ideal ein Hauptideal ist und die einzigen multiplikativ invertierbaren Elemente sind. Weiterhin weiß viel über die Verteilung von Primzahlen. Setzen wir dann zeigte Riemann, daß die so definierte vervollständigte Riemann'sche -Funktion auf ganz holomorph ist und der Funktionalgleichung genügt. Da die -Funktion Pole bei nicht-positiven ganzzahligen Argumenten besitzt, ergibt sich hieraus die Existenz und Lage der sogenannten "trivialen Nullstellen" von : für . Konzeptionell sollte man sich den Faktor als Eulerfaktor bei vorstellen. John Tate zeigte in seiner berühmten Dissertation, daß dies tatsächlich sinnvoll ist: Die endlichen Eulerfaktoren werden von Tate als Integrale über interpretiert, und der "unendliche" Eulerfaktor ist ebenfalls durch ein entsprechendes Integral über gegeben. Er legte damit den Grundstein für weitreichende Verallgemeinerungen. Die Riemann'sche -Funktion ist der Prototyp einer -Funktion, einem Begriff, der langsam Schritt für Schritt verallgemeinert wurde, zunächst von Richard Dedekind, Lejeune Dirichlet und Erich Hecke und weiter von Emil Artin, Helmut Hasse, André Weil, Alexander Grothendieck, Pierre Deligne, Jean-Pierre Serre und Robert Langlands et al. -Funktionen spielen in der modernen Zahlentheorie eine zentrale Rolle, und bis heute ranken sich fundamentale Vermutungen um diesen Begriff. Selbst die Mysterien der Riemann'schen -Funktion sind auch heute bei weitem nicht vollständig ergründet. Die berühmteste Vermutung in diesem Kontext ist die Riemann'sche Vermutung. Riemann zeigte 1859 nicht nur, daß die Riemann'sche -Funktion eine holomorphe Fortsetzung auf besitzt, sondern stellte auch einen engen Zusammenhang zwischen der Verteilung der Primzahlen und den Nullstellen von her. Eulers Produktenwicklung von für zeigt, dass stets für . Aus der Funktionalgleichung von ergibt sich, dass für natürliche Zahlen . Die sind die sogenannten trivialen Nullstellen der -Funktion. Riemann vermutete, dass sämtliche nicht-trivialen Nullstellen auf der Geraden liegen. Euler bestimmte im wesentlichen die Werte für positives . Bis heute wissen wir sehr wenig über die Werte an positiven ungeraden Argumenten. Ein Satz von Apéry besagt, daß irrational ist. Wir haben allerdings keine einfache Formel für diesen Funktionswert. Konzeptionell unterscheiden sich die ungeraden von den geraden positiven Argumenten darin, daß der in auftretende Faktor der -Funktion für ungerades positives dort einen Pol besitzt, was ebenfalls das Verschwinden von zur Folge hat. Über die Werte an negativen ungeraden Argumenten wissen wir aus der Funktionalgleichung, daß . Insbesondere gilt . Dieser Wert kann in gewissen Kontexten als Grenzwert (der divergierenden!) Reihe interpretiert werden (formal ergeben diese Identitäten natürlich keinen Sinn). In gewissen Situationen ist der Funktionswert ein sinnvoller endlicher Ersatz für den nicht existierenden Grenzwert der Reihe . Derartige Phänomene treten in Zahlentheorie an vielen Stellen auf. Literatur und Zusatzinformationen Haruzo Hida, Elementary theory of -functions and Eisenstein series, Cambridge University Press, 1993. Jean-Pierre Serre, "Cours d'arithmétique", Presses Universitaires de Fr

Jun 11, 201559 min

Waves

Prof. Enrique Zuazua is a Distinguished Professor of Ikerbasque (Basque Foundation for Science) and Founding Scientific Director at the Basque Center for Applied Mathematics (BCAM), which he pushed into life in 2008. He is also Professor in leave of Applied Mathematics at the Universidad Autónoma de Madrid (UAM) and a Humboldt Awardee at the University of Erlangen-Nuremberg (FAU) as well. He was invited by the PDE-group of our Faculty in Karlsruhe to join our work on Wave Phenomena for some days in May 2015. In our conversation he admits that waves have been holding his interest since his work as a PhD student in Paris at the Université Pierre-et-Marie-Curie in the world famous group of Jacques-Louis Lions. Indeed, waves are everywhere. They are visible in everything which vibrates and are an integral part of life itself. In our work as mathematician very often the task is to influence waves and vibrating structures like houses or antennae such that they remain stable. This leads to control problems like feedback control for elastic materials. In these problems it is unavoidable to always have a look at the whole process. It starts with modelling the problem into equations, analysing these equations (existence, uniqueness and regularity of solutions and well-posedness of the problem), finding the right numerical schemes and validating the results against the process which has been modelled. Very often there is a large gap between the control in the discrete process and the numerical approximation of the model equations and some of these differences are explainable in the framework of the theory for hyperbolic partial differential equations and not down to numerical or calculation errors. In the study of Prof. Zuazua the interaction between the numerical grid and the propagation of waves of different frequencies leads to very intuitive results which also provide clear guidelines what to do about the so-called spurious wave phenomena produced by high frequencies, an example of which is shown in this podcast episode image. This is an inherent property of that sort of equations which are able to model the many variants of waves which exist. They are rich but also difficult to handle. This difficulty is visible in the number of results on existence, uniqueness and regularity which is tiny compared to elliptic and parabolic equations but also in the difficulty to find the right numerical schemes for them. On the other hand they have the big advantage that they are best suited for finding effective methods in massively parallel computers. Also there is a strong connection to so-called Inverse Problems on the theoretical side and through applications where the measurement of waves is used to find oil and water in the ground, e.g (see, e.g. our Podcast Modell004 on Oil Exploration). Prof. Zuazua has a lot of experience in working together with engineers. His first joint project was shape optimization for airfoils. The geometric form and the waves around it interact in a lot of ways and on different levels. Also water management has a lot of interesting and open questions on which he is working with colleagues in Zaragoza. At the moment there is a strong collaboration with the group of Prof. Leugering in Erlangen which is invested in a Transregio research initiative on gasnets which is a fascinating topic ranging from our everyday expectations to have a reliable water and gas supply at home to the latest mathematical research on control. Of course, in working with engineers there is always a certain delay (in both directions) since the culture and the results and questions have to be translated and formulated in a relevant form between engineers and mathematicians. In dealing with theses questions there are two main risks: Firstly, one finds wrong results which are obviously wrong and secondly wrong results which look right but are wrong nonetheless. Here it is the crucial role of mathematicians to have the right framework to find these errors. Prof. Zuazua is a proud Basque. Of the 2.5 Mill. members of the basque people most are living in Spain with a minority status of their culture and language. But since the end of the Franco era this has been translated into special efforts to push culture and education in the region. In less than 40 years this transformed the society immensely and led to modern universities, relevant science and culture which grew out of "nothing". Now Spain and the Basque country have strong bonds to the part of Europe on the other side of the Pyrenees and especially with industry and research in Germany. The Basque university has several campuses and teaches 40.000 students. This success could be a good example how to extend our education system and provide possibilities for young people which is so much a part of our culture in Europe across the boundaries of our continent.

May 7, 201548 min