
Modellansatz
252 episodes — Page 2 of 6

Emmy Noether
Gudrun war im Dezember 2018 wieder zu Gast an der FU in Berlin. Schon zum dritten Mal ist Mechthild Koreuber ihre Gesprächspartnerin für den Podcast Modellansatz. Der Anlass des Gespräches war, dass im November 2018 unter dem Schlagwort Noethember die Mathematikerin Emmy Noether in den Fokus gerückt wurde. Auf unterschiedlichen Plattformen und in vielseitigen Formaten wurden die einzelnen Tage eines ganzen Monats der Darstellung ihres Lebens und Werks gewidmet. Für jeden Tag gab es Vorschläge für einzelne Stationen und Aspekte ihres Lebens, die in unterschiedlicher Art und Weise aufgenommen und dargestellt wurden. Unser Episodenbild entstand auch im Rahmen dieser Aktion und wurde uns von Constanza Rojas-Molina zur Verfügung gestellt. Unser Podcast hat im Dezember etwas verspätet auch zum Noethember beigetragen. Die Veröffentlichung des zweiten der beiden aufgezeichneten Emmy-Noether-Gespräche hat nun einige Monate Abstand zum November 2018. Das hat einen guten Grund: im Gespräch geht es neben der Person Emmy Noether auch um die Idee einer Konferenz aus Anlass des 100. Jahrestages ihrer Habilitation. Die Details der Konferenz waren im Gespräch noch etwas vage, aber die im Dezember gemachten Pläne werden Anfang Juni in Berlin tatsächlich Realität. Für diesen Teil des Gespräches stieß Rupert Klein dazu. Gudrun hatte sich im Rahmen des Noethember an Mechthild Koreuber gewandt, weil diese ein Buch über Emmy Noether und ihre Schule geschrieben hat, das 2015 im Springer Verlag erschienen ist. Schon beim ersten Gespräch zu Gender und Mathematik entstand der Plan, später eine Folge zu der Seite von Emmy Noether zu führen, die im Buch dargestellt wird. Nun gab es dafür zwei konkrete Anlässe, den Plan zu realisieren. Was hat Mechthild so sehr an der Person Noethers fasziniert, dass sie sich viele Jahre mit der Person und der daraus entstandenen Schule beschäftigt hat neben ihren anderen beruflichen Aufgaben? Dabei hatte sie erst sehr spät im Mathematikstudium den Namen Emmy Noether zum ersten mal gehört. Schon damals faszinierte sie der Widerspruch zwischen der Leistung der Pionierin und ihrer Anziehungskraft auf den mathematischen Nachwuchs zur eigenen prekären Stellung im Wissenschaftsbetrieb und ihrer Außenseiterrolle als Frau. Sie wollte ergründen, woher das starkes Streben nach Wissen und dem Verbleiben in der Mathematik unter schwierigsten Bedingungen kam. Der sehr berühmte und gestandene Kollege Hermann Weyl sagte selbst "Sie war mir intellektuell überlegen". Am Beispiel Emmy Noethers schärft sich die Frage danach: was ist mathematische Produktivität, unter welchen Rahmenbedingungen kann sie entstehen, unterschiedliche Felder verbinden und ganz neue Theorierahmen für Mathematik entwickeln. Warum ist gerade Emmy Noether das gelungen? Im Umfeld von Noether gibt es weitere sehr interessante Frauen, die heute größtenteils fast vergessen sind wie Marie-Louise Dubreil-Jacotin, die erste französische Mathematikprofessorin. Sie war Schülerin bei Emmy Noether in Frankfurt am Main und Göttingen. Außerdem eine türkische Mathematikerin, die nach Deutschland kam um mit diesen Frauen zu arbeiten. Es entsteht der Verdacht, dass sie als Außenseiterin im Feld der Wissenschaft tradierte Denkmuster nicht so leicht übernahm, weil sie auf ihrem eigenen Weg in die Wissenschaft ständig Grenzen überschreiten musste. Um überhaupt Mathematik betreiben zu können, musste sie sich einen Platz definieren und erkämpfen, den es so noch nicht gab. So konnte sie sogar in Feldern der Mathematik, in denen sie selbst nicht geforscht hat, revolutionäre Ideen einbringen. Beispiel hierfür ist die Topologie in Göttingen vertreten durch Brower und Alexandrow. Hier schuf sie die Betti Zahlen und lieferte den Kern für ein ganz neue Feld: Algebraische Topologie. Sie lebte den Zusammenstoß von Denkstilen und eröffnete sich und anderen damit einen Raum für Kreativität. Davon möchten wir auch heute lernen. Unter den heutigen Bedingungen wäre es wichtig, mehr Brücken zu schlagen und Kreativität zu leben, die Wissensvorstellung verändern darf. Der Trend ist aber eher Kontrolle und Quantifizierung. Ein Ausweg aus diesem engen Korsett ist in Berlin der 2018 gegründete Mathematik-Cluster MATH+. Die Idee dahinter ist es, Mathematik in einen viel breiteren Kontext als Technik und Ökonomie zu setzen. Dieses interdisziplinäre Gespräch wird auch die Noether Tagung möglich machen und insbesondere auch Wissenschaftsgeschichte sowie marginalisierte Perspektiven einbeziehen. Dialogisches Arbeiten zwischen Mathematik und anderen Disziplinen soll in der Konferenz exemplarisch abgebildet und gelebt werden. Für die Öffentlichkeit wird ein Theaterstück geschrieben und aufgeführt, das Mathematik ernst nehmen wird. Die Hoffnung der Organisator_innen ist, dass Personen, die skeptisch zu einer Sitzung der Konferenz gehen, begeistert wieder gehen. Rupert Klein ist in seinen Worten ein "sehr angewandter Mathematiker", Er hat Maschinenbau studiert und in Potsdam Klimafolgeforschung b

Frequenzkämme
Gudrun traf sich zum Gespräch mit Janina Gärtner. Sie hat an der KIT-Fakultät Mathematik gerade ihre Promotion mit dem Titel "Continuation and Bifurcation of Frequency Combs Modeled by the Lugiato-Lefever Equation" abgeschlossen. Die Arbeit war Teil der Forschung im SFB 1173: Wellenphänomene und ist interdisziplinär zwischen Mathematik und Elektrotechnik entstanden. Im Zentrum stehen Frequenzkämme, die Janina theoretisch und praktisch betrachtete. Einerseits geht es um analytische Untersuchungen zur Existenz und Regularität von bestimmten Lösungen der zugehörigen Gleichung. Andererseits werden numerisch bestimmte Fälle gelöst, für die sich die Arbeitsgruppe in der E-Technik besonders interessiert. Frequenzkämme sind optische Signale, die aus vielen Frequenzen bestehen und mehrere Oktaven überspannen können. Sie entstehen beispielsweise indem monochromatisches Laserlicht in einen Ringresonator eingekoppelt wird und die resonanten Moden des Ringresonators angeregt werden. Durch Mischung und aufgrund des nichtlinearen Kerr-Effekts des Resonatormaterials werden Frequenzkämme mit unterschiedlichen Eigenschaften erzeugt. Die mathematische Beschreibung des elektrischen Feldes innerhalb des Ringresonators erfolgt durch die Lugiato-Lefever Gleichung. Von besonderem Interesse sind dabei sog. Solitonen-Kerrkämme („Soliton Kerr Combs“ oder auch „Dissipative Kerr-Soliton Combs“), die aus im Resonator umlaufenden zeitlich und räumlich stark lokalisierten Solitonen-Impulsen entstehen. Solitonen-Kerrkämme zeichnen sich durch eine hohe Zahl an Kammlinien und damit eine große optische Bandbreite, durch geringes Phasenrauschen und durch eine hohe Robustheit aus. Ausgangspunkt von Janinas Untersuchungen ist der Existenzbeweis von Soliton-artigen Frequenzkämmen für den Fall, dass die Dispersion positiv ist. Anschließend können die Parameterbereiche angegeben werden, für die das praktisch auftritt. Mathematisch ist der erste Trick, dass man sich auf zeitlich konstante (stationäre) Lösungen beschränkt. Da örtlich nur eine Variable betrachtet wird, wird aus der partiellen eine gewöhnliche Differentialgleichung. Für diese Gleichung betrachtet Janina zunächst einen sehr einfachen Fall (sogenannte homokline Triviallösungen): Lösungen, die gegen eine Konstante streben. Die Gleichung wird dafür zunächst ohne Dämpfungs- und ohne Anregungsterme betrachtet. Es zeigt sich, dass die einzigen homoklinen Lösungen rein imaginär sind. Anschließend wird zuerst die Anregung hinzugenommen und mit Aussagen zu Eindeutigkeit und Verzweigungen können die Lösungen hier fortgesetzt werden. Selbst nach Hinzunahme der Dämpfung funktionieren noch Fortsetzungsargumente in einer gewissen Umgebung. Das passt aber gut zu der Idee, dass man die Verzweigungsstellen finden möchte. Mit Hilfe der Software pde2path können analytisch alle Verzweigungspunkte bestimmt werden. Anschließend werden anhand von konkreten Beispielen alle primären Verzweigungen vom Ast der Triviallösungen bestimmt. Dies führt zu einer Karte von Lösungen und Stabilitätseigenschaften in der Phasen-Ebene, die sehr gut mit vereinfachten Stabilitätskriterien für nichtperiodische Lösungen übereinstimmt. Daraus werden Heuristiken zum Auffinden der im Zeitbereich am stärksten lokalisierten Frequenzkämme abgeleitet. Janina hat ein Lehramtsstudium Mathematik/Physik am KIT absolviert. Als sie sich für ihre Zulassungsarbeit mit einem mathematischen Thema auseinandergesetzt hat, bekam sie Lust, die mathematische Seite ihrer Ausbildung zum Master Mathematik zu vervollständigen. Anschließend hat sie eine Promotionsstelle in der KIT-Fakultät für Mathematik angenommen, wo sie auch im Schülerlabor Mathematik tätig war. Mit der Gründung des SFB hat sie sich schließlich ganz auf das besprochene Forschungsthema konzentriert. Literatur und weiterführende Informationen Herr, T. et al. Temporal solitons in optical microresonators. Nat. Photon. 8, 145–152, 2014. N. Akhmediev & A. Ankiewicz: Dissipative Solitons: From Optics to Biology and Medicine, Springer, 2008. Marin-Palomo, Pablo, et al.: Microresonator-based solitons for massively parallel coherent optical communications, Nature 546.7657: 274, 2017. Trocha, Philipp, et al. :Ultrafast optical ranging using microresonator soliton frequency combs, Science 359.6378: 887-891, 2018. Podcasts A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Sobotta, H. Klein: Schülerlabore, Resonator-Podcast, Folge 59, Holger Klein/Helmholtz-Gemeinschaft, 2015.

Bestrahlungstherapie
Gudrun sprach im Janur 2019 mit Mark Bangert vom Deutschen Krebsforschungszentrum in Heidelberg. Er arbeitet dort seit vielen Jahren als Physiker in der medizinischen Physik. Sein Thema ist die Optimierung von Bestrahlungstherapien. Der Punkt, an dem sich die Arbeit von Mark und Gudrun seit Ende 2018 berühren, ist eine Masterarbeit von Alina Sage in der Bestrahlungsplanung. Ein Gespräch mit ihr werden wir ebenfalls bald veröffentlichen. Es gibt viele und unterschiedliche Betätigungsfelder für Physiker in der medizinischen Physik, unter anderem in der Strahlentherapie oder Radiologie (CT- und MRI-Bildgebung). Marks Hauptaufgabe ist die Simulation und Optimierung von Strahlungsdosen die Tumor-Kranke appliziert bekommen, um die Nebenwirkungen zu minimieren und die Wirkung zu maximieren. Die Modelle hierfür haben eine geometrische Basis und berücksichtigen den Strahlungstransport. Hier geht es um die Abschwächung und Auffächerung in Interaktion mit Haut und inneren Organen. Die Therapie an und für sich ist schon stark digitalisiert. Jede Krebstherapie startet mit einem CT-Bild. Basierend darauf wird ein digitales Patientenmodel entwickelt und segmentiert, um den Tumor abzugrenzen. Das Abgrenzen des Tumors leisten hauptsächlich die Mediziner, Methoden der automatischen Bilderkennung halten hier nur sehr langsam Einzug. Anschließend wird entschieden: Wo soll bestrahlt werden und wo soll möglichst viel Energie absorbiert werden - gleichzeitg aber auch: Wo muss man vorsichtig sein (z.B. Herz, Speiseröhre, Niere, Rektum usw.). Anschließend wird dann simuliert, wie Strahlung auf das digitale Modell des Patienten wirkt. Man kann die Dosis und die zeitliche, räumliche Verteilung der Strahlung variieren und optimieren. Das führt auf eine patientenspezifische Optimierung der Dosis-Gabe, die nur für häufig auftretende Tumore gut standardisierbar und automatisierbar ist. Zeitlich hat sich bewährt, dass die Strahlung über 30 Tage in 6 Wochen verteilt verabreicht wird, da sich gesundes Gewebe so besser von der Strahlungsbelastung erholen kann. Aber viele Probleme bleiben offen: Unter anderem können Patienten nicht ganz still halten, sondern müssen beispielsweise atmen. Deshalb bewegt sich der Tumor während der Bestrahlung. Der momentane Ausweg ist, dass man ein größeres Volumen rings um den Tumor markiert. Eine bessere Variante wäre, wenn die Strahlung nur eingeschaltet ist, sobald der Tumor im optimalen Fenster ist oder wenn der Strahl der Tumorbewegung folgt. Dadurch würden die Nebenwirkungen stark verringert. An solchen Fragen forscht Marks Gruppe bevor nach ausführlichen Qualitätssicherungsmaßnahmen derartige Neuerungen zur Standardbehandlung werden. Bestrahlungshard- und Software werden zusammen entwickelt und mit vorhandener Bildgebung integriert. Auch diese Tools müssen verbessert werden, um immer genauer zu werden. Der kranke Mensch ändert sich über den langen Behandlungszeitraum von bis zu 6 Wochen oft sehr stark und der Tumor erst recht. Es wäre also denkbar, den Bestrahlungsplan wöchentlich oder sogar täglich zu aktualisieren. Mark hat in Heidelberg Physik studiert und promoviert und leitet eine Nachwuchsgruppe. N. Wahl, P. Hennig, H.-P. Wieser, M. Bangert: Smooth animations of the probabilistic analog to worst case dose distribution, https://github.com/becker89/ESTRO2018 Literatur und weiterführende Informationen M. Bangert, P. Ziegenhain: Bestrahlungsplanung In: W. Schlegel e.a. (eds.): Medizinische Physik, Springer 2018. H. Gabrys e.a.: Design and selection of machine learning methods using radiomics and dosiomics for NTCP modeling of xerostomia, Frontiers in Oncology, Mar 5;8:35, 2018. doi: 10.3389/fonc.2018.00035. J. Unkelbach e.a.: Optimization of combined proton–photon treatments, Radiotherapy and Oncology, 128(1):133-138, 2018. doi: 10.1016/j.radonc.2017.12.031. Podcasts L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Resonator-Podcast 015: DKFZ-Forscher Christof von Kalle, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2013. Resonator-Podcast 014: Das DKFZ in Heidelberg, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2013. Resonator-Podcast 069: Krebsmythen, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2015.

Gravitationslose Strömung
Gudrun ist zu Besuch an der ETH in Zürich und spricht dort mit Laura Keller. Laura hat an der ETH Mathematik und theoretische Physik studiert und wurde dort auch promoviert. Anschließend forschte und unterrichtete sie jeweils einige Jahre in Münster, Lausanne und Luzern. Heute arbeitet sie als Senior Scientist an Strömungsmodellen, wie sie in Anwendungen in der Biologie, z.B. im menschlichen Körper vorkommen. Hier gibt es ganz unterschiedliche biologische und medizinische Fragen. Bekanntlich enthält der menschliche Körper viel Wasser. Die Bewegung von Blut oder Gehirnflüssigkeit ist aber nicht wie die von Wasser, sondern u.a. durch im Fluid gelöste Zellen mitbestimmt, die mit der Flüssigkeit in unterschiedlich breiten Gefäßen transportiert werden. Auch Tumorwachstum lässt sich mit solchen Gleichungen studieren. Wenn man eine konkrete Frage im Blick hat, muss man als nächstes entscheiden, was man genau erreichen will: braucht man ein Modell, mit dem man Beobachtungen im Prinzip nachvollziehen kann oder muss es ein Modell sein, das kalibriert ist und möglichst genau experimentelle Daten abbildet und Prognosen geben kann? Im Einzelnen heißt das zu entscheiden, welche Effekte sind wichtig und werden in das Modell einbezogen? Beispielsweise kann man für eine partikelbehaftete Strömung sowohl Partikel als auch die Strömung gleichzeitig vollständig modellieren oder man homogenisiert beide zu einer Flüssigkeit mit Eigenschaften, die so ungefähr die wichtigen Eigenschaften der Mischung hat. Klassisch nimmt man hier gern Oldroyd-B-Modelle für Partikelströmungen, da sie sowohl ein elastisches als auch ein viskoses Strömungsverhalten zeigen. Sind gelöste Zellen aber solche Partikel oder nicht? Ein denkbarer Zugang, biologische in Flüssigkeit gelagerte Zellen zu untersuchen wäre es auch, mit den unterschiedlichen Dichten als Hauptinformation zu arbeiten. Es ist nicht so klar, wohin man am sinnvollsten vom Standardmodell abweicht, um die Modelle realitätsnäher zu machen. Laura kommt aus der geometrischen Analysis und macht deshalb besonders gern die Arbeiten zur prinzipiellen mathematischen Absicherung von Modellen. D.h. sie beweist in ihren Arbeiten Existenz, Eindeutigkeit und Regularität von Lösungen der sehr nichtlinearen Gleichungssysteme. Mathematisch ist es immer hilfreich, wenn man im Modell bestimmte Struktureigenschaften wie Symmetrie oder Energieminima ausnutzen kann. Ein wichtiges Thema sind für sie Strömungen ohne Gravitation. Im Experiment kann man z.B. einen horizontalen Zylinder betrachten und durch eine Drehbewegung um die Symmetrieachse die mittlere Gravitation zum verschwinden bringen. Die publikumswirksamen Anwendungen sind hier Probleme mit Muskeln und Bandscheiben im Weltall. Allerdings sind physiologische Befunde für bettlägerige Personen ähnlich wie die für Personen im Weltall, denn denen fehlt der für ihren Bewegungsapparat wichtige Wechsel zur Gravitationsrichtung über den Verlauf des Tages hinweg. Gudrun und Laura lassen den Blick über unterschiedliche Themenfelder und Aufgaben in der biologischen Mathematik für ganz verschiedene mathematische Felder schweifen und sind sich schließlich einig, dass es auf dem Gebiet für unterschiedlichste mathematische Techniken noch sehr viele spannende ungelöste Fragen gibt. Außerdem finden sie es wichtig, eine Arbeitskultur zu schaffen, in der jede/r mit Fragen willkommen ist- sowohl für die Studierenden als auch im Kollegium. Literatur und weiterführende Informationen L.G.A. Keller: Homogenization and concentrated capacity for the heat equation with two kinds of microstructures: Uniform cases. Annali di Matematica Pura ed Applicata 196(3), 791-818, 2017. https://people.math.ethz.ch/~triviere/pdf/pub/keller-mondino-riviere-22-05-13.pdfL. Keller e.a.:Embedded surfaces of arbitrary genus minimizing the Willmore energy under isoperimetric constraint] Arch. Ration. Mech. Anal. 212, 645-682, 2014. L.Tartar: The General Theory of Homogenization: A Personalized Introduction. Springer, Heidelberg, 2009. Podcasts X. Liao, G. Thäter: Nonhomogenous Fluids, Gespräch im Modellansatz Podcast, Folge 189, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. E. Rognes, G. Thäter: Cerebral Fluid Flow, Gespräch im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Khrabustovskyi, G. Thäter: Homogenization, Gespräch im Modellansatz Podcast, Folge 116, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Methan
Gudrun traf sich im Februar 2019 mit Jennifer Schröter und Christian Scharun vom Institut für Meteorologie und Klimaforschung - Atmosphärische Spurengase und Fernerkundung zum Gespräch. Christian, Sebastian und Gudrun waren auf dem ersten Treffen des MATHSEE-Methodenbereichs Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation ins Gespräch gekommen und hatten ein baldiges Podcastgespräch verabredet. Christian holte noch seine Kollegin Jennifer ins Boot und im Februar 2019 saßen die drei (ohne Sebastian) in Gudruns Büro, um sich über die Weiterentwicklung von Klimamodellen zu unterhalten. Das Wetter und das Klima werden durch Vorgänge in der Erdatmosphäre in der Kopplung mit Wärme- und Wassertransport in den Ozeanen bestimmt. Auch der Mensch hat darauf einen Einfluss. Zum ersten Mal wurde das wahrscheinlich durch die Entstehung des Ozon-Loches ins breite Bewußtsein geholt. Im Projekt, für das Christian arbeitet, geht es u.a. darum, mit einem Computermodell nachzubilden, inwieweit austretendes Methan (ein Spurengas, das z.B. an Erdgas-Bohrlöchern auftritt) einen Einfluss auf die Entwicklung des Klimas nehmen kann. Grundlage hierfür sind sehr genaue Messungen und die Weiterentwicklung des Computermodells. Im Modell werden Strömungs-, Strahlungs- und chemische Prozesse berücksichtigt. Es wird in enger Zusammenarbeit mit dem Deutschen Wetterdienst (DWD), dem Max-Planck-Institut für Meteorologie Hamburg (MPI-M) und dem Deutschen Klimarechenzentrum (DKRZ) entwickelt. Das Modell wird zur täglichen Wettervorhersage wie auch Klimaprognosen verwendet. Die Gruppe Globale Modellierung MOD des IMK-ASF fügt ein Modul zur Simulation der atmosphärischen Chemie vom Boden bis in die mittlere Atmosphäre hinzu. Das Thema ist in sich fächerübergreifend, weil physikalische und chemische Prozesse verstanden werden müssen und auf den modernsten Großcomputern simuliert werden. Christian hat sein Lehramtsstudium mit dem ersten Staatsexamen für die Fächer Geographie und Mathematik abgeschlossen. Jennifer ist promovierte Physikerin und seit einigen Jahren Hauptenwicklerin für chemische Prozesse in ICON-ART. Als ein wichtiges Produkt der Arbeit der Gruppe sieht sie auch an, Daten, die bei der Berechnung entstehen, der Öffentlichkeit in einer nutzbaren Art zur Verfügung zu stellen. In den Punkten der Modellentwicklung, Performanceverbesserung und Bereitstellung von Forschungsdaten arbeitet sie mit dem Rechenzentrum des KITs, dem Steinbuch Center for Computing eng zusammen. Literatur und weiterführende Informationen J. Schröter et al.: ICON-ART 2.1: a flexible tracer framework and its application for composition studies in numerical weather forecasting and climate simulations, Geoscientific model development 11, 4043–4068, 2018. Helmholtz-Projekt Digital Earth Podcasts S. Hemri, G. Thäter: Ensemblevorhersagen, Gespräch im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Wendisch, M. Voelter: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. B. Weinzierl, T. Pritlove: Die Atmosphäre, Raumzeit Podcast, Metaebene Personal Media, 2011.

Nutzerkomfort
Gudrun unterhält sich in dieser Episode mit Marcel Schweiker. Marcel arbeitet in der KIT-Fakultät für Architektur im Fachgebiet Bauphysik & Technischer Ausbau. Die Gruppe schlägt in ihren Themen Brücken zum Bauingenieurwesen, dem Maschinenbau und der Psychologie. Sie interessieren sich für Lösungen im Neubau und Bestand, die langfristig hohen Nutzungskomfort mit niedriger Umwelt- und Ressourcenbelastung verbinden. Marcel hat Architektur in Kassel studiert und sich dabei mehr und mehr für die Rolle des Menschen im umbauten Raum interessiert. Deshalb hat er das Architekturstudium durch ein Ergänzungsstudium Technik-, Wirkungs- und Innovationsmanagement abgerundet. Parallel hat er noch ein Zusatzstudium Energie und Umwelt absolviert und ist zertifizierter Gebäudeenergieberater. Im Anschluss hat er sich für eine Promotion in Japan entschieden. An der Tokyo City University (Laboratory for Built Environmental Research) wurde er 2010 in Umweltinformationswissenschaften promoviert. Seitdem ist er am KIT tätig und hat sich inzwischen auch hier habilitiert. Ein schönes Anschauungsobjekt für die Themen des Gespräches ist das 2015 bezogene Kollegiengebäude Mathematik. Der erste Sommer im Haus begann nämlich schon mit dem Einzug im April 2015. Damals hatte man sich erhofft, mit den nötigen Beschattungsmaßnahmen für das Atrium noch etwas Zeit zu haben und das Gebäude bezogen, obwohl die Technik noch nicht funktionierte. In mehreren Schritten sind inzwischen die geplanten Maßnahmen für die Lüftung und Beschattung des Gebäudes im Wesentlichen in Betrieb gegangen und zeigen sich als durchaus geeignet, einen Komfort auch im Sommer zu ermöglichen. Trotzdem hat an dem sehr sonnigen Februartag des Gespräches, die niedrig stehende Sonne das Büro sehr aufgeheizt. Im Sommer sorgt die Regelung der Außenbeschattung rechtzeitig für Verdunklung - im Winter hätte Gudrun selbst vor der Mittagspause für Beschattung sorgen müssen, um das zu vermeiden. Schon sind Marcel und Gudrun mitten im Gespräch über das für und wider von Kontrolle durch zentrale Modelle oder durch die Personen im Raum. Ein Forschungsergebnis ist dass, die empfundene Kontrolle sich auf das thermische Empfinden der Personen auswirkt. Ob man ein Fenster prinzipiell öffnen kann oder nicht hat Einfluss auf thermische Zufriedenheit. Solche Experimente werden z.B. im Raumklimateststand LOBSTER der Arbeitsgruppe durchgeführt. Dort werden experimentelle Studien durchgeführt, während derer die Studienteilnehmer*innen unter unterschiedlichen Temperatur- und Lichtbedingungen arbeiten. Es werden dabei auch physiologische Reaktionen des Körpers gemessen. Der Teststand hat eine etwa 10mx10m große Grundfläche und enthält zwei Büroräume. Es ist eine Temperaturregelung über alle Wände (inkl. Decke und Boden) möglich. So ist es auch möglich, Bedingungen außerhalb der Norm zu untersuchen. Man weiß, dass sich der menschliche Körper an warme Temperaturen anpassen kann. Überhaupt ist die Wahrnehmung der Temperatur relativ und nicht absolut. Meist unbemerkt wird die Körperkerntemperatur durch Veränderung des Blutflusses vom Körperkern zur Peripherie des Körpers konstant gehalten. Zusammen mit Physiologen und Psychologen hat Marcel eine Metastudie abgeschlossen, welche Einflussgrößen zu individuellen Unterschieden in der Temperaturwahrnehmung führen. Ein Aspekt war hierbei auch, inwieweit sich das Wärmeempfinden von Frauen und Männern unterscheidet. Frauen tendieren zwar dazu sich etwas kühler zu fühlen, aber in einem Bereich von etwa 75% zeigen Frauen und Männern keinen großen Unterschied. Die Untersuchungen der Arbeitsgruppe können helfen, auch ohne aktive Kühlung Gebäude thermisch komfortabel zu gestalten. Auch für die Zukunft, wenn die Temperaturen in Deutschland weiter steigen werden. Prinzipiell sind Großraumbüros zwar schwierig für alle Nutzer gleichzeitig komfortabel thermisch zu beherrschen, gleichzeitig wird untersucht, inwieweit neueste Technik es ermöglicht eine lokale Steuerung der Temperaturen über die Stühle oder Luftauslässe am Schreibtisch zu realisieren, um den individuellen Bedürfnissen von Personen gerecht zu werden. In den Modellen, die Marcel und seine Kolleginnen benutzen, werden Gleichungen für Blutfluss vom Körperkern zur Peripherie benutzt. Außerdem wird sowohl die Strahlungswärme als auch die Konvektion vom Körper betrachtet. Sie werden in Computerprogrammen gelöst, die typischerweise auch Rückwirkungsschleifen enthalten. Zusätzlich braucht es statistische Modelle, die helfen, die experimentellen Daten zu ordnen und zu interpretieren. In naher Zukunft soll auch die Kopplung von thermischen, akustischen und visuellen Anteilen an der Gesamtzufriedenheit gleichzeitig betrachtet werden können. Literatur und weiterführende Informationen M. Schweiker e.a.: Drivers of diversity in human thermal perception – A review for holistic comfort models Temperature, 1–35, 2018. doi:10.1080/23328940.2018.1534490 M. Schweiker e.a.: comf: Functions for Thermal Comfort Research Prog

Portrait of Science
Gudrun met Magdalena Gonciarz in Dresden. They sat down in a very quiet Coffeeshop in Dreikönigskirche and talked about their experiences as scientists giving science an image. Magda started Portrait of science in 2016 with two objectives: to show that science is a process with many contributors at all carreer levels and to have a get-away from a demanding PhD-project, to express her creativity and have tangible results. The person who pointed Gudrun in Magda's direction is Lennart Hilbert, a former co-worker of Magda in Dresden who is now working at KIT on Computational Architectures in the Cell Nucleus (he will be a podcast guest very soon). On the Portrait of Science page one can find photographs of people from Dresden's Life Science campus. Apart from the photographs, one can also find their stories. How and why did they become scientists? What do they do, what are they passionate about? Magda invites us: "Forget the tubes and Erlenmeyer flasks. Science is only as good as the people who do it. So sit back, scroll down and get to know them looking through the lens of Magdalena Gonciarz. Have you ever wondered what kind of people scientists are? Would you like to know what are they working on? What drives and motivates them - spending days in the basement without the sun? Portrait of Science project aims at uncovering more about people who contribute to science at all levels - Research Group Leaders, Postdocs, PhD Students, Staff Scientists and Technicians. All of them are vital for progress of scientific research and all of them are passionate people with their own motivations." When she started the Portrait of Science project, Magda challenged herself to take more pictures. She wanted to show the real people behind science and their personality. This was a creative task, quite different from her work as scientist - done with comparably little time. On top of taking the pictures, interviewees were asked to fill out a questionaire to accompany the story told by the photographs. Surprisingly, the stories told by her co-workers turned out to be quite inspiring. The stories told have shown the passion and the diverse motivations. People mentioned their failures as well. There were stories about accidents and their crucial role in carreers, about coincidence of finding a fascinating book or the right mentor - even as far back as in early childhood sometimes. Sharing ups and downs and the experience that there is a light at the end of the tunnel was a story she needed and which was worth to be shared. Knowing how hard scientific work can be, and how multiple friends and colleagues struggled more than she herself, Magda still strongly feels that it is useful to show that this is not a private and unique experience, but probably a part of the life of every scientist. This struggle can be overcome with time, effort, and help. Magda comes from Poland. During her Master's studies, she had an opportunity to do a research placement at the University of Virginia. During that time she felt welcomed as part of a scientific community in which she wanted to stay. It was a natural decision to proceed with a PhD. She applied to the very prestigious Dresden International Graduate School for Biomedicine and Bioengineering and joined the biological research on proteins and their modifications in the lab of Jörg Mansfeld. After finishing her project, she decided to leave academia. Since 2018 she works for a learning and training agency CAST PHARMA and is involved in producing e-Learning solutions for pharmaceutical companies. Magda also talked a bit about her PhD research. As we all know, genes code for proteins. However, one protein can exist in multiple different forms with multiple varying functions. A protein can be post-translationallly modified, i.e., modified after it is created in order to e.g., be relocated, have different interaction partners or become activated or destroyed in a manner of minutes. Recently, modern methods such as mass spectrometry, made it possible to see the multitude of post-translationally modified forms of proteins and allowed further research with the use of biochemistry or imaging techniques to gain insight into functions of these modifications, e.g., at different stages of the cell life. Gudrun and Magda also talked about the challenge to make a broader audience understand what the particular research topic is all about. It is hard to refer to things we cannot see. It is often easier for people with more translatable research to connect it to various diseases, e.g., cancer but still creates a challenge for those working with more basic issues such as developmental biology. What Magda took from her time in academia is much more than her results and her part in the basic research story. She feels that curiosity and quick learning skills are her superpowers. She is able to become familiar with any topic in a short amount of time. She can manage multiple parts of a project. Also she learned resili

Fluglotsen
Gudrun spricht in dieser Episode mit Colin Bretl und Niko Wilhelm. Beide sind zur Zeit des Gespräches Bachelorstudenten am Karlsruher Institut für Technologie (KIT). Colin studiert Mathematik und Niko Informatik. Bevor sie sich für ein Studium am KIT entschieden haben, hatten sie an der Dualen Hochschule Karlsruhe (DHBW) ein Bachelorstudium Wirtschaftsinformatik abgeschlossen. Die beiden haben im Wintersemester 2018/19 an Gudruns Vorlesung Modellbildung teilgenommen. Wie schon in unserer ersten Podcastepisode besprochen wurde, gehört zum Programm der Vorlesung, dass die Studierenden sich in Gruppen finden, selbst ein Projekt suchen und bearbeiten. Colin und Niko haben die Arbeit von Fluglotsen betrachtet. Sie haben modelliert, wie die anfliegenden Flugzeuge am besten auf die Landebahn zugeteilt werden. Am Beispiel des Flughafens Heathrow (mit Daten vom 1. August 2018) wurde ihr erstelltes Modell getestet. Als mathematische Methode haben sie hierfür Warteschlangentheorie augewählt. Die beiden haben das Modell selbst erarbeitet, es programmiert und eine Ausarbeitung angefertigt. Die Podcastepisode zeigt, wie und warum sie ihr Problem gewählt haben und welche Schritte zum Erfolg (oder auch zum Misserfolg) geführt haben. Die Überwachung einer Flugbewegung durch Fluglotsen findet z.B beim Landeanflug auf einen Zielflughafen statt. Wollen mehrere Luftfahrzeuge in einem kurzen Zeitraum nacheinander landen, gehört es zu den Aufgaben des Lotsen, diese Reihenfolge festzulegen. Infolgedessen werden den einzelnen Luftfahrzeugführern Streckenanweisungen mitgeteilt (bspw. ob diese einmal oder mehrfach ein Warteschleife fliegen sollen). Im trivialen Fall, dass zwischen zwei ankommenden Luftfahrzeugen genug Zeit liegt, kann jedes Luftfahrzeug auf möglichst direktem Weg zur Landebahn geführt werden. Der Durchsatz, also wie viele Luftfahrzeuge in einem Zeitintervall landen können, ist in diesem Fall optimal. Bei hohem Verkehrsaufkommen gestaltet sich die Überwachung durch Fluglotsen schwieriger. Es müssen nicht nur Sicherheitsabstände zwischen den Luftfahrzeugen eingehalten werden, sondern auch physikalische Besonderheiten des Luftverkehrs und technische Restriktionen berücksichtigt werden. Diese wirken sich negativ auf den Durchsatz aus. Außerdem erschweren die Rahmenbedingungen eine mathematische Untersuchung. Im Projekt von Colin und Niko wird die Problemstellung nur für Flugzeuge, die durch Radar identifiziert werden können, betrachtet. Darunter fallen u.a. große Passagiermaschinen, wie sie an internationalen Verkehrsflughäfen vorzufinden ist. Solche Flugzeuge machen den größten Anteil an kontrollierten Flugbewegungen aus. Mit Hilfe des mathematischen Modells sollen die Grundlagen dafür geschaffen werden, verschiedene Lotsen-Strategien auf ihren Durchsatz hin zu untersuchen. Es konzentriert sich dabei zunächst auf das Standardanflugverfahren bei hohem Verkehrsaufkommen und geht davon aus, dass Flugzeuge in der Reihenfolge ihrer Ankunft landen dürfen. Wenn eine Landung nicht unmittelbar eingeleitet werden kann, müssen die Flugzeuge Standard-Warteschleifen fliegen. Die Warteschleife ermöglicht es, die Mindestgeschwindigkeit zum Fliegen aufrecht zu erhalten. Prinzipiell kreist ein Flugzeug in einer Warteschleife über einem festen Punkt. Mehrere Flugzeuge können in unterschiedlicher Höhe dieselbe Warteschleife nutzen. Für den Datensatz von Heathrow am 1. August 2018 stellte sich heraus: Zu Spitzenzeiten kommen 50 Flugzeuge pro Stunde an. In diesem Fall ist das System nicht stabil. Das bedeutet, die Lastspitze könnte im Modell nicht dauerhaft durchgehalten werden. Stabilität ist bei 38 Flugzeugen pro Stunde gerade noch so gegeben. Nach dem mathematischen Modell könnte der Flughafen Heathrow also 38 Flugzeuge pro Stunde abarbeiten, was fast dem Mittelwert über alle Anflüge am 1.8. 2018 zwischen 06:00 und 23:00 etwa entspricht (das waren im Datensatz 39,1). Literatur und weiterführende Informationen C. Bretl & N. Wilhelm: Modellierung ankommender Flugzeuge - Beschreibung mithilfe von Warteschlangen am Beispiel des Flughafens London Heathrow, 2019. J. Reichmuth and P. Berster: Past and Future Developments of the Global Air Traffic. in: M. Kaltschmitt & U. Neuling (Eds.): Biokerosene - Status and Prospects, Springer, 2018. https://doi.org/10.1007/978-3-662-53065-8_2 K.-H. Waldmann and U. M. Stocker: Stochastische Modelle - Eine anwendungsorientierte Einführung. 2nd ed. Springer, 2013. D. Baum: Grundlagen der Warteschlangentheorie. Springer, 2013. F. Shortle et al.: Fundamentals of Queueing Theory. Wiley, 2018 ICAO: Doc. 4444 Air Traffic Management, 2016. Podcasts G. Thäter, S. Ritterbusch: Mathematische Modellbildung, Gespräch im Modellansatz Podcast, Folge 1, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S., J., C., A., M. Völter: Mit Lu

MINToring
Gudrun ist zu Gast bei der Gleichstellungsbeauftragten der FU in Berlin, um über ihr MINToring-Projekt zu reden. Das ist seit einiger Zeit eine Einladung an Schülerinnen zum Einstieg in die Physik und Informatik. Das Projekt entwickelte dafür eine Reihe von Angeboten, nämlich: alle 2 Wochen werden verschiedene Workshops an der FU veranstaltet (ab der 7. Klasse); es werden Betriebspraktika in den Fachbereichen Physik und Informatik vermittelt und begleitet (ab der 9.Klasse); Tage an der Uni im Herbst, in denen man in Vorlesungen der Informatik, Physik und Bioinformatik hineinschnuppern kann Workshops an den Schulen Gudrun spricht außer mit der Frauenbeauftragten Mechthild Koreuber (Mathematikerin, promoviert in Wissenschaftsgeschichte) auch mit den beiden Koordinatorinnen des MINToring-Projekts Anette Dietrich (Koordinatorin Mathematik und Informatik) und Audrey Houillon (Koordination Physik). Audrey hat in München Physik studiert und in Paris am CNRS im Gebiet Neurowissenschaften promoviert. Das ist ein interdisziplinäres Forschungsthema zwischen Physik, Informatik, Psychologie und Biologie. An der TU Berlin hat sie eine Zeit als Postdoc im Gebiet computational Neuroscience gearbeitet und ist dann in die Jugend- und politische Bildung gewechselt bevor sie die Koordinationsstelle an der FU übernahm. Anette ist am Institut für Informatik, hat in Erziehungswissenschaften über Geschlechter- und in der Rassismusforschung promoviert. Ausgangspunkt für die Projektidee war für Mechthild eine Erfahrung am Rande der Abiturfeier ihrer Tochter. Aus einem Physik Leistungskurs mit 50% Mädchen wollte damals keines Physik studieren oder hatte dies als Möglichkeit auch nur in Erwägung gezogen. Wieso? Sie dachte darüber nach, wie kann man junge Frauen und Mädchen motivieren, sich für diese Fächer zu entscheiden und konkret etwas gegen den niedrigen Frauenanteil in den MINT-Fächern tun? Sie stellte sich dabei zunächst ein Projekt vor, dass interessierte Mädchen in der Abiturstufe anspricht. Interesse würde sich z.B. über die Teilnahme an Leistungskursen herausfinden lassen. Das ist aber leider z.B. in der Informatik nicht durchführbar. weil es dort fast keine Leistungskurse gibt. Außerdem wurde schnell klar, dass man schon mit jüngeren Schülerinnen beginnen sollte, um den Übergang zu den Aktionen am Girls'day zu sichern, wo die FU für Schülerinnen der Klassenstufen 5-10 jährlich etwa 1000 Plätze in ungefähr 80 kleinen Gruppen anbietet. Ein zentrales und einzigartiges Werkzeug im MINToring Projekt ist die Möglichkeit zum Betriebspraktikum an der FU. So ein Praktikum ist in der 9. oder 10. Klasse für 2-3 Wochen für alle Berliner Schüler vorgesehen. Manche intessieren sich auch für ein freiwilliges Praktikum in den Sommerferien. Es ist unüblich, so ein Praktikum an einer Universität durchzuführen. Vor allem aus dem Grund, dass sich wenige Menschen vorstellen können, dass das geht. Das Projekt MINTOring bietet aber hierfür einen Rahmen und kann Schülerinnen deshalb direkt dafür einladen. Den Rahmen bilden Einführungskurse und andere Workshops (wie z.B. für Programmiersprachen) für eine kleine Gruppe Schülerinnen und ein Abschlussvortrag mit ausführlicher Auswertung und Einordnung der Erfahrungen. Zentral ist die Forschungsarbeit in den Arbeitsgruppen (2-5 Tage) im individuellen Zuschnitt auf das Interesse jeder Schülerin. In der Zeit erleben sich die Mädchen selbst als kompetent und ihre Arbeit würd wertgeschätzt. Das Feedback der Schülerinnen war bisher stets sehr positiv. Sie schätzen am Praktikum, dass sie neues gelernt haben, Erfahrung mit Forschung sammeln durften und in der Gruppe erlebt haben, dass sie mit ihren Interessen willkommen sind und geschätzt werden. Dazu kommen ganz besondere Erlebnisse, wie dass sich eine Professorin für sie ganz persönlich interessiert und im Kontakt bleiben möchte, was in Summe zu einer sehr emotionalen Erfahrung führt, die in Erinnerungen bleibt. Für so eine erfolgreiche Arbeit musste natürlich Skepsis überwunden werden. Es ist inzwischen leichter, Ideen für altersgerechte Forschungsprojekte zu finden, nachdem es viele gelungen Beispiele gibt. Trotzdem ist nach wie vor ein großer Anteil an Arbeitszeit für die Koordination des Projekts dadurch gebunden, dass Arbeitsgruppen für Schülerinnen gefunden werden. Es ist schön, wenn inzwischen auch schon Arbeitsgruppen auf das Projekt zukommen, die durch Kritik am schlechten Frauenanteil dazu gedrängt werden, selbst auch aktiv zu werden. Konkrete Projekte aus der jüngsten Vergangenheit sind: die Umsetzung eines Needleman-Wunsch-Algorithmus am Computer. Das ist ein Optimierungsalgorithmus aus der Bioinformatik, der zum Vergleich zweier Nukleotid- bzw. Aminosäuresequenzen eingesetzt wird. ein Bio-Informatik-Projekt, wo in enger Zusammenarbeit mit dem Juniorprofessor ein Datensatz zu Krebstumoren mit der Programmiersprache R analysiert wurde. Aber auch einen Betrag liefern zu können, um ein kaputtes Mikroskop zu reparieren, ändert das Verständnis davon,

Studienbotschafterinnen
Als Technische Universität ist das Karlsruher Institut für Technologie (KIT) vor allem ein Lernort für junge Männer. Der Anteil von Frauen in den technischen Fächern ist in Deutschland seit vielen Jahren weit von 50% entfernt und es gibt ganz unterschiedliche Ideen, wie man mehr Studentinnen "ins Boot holen" kann. Am KIT erproben wir seit dem Jahr 2018 die Entsendung von Studienbotschafterinnen an Schulen. Sie gestalten dort zwei Unterrichtsstunden mit einem spannenden Thema aus der Mathematik oder Physik und stehen anschließend für Fragen zur Verfügung über alles, was mit dem Studium im Allgemeinen und dem Studium am KIT im Besonderen zu tun hat. Bisher wurden (im Rahmen dieses Programms) über 50 Schulen und über 1000 Schüler besucht (Stand Ende 2018). Für die Mathematik sind Alina Sage und Lea Schenk unterwegs. Alina studiert Technomathematik am KIT und Lea hat Mathe und Chemie für das Lehramt am Gymnasium studiert. Sie macht jetzt noch einen Masterabschluss in Mathematik. In der Episode schildern beide ihre persönlichen Erfahrungen mit ihrer Rolle als Studienbotschafterin und mit dem Mathematik-Studium am KIT. Literatur und weiterführende Informationen Artikel im Weinheimer Boten Schülerlabor Mathematik Schülerlabor Physik Schülerlabor Geophysik Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Risikoentscheidungen
Gudrun hat sich im Spätsommer 2018 zum dritten Mal mit Oliver Beige (@oliverbeige) in Berlin verabredet. Oliver beschäftigt sich unter anderem mit mathematischen Modellen für ökonomische Prozesse und hat neben der wissenschaftlichen Expertise auch sehr unterschiedliche praktische Erfahrungen. Der Plan für das Gespräch war, sich über Baysean Updates zu unterhalten. Kurz gesagt ist das ist eine Möglichkeit, bessere Entscheidungen mit wenigen und unsicheren Informationen zu treffen. Der Name beschreibt schon die zentrale Idee: Der Satz von Bayes wird verwendet, um die Wahrscheinlichkeit für eine Hypothese neu zu berechnen, wenn mehr Informationen verfügbar werden. Entscheidungen unter unsicheren Informationen muss man selbst im Alltag und für die eigene Zukunft ständig treffen, weshalb sich die Hörerschaft sicher gut vorstellen kann, dass dies eigentlich eine fast unlösbare Aufgabe ist. Für Unternehmen geht es in der mittleren und Langzeitplanung darum, das Potential von Mitarbeitern und von Ideen richtig einzuschätzen. Lässt sich ein Produkt mit den eigenen Mitteln zur Marktreife entwickeln und wie wird der Markt in 5-30 Jahren dafür aussehen? Vor allem wenn es um einen Markt geht, den es noch gar nicht gibt. Ein Beispiel hierfür ist automatisiertes Fahren. Die Idee gibt es schon seit etwa 30 Jahren und auch Schritte in der Entwicklung, aber bis heute gibt es noch nichts auf dem Markt. Schon Anfang der 1990er Jahre gab es große Erwartungen, was neuronale Netze und Machine Learning hier bald leisten werden, aber diese Begeisterung war um die Jahrtausendwende schon wieder erloschen. Heute erleben die Ideen eine Renaissance, denn es gibt nun viele Daten, genug Rechenpower und ein Zusammenwirken von Statistik und Informatik ist so endlich möglich. Damals wie heute stellt sich aber die Frage: Wie viel Geld und andere Ressourcen sollte man einsetzen und zu welchem Zeitpunkt endgültig entscheiden, sich ganz hinter das neue Produkt zu stellen oder die Pläne ad acda zu legen. Der Versuch, hierfür Modelle zu finden, die alle Zweige und Eventualitäten nachbilden ist nicht sinnvoll umsetzbar, weil zu viele Informationen geschätzt werden müssen und je weiter in die Zukunft geplant werden muss, desto unwägbarer sind Zahlenwerte hierfür. Deshalb ist es bessser, hier mit einfachen Modellen zu arbeiten, die sich gut anwenden lassen, aber auch nur Teile von Entscheidungsprozessen vereinfachen. Ein Beispiel hierfür ist das Baysean updating. Experten wissen einiges, sind aber nicht perfekt - vor allem wegen unvollständiger Information. Mit Hilfe von Wahrscheinlichkeitsrechnung läßt sich berechnen, was der Beitrag der Experten sein kann und ob sie nützlich sind. Hierzu werden gut testbare Annahmen gut ausformuliert und am Markt getestet in einzelnen Entscheidungsstufen. Die Kosten für den Test werden möglichst niedrig gehalten. Anschließend weiß man z.B., welches für Kunden das wichtigstes Feature ist und kann dies zuerst entwickeln (Minimal Viable Product) - die anderen erst später. Oliver ist Karlsruher Wirtschaftingenieur und hat diese über Wettbewerb in Netzwerken in den USA promoviert, an der UC Berkeley nahe am Silicon Valley, zu Zeiten des dot-com Booms. In Deutschland wird solche Forschung meist im Unternehmen gemacht. In den USA gibt es neben dieser Forschung in Unternehmen auch noch sogenanntes Venture Capital. Die Investoren erwarten nicht, dass alle unterstützten Ideen am Ende Profit bringen - man weiß, dass die meisten Ideen zu nichts führen. Es reichen im Verlauf einiger Jahre nur wenige durchschlagende Ideen mit einem riesigen Profit, um das System interessant zu machen. Kurz gesagt gibt es damit einen Marktplatz für Ideen. Heute gibt es das auch als sogenannte Gründerszene in Deutschland (besonders in Berlin) aber noch längst nicht in dem Umfang wie in den USA. Das Gespräch dreht sich in weiten Kreisen und behandelt neben Mathematik und ökonomischen Entscheidungen auch interessante Beispiele aus 30 Jahren. Außerdem verlieren sie sich in unterschiedlichsten Fragen rings um neue Techniken, die auch einbeziehen, wie sich die Rolle von Autos für die Gesellschaft ändert und ändern muss und wie der rechtliche Rahmen für den Austausch von Informationen zwischen Fahrzeugen geregelt werden müsste. Es ist eine schreckliche Vorstellung, wenn Autos für Hackerangriffe anfällig sind. Anscheinend ist es aber nach wie vor so, dass wir eher bereit sind, mit menschlichen Fehlern zu leben als mit Fehlern, die Algorithmen machen, obwohl autonom fahrende Fahrzeuge wohl viele Tote und verletzte Personen vermeiden könnten. Literatur und weiterführende Informationen Wikipedia: Expected value of sample information C. Howson & P. Urbach: Scientific Reasoning: The Bayesian Approach (3rd ed.). Open Court Publishing Company. ISBN 978-0-8126-9578-6, 2005. A.Gelman e.a.: Bayesian Data Analysis Third Edition. Chapman and Hall/CRC. ISBN 978-1-4398-4095-5, 2013. Yu, Angela: Introduction to Bayesian Decision Theory cogsci.ucsd.edu, 2013. Devin

Noether-Theorem
Gudrun spricht mit Markus Pössel in Heidelberg. Er ist Physiker und leitet das Haus der Astronomie auf dem Königstuhl dort. Gudrun und Markus kennen sich schon lange aus der Ferne. Sie haben sich auf twitter über Themen ausgetauscht, die mit Wissenschaftskommunikation verbunden sind. Anlass für ein tiefergehendes Gespräches war, dass Markus eine wissenschaftliche Arbeit veröffentlicht hat, in der er einen elementaren Zugang zum ersten Noether Theorem beschreibt mit Hilfe von zwei Beispielen. Kurz nach dem sehr erfolgreichen Experiment #noethember, wo im November 2018 ein Monat lang Emmy Noethers Leben und Forschung in unterschiedlichster Weise erinnert wurde, ist diese Podcastepisode ein etwas verspäteter Beitrag. Markus widmet sich in seiner wissenschaftlichen Arbeit elementaren Zugängen zu faszinierenden physikalischen Themen. Persönlich interessiert er sich dabei insbesondere für die Allgemeine Relativitätstheorie, und insbesondere für deren Anwendungen in der Astrophysik. Dafür ist das Haus der Astronomie als gemeinschaftliche Einrichtung der Max Planck Gesellschaft und der Klaus Tschira Stiftung (mit der Universität und der Stadt Heidelberg als weiteren Partnern) ein geeignetes Dach, denn es wurde dafür gegründet, astronomische Forschung für alle Bevölkerungsschichten erfahrbar zu machen. Der Einstieg in astronomische Themen funktioniert oft gut über Phänomene, die an der Intuition rütteln oder interessante Extreme von Theorien sind. Auch wenn Astronomie selten zum Schulstoff gehört, spricht es Schülerinnen und Schüler direkt an. Dass das Interesse an Astronomie gross ist, zeigt z.B. die ROSE-Studie. Deswegen bietet Astronomie einen so guten Einstieg in MINT-Fächer. Die Wissenschaftler in Heidelberg kommunizieren gern. Jeden zweiten Donnerstag im Monat findet die Vorlesungsreihe Faszination Astronomie über aktuelle Forschungsergbnisse statt. Es gibt außerdem sogenante MPI-Outreach Fellows, die sich besonders für Bildungs-und Öffentlichkeitsarbeit interessieren. Sie werden weitergebildet und in die tägliche Arbeit eingebunden. Neben den regelmäßigen Vorträgen gibt es auch ganz besondere Veranstaltungen wie zuletzt im November mit dem Klangforum Heidelberg, wo es zur Musik eine interaktive Planetariumsvorführung gab. Es werden ständig Fortbildungen für Physiklehrer und -lehrerinnen organisiert. Auch für Grundschullehrkräfte gibt es in Zusammenarbeit mit der Forscherstation der Klaus Tschira Stiftung Programme, um zu sie zu Ansprechpartnern für die natürliche Neugier der Kinder zu machen. Auch die Studierenden, die sich an der Universität Heidelberg als Physiklehrer ausbilden lassen führt ein mehrwöchiger Kompaktkurs ins Haus der Astronomie. Darüber hinaus arbeiten immer einmal wieder Praktikanten im Haus der Astronomie und Markus betreut wissenschaftliche Abschlussarbeiten. Im Moment ist es oft im Themengebiet der Kosmologie zusammen mit dem MPI für Astronomie nebenan, z.B.in der Auswertung der Illustris-Simulationen. In diesem Computerexperiment wird das Universum von der Urknallphase bis heute erforscht. Neben den Hochglanzthemen wie Sterne und Raumfahrt gibt es aber auch andere Themen, die kommuniziert werden sollten, weil sie in der Physik einen wichtigen Platz haben. Ein Beispiel hierfür sind die zwei Noether-Theoreme. Im ersten wird das extrem allgemeines Resultat formuliert, dass die Existenz von Symmetrie der Existenz einer Erhaltungsgröße entspricht. Es lässt sich noch relativ einfach formulieren und inhaltlich nachvollziehen, aber man braucht sehr tief liegende Mathematik, um das Ergebnis zu beweisen und wirklich zu verstehen, wo der Knackpunkt liegt, der diese Beziehung zwischen Symmetrie und Erhaltungsgrößen greifbar macht. Markus hat in seiner Arbeit zwei Beispiele angeführt, für die man die expliziten Lösungen der Bewegungsgleichungen kennt. Das hilft, in konkreten und elementaren Rechnungen den Zusammenhang von Symmetrie und Energieerhaltung zu sehen. Das erste Beispiel ist die Bewegung im (konstanten) Schwerefeld, das zweite der harmonischer Oszillator. Die Grundidee ist, dass eine Verschiebung des Anfangszeitpunktes bei den Berechnungen die Bahn des Körper nicht ändert. Wenn man zwei unterschiedliche Anfangszustände vergleicht, führt der Koeffizientenvergleich auf Gleichungen, die genau der Energieerhaltung entsprechen (konkret bleibt Summe aus potentieller und kinetischer Energie konstant). Beim harmonischen Oszillator braucht man zusätzlich noch trigonometrische Formeln. Markus wünscht sich noch mehr Zeit dafür, die Materialen konsistenter zu sammeln und aufzubereiten....und wer sich für Weltraum interessiert, sollte DLR_next auf Twitter folgen! Sneak preview: unseren @mpoessel könnt ihr in Kürze im Podcast @modellansatz hören. Mit Themen von @HdAstro und #wisskomm bis zu Emmy Noether! pic.twitter.com/zcSduq9Ke6— Haus der Astronomie (@HdAstro) 13. Dezember 2018 Literatur und weiterführende Informationen Praktikanten (intl. Sommerpraktikum 2017) haben ihr Projekt - Simulation von

Schülermarketing
Gudrun spricht mit Sebastian Schäfer und Isabel Häuser von der KIT-Fakultät für Informatik. Ihre Aufgabe dort ist die Öffentlichkeitsarbeit. Der persönliche Kontakt hatte sich durch die gemeinsame Arbeit in einem Gremium des KIT ergeben, wo Ideen entwickelt werden, wie mehr junge Frauen für ein Studium am KIT gewonnen werden können. Das Podastgespräch fasst das Thema etwas allgemeiner und beleuchtet das derzeitige Schülermarketing an der Informatik am KIT und wie es sich über die letzten Jahre entwickelt hat. Die KIT-Fakultät für Informatik hat seit den frühen 2000ern eine eigene Stelle für Öffentlichkeitsarbeit. Seit 2009 wurden in diesem Rahmen besondere Anstrengungen unternommen, um Schülerinnen und Schüler strategisch für ein Informatikstudium am KIT zu werben. Diese Aktivitäten werden unter dem Namen Schülermarketing zusammengefaßt. Da es in den Jahren 2005-2008 einen Einbruch der Anfängerzahlen gegeben hatte, wollte man gezielter als bisher die jungen Leute ansprechen und informieren, um die Studierendenzahlen dadurch zu steigern. Seitdem wurden die diesbezüglichen Aktivitäten deutlich ausgebaut und es gibt nicht nur eine verantwortliche Person, sondern ein Team. Zur Zeit sind das Sebastian und Isabel, die direkt mit Rückendeckung von Geschäftsführung und Fakultätsvorstand arbeiten. Sie bringen dafür ihr Kommunikations-Know-how mit, das sie in einem geisteswissenschaftlichen Studium erworben haben. Tatsächlich lohnt sich diese Arbeit, denn die Einschreibezahlen haben sich seit 2009 mehr als verdoppelt. Ein wichtiges Werkzeug für Information nach innen wie außen und für den ersten Eindruck sind die Informationsseiten der Website. Deshalb nimmt deren Pflege und Weiterentwicklung eine wichtige Rolle in der täglichen Arbeit ein. Außerdem die traditionellen Schüler-Outreach-Formate am KIT wie Teilnahme an Berufsinformationsmessen, viele Aktionen zum Girls' Day, Uni für Einsteiger und das Anbieten von Schnupperkursen. Hier geht es in der Abteilung vor allem um die Kommunikation und Koordination aber auch um die Entwicklung (und Durchführung) von Ideen für einzelne Aktionen (wie z.B. Gewinnspiele), die gezielt auf einzelnen Kanälen (Instagram, Facebook und Twitter) laufen und auf die Fakultät aufmerksam machen. Weitere Veranstaltungsformate, die große Resonanz haben, sind die regelmäßigen Sommercamps, aus denen jedes Jahr neue Studierende hervorgehen. Ein bewährtes Instrument sind Give-Aways, mit denen die beiden versuchen, etwas Witziges mit Informatik-Bezug zu verbinden. Hierfür gibt es zum Glück viele Ansatzpunkte. Bisher waren das z.B. Turnbeutel mit verschlüsseltem Text, Pixelbrillen und Cardboards. Aber selbst so konventionelle Geschenke wie Kuli-Serien und Stofftaschen finden auf diesem Weg begeisterte junge Besitzer. Inzwischen gibt es auch spezielle Ansätze, um mehr Frauen für das Studium zu gewinnen - auch weil die Fakultät das Schlusslicht im Frauenanteil am KIT darstellt. Gerechte Bild- und Textsprache sind eine Selbstverständlichkeit und weibliche Rollenmodelle werden aktiv gesucht und gefunden wie z.B. aktuell in einem Video über den Semesterstart. Ein Wunsch für die Zukunft wäre es, noch mehr im Video-Format erarbeiten zu können, um auf Youtube einen stärkeren eigenen Akzent setzen zu können. Literatur und weiterführende Informationen Informationsseiten zum Studium an der KIT-Fakultät für Informatik Youtube-Kanal KIT-Fakultät für Informatik auf Twitter Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Energy Markets
Gudrun Talks to Sema Coşkun who at the moment of the conversation in 2018 is a Post Doc researcher at the University Kaiserslautern in the group of financial mathematics. She constructs models for the behaviour of energy markets. In short the conversation covers the questions How are classical markets modelled? In which way are energy markets different and need new ideas? The seminal work of Black and Scholes (1973) established the modern financial theory. In a Black-Scholes setting, it is assumed that the stock price follows a Geometric Brownian Motion with a constant drift and constant volatility. The stochastic differential equation for the stock price process has an explicit solution. Therefore, it is possible to obtain the price of a European call option in a closed-form formula. Nevertheless, there exist drawbacks of the Black-Scholes assumptions. The most criticized aspect is the constant volatility assumption. It is considered an oversimplification. Several improved models have been introduced to overcome those drawbacks. One significant example of such new models is the Heston stochastic volatility model (Heston, 1993). In this model, volatility is indirectly modeled by a separate mean reverting stochastic process, namely. the Cox-Ingersoll-Ross (CIR) process. The CIR process captures the dynamics of the volatility process well. However, it is not easy to obtain option prices in the Heston model since the model has more complicated dynamics compared to the Black-Scholes model. In financial mathematics, one can use several methods to deal with these problems. In general, various stochastic processes are used to model the behavior of financial phenomena. One can then employ purely stochastic approaches by using the tools from stochastic calculus or probabilistic approaches by using the tools from probability theory. On the other hand, it is also possible to use Partial Differential Equations (the PDE approach). The correspondence between the stochastic problem and its related PDE representation is established by the help of Feynman-Kac theorem. Also in their original paper, Black and Scholes transferred the stochastic representation of the problem into its corresponding PDE, the heat equation. After solving the heat equation, they transformed the solution back into the relevant option price. As a third type of methods, one can employ numerical methods such as Monte Carlo methods. Monte Carlo methods are especially useful to compute the expected value of a random variable. Roughly speaking, instead of examining the probabilistic evolution of this random variable, we focus on the possible outcomes of it. One generates random numbers with the same distribution as the random variable and then we simulate possible outcomes by using those random numbers. Then we replace the expected value of the random variable by taking the arithmetic average of the possible outcomes obtained by the Monte Carlo simulation. The idea of Monte Carlo is simple. However, it takes its strength from two essential theorems, namely Kolmogorov’s strong law of large numbers which ensures convergence of the estimates and the central limit theorem, which refers to the error distribution of our estimates. Electricity markets exhibit certain properties which we do not observe in other markets. Those properties are mainly due to the unique characteristics of the production and consumption of electricity. Most importantly one cannot physically store electricity. This leads to several differences compared to other financial markets. For example, we observe spikes in electricity prices. Spikes refer to sudden upward or downward jumps which are followed by a fast reversion to the mean level. Therefore, electricity prices show extreme variability compared to other commodities or stocks. For example, in stock markets we observe a moderate volatility level ranging between 1% and 1.5%, commodities like crude oil or natural gas have relatively high volatilities ranging between 1.5% and 4% and finally the electricity energy has up to 50% volatility (Weron, 2000). Moreover, electricity prices show strong seasonality which is related to day to day and month to month variations in the electricity consumption. In other words, electricity consumption varies depending on the day of the week and month of the year. Another important property of the electricity prices is that they follow a mean reverting process. Thus, the Ornstein-Uhlenbeck (OU) process which has a Gaussian distribution is widely used to model electricity prices. In order to incorporate the spike behavior of the electricity prices, a jump or a Levy component is merged into the OU process. These models are known as generalized OU processes (Barndorff-Nielsen & Shephard, 2001; Benth, Kallsen & Meyer-Brandis, 2007). There exist several models to capture those properties of electricity prices. For example, structural models which are based on the equilibrium of supply and demand (Barl

Nonhomogenous Fluids
In this episode Gudrun talks with her new colleague Xian Liao. In November 2018 Xian has been appointed as Junior Professor (with tenure track) at the KIT-Faculty of Mathematics. She belongs to the Institute of Analysis and works in the group Nonlinear Partial Differential Equations. She is very much interested in Dispersive Partial Differential Equations. These equations model, e.g., the behaviour of waves. For that it is a topic very much in the center of the CRC 1173 - Wave phenomena at our faculty. Her mathematical interest was always to better understand the solutions of partial differential equations. But she arrived at dispersive equations through several steps in her carreer. Originally she studied inhomogeneous incompressible fluids. This can for example mean that the fluid is a mixture of materials with different viscosities. If we have a look at the Navier-Stokes equations for materials like water or oil, one main assumption therein is, that the viscosity is a material constant. Nevertheless, the equations modelling their flows are already nonlinear and there are a few serious open questions. Studying flows of inhomogneous materials brings in further difficulties since there occur more and more complex nonlinearities in the equations. It is necessary to develop a frame in which one can characterise the central properties of the solutions and the flow. It turned out that for example finding and working with quantities which remain conserved in the dynamics of the process is a good guiding line - even if the physical meaning of the conserved quantitiy is not always clear. Coming from classical theory we know that it makes a lot of sense to have a look at the conservation of mass, energy and momentum, which translate to conserved quantities as combinations of velocity, its derivatives, pressure and density. Pressure and density are not independent in these simplified models but are independent in the models Xiao studies. In the complex world of inhomogeneous equations we lose the direct concept to translate between physics and mathematics but carry over the knowledge that scale invarance and conservation are central properties of the model. It is interesting to characterize how the complex system develops with a change of properties. To have a simple idea - if it is more developing in the direction of fast flowing air or slow flowing almost solid material. One number which helps to see what types of waves one has to expect is the Mach number. It helps to seperate sound waves from fluid waves. A mathematical/physical question then is to understand the process of letting the Mach number go to zero in the model. It is not that complicated to make this work in the formulae. But the hard work is done in proving that the solutions to the family of systems of PDEs with lower and lower Mach number really tend to the solutions of the derived limit system. For example in order to measure if solutions are similar to each other (i.e. they get nearer and nearer to each other) one needs to find the norms which measure the right properties. Xian was Undergraduate & Master student at the Nanjing University in China from 2004 to 2009, where she was working with Prof. Huicheng Yin on Partial Differential Equations. She succeeded in getting the scholarship from China Scholarship Council and did her PhD within the laboratory LAMA (with Prof. Raphaël Danchin on zero-Mach number system). She was member of the University Paris-Est but followed many master courses in the programs of other Parisian universities as well. In 2013 she spent 8 months at the Charles University in Prague as Postdoc within the research project MORE. There she collaborated with Prof. Eduard Feireisl and Prof. Josef Málek on understanding non-Newtonian fluids better. After that period she returned to China and worked two years at the Academy of Mathematics & Systems Science as Postdoc within the research center NCMIS. With Prof. Ping Zhang she was working on density patch problems. Before her appointment here in Karlsruhe she already returned to Europe. 2016-2018 she was Postdoc at the University Bonn within the CRC 1060. She was mainly working with Prof. Herbert Koch on Gross-Pitaevskii equations - a special topic within dispersive equations. References Short Interview with the CRC 1173 Wave phenomena X. Liao, R. Danchin: On the wellposedness of the full low-Mach number limit system in general Besov spaces. Commun. Contemp. Math.: 14(3), 1250022, 2012. X. Liao: A global existence result for a zero Mach number system. J. Math. Fluid Mech.: 16(1), 77-103, 2014. X. Liao, E. Feireisl and J. Málek: Global weak solutions to a class of non-Newtonian compressible fluids. Math. Methods Appl. Sci.: 38(16), 3482-3494, 2015. X. Liao: On the strong solutions of the nonhomogeneous incompressible Navier-Stokes equations in a thin domain. Differential Integral Equations: 29, 167-182, 2016. X. Liao, P. Zhang: Global regularities of 2-D density patches for v

Inno2Grid
Gudrun talks to Carlos Mauricio Rojas La Rotta. They use a Skype connection since Carlos is in Berlin and Gudrun in Karlsruhe. Carlos is an electrical engineer from Colombia. His first degree is from Pontifcia Universidad Javeriana in Bogotá. For five years now he has been working at Schneider Electric in Berlin. In September 2018 Gudrun met Carlos at the EUREF-Campus in Berlin for discussing the work of Claire Harvey on her Master's thesis. The schedule on that day was very full but Gudrun and Carlos decided to have a Podcast conversation later. Carlos came to Germany as a car enthusiast. Then he got excited about the possibilities of photovoltaic energy production. For that from 2005-2007 he studied in the Carl von Ossietzky Universität in Oldenburg in the PPRE Master course Renewable Energies. When he graduated within a group of about 20 master students they found a world ready for their knowledge. Carlos worked in various topics and in different parts of Germany in the field of renewable energies. Now, at Schneider he has the unique situation, that he can combine all his interests. He develops the most modern cars, which are driving with renewable energy. In the course of his work he is also back at his original love: working with electronics, protocols and data. The work on the EUREF-Campus in Berlin started about 8-10 years ago with more questions than clear ideas. Schneider Electric is a big company with about 150.000 employees all over the world. They deal in all types of software and hardware devices for energy delivery. But the topic for Berlin was completely new: It was a test case how to construct energy sustainable districts. They started out investing in e-mobility with renewable energy and making their own offices a smart building. It is a source of a lot of data telling the story how energy is produced and consumed. At the moment they collect 1GB data per day in the office building on about 12.000 measure points into database and build this as a benchmark to compare it to other scenarios. The next step now is also to find ways to optimize these processes with limited computational possibilities. This is done with open source code on their own interface and at the moment it can optimize in the micro smart grid on the Campus. For example with 40 charging points for e-cars - consumption is planned according to production of energy. On Campus traditional batteries are used to buffer the energy, and also a bus now works on the Campus which can be discharged and is loaded without a cable! One can say: Carlos is working in a big experiment. This does not only cover a lot of new technical solutions. The Energiewende is more than putting photovoltaic and wind power out. We as a society have to change and plan differently - especially concerning mobility. Schneider Electric just started an expansion phase to the whole campus, which has a size of 5.5 ha and 2500 people working there. More than 100 charging point for e-cars will be available very soon. Podcasts C. Harvey, G. Thäter: Micro Grids, Gespräch im Modellansatz Podcast, Folge 186, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Mensch-Maschine Interaktion
Gudrun war in Weimar an der Bauhaus Universität zu Gast bei Jan Ehlers. Sie haben sich über seine Forschungstätigkeit im Umfeld von Mensch-Maschine Interaktion unterhalten. Jan hat in Bremen Psychologie studiert und dort auch promoviert. Nach einer Zeit an der Universität in Ulm ist er zur Zeit in Weimar als Lehrstuhlinhaber tätig. Gudruns Wunsch war es schon länger, das Thema im Podcast zu haben, denn Mensch-Maschine Interaktion betrifft alle Leute, die irgend etwas mit Computern machen. Dabei war klar, dass dies ein sehr breites Feld ist, wo im Gespräch mit Jan nur einzelne Aspekte vorkommen werden. Darüber hinaus, dass es thematisch breit ist, ist es ein sehr interdisziplinäres Feld, wo zwischen Biologie und Algorithmen als "Extremwerten" sehr unterschiedliches Wissen nötig ist und nur in Zusammenarbeit der Fachgebiete neues entsteht. Jans Fachgebiet ist der "Faktor Mensch". An seiner Arbeit faszinieren ihn viele Dinge, aber besonders, dass es noch so ein junges Feld ist, in den man Pionierarbeit verrichtet. Er hat sich auf kognitive Psychologie spezialisiert und untersucht u.a. wie peripher physiologische Signale (also von der Körperoberfläche abgeleitete Informationen) als Messwerte für psychologische Zustände dienen können. In erster Linie ist das universitäre Grundlagenforschung ohne unmittelbaren Anwendungsbezug. Dahinter stehen aber so fundamentale Fragen wie: Wie wird Aufmerksamkeit generiert? Wie kann man trotz interindividueller Unterschiede Erregungs- oder Aktivierungsniveaus aus solchen objektiv beobachtbaren Größe wie Pupillenbewegung oder Leitfähigkeit der Haut ablesen. Es müssen Größen herangezogen werden, die dem Bewusstsein nicht direkt zugänglich (also leicht manipulierbar) sind. Für die Experimente sind künstliche, hoch kontrollierte Situationen im Labor typisch, weil man ja wissenschaftlich Wirkmechanismen und Kausalbeziehungen beweisen möchte. Im Fachchargon spricht man auch von physiological computing bzw. mental status determination, also der Einschätzung einer psychischen Situation ohne Worte. die auf Selbsteinschätzung beruhen. Ein anschauliches Beispiel ist, dass man an der Blinzelfrequenz ablesen kann, wenn jemand müde wird. Man kann das gut mit Sensoren beobachten und messen und dann einen übermüdeten LKW-Fahrer durch so ein System erkennen und zum Pause machen anhalten. Menschlich ist das allerdings ein wenig brisant, denn wir wollen lieber die Kontrolle behalten und nicht von System Vorschriften gemacht bekommen. Hinzu kommt, dass man solche Systeme auch austricksen kann. Im Labor wird dazu das Biofeedback der Sensoren visualisiert und Probanden können lernen, darüber kognitive Kontrolle zu erhalten. Ein Beispiel hierfür ist die Pupillengröße, die man auf dem Monitor gut als Kreis einer gewissen Größe abbilden kann. Man kann üben, sie willentlich größer oder kleiner zu machen mit Hilfe der Rückmeldung auf dem Bildschirm. Für Forschung mit und über Menschen müssen ethische Prinzipien eingehaltne werden. Es ist apriori ja nicht in Ordnung, wenn man z.B. im Experiment Probanden systematisch anlügt. Trotzdem ist es eine wichtige und interessante Fragestellung, ob man die oben erläuterte Möglichkeit, dass man Einfluss auf eigentlich unbewusste Vorgänge erhalten kann, auch in die andere Richtung ausnutzen kann. Wenn ich einem erregten Probanden Biofeedback auf dem Monitor zeige, dass einer ruhigen Situation entspricht und der Proband dem Feedback glaubt, wird er dann vielleicht ruhig? Literatur und weiterführende Informationen C.Strauch e.a.: Pupil-Assisted Target Selection (PATS), Proceedings of the 16th IFIP TC.13 International Conference on Human-Computer Interaction – INTERACT, Mumbai, India. 2017 J. Ehlers e.a.: Pupil Size Changes as an Active Information Channel for Biofeedback Applications, Applied Psychophysiology and Biofeedback. doi: 10.1007/s10484-016-9335-z. 2016 Steven Fairclough: Physiological Computing E.M. Vingolo, G. Napolitano, S. Fragiotta:Microperimetric biofeedback training: fundamentals, strategies and perspectives Frontiers In Bioscience, Scholar, 10, 48–64, January 1, 2018Podcasts P. Purgathofer, T. Pritlove: Mensch-Maschine Interaktion, CRE Folge 131, Technik Kultur Gesellschaft, Metaebene Personal Media, 2009. P. Dzierzawski, G. Jaworek: Vibrationsbänder, Folge 9 im Neues Terrain Podcast, 2017.

Micro Grids
Gudrun talks with the Scotish engineer Claire Harvey. After already having finished a Master's degree in Product design engineering at the University of Glasgow for the last two years Claire has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. She spent her first year in Lisbon at Instituto Superior Técnico (IST) and the second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of her supervisor at KIT while she worked on her Master's thesis at the EUREF Campus in Berlin for the Startup inno2grid. Her study courses prepared her for very diverse work in the sector of renewable energy. Her decision to work with inno2grid in Berlin was based on the fact, that it would help to pave the way towards better solutions for planning micro grids and sustainable districts. Also, she wanted to see an actual micro grid at work. The office building of Schneider Electric, where the Startup inno2grid has its rooms is an experiment delivering data of energy production and consumption while being a usual office building. We will hear more about that in the episode with Carlos Mauricio Rojas La Rotta soon. Micro grids are small scale electrical grid systems where self-sufficient supply is achieved. Therefore, the integration of micro grid design within district planning processes should be developed efficiently. In the planning process of districts with decentralised energy systems, unique and customised design of micro grids is usually required to meet local technical, economical and environmental needs. From a technical standpoint, a detailed understanding of factors such as load use, generation potential and site constraints are needed to correctly and most efficiently design and implement the network. The presence of many different actors and stakeholders contribute to the complexity of the planning process, where varying levels of technical experience and disparate methods of working across teams is commonplace. Large quantities of digital information are required across the whole life-cycle of a planning project, not just to do with energetic planning but also for asset management and monitoring after a micro grid has been implemented. In the design of micro grids, large amounts of data must be gathered, there are initial optimization objectives to be met, and simulating control strategies of a district which are adapted to customer requirements is a critical step. Linking these processes - being able to assemble data as well as communicate the results and interactions of different "layers" of a project to stakeholders are challenges that arise as more cross-sector projects are carried out, with the growing interest in smart grid implementation. Claire's thesis explores tools to assist the planning process for micro grids on the district scale. Using geographical information system (GIS) software, results relating to the energetic planning of a district is linked to geo-referenced data. Layers related to energy planning are implemented - calculating useful parameters and connecting to a database where different stakeholders within a project can contribute. Resource potential, electrical/thermal demand and supply system dimensioning can be calculated, which is beneficial for clients and decision makers to visualize digital information related to a project. Within the open source program QGIS, spatial analysis and optimizations relating to the design of an energy system are performed. As the time dimension is a key part in the planning of the energy supply system of a micro grid, the data is linked to a Python simulation environment where dynamic analysis can be performed, and the results are fed back in to the QGIS project. References T. Benz et al.: Der Zellulare Ansatz. VDE, Energietechnische Gesellschaft, Frankfurt, Germany, 2015. A. Halu et al.: Data-driven modeling of solar-powered urban microgrids. Science Advances 2 (1). DOI:10.1126/sciadv.1500700, 2016. M. Giudice and E. Patti: BIM and GIS for District Modelling Politecnico di Torino, Turin, Italy, 2014. QGIS Ch. Nytsch-Geusen et al.: Sustainable and energy-efficient redevelopment of city quarters - Analytical and planning tools for energy assessment and rehabilitation of urban districts. Universität der Künste, Berlin, 2015. Podcasts Z. Ahamed, G. Thäter: Electric Vehicles on the Grid, Gespräch im Modellansatz Podcast, Folge 183, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, B. Pousinho: Weather Generator, Gespräch im Modellansatz Podcast, Folge 148, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Tsunami-Modelle
Man kann zu sozialen Medien unterschiedliche Auffassungen haben. Aber die Wissenschaftspodcaster nutzen das Medium twitter recht aktiv und auch das Karlsruher Institut für Technologie (KIT) bespielt seinen Kanal @KITKarlsruhe so, dass man als Abonnent tatsächlich mancherlei erfährt. Am 7. Oktober wurde z.B. dort weitererzählt, dass Ergebnisse einer Simulation aus dem KIT in einem Artikel der New York Times (vom 2.10. 2018) vorgestellt wurden, der die Auswirkungen des Sulawesi-Erdbebens und des von ihm ausgelöstenTsunamis in Indonesien (vom 29.9.2018) anhand von Luftbildern begreifbar macht. Genauer handelte es sich um Tsunami-Modelle von Andreas Schäfer vom Geophysikalischen Institut und Gudruns Neugier war geweckt. Sie wollte gern genaueres über diese Modelle erfahren. Am 23. Oktober traf sie sich mit dem Bauingenieur und Physiker zum Gespräch. Ebenfalls auf dem twitter-Kanal des KIT hatte Gudrun in der Zwischenzeit erfahren, dass Andreas der Zeitschrift des Deutschen Hochschulverbandes Forschung und Lehre zu seinem Engagement auf Twitter und Facebook Rede und Antwort gestanden hat und auch ein erfahrener Science-Slammer ist. Somit gab es noch viel mehr Gesprächsstoff. Die Aktivität auf twitter sieht z.B. so aus, dass Andreas die Daten eines gemeldeten Erbebens in seine Simulation einspeist und die Auswirkungen berechnet und visualisiert. Das Bild dazu wird anschließend über twitter (und Facebook) an die Leute verteilt, die sich dafür interessieren (die Follower). Hier als Beispiel die Analyse zu dem Erdbeben in Indonesien. Ein kürzlich aufgezeichneter Mitschnitt eines Science-Slam-Beitrags zu Andreas Forschung über Tsunamis ist der Beitrag Talking Tsunami. Im Moment ist Andreas mit mehreren Mitstreitern dabei, ein Startup zu gründen, das Risikoanalysen machen kann Risklayer. Literatur und weiterführende Informationen Center for Disaster Management and Risk Reduction Technology (CEDIM) Forensische Katastrophenanalysen K. Schmermund im Gespräch mit A. Schäfer: Mitdiskutieren oder nicht, Forschung und Lehre, 12.10. 2018. CATnews is a world wide news channel for natural disasters M. Wei-Haas: The Science of Indonesia's Surprise Tsunami, National Geographic vom 1.10.2018 Andreas Schäfer (2018, GPI): Development of a Global Tsunami Risk Model A. Schäfer, J. E. Daniell, F. Wenzel: The smart cluster method: Adaptive earthquake cluster identification and analysis in strong seismic regions. J. Seismol., 21, 965–985, doi:10.1007/s10950-017-9646-4, 2017. A. M. Schäfer, F. Wenzel: TsuPy: Computational robustness in Tsunami hazard modelling. Computers & Geosciences, 102, 148-157., 2017. Podcasts S. Wollherr, G. Thäter: Erdbeben und Optimale Versuchsplanung, Gespräch im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. K. Schratz, G. Thäter: Lawinen, Gespräch im Modellansatz Podcast, Folge 015, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. K. Elsen, G. Thäter: Erdrutsche, Gespräch im Modellansatz Podcast, Folge 015, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. S. Wollherr, G. Thäter: Bruchzonen, Gesprächim Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Schäfer, P. Barth, A. Blessing: Tsunamis und Erdbeben, Episode 12 im Kritisches Denken Podcast, 2018.

Rechenschieber
Wie es kam, dass es kam, dass es so ist, wie es ist, mit dem Rechenschieber. Zu einer gemeinsamen Folge vom damalsTM-Podcast zur Technikgeschichte und dem Modellansatz zur Mathematik trafen sich Prof. Dr. Ralph Pollandt, Stephan Ajuvo und Sebastian Ritterbusch in der Hochschule für angewandte Wissenschaften in Karlsruhe zu diesem mathematisch-technischen Thema aus vergangenen Zeiten. Stephan Ajuvo hatte den Rechenschieber schon länger auf seiner Liste seiner Wunschthemen. Er konnte nach der hackover-Konferenz nach Karlsruhe kommen, wo am 4. Mai 2018 die 9. Lange Nacht der Mathematik stattgefunden hatte, die von Sebastian Ritterbusch moderiert wurde, und wo Ralph Pollandt den Rechenschieber in einem Publikumsvortrag vorgestellt hatte. Die lange Nacht der Mathematik wurde an der damaligen Fachhochschule Karlsruhe im Jahr 2000, dem Weltjahr der Mathematik, gestartet, und fand seither alle zwei Jahre mit sehr großem Besucherandrang statt. Vor Einzug der Taschenrechner, wie beispielsweise dem SchulRechner 1 oder SR1, waren Rechenschieber im Schulbetrieb allgegenwärtig. Es gab unter anderem Typen von Aristo oder von VEB Mantissa Dresden. Die Basis der grundsätzlichen Methode hinter dem Rechenschieber wurde mit dem Beginn der Nutzung von Logarithmentafeln (um 1600) gelegt. In der DDR wurden diese für Schulen vom Verlag Volk und Wissen gedruckt. Sie umfassten neben den Logarithmen auch eine Formelsammlung für Mathematik, Physik und Chemie. Auch die Bordwährung der c-base orientierte sich an der logarithmischen Skala. Ein Weg den Logarithmus einzuführen geht über die Exponentialfunktion, die viele Wachstumsprozesse in der Natur bis zur Sättigung beschreibt. Da diese Entwicklungen oft sehr schnell ansteigen, bietet es sich an, die Werte mit der Umkehrfunktion zu beschreiben, und das ist genau der Logarithmus: Exponentiell ansteigende Werte wie die 2-er Potenzen 1, 2, 4, 8, 16, 32, ..., werden nach Anwendung des Logarithmus Dualis zur Basis 2 linear zu 0, 1, 2, 3, 4, 5, ..., und damit deutlich einfacher zu begreifen. Auch in der Musik werden aus Frequenzen von Tönen nach Anwendung des Logarithmus Dualis ganzzahlig zu Oktaven und im nicht-ganzzahligen Rest zu den Tönen. Für die Nutzung mit Logarithmentafeln und dem Rechenschieber sind die Logarithmenregeln äusserst wichtig: In Logarithmentafeln ist sehr häufig der dekadische Logarithmus zur Basis 10 abgedruckt, da dies bei der Nutzung mit Zahlen im Dezimalsystem sehr hilfreich ist. Dabei wird typisch nur eine Dekade in der Tafel abgedeckt, da höhere Dekaden einfach ganzzahlige Differenzen im Wert darstellen. Da diese Betrachtung außerhalb der Tafeln stattfindet, müssen diese Größenordnungen während der Rechnung mitgeführt und am Ende dem Ergebnis abgerechnet werden. Da Rechenschieber wie gegenüber liegende Lineale sehr einfach addieren können, wird aus der Schieblehre bei Nutzung der Logarithmenregeln ein mächtiges Multiplikationsgerät. Das kann man sich am Selbstbau-Rechenschieber gut vor Augen führen: Der Rechenschieber besteht typischerweise aus einem bedruckten äußeren Körper, einer darin ebenfalls bedruckten beweglichen Zunge und einem oben aufliegenden bis auf Linien transparenten Läufer. Die aufgedruckten Skalen können zum einen einfache logarithmische Skalen für die Multiplikation und Division sein (hier die Skalen C und D über eine Dekade), oder auch ganz andere Funktionen beinhalten, wie für das Bauwesen die Festigkeit, dem Elastizitätsmodul, der Druckfestigkeit oder die Zinseszins-Rechnung. Oft waren wichtige Konstanten wie die Kreiszahl π oder die Lichtgeschwindigkeit c angenähert auf der Rückseite abgedruckt. Für die Bedruckung und Anwendung haben sich verschiedene Systeme etabliert, wie das System Darmstadt, das System Rietz oder Duplexstäbe, es gab aber auch nationale Unterschiede durch Traditionen, Notationen oder Hersteller. Das typische Tischformat hatte eine Länge von rund 30cm, es gab sie aber auch im Taschenformat oder in lebensgroßen 2 Metern, und entsprechendem Gewicht. Ein sehr verbreiteter Rechenschieber in Kreisform ist der Benzin-Rechner: Ein weiterer interessanter Aspekt ist, dass Rechenschieber auch irrationale Konstanten wie die Euler'sche Zahl e, die Kreiszahl π oder einfach Werte der Wurzelfunktion scheinbar exakt auf den analogen Skalen abbilden konnten, und damit einen Analogrechner darstellen. Das Rechnen mit dem Rechenschieber stammt von den Logarithmentafeln ab. Will man die Zahlen 2 und 3 multiplizieren, so kann man die Logarithmen der Zahlen 2 und 3 nachschlagen, das sind bei dem dekadischen Logarithmus auf 3 Stellen die Zahlen 0,3010 und 0,4771. Diese Zahlen werden nun addiert zu 0,7781 und nach umgekehrter Suche findet man als Ergebnis die Zahl, die diesem Logarithmus zugeordnet ist, die Zahl 6. Der Rechenschieber nimmt einem nun das Nachschlagen und Addieren ab, in dem die Skalen C und D logarithmisch aufgetragen sind und die Addition durch das Verschieben der Zunge erfolgt. Die gleiche Rechnung kann man auch mit den Skalen A u

Electric Vehicles on the Grid
Gudrun talks to Zaheer Ahamed about the influence of an increasing number of Electric vehicles (EV) to the electrical grid. Zaheer just finished the ENTECH Master's program. He started it with his first year at the Karlsruhe Institute for Technology (KIT) and continued in Uppsala University for the second year.Gudrun was part of the grading process of Zaheer's master thesis "Estimating Balancing Capacities of Electric Vehicles on the German and Swedish grids in 2030". The rising awareness of pollution from transport is leading to innovations within the transport sector. At the moment EVs are the leading technology. With many countries Germany and Sweden joined the so-called EV30@30 campaign, aiming for 30% of new vehicles sales to be electric by 2030. These ambitions alongside an ever increasing capacity of variable renewable energy sources (RES) in our power systems, pose a concerning challenge for Transmission systems operators (TSO) to maintain proper power system operation. Imbalances between supply and demand are undesirable in any electrical power system and with the rising popularity of EVs and RES such events are only expected to continue or increase.Fortunately, with the recent development of Vehicle to grid (V2G) concepts as well as extensive studies into the load-shifting potential of EVs, EVs presents an interesting solution for power system balancing distributed energy storage system. Zaheer's study showed that EV are capable of balancing the grid for approximately 60% of the time providing 55-60% of the total balancing energy required. However, the operation also took heavy toll on the EV’s battery performance as it could potentially reduce its life to a 1/7th of its original lifetime. References Commission Regulation (EU) 2017/1485 of 2 August 2017 on establishing a guideline on electricity transmission system operation, 2017. S. Weitemeyer e.a.: Integration of Renewable Energy Sources in future power systems: The role of storage. Renewable Energy, 75 pp.14-20, 2015. D.M.Greenwood e.a.: Frequency response services designed for energy storage. Applied Energy, 203 pp.115-127, 2017. Eurostat Database J. Schäuble e.a.: Generating electric vehicle load profiles from empirical data of three EV fleets in Southwest Germany. Journal of Cleaner Production, 150 pp.253-266, 2017. Podcasts Volker Quaschning, Tim Pritlove: Energiewende, Forschergeist 053, Stifterverband / Metaebene, 2018. V. Auinger, G. Thäter: Optimale Akkuladung, Gespräch im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/optimale-akkuladung M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter M. Maier, G. Thäter: Akkumulatoren, Gespräch im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/akkumulatoren D. Schumann, M. Voelter: Elektromobilität, Omega Tau Podcast 163, Makus Völter und Nora Ludewig, 2015. J. Dickmann, S. Ritterbusch: Pumpspeicherkraftwerke, Gespräch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.

SimScale
Gudrun talks to Jousef Murad about the computing platform SimScale. Jousef is currently studying mechanical engineering at the Karlsruhe Institute of Technology (KIT) and focuses on turbulence modelling and computational mechanics in his Master's studies. He first learned about the existence of SimScale early in the year 2015 and started as a FEA (finite element analysis) simulation assistant in November 2016. Meanwhile he switched to Community Management and now is Community and Academic Program Manager at the company being responsible for user requests and Formula student teams all over the world. Formula student is a name for design competitions for teams of students constructing racing cars. SimScale is a cloud-based platform that gives instant access to computational fluid dynamics (CFD) and finite element analysis (FEA) simulation technology, helping engineers and designers to easily test performance, optimize durability or improve efficiency of their design. SimScale is accessible from a standard web browser and from any computer, eliminating the hurdles that accompany traditional simulation tools: high installation costs, licensing fees, deployment of high-performance computing hardware, and required updates and maintenance. Via the platform, several state-of-the-art open solvers are made available like,e.g., OpenFOAM and Meshing with SnappyHexMesh. More information about the packages being used can be found at https://www.simscale.com/open-source/ . On top of having easier access to open source software, the connected user forum is very active and helps everybody to enter the field even as a person without experience. Founded in 2012 in Munich (Germany), nowadays SimScale is an integral part of the design validation process for many companies worldwide and individual users. It is mainly used by product designers and engineers working in Architecture, Engineering & Construction or Heating, Ventilation & Air-Conditioning. Also in the Electronics, Consumer Goods and Packaging and Containers industries SimScale is useful for testing and optimizing designs in the early development stages. SimScale offers pricing plans that can be customized, from independent professionals to SMEs and multinational companies. The Community plan makes it possible to use SimScale for free, with 3000 core hours/year using up to 16 cloud computing cores. Simulation around Burj Khalifa using SimScale References Turbulence models on the English Wikipedia S. Pope: Turbulent Flows. Cambridge University Press, 2000. P. Sagaut, C. Cambon: Homogeneous Turbulence Dynamics. Cambridge University Press, 2008. Related Podcasts G. Thäter, M. Hofmanová: Turbulence, Gespräch im Modellansatz Podcast, Folge 155, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 53, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. B.Valsler, D. Ansell: The Science of Turbulence, The Naked Scientists Podcast, 2010.

Forschendes Lernen
Gudrun war zu Gast an der FU Berlin für ein lange geplantes Gespräch mit Brigitte Lutz-Westphal zum Thema Forschendes Lernen im Mathematikunterricht. Frau Lutz-Westphal ist dort Professorin für Didaktik der Mathematik und in dieser Rolle in die Lehramtsausbildung eingebunden. Ihre Forschung beschäftigt sich mit der Grundlegung einer Theorie zum forschenden Lernen, mit dialogischem Lernen und authentischem sowie inklusivem Mathematikunterricht. Sie ist seit 2010 wissenschaftliche Begleitung des Programms "Mathe.Forscher" der Stiftung Rechnen. Die enge Zusammenarbeit mit der Schulpraxis in diesem Programm hat wichtige Impulse für ihre wissenschaftliche Tätigkeit gegeben. Was zeichnet nun forschendes Lernen aus? Es geht darum, für Schülerinnen und Schüler die Mathematik als von Fragen getriebene Wissenschaft erlebbar zu machen (im Gegensatz zum Einpauken von fest stehenden Lehrsätzen und Regeln). Das erfolgt z.B. über Beobachtungen in handgreiflichen Experimenten, die für die Erlangung von mathematischen Resultaten aktiv erkundet werden müssen. Das ist gleichzeitig ein authentisches Erleben von Mathematik, wie sie in der Forschung betrieben wird, also eine Begegnung mit der Wissenschaft Mathematik, ihren Methoden und Arbeitsweisen. Eine Beschreibung der eigenen forschenden Tätigkeit fällt Mathematiker/innen üblicherweise nicht leicht, diese Metaebene ist für das Forschen ja auch nicht relevant. Aber sie wissen, dass sie Fragen und Vermutungen formulieren aus Erfahrung, Gedankenexperimenten oder einem Bauchgefühl heraus und in Gesprächen im Kollegium, im Auswerten von anderen Arbeiten und im Verwerfen von Hypothesen Stück für Stück neues Wissen finden. Eine derzeit laufende Interviewstudie, die von Prof. Lutz-Westphal betreut wird, soll herausarbeiten, wie man Forschen in der Mathematik präziser charakterisieren kann, um daraus weitere Schlüsse für die authentische didaktische Umsetzung in der Schule zu ziehen Der Ansatz des forschenden Lernens trägt bereits jetzt die wesentlichen Schritte in die Schule: Anregung zum selbstständigen Fragen, Raum für Erkundungen, offen für fächerübergreifende und vorausgreifende Inhalte, Sichtbarmachen der gefundenen mathematischen Erkenntnisse & kritische Auseinandersetzung mit unterschiedlichen Herangehensweisen und Resultaten. Inzwischen gibt es schon viele erprobte Beispiele für forschendes Lernen, die von Lehrpersonen für den eigenen Unterricht übernommen oder adaptiert werden können (siehe www.matheforscher.de) . In unserem Gespräch gehen wir auf die Frage: Wo bitte ist die Mitte? ein. Für komplexe Gebilde, wie z.B. die Geometrie von Deutschland oder anderen Ländern kann man auf unterschiedliche "Mitten" kommen. Und man findet auch Beispiele, wo die Mitte gar nicht im Innern des Gebietes liegt. Solche Unterrichtsideen helfen Schüler/innen, Mathematik nicht nur als festgefügten Wissenskanon, sondern als kreatives Betätigungsfeld zu erleben, in dem flexibles Denken erforderlich ist. Wesentlich für einen Mathematikunterricht, der auf diese Weise gestaltet ist, ist eine Kultur, in der das Fragen stellen und Fehler machen möglich sind und ein produktiver Umgang mit Fehlern gepflegt wird. Es hat sich bewährt, die Schülerinnen und Schüler ein Lern- oder Forschertagebuch führen zu lassen (bzw. je nach Vermögen der Lerngruppe, einen mündlichen Austausch anzuregen), um besser zu verstehen, wie die Lernenden denken, wo konkrete Probleme im Verständnis sind, bzw. welche eigenen Ansätze die Kinder entwickeln. Dieser dialogische Ansatz öffnet den Weg zu einem individuellen Austausch zwischen Lehrkräften und Lernenden und öffnet die Perspektive in Richtung inklusiver Lerngruppen. Ein Unterricht, der Mathematik forschend entwickelt braucht Lehrpersonen mit einem hohen Selbstvertrauen in ihre eigenen mathematischen Fähigkeiten und einer authentischen Begeisterung für das Fach. Damit ergeben sich auch Ziele in der Lehramtsausbildung: Erlangen fachlicher und fachmethodischer Sicherheit, das Kennenlernen moderner Mathematik und aktueller Forschungsthemen, eine tiefe fachdidaktische Durchdringung von mathematischen Themen, und somit übergreifend: die Stärkung des fachlichen Selbstbewusstseins. Nach ihrem Abitur 1990 studierte Brigitte Lutz-Westphal an der Hochschule der Künste und der freien Universität Berlin Schulmusik, Violine und Mathematik und hatte dabei 1994-95 auch einen Studienaufenthalt in Paris als Stipendiatin des Briand-Stresemann Programms. Auf ihr erstes Staatsexamen in Musik und Mathematik folgte ihr Referendariat am Karl-von-Frisch-Gymnasium in Dußlingen und am Wildermuth-Gymnasium in Tübingen. Nach dem zweiten Staatsexamen für die Laufbahn des höheren Schuldienstes an Gymnasium in Musik und Mathematik, wurde sie in Berlin als Musikpädagogin und Nachhilfelehrerin selbstständig tätig und begann mit ihren Arbeiten zum Projekt "Diskrete Mathematik für die Schule". Ab 2002 wurde sie als wissenschaftliche Angestellte am Konrad-Zuse-Zentrum für Informationstechnik durch die Volk

Hybride Strömungsmodelle
Gudrun ist für die aktuelle Episode zu Gast in der Bundesanstalt für Wasserbau (BAW) am Standort in Karlsruhe. Die BAW ist etwa so alt wie die Bundesrepublik und grob gesagt zuständig für technisch-wissenschaftliche Aufgaben in allen Bereichen des Verkehrswasserbaus an den Bundeswasserstraßen und für Spezialschiffbau. Dabei berät sie die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV). Heute ist der Hauptsitz der BAW in Karlsruhe. Daneben gibt es noch einen Standort in Hamburg. Der Anlass des Besuches ist diesmal der Abschluss der Masterarbeit von Axel Rothert zu einer Fragestellung aus der BAW in Karlsruhe. Der Titel der Arbeit ist "Hybride 2D-3D-Simulation von Strömungsprozessen im Nah- und Fernfeld von Wasserbauwerken in OpenFOAM". Sie entstand in enger Zusammenarbeit mit den Kollegen Dr.-Ing. Carsten Thorenz und Franz Simons im Referat Wasserbauwerke der BAW. Nach dem Abschlussvortrag hat sich Gudrun mit Franz Simons und Axel Rothert über die Ergebnisse der Arbeit unterhalten. Neben traditionellen mathematischen Modellen, die durch physikalische Experimente kalibriert und erprobt werden, haben sich durch den technischen Fortschritt der letzen Jahrzehnte numerische Simulationen inzwischen fest etabliert. Einerseits, um numerische Näherungslösungen für die partiellen Differentialgleichungen des mathematischen Modells zu liefern, andererseits aber auch zur Durchführung virtueller Experimente. Die Simulation von hydrodynamischen Vorgängen ist hier ein gutes Beispiel. Das Fließen von Wasser muss mit Gleichungen beschrieben werden, die wiederum numerische Lösungen brauchen, wobei durch deren Komplexität auch gleich noch Ansprüche an entweder Hochleistungsrechentechnik (und damit Parallelisierung) oder andererseits gut begründete Vereinfachungen erhoben werden müssen. Das ganze muss verlässliche Aussagen liefern, damit die BAW z.B. die Hochwasserneutralität eines Wasserbauwerks garantieren kann bevor es endgültig geplant und gebaut wird. Dabei werden in der dortigen Praxis beide Wege beschritten: man investiert in modernste Rechentechnik und benutzt erprobte Vereinfachungen im Modell. Im Kontext der Umströmung von Wasserbauwerken haben unterschiedliche Regionen verschiedene dominierende Strömungsprozesse: in der Nähe des Bauwerkes gibt es eine starke Interaktion des Fließgewässers mit dem Hindernis, aber in einiger Entfernung kann man diese Interaktion vernachlässigen und den Modellansatz vereinfachen. Deshalb sollten im Nah- und Fernbereich unterschiedliche Modelle benutzt werden. Konkret sind es in der Arbeit die tiefengemittelten Flachwassergleichungen im Fernfeld und die Reynolds-gemittelten Navier- Stokes-Gleichungen (RANS) im Nahfeld der Wasserbauwerke. Wichtig ist dann natürlich, wie diese Modelle gekoppelt werden. Da eine Informationsübertragung sowohl stromaufwärts als auch stromabwärts möglich ist, ist eine Kopplung in beide Richtungen nötig. In der vorliegenden Arbeit wurde eine vorhandene Implementierung eines Mehr-Regionen-Lösers in OpenFOAM der TU München so weiter entwickelt, dass er für die Anwendungen in der BAW geeignet ist. Dafür musste sie auf die aktuell an der BAW verwendete Version von OpenFOAM portiert und anschließend parallelisiert werden, damit praxisnahe Probleme der BAW in sinnvollen Rechenzeiten bewältigt werden können. Außerdem mussten die Implementierungen der Randbedingungen so abgeändert werden, dass allgemeine Geometrien für den Untergrund und ein trocken fallen bzw. benetzen mit Wasser möglich sind. Die Implementierung wurde anhand eines realistischen Beispiels aus dem Verkehrswasserbau bestätigt. Ein etwa 1,1km langer Flussabschnitt wurde hybrid simuliert. Dabei ist ein Staustufe, bestehend aus Wehranlagen, Schleuse und Kraftwerk enthalten. Literatur und weiterführende Informationen Boyer, F. ; Fabrie, P.: Mathematical Tools for the Study of the Incompressible Navier-Stokes Equations and Related Models. New York : Springer-Verlag, 2013 Gerstner, N. ; Belzner, F. ; Thorenz, C.: Simulation of Flood Scenarios with Combined 2D/3D Numerical Models. In: Lehfeldt, R. (Hrsg.) ; Kopmann, R. (Hrsg.): 11th international conference on hydroscience and engineering. Bundesanstalt für Wasserbau, Karlsruhe, 2014 Mintgen, F.: Coupling of Shallow and Non-Shallow Flow Solvers - An Open Source Framework. München, Technische Universität, Diss., 2017 Mintgen, F. ; Manhart, M.: A bi-directional coupling of 2D shallow water and 3D Reynolds-Averaged Navier-Stokes models. 2018. Begutachtet und angenommen vom Journal of Hydraulic Research. Einsehbar: DOI: 10.1080/00221686.2017.1419989 Uijttewaal, W. S.: Hydrodynamics of shallow flows: application to rivers. In: Journal of Hydraulic Research 52 (2014), Nr. 2, S. 157-172 Podcasts R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Simulierte Welten
Gudrun traf sich mit Maren Hattebuhr und Kirsten Wohak, die wieder ein interessantes Projekt für Schülerinnen und Schüler vorstellen: Simulierte Welten. Unser Alltag wird immer mehr durch Simulationen mitbestimmt. Bei der Wettervorhersage ist das wahrscheinlich vielen Menschen bewußt, aber auch Autos und andere Maschinen werden mittels Rechnungen am Computer entwickelt oder die Wirksamkeit neuer Medikamente getestet. Auch Risikoanalysen oder Wahlvorhersagen basieren immer stärker auf der Interpretation von Simulationsergebnissen. Schülerinnen und Schüler sollen deshalb die Möglichkeit bekommen, schon früh die Bedeutung von Simulationen besser einzuschätzen und ihre Chancen und Risiken aufgrund fundierten Grundwissens besser bewerten zu können. Das Vorhaben wird vom Steinbuch Centre for Computing (SCC) und dem Höchstleistungsrechenzentrum Stuttgart (HLRS) in Zusammenarbeit mit dem Zentrum für interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS) getragen und arbeitet mit verschiedenen Schulen in Baden-Württemberg zusammen. Gefördert wird das Projekt vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg. Es gibt für Schulen und Personen folgende Möglichkeiten von dem Projekt zu profitieren: Doppelstunden, Projekttage oder Projektwochen für die Schule buchen (Abend-) Vorträge zu sich einladen Exkursionen durchführen Fortbildung für Lehrerinnen und Lehrer am SCC bzw. dem HLRS Förderstipendien für Schülerinnen und Schüler für Simulationsthemen Im Rahmen der Förderstipendien arbeiten die Schülerinnen und Schüler weitgehend selbstständig in Zweierteams an einem echten wissenschaftlichen Projekt an einem der Rechenzentren mit und werden dabei von einer/einem Wissenschaftlerin/Wissenschaftler betreut. Sie erhalten für ihre Arbeiten einen Unkostenbeitrag in Höhe von bis zu 1.000€, welcher für die Anschaffung eines Laptops und anfallende Fahrtkosten gedacht ist. Nach dem erfolgreichen Abschluss des Stipendiums erhalten die Schülerinnen und Schüler zudem ein Zertifikat über ihre Teilnahme. In der aktuellen Förderperiode ist der Anmeldeschluss der 1. Oktober 2018 und folgende Themen können bearbeitet werden: Aerosole - Winzige Partikel mit großer Wirkung Simulation und einfach Analyse von Kollisionsdaten der Hochenergiephysik Einblicke in unseren Körper durch Computertomographie Chemie-Klimasimulationen mit EMAC Simulation von biologischen Zellen Schülerinnen und Schüler sollten folgende Unterlagen bei der Kontaktadresse schriftlich oder elektronisch per E-Mail an [email protected] einreichen: ausgefüllter Bewerbungsbogen Ein Empfehlungsschreiben einer Lehrkraft von der Schule, die den Schüler/die Schülerin unterstützt und CAMMP als Ansprechpartner zur Verfügung steht. Dieses dient dazu den Schüler/die Schülerin besser kennenzulernen. Zeugniskopie Lebenslauf >Referenzen Alle Informationen zum Förderstipendium am SCC auf einen Blick Direkter Kontakt zum Projekt Simulierte Welten Auswahl an Episoden zu Simulationen B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, S. Krömker: Computergrafik, Gespräch im Modellansatz Podcast, Folge 166, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. O. Beige, G. Thäter: Wahlprognosemodelle, Gespräch im Modellansatz Podcast, Folge 149, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Bertozzi, G. Thäter: Crime Prevention, Gespräch im Modellansatz Podcast, Folge 109, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Lerntheken
Gemeinsam geht vieles besser. Auch deshalb reden wir im Podcast über Mathematik oder darüber wie wir Mathematik lernen bzw. unterrichten möchten. Im Internet setzen sich solche Gespräche manchmal fort. In der Netzgemeinschaft rund um den Podcast hat Gudrun Jan-Martin Klinge gefunden - oder genauer sein Blog Halbtagsblog. Dort finden sich seine Beobachtungen aus dem Alltag als Lehrer für Mathematik, Physik und Arbeitslehre in einer Gesamtschule in Raum Siegen. Dabei mischt sich ganz natürlich privates mit unterschiedlichen beruflichen Aspekten, denn es ist seine persönliche Reflektion über das was gelingt, erzählenswert ist oder bedenkenswert. Schon bald hatte Gudrun den Wunsch, einen Aspekt daraus für den Podcast aufzugreifen, nämlich Jan-Martins ganz praktische Erfahrungen mit Lerntheken. Diese setzt er in der Sekundarstufe 1 vor allem im Mathematikunterricht ein. Wie von Gudrun im Stillen erhofft, war die generelle Bereitschaft zum Gespräch schnell und enthusiastisch erklärt und es musste "nur noch" ein passender Termin gefunden werden, was ein paar Monate dauerte. Aber am 24. August 2018 war es so weit: Gudrun kam am Siegener Hauptbahnhof an und in einem netten Café schräg gegenüber entstand die vorliegende Aufzeichnung. Wie bei allen Konzepten und Methoden gibt es Theorie und Praxis. Die Lerntheke an und für sich ist für Lehrende eine wohlbekanntes und vor allem im Unterricht für junge Schülerinnen und Schüler auch eine gut etablierte offene Unterrichtsform. Für sehr heterogenen Lerngruppen ist ihre größte Stärke, dass qua Konzept alle im eigenen Tempo unterwegs sein können. Und dass nicht nur eine Lehrperson vorn an der Tafel die Rolle hat, alles für alle erklären zu müssen, sondern auch Mitschüler diesen Platz einnehmen können und dabei ihre Hilfe an die Bedürfnisse des Gegenübers recht genau anpassen können. Außerhalb der Primarstufe ist das Konzept in der Praxis an deutschen Schulen jedoch eher in einer Nische zu Hause. Dafür gibt es viele und gut nachvollziehbare Gründe. Andererseits zeigen aber auch solche Beispiele, wie der Alltag in Jan-Martins Unterricht, dass es gut funktioniert. Durch das Beispiel lassen sich andere anstecken, es ähnlich oder genauso auch selbst zu probieren (aktuell hat der Blogbeitrag zu "Was sind Lerntheken" z.B. etwa 150 Antworten). Im Mathematik-Unterricht von Jan-Martin Klinge startet jedes Thema mit zwei bis drei "normalen" Mathematikstunden (also Frontalunterricht) in denen das Thema eingeführt wird. Anschließend arbeiten die Schülerinnen und Schüler einzeln oder in Gruppen mit Karten, auf denen konkrete Rechenaufgaben geübt, Probleme erforscht oder mathematische Spiele gespielt werden. Die Karten haben einen Farbcode, an dem man ablesen kann, ob es sich eher um einfache, mittelschwere oder komplexere Aufgaben handelt. Am Ende jedes Themas sollen die Kinder die mittelschweren Aufgaben bearbeiten können. Aber auch die, bei denen es richtig "Click" gemacht hat, haben genug Material mit dem sie interessantes zum Thema ausprobieren können. Zusätzlich gibt es Karten mit Lernhilfen zu einzelnen Schritten oder Regeln. Auf den Aufgabenkarten ist jeweils vermerkt, welche Hilfskarte weiterhelfen kann. Außerdem gibt es an der Tafel eine Namensliste von Mitschülerinnen und -schülern, die für Nachfragen zur Verfügung stehen. Besonders im Unterricht für die jüngeren Schüler gibt es am Ende jedes Themas noch eine Sicherungsphase. Im Physikunterricht benutzt Jan-Martin Klinge die Lerntheken eher in der Phase, wo gelerntes wiederholt und gefestigt werden soll, da dort die Dichte an neuen Themen größer ist als in der Mathematik. Zusammen mit Kollegen hat Jan-Martin Klinge die Kartensammelung auch übersetzt in andere Sprachen und mit anderen Medien und Anwendungsfällen verbunden. Besonders auf Geräten wie einem iPad ist die Realisierung leicht möglich, weil dort leicht zwischen Sprachen gewechselt werden kann, wenn Schüler in Willkommensklassen das möchten. Dafür gab es sogar 2017 die Auszeichnung mit dem Deutschen Lehrerpreis. Das Projekt ist nicht abgeschlossen und Helfer für möglichst viele Sprachen werden noch mit offenen Armen empfangen. Literatur und weiterführende Informationen J.-M. Klinge: Was sind Lerntheken? Halbtagsblog, 2013. Download von unterschiedlichen Lerntheken J.-M. Klinge und R. Kara: Mit Lerntheken den Mathematikunterricht neu gestalten, ISBN: 978-1520321479, 2017 J.-M. Klinge: Die Physik von Hollywood: Mit aktuellen Kinofilmen Impulse für den Unterricht gewinnen, ISBN 978-1521035474, 2017. Beschreibung des Projektes für den Deutschen Lehrerpreis, 2017. Podcasts K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp-week G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp B. Bötch

FPGA Seitenkanäle
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf sich Sebastian mit Dennis Gnad, um mit ihm über Seitenangriffe auf Field Programmable Gate Arrays (FPGA) zu sprechen. FPGAs sind veränderliche Computerchips, die hervorragend bei der Entwicklung von logischen Schaltkreisen oder spezieller Glue Logic helfen, und kommen inzwischen auch als Rechenbeschleuniger zum Einsatz. Man kann FPGAs als Vorstufe zu Application-Specific Integrated Circuits (ASIC) sehen, auf denen Strukturen noch viel feiner, für höhere Taktraten und sparsamer abgebildet werden können, das Design aber um Größenordnungen teurer ist. Und während einem ASIC die Funktion ab Werk einbelichtet ist, können FPGAs nahezu beliebig oft zur Laufzeit umprogrammiert werden. Wie im Podcast zu digitalen Währungen erwähnt, spielen Graphical Process Units (GPUs), FPGAs und ASICs eine große Rolle bei Kryptowährungen. Hier ist ein einzelner FPGA-Chip beim so genannten Mining meisst nicht schneller als eine GPU, verbrauchen jedoch im Vergleich deutlich weniger Strom. Spezialisierte ASICs hingegen übersteigen in Effizienz und Geschwindigkeit alle anderen Lösungen. FPGAs finden sich aktuell in vielen Consumer-Produkten, wie dem Apple iPhone 7, im Samsung Galaxy S5, Smart-TVs und selbst auch der Pebble Smartwatch. Ihren besonderen Vorteil spielen FPGAs bei der Verarbeitung von großen Datenmengen wie Videodaten aus, da sie in der Parallelisierung nur durch den verfügbaren Platz beschränkt sind. Die Beschreibung von FPGAs und ASICs, oder deren Programmierung, erfolgt eher strukturell in Hardwarebeschreibungssprachen wie Verilog oder VHDL. Diese Beschreibungen unterscheiden sich sehr von imperativen Programmiersprachen, wie sie oft für CPUs oder GPUs verwendet werden. Es werden in logischen oder kombinatorischen Blöcken Daten verarbeitet, die dann in Taktschritten von und in Datenregister übertragen werden. Die erreichbare Taktfrequenz hängt von der Komplexität der kombinatorischen Blöcke ab. Ein Beispiel für logische Blöcke können Soft-Cores sein, wo zukünftige oder nicht mehr erhältliche CPU-Designs in FPGAs zur Evaluation oder Rekonstruktion abgebildet werden. Eine Variante ist die Entwicklung in OpenCL, wo verschiedene Architekturen wie GPUs, CPUs und FPGA unterstützt werden. Für die effiziente Umsetzung ist dafür weiterhin großes Hardwarewissen erforderlich, und man kann nicht erwarten, dass Code für FPGAs ebenso auf GPU, oder umgekehrt CPU-Code in FPGAs darstellbar ist. Das Interesse von Dennis Gnad liegt bei den FPGAs darin, deren Daten, Logik oder Inhalte durch Seitenkanalangriffe in von den Entwicklern unvorhergesehener Art und Weise auszulesen. Ein Beispiel ist das Erkennen von Fernsehsendungen aus dem Stromverbrauch des Fernsehgeräts wie es auch schon im Podcast zu Smart Metern beschrieben wurde. Ebenso wurden schon Kryptoschlüssel aus Geräuschen einer CPU bestimmt. Mit Soundkarten kann man Funkuhren verstellen und auch Grafikkarten können als UKW-Sender verwendet werden. Die elektromagnetische Abstrahlung ist ein sehr klassischer Seitenkanal und ist als Van-Eck-Phreaking seit 1985 bekannt. Gerade wurden die Timing- und Speculative-Execution-Covered-Channel-Angriffe Spectre und Meltdown für einen großteil aktueller CPUs bekannt, die aktiv Seitenkanäle für verdeckten Informationszugriff nutzen. Normalerweise benötigen Power-Side-Angriffe, die den Stromverbrauch auswerten, physischen Zugang zum Gerät oder der Stromversorgung. Überraschenderweise ist es auf FPGAs hingegen möglich den Stromverbrauch anderer Schaltungsbestandteile rein durch Software zu bestimmen. Dazu werden FPGAs an der Grenze der Timing-Parameter betrieben, und statistisch die erfolgreiche Ausführung gemessen. Mit verschieden langen Pfaden können auch gleichzeitig die Zeitschranken verschieden stark belastet werden und damit gleichzeitig für mehrere Spannungsstufen ausgewertet werden. Damit kann der relative Spannungsverlauf kontinuierlich gemessen werden. Im Zuge seiner Forschung zu Voltage Fluctuations in FPGAs konnte Dennis Gnad die Qualität der Messungen nachweisen. Für die eigentliche Auswertung der Messungen werden hier die Verfahren der Differential Power Analysis verwendet, die nicht absolute Messungen, sondern mit relativen Messungen den Verlauf oder Unterschiede in den Verläufen statistisch analysieren. Speziell wurden mit dem Pearson Korrelations-Koeffizient verschiedene Schlüssel-Hypothesen mit modellierten Stromverläufen aufgestellt, um den Suchraum für einen kryptographischen AES-Schlüssel jeweils stückweise einzuschränken. Dafür musste die spezielle AES-Implementation auf dem FPGA bekannt sein, um entsprechende Leakage-Modelle für die Korrelationsauswertung aufstellen zu können. Insgesamt wurde so ein rein software-getriebener Angriff auf FPGAs demonstriert, der ohne sehr aufwändiges Code-Review-Verfahren, dessen Umsetzung bei VHDL ohnehin große Fragen aufwirft, kaum zu entdecken ist. Dennis betreibt die Forschung als Dokto

Mechanical Engineering
In the last two semesters Gudrun has taught the courses Advanced Mathematics I and II for Mechanical Engineers. This is a mandatory lecture for the International mechanical engineering students at KIT in their first year of the Bachelor program. This program is organized by the Carl Benz School of Engineering. Beside the study courses, the school also provides common housing for students coming to Karlsruhe from all over the world. The general structure and topics of the first year in Advanced Mathematics were already discussed in our episode 146 Advanced Mathematics with Jonathan Rollin. This time Gudrun invited two students from her course to have the student's perspective, talking about mathematics, life, and everything. Yueyang Cai grew up mostly in China. In 2015, the work of her mother led Yueyang to Stuttgart. While looking for opportunities to study a technical subject in Germany the English speaking program in Karlsruhe somehow suggested itself. After one year she is sure to have made the right decision. The second student in the conversation is Siddhant Dhanrajani. His family is Indian but lives in Dubai. For that he got his education in Dubai in an Indian community follwowing the Indian educational system (CBSE). He had never heard of the Engineering program in Karlsruhe but found it through thourough research. He is really amazed at how such an excellent study program and such an excellent university as the KIT are not better known for their value in the world. In the conversation both students talk about their education in their respective countries, their hopes and plans for the study course mechanical engineering and their experiences in the first year here in Karlsruhe. It is very interesting to see how the different ways to teach mathematics, namely, either as a toolbox full of recipes (which the students get well-trained in) or secondly as a way to approach problems in a context of a mathematical education contribute to an experience to be well-equipped to work creative and with a lot of potential as an engineer. Though the students finished only the first year in a three years course they already work towards applications and necessary certificates for their possible master program after finishing the course in Karlsruhe. Related Podcasts G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Flugunfälle
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Bernd Sieker und sprach mit ihm um Unfälle mit Autopiloten mit Flugzeugen und Automobilen. Der Flugreiseverkehr ist inzwischen sehr sicher, es verbleibt aber ein Restrisiko, das man an den sehr seltenen Flugunfällen erkennen kann. Bernd untersucht nun die wenigen Abstürze großer Airliner, die es noch gab, und fragt sich, wie es zu diesen Katastrophen kommen konnte. Beispiele für Unfallursachen können beispielsweise Ausfälle scheinbar weniger relevanter Systeme sein, wo von der Crew Entscheidungen getroffen werden, die sie für sinnvoll halten, sich aber später als problematisch herausstellen. Technische Schäden, die unmittelbar zum Absturz führen, sind inzwischen sehr selten. Und selbst scheinbare kritische Ausfälle wie Triebwerksausfälle werden geübt und es gibt Prozeduren, wie man in diesen Fällen das Flugzeug möglichst sicher landen können sollte. Im Segelflug gehört eine Außenlandung auf freiem Feld zum Normalbetrieb, wobei man natürlich für am Boden etwaig entstandenen Schaden aufkommen muss, falls der Landwirt darauf besteht. Eine entsprechende nicht genehmigte Sicherheits- oder Notlandung führt bei Motorflugzeugen zur Auskunfts- oder Meldepflicht mit entsprechenden Auflagen zum Abtransport oder Erlaubnis zum Wiederstart. Bei der Untersuchung von Unglücksfällen geht der erste Blick auf offizielle Berichte oder Untersuchungen. So auch beim Air-France Flug 447 von 2009, wo ein Airbus A330-203 mitten über dem Atlantik plötzlich verschwand. Erste Indizien auf das Unglück wurden durch ACARS-System über Satellit empfangen, unter anderem über den Ausfall von Staurohren, mit denen die Geschwindigkeit des Flugzeugs gemessen wird. Das ist ein dramatischer Ausfall an Information, mit dem die Piloten aber umgehen können müssten und der eigentlich nicht zu einem Absturz führen sollte, denn die Geschwindigkeit ist noch mittels anderer Sensoren erkennbar. Erste gefundene Wrackteile deuteten darauf hin, dass das Flugzeug fast senkrecht in horizontaler Lage auf das Wasser aufgeschlagen sein musste. Dies führte auf die Vermutung, dass das Flugzeug überzogen wurde, bis es zum Strömungsabriss kam, und es daraufhin einfach herunterfiel. Nach Bergung des Flugschreibers bestätigte sich der vermutete Ablauf. Er wurde durch einen überraschend kurzen Zeitraum von wenigen Minuten zwischen Fehlermeldung und Absturz aus Reiseflughöhe belegt. Die Piloten müssen in der widersprüchlichen Situation gewesen sein, dass ihnen der Sink"flug" angezeigt wurde, während die Nase des Flugzeugs nach oben zeigte, was laut Training normalerweise in diesem Flugzustand nicht möglich ist. Bei dem eingesetzten Fly-by-wire System wäre eigentlich auch kein Strömungsabriss möglich gewesen. Nach Ausfall der Staurohre führte nun die Verkettung zwischen unvorhersehbarem Flugzeugzustand und der dramatischen Fehlinterpretation durch die Piloten zum Absturz. In der Ursachenanalyse ist sowohl zu beachten, dass die Warnmeldungen zum Strömungsabriss von den Piloten womöglich wegen einer Vielzahl von Warnmeldungen nicht mehr erfasst werden konnte. Ebenso wurden widersprüchliche Angaben zur Fluggeschwindigkeit und Anstellwinkeln von den Systemen des Flugzeugs irgendwann als ungültig abgewiesen und entsprechende Warnungen abgeschaltet oder nur noch widersprüchlich wiedergegeben. Dies führt zur Betrachtung solcher Systeme unter dem Aspekt, dass sie sozio-technisch sind, mit der Einsicht, dass gerade bei der Übertragung von Aufgaben des Menschen an Technik und zurück ein besonderes und schwer vorhersehbares Fehlerpotenzial besteht. Insbesondere Autopiloten haben eine besondere Bedeutung, da sie direkt in die Aufgaben der steuernden Menschen eingreifen. Klassisch steuern Autopiloten nur in sehr engen Parametern wie einzuhaltende Richtung, Höhe, Querneigung der Sink-/Steiggeschwindigkeit. Im Auto sind schon Geschwindigkeits- und Abstandsautomatik üblich. Jedoch sind auch Landungen mit Autopilot möglich, die aber ein besonderes Training und Überprüfung von Mensch und Maschine und Verbesserung der Algorithmen und redundante Sensoren erfordern. Dies zeigt schon, wie kritisch Autopiloten im Automobil zu sehen sind, da hier bisher kein besonderes Training für die Verwendung von Autopiloten erfolgt. Eine Überraschung ist dabei, dass eine besondere Gefahr daraus entsteht, wenn Autopiloten so zuverlässig werden dass sich Menschen zu sehr auf sie verlassen. Überraschende Situationen kann aber der Mensch meist besser bewältigen. Bei der Untersuchung von Flugunfällen stellt sich besonders die Frage, welche Ereignisse die eigentliche Ursache also für das Unglück verantwortlich sind. Wie ist hier Kausalität zu definieren? An der Uni Bielefeld wurde in der Arbeitsgruppe von Prof. Ladkin dazu die Why-Because-Analysis (WBA) entwickelt, wo die Counterfactual Test Theory von David Lewis zum Einsatz kommt. Aus der Überprüfung, ob ein Ereignis notwendig und die Menge der

CAMMP Week
In dieser Folge unterhält sich Gudrun gleich mit vier Personen. Im Gespräch geht es um ein ganz besonderes Angebot für Schülerinnen und Schüler: die CAMMP-week. Die Abkürzung CAMMP steht hier für "Computational and Mathematical Modeling Program" (deutsch: "Computergestütztes Mathematisches Modellierungsprogramm"). Das Programm wurde in der Arbeitsgruppe von Martin Frank während seiner Tätigkeit an der RWTH in Aachen entwickelt. Mit seinem Wechsel ans KIT in Karlsruhe gibt es nun seit Januar 2018 auch ein Standbein am KIT. Mit Kirsten Wohak hatte Gudrun schon über das Konzept, die Idee und konkrete Beispiele für CAMMP gesprochen. Dabei entstand der Wunsch, unbedingt auch Schülerinnen und Schüler zu Wort kommen zu lassen, die an einer CAMMP-Veranstaltung teilgenommen haben. Elly Bastian und Christian Beitzinger haben vom 24.-29. Juni 2018 an der diesjährigen CAMMP week in der Jugendherberge in Voeren (Belgien) teilgenommen und hatten Lust, im Podcast über ihre Erfahrungen zu berichten. Elly ist derzeit noch Schülerin der 10. Klasse am Goethe-Gymnasium in Gaggenau und Christian ist in der K1 im Tulla-Gymnasium in Rastatt. Zwei Programmgestalterinnen waren ebenfalls mit in der Podcast-Gesprächsrunde, nämlich Kirsten Wohak und Maren Hattebuhr. Sie gehören am KIT zur Arbeitsgruppe von Martin Frank Computational Science and Mathematical Methods. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik. Das Angebot der CAMMP week richtet sich an Schüler und Schülerinnen der Oberstufe, die an Mathematik interessiert sind, an Mathematiklehrpersonen sowie Personen im Referendariat oder Lehramtsstudium und findet jährlich in der Jugendherberge in Voeren in Belgien statt. In Karlsruhe wird zusätzlich noch eine zweite Modellierungswoche in Zusammenarbeit mit dem MINT-EC angeboten, an welcher Schülerinnen und Schüler von Schulen, die Teil des MINT-Schulnetzwerks sind, teilnehmen können. In beiden Wochen werden die Teilnehmenden in Gruppen aufgeteilt, die jeweils aus sechs Schülerinnen und Schülern und zwei (angehenden) Lehrkräften bestehen. Bei den zu lösenden Problemen handelt es sich um reale Fragestellungen aus der Forschung von Firmen oder Universitätsinstituten. Jede Gruppe erhält eine individuelle Aufgabenstellung, an der sie innerhalb der fünf Tage forscht. Dabei wird sie auch wissenschaftlich betreut. Die Schülerteams präsentieren ihre Ergebnisse den Firmen am Ende der Woche im Rahmen einer repräsentativen Abschlussveranstaltung. Hier sind auch die Familien und die Schulen dabei. Welche Wege führen junge Menschen nun in die CAMMP week? Elly hatte Anfang 2018 die Arbeit der Gruppe um Martin Frank im Rahmen ihres BOGY-Praktikums kennen gelernt und dabei Lust bekommen, noch mehr praktische Mathematik zu machen. Obwohl sie keine andere Person kannte, die auch nach Belgien fahren würde, war ihre Lust so groß, dass sie sich auf das Abenteuer einlassen wollte. Christian wurde von seinem Mathelehrer auf die Möglichkeit hingewiesen und hatte sich mit Mitschülern abgesprochen. Beide berichteten darüber, dass sie in der jeweiligen Gruppe mit viel Enthusiasmus arbeiten konnten, viele Ideen geboren und wieder verworfen wurden und am Ende auch in schwierigen Phasen ein Ausweg gefunden wurde. Es war eine interessante Erfahrungen, mit anderen Schülerinnen und Schülern zusammen zu sein, die auch Begeisterung für Mathematik empfinden. Beide haben nun ein neues Bild von Mathematik und den Möglichkeiten einer späteren Berufstätigkeit mit einer mathematischen Vorbildung und würden auch gern wieder an einer CAMMP week teilnehmen. Podcasts E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Frank: Kinetische Theorie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 152, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. B. Böttcher: Meisterklasse, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. 10 Jahre Omega Tau Podcast

Dynamical Sampling
Gudrun met the USA-based mathematician Roza Aceska from Macedonia in Turin at the Conference MicroLocal and Time-Frequency Analysis 2018. The topic of the recorded conversation is dynamical sampling. The situation which Roza and other mathematician study is: There is a process which develops over time which in principle is well understood. In mathematical terms this means we know the equation which governs our model of the process or in other words we know the family of evolution operators. Often this is a partial differential equation which accounts for changes in time and in 1, 2 or 3 spatial variables. This means, if we know the initial situation (i.e. the initial conditions in mathematical terms), we can numerically calculate good approximations for the instances the process will have at all places and at all times in the future. But in general when observing a process life is not that well sorted. Instead we might know the principal equation but only through (maybe only a few) measurements we can find information about the initial condition or material constants for the process. This leads to two questions: How many measurements are necessary in order to obtain the full information (i.e. to have exact knowledge)? Are there possibilities to choose the time and the spatial situation of a measurement so clever as to gain as much as possible new information from any measurement? These are mathematical questions which are answered through studying the equations. The science of sampling started in the 1940s with Claude Shannon who found fundamental limits of signal processing. He developed a precise framework - the so-called information theory. Sampling and reconstruction theory is important because it serves as a bridge between the modern digital world and the analog world of continuous functions. It is surprising to see how many applications rely on taking samples in order to understand processes. A few examples in our everyday life are: Audio signal processing (electrical signals representing sound of speech or music), image processing, and wireless communication. But also seismology or genomics can only develop models by taking very intelligent sample measurements, or, in other words, by making the most scientific sense out of available measurements. The new development in dynamical sampling is, that in following a process over time it might by possible to find good options to gain valuable information about the process at different time instances, as well as different spatial locations. In practice, increasing the number of spatially used sensors is more expensive (or even impossible) than increasing the temporal sampling density. These issues are overcome by a spatio-temporal sampling framework in evolution processes. The idea is to use a reduced number of sensors with each being activated more frequently. Roza refers to a paper by Enrique Zuazua in which he and his co-author study the heat equation and construct a series of later-time measurements at a single location throughout the underlying process. The heat equation is prototypical and one can use similar ideas in a more general setting. This is one topic on which Roza and her co-workers succeeded and want to proceed further. After Roza graduated with a Ph.D. in Mathematics at the University of Vienna she worked as Assistant Professor at the University Ss Cyril and Methodius in Skopje (Macedonia), and after that at the Vanderbilt University in Nashville (Tennessee). Nowadays she is a faculty member of Ball State University in Muncie (Indiana). References Overview on sampling theory and applications: M. Unser: Sampling-50 years after Shannon Proceedings of the IEEE 88 (4) 569 - 587, 2000. Dynamical sampling in shift-invariant spaces: R. Aceska e.a.: Dynamical Sampling in Shift-Invariant Spaces 2014 (Version at Archive} Dynamical sampling: R. Aceska, A. Petrosyan, S. Tang: Dynamical sampling of two-dimensional temporally-varying signals International Conference on Sampling Theory and Applications (SampTA), DOI:10.1109/SAMPTA.2015.7148929, 2015. DeVore, Ronald, and Enrique Zuazua: Recovery of an initial temperature from discrete sampling, Mathematical Models and Methods in Applied Sciences 24.12 (2014): 2487-2501, 2014. Evolution operators involved in dynamical sampling: S. Tang: System identification in dynamical sampling, Advances in Computational Mathematics 43 (3) 555–580, 2017. On Bessel systems, bases and frames in the dynamical sampling setup: A.Aldroubi e.a.:lterative actions of normal operators Journal of Functional Analysis 272 (3), 1121-1146, 2017. Related Podcasts G. Thäter, E. Zuazua: Waves, Conversation in Modellansatz Podcast Episode 054, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

Sternenschwerpunkt
Am Rande des Treffens des German Chapters of European Women in Mathematics sprach Gudrun mit Carla Cederbaum. Das Treffen der Mathematikerinnen fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Carla hielt einen der Hauptvorträge und gab einen Einblick in ihre Forschung unter dem Titel "Where is the center of mass of a star -- and what does this have to do with Mathematics?" Die Ideen der Vorlesung dienten als Einstieg in das Gespräch zum Arbeitsgebiet von Carla: Mathematische Relativitätstheorie. Dieses Thema schlägt eine Brücke zwischen Physik und Mathematik. Carla hat sich schon immer sehr für Mathematik und Physik interessiert und sich zunächst für ein Physikstudium entschieden. Später hat die Mathematik sich als attraktiver erwiesen, aber die physikalische Anwendungen liegen ihr weiterhin am Herzen. Nun benutzt sie mathematische Methoden der geometrischen Analysis und Differentialgeometrie gemeinsamen mit ihren grundlegenden Vorstellungen von Physik für ihre Forschung. Im Zentrum des Vortrages stand, welche Schritte es möglich gemacht haben, das klassische Konzept Schwerpunkt auf die Situation zu übertragen, dass sich Objekte so wie Sterne oder Galaxien so schwer sind bzw. sich so schnell bewegen, dass sie den Gesetzmäßigkeiten der Relativitätstheorie unterliegen. Der Schwerpunkt eines physikalischen Systems ist eines der ältesten und grundlegendsten Konzepte der mathematischen Physik und Geometrie. Das Verstehen der Position und Bewegung des Massenschwerpunktes eines Systems ist oft der erste Schritt zum Verständnis der Gesamtdynamik des Systems. Geht man jedoch über die klassische Mechanik hinaus, wird der Begriff immer komplizierter und muss neu definiert werden. Beispielsweise hängt der Schwerpunkt einer Massenverteilung in besonderer Weise vom gewählten Beobachter ab und er muss sich für Objekte wie schwarzes Löcher eignen. Hier kann er nicht als "Ereignis" (Punkt) in der Raumzeit beschrieben werden. Jede Vorstellung vom Massenschwerpunkt muss also notwendigerweise abstrakter sein. In ihrer Doktorarbeit untersuchte Carla sogenannte geometrostatische Systeme, d.h. asymptotisch flache statische Lösungen der Einstein-Gleichungen im Vakuum. Anders ausgedrückt sind das statisch isolierte relativistische Systeme, deren Materie kompakten Träger hat. Ihr Ziel war es, ein tieferes Verständnis ihrer Asymptotik zu erlangen und mehr Einblick in ihre physikalische Interpretation (z.B. Masse und Schwerpunkt) zu gewinnen. Des weiteren war es spannend, inwieweit klassische und solche relativistischen Begriffe ineinander übergehen im Grenzwert kleiner Geschwindigkeiten. Der Vortrag zeigte, worin die Herausforderungen bestehen und zeigte welche Techniken von ihr erfolgreich angewendet worden waren. Als erstes grundlegendes Problem für nicht statische Systeme erweist sich, dass die Beschreibung vom Beobachter abhängen muss. Eine grundlegende Idee ist es, die Lage des Schwerpunktes als Zentrum einer unendlichen Schar von ineinander liegenden Sphären zu beschreiben. Je größer diese Kugeloberflächen werden, desto weniger sind sie gekrümmt. Wenn man die Krümmung in der Geometrie des zu beschreibenden Raumes beherrscht, kann man als den Grenzwert dieser ineinander geschachtelten Sphären den Schwerpunkt fassen. Zur Beschreibungen von Krümmungen braucht man die zweiten Ableitungen auf den eingebetteten Oberflächen in alle Richtungen, weshalb dies auf eine partielle Differentialgleichung zweiter Ordnung führt. Carla ist Juniorprofessorin am Fachbereich Mathematik der Universität Tübingen und Kollegiatin der Heidelberger Akademie der Wissenschaften. Sie hat schon sehr früh ihre Forschung allgemeinverständlich dargestellt, z.B. 2009 mit der interaktiven Ausstellung Von Newton zu Einstein: Eine Reise durch Raum und Zeit. Sie macht das sehr erfolgreich und brennt für das Thema Literatur und weiterführende Informationen C. Cederbaum, A geometric boundary value problem related to the static equations in General Relativity Oberwolfach report, 2017. C. Cederbaum, J. Cortier, A. Sakovich, On the center of mass of asymptotically hyperbolic initial data sets (preprint, accepted in Ann. Henri Poincaré), 2015. MSRI Emissary General Relativity, 2013. Carla Cederbaum,The Geometry of Static Spacetimes: Geometrostatics, Oberwolfach report, 2012. Carla Cederbaum, The Newtonian Limit of Geometrostatics, PhD thesis, 2011.

Algebraic Geometry
Gudrun spent an afternoon at the Max Planck Institute for Mathematics in the Sciences (MPI MSI) in Leipzig. There she met the Colombian mathematician Eliana Maria Duarte Gelvez. Eliana is a PostDoc at the MPI MSI in the Research group in Nonlinear Algebra. Its head is Bernd Sturmfels. They started the conversation with the question: What is algebraic geometry? It is a generalisation of what one learns in linear algebra insofar as it studies properties of polynomials such as its roots. But it considers systems of polynomial equations in several variables so-called multivariate polynomials. There are diverse applications in engineering, biology, statistics and topological data analysis. Among them Eliana is mostly interested in questions from computer graphics and statistics. In any animated movie or computer game all objects have to be represented by the computer. Often the surface of the geometric objects is parametrized by polynomials. The image of the parametrization can as well be defined by an equation. For calculating interactions it can be necessary to know what is the corresponding equation in the three usual space variables. One example, which comes up in school and in the introductory courses at university is the circle. Its representation in different coordinate systems or as a parametrized curve lends itself to interesting problems to solve for the students. Even more interesting and often difficult to answer is the simple question after the curve of the intersection of surfaces in the computer representation if these are parametrized objects. Moreover real time graphics for computer games need fast and reliable algorithms for that question. Specialists in computer graphics experience that not all curves and surfaces can be parametrized. It was a puzzling question until they talked to people working in algebraic geometry. They knew that the genus of the curve tells you about the possible vs. impossible parametrization. For the practical work symbolic algebra packages help. They are based on the concept of the Gröbner basis. Gröbner basis help to translate between representations of surfaces and curves as parametrized objects and graphs of functions. Nevertheless, often very long polynomials with many terms (like 500) are the result and not so straightforward to analyse. A second research topic of Eliana is algebraic statistics. It is a very recent field and evolved only in the last 20-30 years. In the typical problems one studies discrete or polynomial equations using symbolic computations with combinatorics on top. Often numerical algebraic tools are necessary. It is algebraic in the sense that many popular statistical models are parametrized by polynomials. The points in the image of the parameterization are the probability distributions in the statistical model. The interest of the research is to study properties of statistical models using algebraic geometry, for instance describe the implicit equations of the model. Eliana already liked mathematics at school but was not always very good in it. When she decided to take a Bachelor course in mathematics she liked the very friendly environment at her faculty in the Universidad de los Andes, Bogotá. She was introduced to her research field through a course in Combinatorial commutative algebra there. She was encouraged to apply for a Master's program in the US and to work on elliptic curves at Binghamton University (State University of New York) After her Master in 2011 she stayed in the US to better understand syzygies within her work on a PhD at the University of Illinois at Urbana-Champaign. Since 2018 she has been a postdoc at the MPI MSI in Leipzig and likes the very applied focus especially on algebraic statistics. In her experience Mathematics is a good topic to work on in different places and it is important to have role models in your field. References E. Duarte, Ch. Görgen: Equations defining probability tree models E. Duarte: Implicitization of tensor product surface in the presence of a generic set of basepoints. 2016. Journal of Algebra and Applications(to appear). Rigidity of Quasicrystal Frameworks - webpage E. M. Duarte, G. K. Francis: Stability of Quasicrystal Frameworks in 2D and 3D Proceedings of the First Conference Transformables 2013.In the Honor of Emilio Perez Piñero 18th-20th September 2013, Seville, Spain Portraits of people working in Nonlinear Algebra Podcasts P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

InfSup-Bedingung
Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung. Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck. Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung. Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist. Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig. Literatur und weiterführende Informationen D. Gallistl. Rayleigh-Ritz approximation of the inf-sup constant for the divergence. Math. Comp. (2018) Published online, https://doi.org/10.1090/mcom/3327 Ch. Bernardi, M. Costabel, M. Dauge, and V. Girault, Continuity properties of the inf-sup constant for the divergence, SIAM J. Math. Anal. 48 (2016), no. 2, 1250–1271. https://doi.org/10.1137/15M1044989 M. Costabel and M. Dauge, On the inequalities of Babuška-Aziz, Friedrichs and Horgan-Payne, Arch. Ration. Mech. Anal. 217 (2015), no. 3, 873–898. https://doi.org/10.1007/s00205-015-0845-2 D. Boffi, F. Brezzi, and M. Fortin, Mixed finite element methods and applications, Springer Series in Computational Mathematics, vol. 44, Springer, Heidelberg, 2013. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016

Maschinenbau HM
Gudrun sprach mit Gabriel Thäter. Er ist der langjährigen Hörerschaft schon bekannt, denn er hat im Februar 2015 als Schüler über sein BOGY-Praktikum am Institut für angewandte und numerische Mathematik berichtet. Heute ist er Maschinenbau-Student am KIT und absolviert gerade sein viertes Semester. Damit hat Gabriel die drei Semester, in denen Mathematik zum Studienplan für Maschinenbauer gehört - die sogenannte Höhere Mathematik (HM) I-III - erfolgreich abgeschlossen. Außerdem arbeitet er schon das zweite Semester als Tutor in der HM-Ausbildung für das Studienjahr, das nach ihm das Studium aufgenommen hat. Gudrun wollte im Gespräch aus erster Hand erfahren, wie die Mathe-Ausbildung bei ihm angekommen ist. Der Ausgang war, mit welchen Wünschen und Erwartungen Gabriel sich für ein Studium im Maschinenbau entschieden hat. Tatsächlich war Maschinenbau nicht sein erster Wunsch, sondern er hatte sich zunächst für ein Duales Studium in Luft- und Raumfahrttechnik beworben. Das Duale Studium vereinigt Praxisphasen in einem Unternehmen mit Studienphasen an einer Fachhochschule und führt zum Abschluss Bachelor. Während der Studienzeit zahlt das Unternehmen ein Gehalt. Diese Studiensituation ist ist so attraktiv, dass der Wettbewerb um die wenigen Studienplätze immer sehr stark ist - auch wenn es nicht die ideale Ausgangssituation für eine Forschungstätigkeit später ist, da die theoretische Ausbildung nicht so breit aufgestellt sein kann wie im Bachelor an einer Universität. Ein Studium des Maschinenbaus kam Gabriels Wunschbild Raumfahrttechnik am nächsten, zumal mit einem Studium in Karlsruhe für ihn auch kein Wohnort-Wechsel nötig wurde. Inzwischen ist Gabriel mit der "zweiten Wahl" sehr zufrieden, denn sein Studium erweist sich für ihn sehr vielseitig und bereitet ihn auf unterschiedliche Spezialisierungsmöglichkeiten vor. Im Moment plant er, sich in der Richtung Thermische Strömungsmaschinen zu vertiefen. Gabriel war darauf gefasst, dass Mathematik an der Uni etwas mehr Zeit und Mühe kosten wird als in der Schule. Es hat ihn aber doch etwas überrascht, wie sehr sich Stoffdichte und Unterrichtstempo von der Schule unterscheiden. Trotzdem hat er seinen Ehrgeiz darin gesetzt, die Übungsaufgaben möglichst richtig und vollständig zum gegegebnen Termin einzureichen. Um für die schriftliche Prüfung am Ende des Semester zugelassen zu werden, muss man in der Summe der Übungsblätter 1-10 eine gewisse Mindestpunktzahl erreichen. Für Gabriel hat sich die Arbeit in einer Gruppe bewährt. Für die Prüfungsvorbereitung hat er auch alte Klausuren aus der Fachschaft herangezogen. Die Aufteilung des Lernens in der Vorlesung, der zentralen Übung und in den Tutorium hat ihm gut gefallen. Jede Veranstaltung hat ihren Platz und ihren eigenen Nutzen für ihn gezeigt. Als Tutor sieht er nun die Lehre auch ein wenig von der anderen Seite. Er unterrichtet selbst pro Woche eine Stunde, in der die Studierenden Fragen zu den aktuellen Aufgaben stellen und in Gruppen Aufgaben lösen, die den Übungsaufgaben zuarbeiten. Außerdem korrigiert er die Hausaufgaben seiner Tutoriengruppe. Dabei fällt ihm negativ auf, wenn zur Lösung kein logischer Rahmen gegeben wird, sondern einfach "wild losgerechnet" wird. Dann fällt es oft schwer, zu verstehen, was die Studierenden eigentlich mit den Rechnungen finden möchten und ob das sinnvoll ist oder falsch. Gabriel sagt, dass er durch die Vorbereitung der Tutorien oft noch viel besser verstanden hat, was er eigentlich im ersten und zweiten Semester gelernt hat. Podcasts und weiterführende Informationen G. Thäter: Wasserraketen, Gespräch mit G. Thäter im Modellansatz Podcast Folge 49, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/wasserraketen F. Hettlich: Höhere Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/hoehere-mathematik G. Thäter, J. Rollin: Advanced Mathematics, conversation in the Modellansatz Podcast, episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. http://modellansatz.de/advanced-mathematics Informationen zur Höheren Mathematik im Maschinenbau am KIT

Erdbebensicheres Bauen
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen. Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben). Erdbebenzonen in Deutschland. CC-BY 2.0 Störfix In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala. In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen. Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse. Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen. Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger, und die unterschiedlichen Belastungen in der maximalen Auslenkung in maximale statische horizontale Ersatzkräfte umgerechnet und damit vergleichbar gemacht. Ein wichtiger Startpunkt ist die Auswahl der Bemessungssituation und das Semiprobabilistische Teilsicherheitssystem, als Weiterentwicklung des Sicherheitsfaktors, bzw. der Aufteilung in verschiedene Eurocodes, die auch noch eine national unterschiedliche Behandlung ermöglichen. Bei der Lastbestimmung berücksichtigt man ständige Lasten, eine hauptsächliche nicht-ständige Last, die Haupteinwirkung, und weitere nicht-ständige Lasten, die aber durch einen probabilistischen Faktor abgemindert werden, da nicht alle nicht-ständige Lasten gleichzeitig auftreten. Aus der Festigkeit des Baumaterials wird nun die maximale Spannung berechnet, die es aufnehmen kann, und diese muss den Einwirkungen bestehen können. Eigentlich ist die DIN4149 durch den deutlich umfangreicheren Eurocode 8 abgelöst, doch ist aktuell noch die DIN4149 anzuwenden, da der Eurocode 8 zum Zeitpunkt der Aufnahme noch nicht in die technischen Baubestimmungen aufgenommen wurden. Eine Besonderheit der Bemessungssituation für erdbebensicheres Bauen ist, dass hier ein Katastrophenlastfall angenommen wird, und es daher keine allgemeinen Sicherheitsfaktoren mehr gibt. Es geht dabei nicht um den Erhalt des Gebäudes, sondern nur um die Möglichkeit Menschenleben schützen zu können. Ein Bedeutungsbeiwert beschreibt die Bedeutung des Gebäudes für Katastrophenfälle, beispielsweise haben hier landwirtschaftliche Gebäude einen Wert von 0,8 während Krankenhäuser den Wert 1,4 haben. Weiterhin wird die Nutzung durch einen Nutzungsbeiwert beschrieben, die die Belastung des Gebäudes durch die Nutzung beschreiben- diese können ständig, wie im Fall von Bibliotheken sein, oder sich häufig ändernd, wie durch Menschen, die das Gebäude besuchen. Aus dem anzusetzenden Gewicht und der Beschleunigung durch die Erdmase kann man mit dem Modell des Einmassenschwingers die modellierte Schwingung des Gebäudes simulieren. Aus dieser Simulation erhält man das Antwortspektrum

Automatic Differentiation
Gudrun talks with Asher Zarth. He finished his Master thesis in the Lattice Boltzmann Research group at the Karlsruhe Institute for Technology (KIT) in April 2018. Lattice Boltzmann methods (LBM) are an established method of computational fluid dynamics. Also, the solution of temperature-dependent problems - modeled by the Boussinesq approximation - with LBM has been done for some time. Moreover, LBM have been used to solve optimization problems, including parameter identification, shape optimization and topology optimization. Usual optimization approaches for partial differential equations are strongly based on using the corresponding adjoint problem. Especially since this method provides the sensitivities of quantities in the optimization process as well. This is very helpful. But it is also very hard to find the adjoint problem for each new problem. This needs a lot of experience and deep mathematical understanding. For that, Asher uses automatic differentiation (AD) instead, which is very flexible and user friendly. His algorithm combines an extension of LBM to porous media models as part of the shape optimization framework. The main idea of that framework is to use the permeability as a geometric design parameter instead of a rigid object which changes its shape in the iterative process. The optimization itself is carried out with line search methods, whereby the sensitivities are calculated by AD instead of using the adjoint problem. The method benefits from a straighforward and extensible implementation as the use of AD provides a way to obtain accurate derivatives with little knowledge of the mathematical formulation of the problem. Furthermore, the simplicity of the AD system allows optimization to be easily integrated into existing simulations - for example in the software package OpenLB which Asher used in his thesis. One example to test the algorithm is the shape of an object under Stokes flow such that the drag becomes minimal. It is known that it looks like an american football ball. The new algorithm converges fast to that shape. References F. Klemens e.a.: CFD- MRI: A Coupled Measurement and Simulation Approach for Accurate Fluid Flow Characterisation and Domain Identification. Computers & Fluids 166, 218-224, 2018. T. Dbouk: A review about the engineering design of optimal heat transfer systems using topology optimization. Applied Thermal Engineering 112, pp. 841-854, 2017. C. Geiger and C. Kanzow. Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Springer-Verlag, 2013. M. J. Krause and V. Heuveline: Parallel fluid flow control and optimisation with lattice Boltzmann methods and automatic differentiation. Computers & Fluids 80, pp. 28-36, 2013. A. Kamikawa and M. Kawahara: Optimal control of thermal fluid flow using automatic differentiation. Computational Mechanics 43.6, pp. 839-846, 2009. A. Griewank and A. Walther. Evaluating derivatives: principles and techniques of algorithmic differentiation. Vol. 105. SIAM, 2008.

Computergrafik
Das Treffens des German Chapters of European Women in Mathematics fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Am Rande der Konferenz der Mathematikerinnen sprach Gudrun mit Susanne Krömker. Sie leitet seit 2004 die Computergrafik-Gruppe des Interdisziplinären Zentrums für Wissenschaftliches Rechnen(IWR) an der Ruprecht-Karls-Universität Heidelberg. In der Computergrafik geht es grob gesagt um Analyse und Bearbeitung von Daten und ihre Darstellung als visuelle Information, d.h. es kommen sehr viele unterschiedliche Anforderungen zusammen. Andererseits sind die Themen, die jeweils dahinter stecken auch ganz besonders vielgestaltig. Für Susanne begann 1989 die Faszination mit der Darstellung einer reaktiven Strömung, bei der explosionsartig Wärme freigesetzt wird. Im Experiment ist die Apparatur geborsten, die Simulation liefert die Erklärung durch eine von den Wänden reflektierte Druckwelle und die Visualisierung macht den zeitlich enorm kurzen Explosionsvorgang mit Temperatur- und Druckverteilung im reaktiven Gemisch anschaulich. Anschließend hat sie sich in ihrer Promotion mit partiellen Differentialgleichungen zur Beschreibung katalytischer Prozesse an Oberflächen beschäftigt, sich aber nie ganz von dem Thema Computergrafik getrennt, das in den 1990er Jahren dann richtig Fahrt aufnahm. Heute ist die Computergrafik technisch gesehen eine typische Anwendung für Hochleistungsrechnen. Außerdem gibt es immer wieder interessante Entwicklungen, die die Möglichkeiten von Grafikkarten unkonventionell ausnutzen. Aber es geht auch darum, geeignete Methoden zu entwicklen und zu implementieren, mit denen die von 3D-Scannern erfassten Messdaten auf ihren Informationsgehalt reduziert werden können. Grundsätzlich müssen dabei immer dreidimensionale Vorgänge auf dem zweidimensionalen Bildschirm dargestellt werden. Dazu braucht man projektive Geometrie - ein Thema, das in der Vorlesung mitunter abstrakt und von der Realität weit entfernt scheint. In ihrer Geometrie-Vorlesung für Sudierende der Mathematik kann Susanne ihre Erfahrungen aus der Informatik sehr anschaulich einbringen wie hier im Video für die Fano Ebene: (YouTube) Etwa seit dem Jahr 2000 gab es in der Arbeitsgruppe von Susanne viele besonders interessante und sehr unterschiedliche Projekte. Ein Forschungsschwerpunkt lag dabei in der Kombination von Computertomographie und Oberflächendaten, um aus beiden Bildgebungsverfahren im Resultat ein verbessertes Bild zu erhalten: ILATO-Projekt (Improving Limited Angle computed Tomography by Optical data integration). Außerdem hat sich die enge Zusammenarbeit mit Archäologen, Historikern und Geologen als besonders fruchtbar erwiesen. Beispiele dafür sind der theoriebildende Diskurs zum digitalen Modell des Klosters Lorsch (seit 1991 Weltkulturerbe der UNESCO) oder die Rekonstruktion von Inschriften in Tafeln und auf Grabsteinen, z.B. auf dem jüdischen Friedhof in Worms. Diese Analyse basiert auf Multiskalen Integralinvarianten, einem Filterverfahren, das in dem Softwareframework GigaMesh (Autor: Hubert Mara, IWR, Universität Heidelberg) implementiert ist. Oder die Rekonstruktion der Karten von barocken Globen, u.a. des Gottorfer Globus, mit HiIfe von anisotrop diffusiver Filterung. Die Arbeitsgruppe hat Ausgrabungen im Tempelgebiet von Angkor in Kambodscha, dem größten Tempelgebiet der Welt, wissenschaftlich begleitet. Es gelang eine virtuelle architektonische Rekonstruktion des größten Tempels Angkor Wat oder die Rekonstruktion einer sechs Meter hohen Schiva-Statue aus Koh Ker, von der einzelne Puzzle-Teile über mehrere Museen der Welt verstreut sind. Susanne hatte sich 1983 zunächst für ein Studium der Mathematik und Betriebswirtschaft in Osnabrück entschieden, hat dann aber den Wechsel nach Heidelberg verbunden mit der Hinwendungen zu anderen Natur- und Geisteswissenschaften nie bereut. Literatur und weiterführende Informationen Inschrift aus Gisela-Grab entziffert, Historisches Museum der Pfalz Speyer / Universität Heidelberg, 7. November 2016 © damals.de S. Krömker: Digitales Modell Kloster Lorsch - Ein Ladenburger Diskurs zum Thema virtueller Rekonstruktion in: Sonderheft Sehenswerte, Schlösser und Gärten Hessen, 1/2015. A. Beyer, H. Mara and S. Krömker: ILATO Project: Fusion of Optical Surface Models and Volumetric CT Data in: arXiv:1404.6583, 2014. S. Krömker: Neue Methoden zur besseren Lesbarkeit mittelalterlicher Grabsteine am Beispiel des Heiligen Sands in Worms, in: Die SchUM-Gemeinden Speyer - Worms - Mainz. Auf dem Weg zum Welterbe. Schnell & Steiner, pp. 167 - 188, 2013. H. G. Bock, W. Jäger, M. J. Winckler (eds.), Scientific Computing and Cultural Heritage, Contributions in Mathematical and Computational Sciences, Volume 3, Springer, 2013. A. Hoffmann, F. Zimmermann, H. Scharr, S. Krömker, C. Schulz: Instantaneous three-dimensional visualization of concentration distributions in turbulent flows with crossed-plane laser-induced fluorescence imaging, Applied Physics B: Lasers and Opti

CAMMP
Gudrun hat sich mit Kirsten Wohak unterhalten. Sie ist seit Januar 2018 in der Arbeitsgruppe Computational Science and Mathematical Methods von Prof. Frank tätig. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik. Thema des Gespräches war jedoch ein ganz besonderes Angebot für Schülerinnen und Schüler: Das Computational and Mathematical Modeling Program (CAMMP) . Zusammen mit Maren Hattebuhr kümmert sie sich um das schon an der RWTH Aachen erprobte Konzept nun auch in Karlsruhe. Beantwortet wird die Frage: Wie funktionieren eigentlich... Animationsfilme Fitnesstracker Google GPS mp3 Shazam Solarkraftwerke Sicherung der Privatsphäre in Sozialen Netzwerken...... und was hat das mit Mathe zu tun? Anhand solchen praxisorientierter Fragestellungen aus dem eigenen Alltag werden Schüler und Schülerinnen in die Grundlagen der mathematischen Modellierung eingeführt. Dabei finden mathematische Inhalte, wie beispielsweise Winkelsätze oder Matrizenrechnung Anwendung, die bereits aus dem Unterricht bekannt sind. Neben inhaltlicher Arbeit werden in den Workshops vor allem prozessbezogene Kompetenzen gefördert. Das typische Format ist ein sogenannter CAMMP-day. Er findet jeweils am Schülerlabor Mathematik im Mathebau statt und wird auf Anfrage je nach Themenwahl mit Oberstufen- bzw. Mittelstufenkursen von ein bis zwei wissenschaftlichen Mitarbeitern/-innen durchgeführt. Die Schüler/innen erhalten morgens zunächst eine Einführung, die die Bedeutung von mathematischer Modellierung und Simulation für Wissenschaft und Industrie anhand verschiedener Beispiele veranschaulicht. Anschließend finden die Workshops statt. Nachmittags werden die Ergebnisse von Schülerinnen und Schülern vorgestellt und im Bezug auf die Anfangssituation diskutiert. Seit dem 23. April 2018 läuft für sechs Montage der Schnupperkurs Mathematik zum Thema GPS und Navigation und am heutigen Girls' day findet der Shazam-Kurs statt. Podcasts B. Böttcher: Meisterklasse, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Zweiphasenströmungen
Gudrun hatte zwei Podcast-Gespräche beim FEniCS18 Workshop in Oxford (21.-23. März 2018). FEniCS ist eine Open-Source-Plattform zur Lösung partieller Differentialgleichungen mit Finite-Elemente-Methoden. Dies ist die zweite der beiden 2018er Folgen aus Oxford. Susanne Claus ist zur Zeit NRN Early Career Personal Research Fellow an der Cardiff University in Wales. Sie hat sich schon immer für Mathematik, Physik, Informatik und Ingenieursthemen interesseirt und diese Interessen in einem Studium der Technomathematik in Kaiserlautern verbunden. Mit dem Vordiplom in der Tasche entschied sie sich für einen einjährigen Aufenthalt an der Universität Kyoto. Sie war dort ein Research exchange student und hat neben der Teilnahme an Vorlesungen vor allem eine Forschungsarbeit zu Verdunstungsprozessen geschrieben. Damit waren die Weichen in Richtung Strömungsrechnung gestellt. Dieses Interesse vertiefte sie im Hauptstudium (bis zum Diplom) an der Uni in Bonn, wo sie auch als studentische Hilfskraft in der Numerik mitarbeitete. Die dabei erwachte Begeisterung für nicht-Newtonsche Fluid-Modelle führte sie schließlich für die Promotion nach Cardiff. Dort werden schon in langer Tradition sogenannte viskoelastische Stoffe untersucht - das ist eine spezielle Klasse von nicht-Newtonschem Fluiden. Nach der Promotion arbeitet sie einige Zeit als Postdoc in London am University College London (kurz: UCL) zu Fehleranalyse für Finite Elemente Verfahren (*). Bis sie mit einer selbst eingeworbenen Fellowship in der Tasche wieder nach Cardiff zurückkehren konnte. Im Moment beschäftigt sich Susanne vor allem mit Zweiphasenströmungen. In realen Strömungsprozessen liegen eigentlich immer mindestens zwei Phasen vor: z.B. Luft und Wasser. Das ist der Fall wenn wir den Wasserhahn aufdrehen oder die Strömung eines Flusses beobachten. Sehr häufig werden solche Prozesse vereinfacht modelliert, indem man sich nur eine Phase, nämlich die des Wassers genau ansieht und die andere als nicht so wichtig weglässt. In der Modellbildung für Probleme, in denen beide Phasen betrachtet werden sollen, ist das erste Problem, dass das physikalische Verhalten der beiden Phasen sehr unterschiedlich ist, d.h. man braucht in der Regel zwei sehr unterschiedliche Modelle. Hinzu treten dann noch komplexe Vorgänge auf der Grenzflächen auf z.B. in der Wechselwirkung der Phasen. Wo die Grenzfläche zu jedem Zeitpunkt verläuft, ist selbst Teil der Lösung des Problems. Noch interessanter aber auch besonders schwierig wird es, wenn auf der Grenzfläche Tenside wirken (engl. surfactant) - das sind Chemikalien die auch die Geometrie der Grenzfläche verändern, weil sie Einfluß auf die Oberflächenspannung nehmen. Ein Zwischenschritt ist es, wenn man nur eine Phase betrachtet, aber im Fließprozess eine freie Oberfläche erlaubt. Die Entwicklung dieser Oberfläche über die Zeit wird oft über die Minimierung von Oberflächenspannung modelliert und hängt deshalb u.a. mit der Krümmung der Fläche zusammen. D.h. man braucht im Modell lokale Informationen über zweite Ableitungen. In der numerischen Bearbeitung des Prozesses benutzt Susanne das FEniCS Framework. Das hat sie auch konkret dieses Jahr nach Oxford zum Workshop geführt. Ihr Ansatz ist es, das Rechengitter um genug Knoten anzureichern, so dass Sprünge dargestellt werden können ohne eine zu hohe Auflösung insgesamt zu verursachen. (*) an der UCL arbeitet auch Helen Wilson zu viscoelastischen Strömungen, mit der Gudrun 2016 in Oxford gesprochen hat. Literatur und weiterführende Informationen S. Claus & P. Kerfriden: A stable and optimally convergent LaTIn-Cut Finite Element Method for multiple unilateral contact problems, CoRR, 2017. H. Oertel jr.(Ed.): Prandtl’s Essentials of Fluid Mechanics, Springer-Verlag, ISBN 978-0-387-21803-8, 2004. S. Gross, A. Reusken: Numerical Methods for Two-phase Incompressible Flows, Springer-Verlag, eBook: ISBN 978-3-642-19686-7, DOI 10.1007/978-3-642-19686-7, 2011. E. Burman, S. Claus & A. Massing: A stabilized cut finite element method for the three field Stokes problem. SIAM Journal on Scientific Computing 37.4: A1705-A1726, 2015. Podcasts G. Thäter, R. Hill: Singular Pertubation, Gespräch im Modellansatz Podcast, Folge 162, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Wasserstofftankstellen
Gudrun unterhielt sich mit Meike Juliane Amtenbrink. Frau Amtenbrink hat von September 2017 bis Februar 2018 am Fraunhofer Institut für Solare Energiesysteme (ISE) in Freiburg Wasserstofftankstellen modelliert. Die Niederschrift der Ergebnisse bilden ihre Masterarbeit im Studiengang Energietechnik am KIT . Gudrun hat die Arbeit von Seiten des KIT als Erstgutachterin betreut. Als kohlenstofffreier Energieträger ist Wasserstoff im weltweiten Fokus der Forschung. Tanken mit Wasserstoff verspricht, den CO2-Ausstoß des Verkehrssektors zu reduzieren, zusätzlich ermöglicht die Umwandlung überschüssiger Strommengen in Wasserstoff mittels Elektrolyse dringend benötigte Flexibilität für die zukünftige Energieversorgung. Dafür müssen Tankstellen zur Verfügung stehen. Auf dem noch jungen Markt hat sich auf der Kundenseite bereits ein Standard etabliert, sodass alle Besitzerinnen eines Brennstoffzellenfahrzeugs an jeder Wasserstofftankstelle nachtanken können. Der technische Aufbau der Tankstellentechnologie ist dabei, je nach Anwendung, unterschiedlich. Teil der Arbeit war es einzuschätzen, welche Konzepte für den zukünftigen Markt eine Rolle spielen. Aufgrund der Vergleichbarkeit zwischen den relevanten Konzepten und dem in der ISE-eigenen Tankstelle umgesetzten Aufbau, wurde die institutseigene Tankstelle modelliert und die vorhandenen Messdaten genutzt, um die Plausibilität der Ergebnisse zu überprüfen. Im Rahmen vorangegangener Abschlussarbeiten wurde am Fraunhofer ISE ein Simulationsmodell eines Power-to-Gas-Systems auf Basis der PEM-Elektrolyse erstellt. Dieses Modell hatte zum Ziel, das dynamische Systemverhalten nachzubilden, Aussagen/Vorhersagen zum realen Wirkungsgrad der Anlage zu geben und die tatsächliche jährliche Wasserstofferzeugung zu prognostizieren. Darauf konnte Frau Amtenbrink aufbauen. In ihrer Arbeit wurde ein nulldimensionales, thermodynamisches Realgasmodell einer Wasserstofftankstelle in MATLAB/Simulink erstellt. Dafür wurden für die Einzelkomponenten einer Wasserstofftankstelle die Enthalpie- und Stoffbilanzen aufgestellt, in Simulink implementiert und über eine Steuerungslogik zu einem Gesamtsystem verbunden. Mit dem Tankstellenmodell können das Stand-by-Verhalten der Tankstelle und der Betankungsvorgang sekundengenau simuliert werden. Ergebnis sind die Drücke, Temperaturen und Stoffströme des Wasserstoffs an den relevanten Stellen im Gesamtsystem und der Energieverbrauch der Tankstelle, aufgeschlüsselt nach den wichtigsten Einzelkomponenten. Das Speichermodell kann auf Grundlage der Erhaltungsgleichungen über die zu- und abfließenden Stoffströme den sich ergebenden Druck und die Temperatur des Wasserstoffs im Speicher nachbilden, wobei die Realgasgleichung nach Redlich und Kwong benutzt wurde. Der Wärmeaustausch mit der Umgebung durch Konvektion und Wärmeleitung ist berücksichtigt. Das Modell ist auf verschiedene Speicher parametrisierbar und kann über die Anpassung der Geometrie- und Materialwerte sowohl für die Druckbänke an der Tankstelle, als auch für den Fahrzeugtank genutzt werden. Die Speichermodelle zeigen eine sehr gute Übereinstimmung mit der Realität. Die Drücke in Abhängigkeit der Umgebungstemperatur und die Temperaturerhöhung, die sich als Resultat einer Speicherbefüllung ergibt, können nachgebildet werden, ebenso der nach einer Befüllung erfolgende Temperaturausgleich mit Druckreduzierung. Durch das Modell für die Rohrleitungen können die Druckverluste innerhalb der Tankstelle abgebildet werden. Das Modell ist durch die Wahl der Geometrieparameter auf unterschiedliche Tankstellenkonfigurationen anwendbar. Der Kompressor wurde isentrop modelliert und die Verdichtungsarbeit mit einem isentropen Wirkungsgrad korrigiert. Der Druckanstieg, der sich durch den Kompressor beim Wiederbefüllen der Druckbank ergibt, ist durch die Simulation genau wiedergegeben. Dadurch ergibt sich, dass die Dauer der Speicherbefüllung zwischen Simulation und Messung übereinstimmt. Zur Modellierung der Kältemaschine wurde der Kältemittelkreislauf stark vereinfacht und durch eine Kälteleistung ersetzt, die von der Umgebungstemperatur abhängt. Für die wichtigsten Energieverbraucher an der Tankstelle, Kompressor und Kältemaschine, wurden Modelle erstellt, durch die der Energieverbrauch in Abhängigkeit der Betriebsführung berechnet werden kann. Nach der anschließenden Validierung kann das Modell dazu dienen, die Hauptenergieverbräuche an der Tankstelle zu quantifizieren und die Größe der einzelnen Komponeten optimal aufeinander auszulegen. Damit kann in Zukunft entschieden werden, ob zum Beispiel die Betriebsführung der Kältemaschine zur Optimierung des Gesamtwirkungsgrades verändert werden sollte. Literatur und weiterführende Informationen Pressemitteilung des H2-Tankstellen-Konsortiums App zum Auffinden von Wasserstofftankstellen sowie Karte mit Wasserstofftankstellen in Deutschland Informationen zur ersten H2-Tankstelle in Karlsruhe https://pem-electrolysis.de Homepage des Bereichs Wasserstofftechnologien

Singular Pertubation
Gudrun had two podcast conversations at the FEniCS18 workshop in Oxford (21.-23. March 2018). FEniCS is an open source computing platform for solving partial differential equations with Finite Element methods. This is the first of the two episodes from Oxford in 2018. Roisin Hill works at the National University of Ireland in Galway on the west coast of Ireland. The university has 19.000 students and 2.000 staff. Roisin is a PhD student in Numerical Analysis at the School of Mathematics, Statistics & Applied Mathematics. Gudrun met her at her poster about Balanced norms and mesh generation for singularly perturbed reaction-diffusion problems. This is a collaboration with Niall Madden who is her supervisor in Galway. The name of the poster refers to three topics which are interlinked in their research. Firstly, water flow is modelled as a singularly perturbed equation in a one-dimensional channel. Due to the fact that at the fluid does not move at the boundary there has to be a boundary layer in which the flow properties change. This might occur very rapidly. So, the second topic is that depending on the boundary layer the problem is singularly perturbed and in the limit it is even ill-posed. When solving this equation numerically, it would be best, to have a fine mesh at places where the error is large. Roisin uses a posteriori information to see where the largest errors occur and changes the mesh accordingly. To choose the best norm for errors is the third topic in the mix and strongly depends on the type of singularity. More precisely as their prototypical test case they look for u(x) as the numerical solution of the problem for given functions b(x) and f(x). It is singularly perturbed in the sense that the positive real parameter ε may be arbitrarily small. If we formally set ε = 0, then it is ill-posed. The numercial schemes of choice are finite element methods - implemented in FEniCS with linear and quadratic elements. The numerical solution and its generalisations to higher-dimensional problems, and to the closely related convection-diffusion problem, presents numerous mathematical and computational challenges, particularly as ε → 0. The development of algorithms for robust solution is the subject of intense mathematical investigation. Here “robust” means two things: The algorithm should yield a “reasonable” solution for all ranges of ε, including resolving any layers present; The mathematical analysis of the method should be valid for all ranges of ε. In order to measure the error, the energy norm sounds like a good basis - but as ε^2 → 0 the norm → 0 with order ε . They were looking for an alternative which they found in the literature as the so-called balanced norm. That remains O(1) as ε → 0. Therefore, it turns out that the balanced norm is indeed a better basis for error measurement.After she finished school Roisin became an accountant. She believed what she was told: if you are good at mathematics, accountancy is the right career. Later her daughter became ill and had to be partially schooled at home. This was the moment when Roisin first encountered applied mathematics and fell in love with the topic. Inspired by her daughter - who did a degree in general science specialising in applied mathematics - Roisin studied mathematics and is a PhD student now (since Sept. 2017). Her enthusiasm has created impressive results: She won a prestigious Postgraduate Scholarship from the Irish Research Council for her four year PhD program. References R. Lin, M. Stynes: A balanced finite element method for singularly perturbed reaction diffusion problems. SIAM J. Numer. Anal., 50(5):2729–2743, 2012. T. Linß: Layer-adapted meshes for reaction-convection-diffusion problems, volume 1985 of Lecture Notes in Mathematics. Springer-Verlag, Berlin, 2010. H.-G. Roos, M. Stynes, L. Tobiska: Robust Numerical Methods for Singularly Perturbed Differential Equations, volume 24 of Springer Series in Computational Mathematics. Springer-Verlag, Berlin, 2nd edition, 2008. Podcasts M. E. Rognes: Cerebral Fluid Flow, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Embryonic Patterns
In March 2018 Gudrun visited University College London and recorded three conversations with mathematicians working there. Her first partner was Karen Page. She works in Mathematical Biology and is interested in mathematical models for pattern formation. An example would be the question why (and how) a human embryo develops five fingers on each hand. The basic information for that is coded into the DNA but how the pattern develops over time is a very complicated process which we understand only partly. Another example is the patterning of neurons within the vertebrate nervous system. The neurons are specified by levels of proteins. Binding of other proteins at the enhancer region of DNA decides whether a gene produces protein or not. This type of work needs a strong collaboration with biologists who observe certain behaviours and do experiments. Ideally they are interested in the mathematical tools as well. One focus of Karen's work is the development of the nervous system in its embryonic form as the neural tube. She models it with the help of dynamical systems. At the moment they contain three ordinary differential equations for the temporal changes in levels of three proteins. Since they influence each other the system is coupled. Moreover a fourth protein enters the system as an external parameter. It is called sonic hedgehog (Shh). It plays a key role in regulating the growth of digits on limbs and organization of the brain. It has different effects on the cells of the developing embryo depending on its concentration. Concerning the mathematical theory the Poincaré Bendixson theorem completely characterizes the long-time behaviour of two-dimensional dynamical systems. Working with three equations there is room for more interesting long-term scenarios. For example it is possible to observe chaotic behaviour. Karen was introduced to questions of Mathematical Biology when starting to work on her DPhil. Her topic was Turing patterns. These are possible solutions to systems of Partial differential equations that are thermodynamically non-equilibrium. They develop from random perturbations about a homogeneous state, with the help of an input of energy. Prof. Page studied mathematics and physics in Cambridge and did her DPhil in Oxford in 1999. After that she spent two years at the Institute for Advanced Study in Princeton and has been working at UCL since 2001. References A. Turing: The Chemical Basis of Morphogenesis Philosophical Transactions of the Royal Society of London B. 237 (641): 37–72.1952 J.D. Murray: Mathematical Biology. Springer Science & Business Media, 2013. ISBN 978-3-662-08539-4 M. Cohen, K.M. Page e.a: A theoretical framework for the regulation of Shh morphogen-controlled gene expression. Development, 141(20), 3868-3878, 2014. N. Balaskas e.a.: Gene regulatory logic for reading the Sonic Hedgehog signaling gradient in the vertebrate neural tube. Cell. 148, 273-284, 2012. J. Panovska-Griffiths e.a.: A gene regulatory motif that generates oscillatory or multiway switch outputs. J. Roy. Soc. Interface. 10.79, 2013. Podcasts L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Omega Tau-Podcast 069: Grundlagen der Zellbiologie Omega Tau-Podcast 072: Forschung in der Zellbiologie Konscience-Podcast 024, Kapitel 5: Das Hochlandgen aus "Wie kam das bloß durch die Ethikkommission?"

Optimale Akkuladung
Gudrun sprach mit Veronika Auinger, die in ihrer Masterarbeit Ladevorgänge für Akkumulatoren (Akkus) optimal regelt. Die Arbeit entstand in enger Zusammenarbeit mit Christian Fleck und Andrea Flexeder von der Firma BOSCH (Abt. Control Theory). In einer Zeit, in der klar wird, das Erdöl als Energielieferant sehr bald ersetzt werden muss, ist die Suche nach alternativen Antriebsarten im Transport von hoher Priorität. Die populärste ist das Elektrofahrzeug, auch wenn es noch immer darum kämpft, sich in den Köpfen der Menschen zu etablieren. Ein wesentlicher Grund dafür ist die sehr begrenzte Speicherkapazität und die lange Ladezeit der in diesen Fahrzeugen eingebauten Akkumulatoren (*). Wir sind von Verbrennungsmotoren an eine große Reichweite und große Flexibilität gewöhnt. Wenn Elektroautos dieselben Anforderungen erfüllen sollen wie Benzinautos, spielen die Akkus und deren Laderegime(s) eine zentrale Rolle. Automobilzulieferer wie BOSCH oder MAHLE entwickeln schon jetzt einen beträchtlichen Teil der Technologie und Software, die in modernen Fahrzeugen steckt. Nun kommt die Entwicklung von zukunftsträchtigen Akkus als neues Thema und Produkt hinzu. Das Ziel der Masterarbeit von Frau Auinger war es, eine intelligente Ladestrategie zu finden, die zwei Aspekte des Batteriesystems minimiert: die Zeit, die benötigt wird, um die Batterie vollständig aufzuladen, und den Kapazitätsverlust des Akkus, der durch die Ladung verursacht wird. Eine gleichzeitige Minimierung ist jedoch problematisch, da beide Ziele im Allgemeinen nicht gemeinsam erreicht werden können: Eine minimale Ladezeit führt in der Regel zu einem hohen Kapazitätsverlust und umgekehrt. Der Grund hierfür ist, dass zur Verkürzung der Ladezeit mit höheren Strömen aufgeladen werden muss, was wiederum zu einer kürzeren Lebensdauer der Akkus führt. So gewinnen intelligente Ladestrategien an Bedeutung, bei denen der Ladestrom einem vorgegebenen Profil folgt, der den Verlust der Lebensdauer minimiert und die Ladezeit akzeptabel kurz hält. Diese Protokolle lassen sich als Lösungen für optimale Steuerungsprobleme bestimmen. In der Praxis erfordert dies Algorithmen, die Lösungen in Echtzeit liefern, was das Ziel dieser Masterarbeit war. Zu Beginn dieses Projektes lag eine Formulierung des Steuerungsproblem von Carolin Eckhard vor, das von ihr durch eine einfache Implementierung in Matlab gelöst worden war. Das Modell der Lithium-Ionen-Batterie besteht darin aus drei Teilen: Ein Zellspannungsmodell, ein Zelltemperaturmodell und ein Alterungsmodell, das den Kapazitätsverlust in der Zelle beschreibt. Da der Code nicht für Echtzeitzwecke taugte, wurde er von Adrian Tardieu beschleunigt, indem er Gradientenprojektionsmethoden einsetzte. In der Arbeit von Frau Auinger wurde ein vereinfachtes optimales Ladeproblem hergeleitet für das eine analytische Lösung mit Hilfe von Pontrjagin's Satz berechnet werden kann. Diese dient als erste Trajektorie im iterativen Algorithmus, was das Verfahren in der Regel beschleunigt. Die analytisch abgeleiteten Trajektorien haben sich als sehr nahe an den numerisch berechneten Lösungen des ursprünglichen Problems erwiesen und wurden daher als Ausgangsbasis für den existierenden Algorithmus verwendet. (*) Man spricht - eigentlich unzutreffend - auch gern von Batterien, weil es im englischen battery heißt. Literatur und weiterführende Informationen L.S. Pontrjagin, W.Boltjanski, R.V. Gamkrelidze, E.F. Mishchenko: Mathematische Theorie optimaler Prozesse. Oldenbourg 1967. N. Tauchnitz. Das Pontrjaginsche Maximumprinzip für eine Klasse hybrider Steuerungsprobleme mit Zustandsbeschränkungen und seine Anwendung. Doktorarbeit, Brandenburgische Technische Universität Cottbus-Senftenberg, 2010. J. Yan e.a.: Model Predictive Control-Based Fast Charging for Vehicular Batteries. Energies 2011, 4, 1178-1196; doi:10.3390/en4081178. A. Barré, B. Deguilhem, S. Grolleau, M. Gérard, F. Suard, and D. Riu. A review on lithium-ion battery ageing mechanisms and estimations for automotive applications. Journal of Power Sources, 241:680 689, 2013. J. Sabatier, J. M. Francisco, F. Guillemard, L. Lavigne, M. Moze, and M. Merveillaut. Lithium-ion batteries modeling: A simple fractional differentiation based model and its associated parameters estimation method. Signal Processing, 107 290 301, 2015. C. Eckard. Model predictive control for intelligent charging strategies of high-voltage batteries. Master's thesis, Universität Stuttgart, May 2016. Podcasts M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/akkumulatoren A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. D. Schumann: Elektromobilität, Gespräch mit Markus Voelter im Omega Tau Podcast, Folge 163, 2015. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie,

Zuschnittsoptimierung
Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie. Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt. Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat. Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar. Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme. Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich. Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern. Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist. Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist. Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutti

Meisterklasse
Gudrun war im März 2018 an der TU Dresden zu Gast. Sie bot dort einen Workshop in der Meisterklasse Mathematik an. Außerdem nutzte sie den Aufenthalt in Dresden für ein Gespräch mit Björn Böttcher. Er ist Initiator dieser Veranstaltungsreihe und koordiniert die Schülerförderung an der Fakultät für Mathematik an der TU Dresden. Die Meisterklasse Mathematik in Dresden ist ein Angebot für Schülerinnen und Schüler der siebten Klassen. Mathelehrerinnen und Lehrer aus Dresden und Umgebung dürfen ihre Mathematik-interessierten Schülerinnen und Schüler vorschlagen, und aus der Gruppe der nominierten werden von der Fakultät 60 Kinder ausgesucht. An drei Samstagen im März werden diese in den Willers-Bau eingeladen. Sie erleben dort Mathematik von einer neuen und überraschenden Seite und befassen sich am Vormittag und Nachmittag mit je einem Thema, das der Dozent oder die Dozentin für sie aufbereitet hat. Wichtig dabei ist auch, dass sich in der Gruppenarbeit zwischen den Kindern ganz natürlich Kontakte ergeben und sie erleben, dass es viele Gleichgesinnte gibt die ihre Freude an Mathematik, dem Knobeln und dem forschenden Denken teilen. Auf die Idee, eine Meisterklasse in Dresden zu etablieren kam Björn durch ein Buch über solche Masterclasses in Großbritannien (von Michael J. Sewell herausgegeben). Unkenrufen zum Trotz hat er es im Jahr 2014 zum ersten Mal probiert und hatte mit der Idee Erfolg. Es werden seitdem jedes Jahr mehr als genug Kinder nominiert und die Atmosphäre in den Workshops ist einzigartig. Alle sind mit Begeisterung dabei und selbst für eigentlich rethorisch gemeinte Fragen finden sich stets einige Wortmeldungen im Publikum. Wer auch einmal einen Kurs anbieten möchte, sollte sich einfach bei ihm melden: [email protected] Neben den Meisterklassen gibt es auch andere Angebote für Mathe-Interessierte in Dresden. Besonders bekannt ist wahrscheinlich die Mathematische Schülergesellschaft für die Klassen 6-12. Literatur und weiterführende Informationen Michael J. Sewell (ed): Mathematics Masterclasses: Stretching the Imagination, Oxford University Press, 1997. Aufgabensammlung für Schülerzirkel Mathematik Schülerförderung der Fakultät Mathematik TU Dresden Über die Lebensdauer von Seifenblasen - eine Exponentialverteilung im Experiment?. Erscheint im MNU-Journal Björn Böttcher und die Seifenblasen. Podcasts E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom

Mikroelektromechanische Systeme
Christina Lienstromberg von der Leibniz Universität in Hannover war im Februar 2018 zu Gast an unserer Fakultät. In einem Vortrag stellte sie mathematische Forschungsergebnisse zu Modellen für Mikrosysteme (auch mikroelektromechanische Systemen bzw. MEMS) vor. Christina hat in Hannover Mathematik studiert und auch promoviert und ist dort als Postdoc tätig. MEMS ist eine Technologie mikroskopisch kleiner Apparate mit beweglichen Teilen. Die Geräte bestehen aus Bauteilen mit einer Größe zwischen 1 und 100 Mikrometern (d.h. 0,001 bis 0,1 mm), und MEMS-Bauteile haben in der Regel eine Größe von 20 Mikrometern bis zu einem Millimeter (d.h. 0,02 bis 1,0 mm). Sie bestehen in der Regel aus einer Zentraleinheit, die Daten verarbeitet - dem Mikroprozessor - und mehreren Komponenten, die mit der Umgebung interagieren, wie beispielsweise winzigen Sensoren. Aufgrund des großen Flächen-Volumen-Verhältnisses von MEMS sind die Kräfte, die durch den umgebenden Elektromagnetismus (z.B. elektrostatische Aufladungen und magnetische Momente) und die Fluiddynamik (z.B. Oberflächenspannung und Viskosität) hervorgerufen werden, wichtiger als bei größeren mechanischen Geräten. MEMS befinden sich unter anderem in Airbags und Laptops und beobachten die Beschleunigung, um entsprechend reagieren zu können. So stellen sie fest, dass sich ein Computer im freien Fall befindet und setzen während des Sturzes den Lesekopf der Festplatte in Parkposition. Oder sie dienen der mechanische Bildstabilisierung in Fotoapparaten. Interessante Weiterentwicklungen werden unter dem Namen Mikrofluidik zusammengefaßt und sind schon jetzt im Einsatz in Tintenstrahl-Druckköpfen oder Lab-on-a-Chip-Systemen. Die mathematischen Modelle, die Christina und ihre Kollegen betrachten, sind zweidimensionale Schnitte durch ein Gebiet, das eine feste Bodenplatte hat und eine bewegliche Membran darüber, die auf beiden Seiten fest eingespannt ist, aber auf ein elektrisches Potential durch Bewegung reagiert. Viel Information über das System wird in der Durchlässigkeit der Membran ausgedrückt, auch Permittivitätsprofil genannt. Unterschiedliche Systeme von Differentialgleichungen dienen als Modelle, je nach physikalischer Herleitung. In jedem Fall ist ein entweder semi- oder quasilineares hyperbolisches oder parabolisches Evolutionsproblem für die Auslenkung einer elastischen Membran mit einem elliptischen Problem gekoppelt, das das elektrostatische Potential im Bereich zwischen der elastischen Membran und der starren Grundplatte bestimmt. Von besonderem Interesse bei allen Modellen ist der Einfluss verschiedener Klassen von Permittivitätsprofilen. Außerdem ist das mögliche Auftreten von Singularitäten nach endlicher Zeit spannend, wenn sich z.B. die Membran und die Bodenplatte treffen. Es zeigt sich, dass das System für alle Werte der angelegten Spannung räumlich und zeitlich wohlgestellt ist. Darüber hinaus wird überprüft, dass die Lösung auch global in der Zeit existiert, vorausgesetzt, dass die angelegte Spannung einen bestimmten kritischen Wert nicht überschreitet. Literatur und weiterführende Informationen J. Escher, P. Laurençot, C. Walker: A parabolic free boundary problem modeling electrostatic MEMS, Arch. Rational Mech. Anal., 211,389-417, 2014. C. Lienstromberg, J. Escher: A survey on second-order free boundary value problems modelling MEMS with general permittivity profile, Discrete Contin. Dyn. Syst. Ser. S 10, no. 4, 745–771, 2017. C. Lienstromberg, J. Escher: Finite-time singularities of solutions to microelectromechanical systems with general permittivity, Ann. Mat. Pura Appl. (4) 195 (2016), no. 6, 1961–1976. J.A. Pelesko, D.H. Bernstein: Modeling MEMS and NEMS, CRC Press Inc, ISBN 1584883065, 2002. X. Zhao: Modeling and Simulation of MEMS Devices, PhD-Dissertation submitted to the Faculty of the Virginia Polytechnic Institute and State University, 2004.

Poroelastische Medien
Jonathan Fröhlich hat im Juli 2017 seine Masterarbeit zum Thema "Heterogeneous Multiscale Methods for Poroelastic Media" eingereicht. Sie wurde von Professor Christian Wieners in unserem Institut betreut. Strömungs- und Transportphänomene in sogenannten porösen Medien spielen eine wichtige Rolle in einem breiten Spektrum von Bereichen und Anwendungen, wie zum Beispiel in der Landwirtschaft, der Biomedizin, der Baugeologie und der Erdöltechnik. Betrachtet man beispielsweise den Boden, so stellt man fest, dass der Sand, das Gestein oder der Kies keine homogene Masse ist mit homogenen Materialeigenschaften, sondern aus unzähligen unterschiedlich großen und in den physikalischen Eigenschaften variierenden Teilen bestehen. Die hohe Heterogenität solcher Medien führt auf eine große Komplexität, die im Modell des porösen Mediums stark vereinfacht betrachtet wird. Es liegt deshalb die Frage nahe: Wie verallgemeinert man herkömmliche Modelle für poröse Medien so, dass nicht gleich die komplette Zusammensetzung benötigt wird, aber mehr von der Struktur berücksichtigt wird? Die vorliegende Arbeit und unser Gespräch konzentrieren sich auf einen Spezialfall, nämlich die einphasige Strömung durch poroelastische Medien. Sie sind gekennzeichnet durch die Wechselwirkung zwischen der Beanspruchung der intrinisischen Struktur und der Strömung der Flüssigkeit. Konkret erzwingt die Änderung des Flüssigkeitsdrucks eine Beanspruchung des Materials, wodurch es beschleunigt und bewegt wird. Ein Beispiel hierfür ist der Blutfluß durch Adern. Das Blut verändert im Fließen ständig die konkrete Geometrie der elastisch verformbaren Adern und gleichzeitig ändern die Adern die Fließrichtung und -geschwindigkeit des Blutes. Dieser Prozeß wird mit bestimmten partiellen Differentialgleichungen (PDEs) modelliert. Jonathan verwendete das von Biot (1941) eingeführte linearisierte Modell und erweitert es zu einem quasistatischen Konsolidationsmodell für die Bodenmechanik. Solche Probleme sind charakterisiert durch die enorme Größe des betrachteten Gebietes, beispielsweise mehrere Kilometer an Flussbett. Dies steht im Kontrast zu den sehr kleineskaligen geometrischen Informationen, wie Sandkorngrößen und -formen, die einen Einfluss auf das System haben. Die standardmäßige Finite-Elemente-Methode zur numerischen Lösung dieses Systems von PDEs wird nur dann gute Ergebnisse liefern, wenn die Auflösung des Netzes wirklich extrem hoch ist. Dies würde zu nicht realisierbaren Rechenzeiten führen. Deshalb wird eine Idee von E und Engquist benutzt, die sogenannte Finite Element Heterogene Multiskalen Methode (FE-HMM) von 2003. Sie entkoppelt den heterogenen Teil und löst ihn durch ein mikroskopisch modelliertes Problem. Das makroskopische Problem braucht dann nur ein viel gröberes Netz und benutzt die Informationen aus dem mikroskopischen Teil als Daten. Mathematisch gesehen verwendet die Theorie eine schwache Formulierung mit Hilfe von Bilinearformen und sucht nach Lösungen in Sobolev-Räumen. Die passende Numerik für das makroskopische Problem ist eine gemischte Finite-Elemente-Methode für ein gestörtes Sattelpunktproblem. Deshalb müssen für Existenz und Eindeutigkeit von schwachen Lösungen bestimmte Bedingungen erfüllt sein, die der klassischen LBB-Bedingung (auch inf-sup-Bedingung genannt) ähnlich sind. Das zu lösende mikroskopische Problem ist elliptisch und wird mithilfe klassischer Homogenisierungstheorie hergeleitet, wobei zusätzliche Bedingungen zur Sicherung der Zwei-Skalen Konvergenz erfüllt werden müssen. Literatur und weiterführende Informationen Maurice A. Biot: General Theory of Three‐Dimensional Consolidation Journal of Applied Physics 12, 155, 1941. E. Weinan, Björn Engquist: The Heterogeneous Multiscale MethodsCommunications in Mathematical Sciences, Volume 1, Number 1, 87-132, 2003. M. Sahimi: Flow and Transport in Porous Media and Fractured Rock Wiley Weinheim, 2011. Assyr Abdulle e.a.: The heterogeneous multiscale method Acta Numerica Volume 21, pp. 1-87, 2012. Podcasts J. Fröhlich: Getriebeauswahl, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 028, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Turbulence
Martina Hofmanová has been working as a professor at the University of Bielefeld since October 2017. Previously, she was a Junior Professor at TU Berlin from February 2016 onwards, and before that an Assistant Lecturer, there. She studied at the Charles University in Prague, and got her PhD in 2013 at the École normale supérieure de Cachan in Rennes. Her time in Germany started in 2013 when she moved to the Max Planck Institute for Mathematics in the Sciences in Leipzig as a postdoc.Gudrun and Martina talk about randomness in the modeling of fluid motion. This topic is connected to the study of turbulent flow. Of course, we observe turbulence all around us, i.e. chaotic behaviour of the pressure and the velocity field in fluid flow. One example is the smoke pattern of a freshly extinguished candle. Its first part is laminar, then we observe transitional turbulent flow and fully turbulent one the further away the smoke travels. A second example is Rayleigh Bénard convection. Under the influence of a temperature gradient and gravity, one observes convection rolls when the temperature difference between bottom and top becomes large enough. If we look more closely, one can prescribe the motion as a mean flow plus random fluctuations. These fluctuations are difficult to measure but their statistical properties are reproduced more easily. A general procedure in physics and science is to replace expensive time averages by ensemble averages, which can be calculated together on a parallel computer. The concept why this often works is the so-called ergodic hypothesis. To justify this from the mathematical side, the main problem is to find the right measure in the ensemble average. In the model problem one can see that the solution is continuously dependent on the initial condition and the solution operator has a semigroup property. For random initial conditions, one can construct the solution operator correspondingly. Already with this toy problem one sees that the justification of using ensemble averages is connected to the well-posedness of the problem. In general, this is not apriori known. The focus of Martina's work is to find the existence of steady solutions for the compressible flow system, including stochastic forces with periodic boundary conditions (i.e. on the torus). At the moment, we know that there are global weak solutions but only local (in time) strong solutions. It turned out that the right setting to study the problem are so-called dissipative martingale solutions: Unfortunately, in this setting, the velocity is not smooth enough to be a stochastic process. But the energy inequality can be proved. The proof rests on introducing artificial dissipation in the mass conservation, and a small term with higher order regularity for the density. Then, the velocity is approximated through a Faedo-Galerkin approximation and a lot of independent limiting processes can be carried out successfully. The project is a collaboration with Dominic Breit and Eduard Feireisl. References M. Hofmanová: Stochastic partial differential equations, Lecture notes, Technical University of Berlin, 2016. D. Breit, E. Feireisl, M. Hofmanová, B. Maslowski: Stationary solutions to the compressible Navier-Stokes system driven by stochastic forces, preprint, 2016. D. Breit, E. Feireisl, M. Hofmanová: Local strong solutions to the stochastic compressible Navier-Stokes system, preprint, 2016. D. Breit, E. Feireisl, M. Hofmanová: Compressible fluids driven by stochastic forcing: The relative energy inequality and applications, Comm. Math. Physics 350, 443-473, 2017. D. Breit, M. Hofmanová: Stochastic Navier-Stokes equations for compressible fluids, Indiana Univ. Math. J. 65 (4), 1183-1250, 2016. Podcasts N. Vercauteren: Lokale Turbulenzen, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/lokale-turbulenzen B.Valsler, D. Ansell: The Science of Turbulence, The Naked Scientists Podcast, 2010.

Sensoreinsatzplanung
Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt de