„Janus“ hilft, komplexe Prozesse zu verstehen

von 16. Juni 2016

Janus ist noch im Probebetrieb an diesem 15. Juni 2016, als Wissenschaftler, Studenten und IT-Fachleute die Anlage besichtigen. Sie haben gerade im Institut für Biochemie etliche Vorträge zu Auswahl, Beschaffung und Leistungsfähigkeit des Rechners gehört und Antworten auf die Frage, wozu die 2,25 Millionen Euro teure Anlage, für die zwei Räume reserviert sind, überhaupt gebraucht wird.

Etwa zwei Stunden früher: Dr. Frank Wossal, Physiker mit IT-Spezialisierung und Direktor des ITZ, leitet den Vortragsnachmittag zum High Performance Computing (HPC) ein mit dem Hinweis, dass Spitzenforschung Spitzentechnik braucht. Er dankt dem Land Sachsen-Anhalt und der Deutschen Forschungsgemeinschaft (DFG) für die Finanzierung, dem Rektorat für die Voranstellung des Vorhabens, den Wissenschaftlern für die fachliche Begründung der Anschaffung, dem Technologie- und Gründerzentrum (TGZ) für die technische Unterstützung und dem Systemhaus Megware für das Zusammenstellen und Installieren des Hochleistungsrechners. Wossal kritisiert indes auch, dass die Finanzierung der Rechentechnik auf Konkurrenz statt Kooperation angelegt ist, was zusätzliche Kosten verursacht. Außerdem lenkt er den Blick auf die hohen Betriebskosten, die von der Universität geschultert werden müssen – mehrere Hunderttausend Euro im Jahr.

Speicher für eine halbe Milliarde Bücher mit je 500 Seiten

Dr. Wolf Zimmermann, Prorektor für Studium und Lehre und Spezialist für Software-Engineering und Programmiersprachen, nennt die Neuanschaffung das teuerste und modernste Gerät. Die Speicherkapazität entspreche der von einer halben Milliarde Büchern mit je 500 Seiten.

Dr. Gerald Möbius vom ITZ am Weinberg-Campus gibt einen Überblick über das Projekt: 2012 begann die Planung, 2013/2014 folgte der Antrag, 2014 sagte die DFG zu, 2015 ging die Ausschreibung raus. Im Schnitt alle anderthalb Jahre verdoppele sich die Rechenleistung. 2013 hätten die Wissenschaftler in Halle gerne einen Rechner mit 400 Teraflops gehabt, doch der hätte fünf Millionen Euro gekostet. Zu teuer! Beantragt wurden schließlich 290 Teraflops für 3,5 Millionen Euro in drei Stufen für die Jahre 2013 bis 2015. Am Ende wurden es 262 Teraflops für 2,25 Millionen Euro. Auf es sei möglich, die nun beschaffte Technik auf 400 Teraflops auszurüsten. Bei der Frage nach der Prozessortechnik stand die Frage: Intel oder AMD. Diesmal hat sich die Universität für Intel entschieden. Am Ende hätten Performance, Stromeffizienz sowie Transparenz, Service und Ausbaufähigkeit den Ausschlag gegeben.

Jörg Heydemüller von Megware in Chemnitz (Sachsen) berichtet, dass Megware eine eigene Entwicklungsabteilung und eigene Chassis, CPUs und Management-Software entwickelt. Man baue nicht einfach nur Produkte aus China und den USA zusammen. 2015 habe es das Unternehmen auf die Weltliste der IT-Ausrüster auf Platz 9 geschafft und sei somit erstmals in den Top 10 gewesen, die von HP, IBM und Gray Inc. angeführt werde. Heydemüller spricht auch über den Monopolisten Intel. Der US-amerikanische Chiphersteller beherrscht den Markt und das wirkt sich auf die Preise aus. Vor fünf oder zehn Jahren war AMD noch auf Augenhöhe. Das ist vorbei und Intel wird wohl in absehbarer Zeit alleiniger Anbieter von Interconnect (Kabel, die Geräte wie Festplatten und Monitor miteinander verbinden) für HPC sein. „HPC-Systeme bestehen 2016 zu 80 Prozent aus Teilen eines Herstellers.“

Simulation einer Nanometerprobe von Maserati

Nun folgen drei Wissenschaftler, die an praktischen Beispielen erklären, wofür so ein Superrechner benötigt wird. Dr. Wolfgang Paul vom Institut für Physik spricht davon, dass für den italienischen Luxusautohersteller Maserati Reifen weiterentwickelt werden sollen. Dazu untersuchen die Forscher, wie sich die Oberflächen im verwendeten Material zueinander verhalten. Was passiert an Grenzflächen von Polymeren (Gummi)? Dazu gibt es viele Annahmen und Beobachtungen. Aber was passiert genau? Eine Computersimulation soll helfen, die Fragen zu klären. Dazu werden 200.000 Teilchen betrachtet. Um alle Teilchen realistisch zu animiere, die sich bereits in einer Probe von wenigen Nanokubikmeter Größe aufhalten, braucht es schnelle Rechner.

Dr. Dina Robaa vom Institut für Pharmazie erläutert, wie aufwändig die Suche nach neuen Wirkstoffen ist. Es geht darum, Moleküle mit den gewünschten Eigenschaften zu modellieren. Eine Möglichkeit dazu ist das Docking. Dazu werden an einem Computer mögliche Bindungen ermittelt. Aus Millionen Varianten werden die besten ausgewählt. Nicht jede theoretisch ermittelte Bindung funktioniert auch und hat zudem die erwarteten Eigenschaften. Robaa erwähnt unter anderem die Forschungen an dem Enzym METTL21a (Methyltransferase Like 21A). Dort wurden es 4,5 Millionen theoretisch denkbaren Modifikationen 1,1 Millionen herausgefiltert und für diese wurde das Docking durchgerechnet. Eine Woche brauchte der Superrechner.

Kurzer Abschnitt der Embryonalphase eint alle Tiere und Pflanzen

Dr. Ivo Große, Bioinformatik-Professor am Institut für Informatik, sprudelt vor Begeisterung für das Thema seines Vortrags: „Abenteuer Genom-Dschungel – mit Hochleistungsrechnern dem Geheimnis der Biodiversität auf der Spur“. Schon als Kind war er fasziniert vom Leben an sich und von der Vielfalt. Wie entsteht das und wie kommen so viele Varianten zustande? Er spricht über den Mythos, dass der Mensch der Höhepunkt der Evolution ist. Schon Karl Ernst von Baer (1792-1876) habe es besser gewusst. Er entdeckte, dass alle Lebewesen eine Phase der embryonalen Entwicklung haben, wo sie sich gleichen. Am Anfang unterscheiden sich die Eizellen. Entwickeln sie sich weiter werden sie erst immer ähnlicher, um sich dann wieder deutlich voneinander zu unterscheiden. Das Muster dahinter: Am Anfang der embryonalen Entwicklung werden junge Gene angeschaltet, dann evolutionär sehr alte und dann wieder jüngere. Mit moderner Rechentechnik fand man schließlich heraus, dass Pflanzen dasselbe Embryonalmuster haben. In der Mai-Ausgabe des Wissenschaftsmagazins „Molecular Biology and Evolution“ hatten Große und sein Kollege Dr. Marcel Quint ihre Erkenntnisse zum evolutionsbiologischen Sanduhr-Modell der Pflanzen auf der Titelseite platzieren können. Gestärkt vom Erfolg trug Große seinen Wunsch vor, „Janus“ möglichst bald weiter aufzurüsten, wofür die Maschine angelegt ist, jedoch weitere große Geldbeträge gebraucht würden. Bei der Erforschung der Biodiversität, also der Vielfalt des Lebens, entwickele sich die Zahl der Sequenzen, die untersucht werden müssen, deutlich schneller als die Leistungsfähigkeit der Rechentechnik.

„Janus ist das neue HPC-Cluster der Universität im IT-Servicezentrum“, heißt der erste Satz auf einem Plakat, das am Eingang zum Superhirn hängt. Zu lesen ist dort auch von 6560 CPU-Cores, 46 TB-RAM und 250 TFL. Beeindruckende Parameter. Eine Platzierung in der Rangliste der 500 schnellsten Rechner der Welt hat das neue Datenwunder von Halle an der Saale trotzdem knapp verpasst. Um ein halbes Jahr, also genau so lange, wie der Aufbau des Computers dauerte.

Deutschlands schnellster Rechner steht in Stuttgart

Die 500er-Liste der Supercomputer wurde im November 2015 vom National Super Computer Center in Guangzhou (China) angeführt. Die Nummer 1 in Deutschland war Nummer 8 weltweit. Dabei handelte es sich um den Rechner „Hazel Hen“ des HLRS-Höchstleistungsrechenzentrums in Stuttgart. Der leistungsstärkste Rechner Ostdeutschlands stand an der Technischen Universität in Dresden und „hörte“ auf den Namen „Taurus“ (Rang 76). Im Osten ebenfalls unter den Top 500 war das Potsdam-Institut für Klimafolgeforschung (Rang 483).

Technische Details zu Janus: Bei dem neuen Hochleistungsrechner handelt es sich um ein Cluster aus 270 Rechenknoten mit jeweils 128 oder 256 Gigabyte Arbeitsspeicher und je zwei Prozessoren vom Typ Intel Xeon Haswell. Diese wiederum verfügen jeweils über zwölf Prozessorkerne. Ergänzt wird die Rechenleistung durch zwei Vier-Prozessor-Knoten mit jeweils einem Terabyte Hauptspeicher für Berechnungen mit außergewöhnlichem Speicherbedarf sowie zwölf weiteren Knoten mit je vier NVIDIA GeForce Maxwell Grafikprozessoren für spezielle Anwendungen. Damit verfügt das Gesamtsystem über 6.560 Prozessorkerne und 48 Terabyte Arbeitsspeicher. Die Rechenknoten sind untereinander und mit den Plattensystemen durch ein Netz verbunden, das einen Datendurchsatz von bis zu 20 Gigabyte pro Sekunde ermöglicht. Das neue System verfügt weiterhin über eine theoretische Rechenleistung von 260 Billionen Gleitkommaoperationen pro Sekunde (Teraflops) und eine Festplattenkapazität von einem Petabyte, also einer Million Gigabyte.

das ITZ online

http://itz.uni-halle.de/

die internationale Liste der Supercomputer

http://www.top500.org/

das Journal „Molecular Biology and Evolution“ im Netz

http://mbe.oxfordjournals.org/

megware im Internet

https://www.megware.com/unternehmen/historie.html