sciCORE – Ein Supercomputer mitten in Basel

Die Universität Basel stellt den Studierenden wichtige Ressourcen zur Verfügung, um ihnen wissenschaftliches Arbeiten zu ermöglichen. Doch was ist, wenn man mehrere hundert Gigabyte an Daten für eine Auswertung von Mikroskopie-Bildern benötigt oder der Rechner wieder den Geist aufgibt, weil die Monte-Carlo-Simulation zu viel Prozessor-Power benötigt? Genau hier knüpft der Hochleistungsrechner von sciCORE an.

Neben den IT-Services oder kurz ITS, ist sciCore die zweite informationstechnologische Säule der Universität Basel. Aber was genau ist sciCORE? sciCORE bietet für wissenschaftliches Arbeiten zweierlei an: zum einen die Möglichkeit zur Speicherung von grossen Datenmengen (Big Data) für deren Verarbeitung und zum anderen einen Hochleistungsrechner, einen sogenannten Supercomputer. Doch wie funktioniert ein «Supercomputer»? Was ist der Unterschied zu einem herkömmlichen Rechner?

Von Computern zu HPC-Rechnern
Ein alltäglicher Computer hat heutzutage einen Prozessor mit mehreren Kernen, etwa 8GB Arbeitsspeicher (RAM, Random Access Memory) und eine Grafikkarte. Heutige HPC-Rechner (High Performance Computing) bestehen aus tausenden, kleinen Computern. Diese Computer besitzen jeweils zwei Prozessoren (CPU, Central Processing Unit), haben ihren eigenen RAM und sogar ihre eigene Festplatte. Ausserdem haben alle noch ein eigenes Betriebssystem.

Man kann sich die CPU als «Gehirn» des Computers vorstellen. Wie ein Büroangestellter entscheidet die CPU, welche Aufgabe wann erledigt werden soll. Darüber hinaus ist sie für alle arithmetischen Berechnungen zuständig. Der RAM-Speicher kann in dieser Analogie als Ablagestapel von erledigten oder noch nicht erledigten Aufgaben angesehen werden. Diese muss die CPU nach und nach abarbeiten. Die Festplatte wäre hier quasi das «Archiv» des Büros.

Hat eine CPU viele Aufgaben zu erledigen (z.B. grosse komplexe Rechnungen), kann es sein, dass selbst das beste Scheduling zu einem «Stau» führen kann und der Rechner  überfordert ist. Ferner gibt es für bestimmte Probleme einen sehr grossen Berechnungsaufwand. Gerade Probleme, die proportional zu einer Grösse (z.B. der Anzahl von Teilchen/Molekülen etc.) wachsen, können nicht mehr einfach so berechnet werden. Das gilt auch für Fälle, bei denen die erforderlichen Datenmengen unüberschaubar gross werden. Das kommt zum Beispiel bei der DNA-Sequenzierung vor. Hier ist es sinnvoll, einen HPC-Rechner zu benutzen.

Von HPC-Rechnern zu sciCORE
Die kleinen Computer sind an sich schon sehr leistungsfähig. Die Synchronisation dieser ist eine grosse Herausforderung. Das Ziel ist es, die kleinen Computer parallel an gewaltigen Aufgaben arbeiten zu lassen. Um das zu verwirklichen, wurde sciCORE nach dem «Low-Latency and High-Bandwidth»-Prinzip realisiert.

Was bedeutet das? Um das zu verstehen, hilft es, sich (zumindest vor seinem geistigen Auge) eine Pizza zu bestellen: Die Zeit von der Bestellung bis zur Zustellung ist die Latenz und die «Breite» der Strasse, auf die der Pizzabote gefahren ist, die Bandbreite. Ist der Pizzabote alleine auf der Strasse ist die Breite der Strasse für die Latenz unmassgeblich. Gibt es jedoch viele Bestellungen, kann eine zu enge Strasse von Nachteil sein, da ein Stau entsteht. Deshalb ist es bei grossen Datenmengen sinnvoll, eine gute Bandbreite zu haben. Die Latenz beträgt bei sciCORE nur wenige μs. sciCORE sorgt also dafür, dass die Pizza unterwegs nicht kalt wird.

 

Der sciCORE-Rechnerverbund (in der Fachsprache als «Cluster» bezeichnet) besteht aus folgenden Bestandteilen:

  • 375 (im Allgemeinen) völlig identischen Computern («Nodes»), die sich die Aufgaben teilen und so grosse Berechnungen gemeinsam erledigen können.
  • 7624 Cores (das sind Teile des CPUs, die völlig eigenständig Berechnungen vornehmen können, heutzutage haben die meisten CPUs 2-8 Cores)
  • 37 TBytes RAM (= 37.000 GByte RAM, üblicherweise haben Computer heutzutage um die 4-16 GByte RAM)
  • 5 PBytes Festplattenspeicher (= 50.000.000 GByte, üblich wären wenige 1000 GByte)

sciCORE hat im Gegensatz zu anderen HPC-Rechnern sehr viel Festplattenspeicherplatz. Der Grund dafür ist, dass viele Forschungsgruppen mit sciCORE arbeiten, die (beispielsweise durch die DNA-Sequenzierung) sehr viel Speicherplatz benötigen.

Durch diese bemerkenswerten Spezifikationen hat sciCORE schon viele Adressaten erreicht: Derzeit arbeiten bereits mehr als 170 Forschungsgruppen mit sciCORE, davon allein mehr als 120 in den Life Sciences. Insgesamt hat sciCORE über 700 Benutzende. Auf Grund dessen kommt sciCORE jetzt schon auf 30 Millionen CPU-Stunden pro Jahr und es wurden auf sciCORE schon Rechnungen durchgeführt, die einige Monate Zeit beansprucht haben.

Jeder Studierende der Universität Basel ist berechtigt, einen Account bei sciCORE anzulegen. Bei Fragen oder Unklarheiten hilft das sciCORE-Team gerne.

Mehr Infos über sciCORE

Danial Chughtai

Der Versuch, absolute Erkenntnis zu erlangen, führte Danial Chughtai zum Physikstudium. Dass dieses Vorhaben zum Scheitern verurteilt ist, merkt er besonders abends um sieben - bei der vierten Tasse Kaffee. Wenn er nicht gerade ein neues Album hört, sich in fremde Vorlesungen verirrt oder überlegt auf Tee umzusteigen, ist er damit beschäftigt, seine Klamottenauswahl auf Vordermann zu bringen. Gerne vergnügt er sich mit den einfachen Dingen des Lebens; wenn's sein muss bei einem Roadtrip quer durch Europa.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht.

Herzlichen Dank für deinen Kommentar. Bevor dieser veröffentlicht wird, wirft noch jemand aus der Redaktion einen Blick darauf. Das kann ein bis zwei Arbeitstage dauern.
Ups. Ein Fehler ist aufgetreten. Bitte versuche es noch einmal.