Einstein Cluster

Architektur des Clusters

Der Einstein-Cluster ist ein Parallelrechner mit einem Login Node, einem Master Node und 20 Compute Nodes. Alle Nodes sind mit einer Intel Xeon CPU, lokalen Arbeitsspeicher und lokalen Festplatten ausgestattet.


Die Nodes sind sowohl über Fast Ethernet als auch Gigabit Ethernet miteinander verbunden, wobei Fast Ethernet als Management-Netzwerk und Gigabit Ethernet als Hochgeschwindigkeits-Netzwerk fungiert.


Als Betriebssystem kommt Debian GNU/Linux 3.1 zum Einsatz.


Den Nodes des Clusters sind folgende Rollen zugeordnet:

  • Login Nodes:
    Das sind die Nodes, auf denen sich die User einloggen, Programme kompilieren und Jobs an das RMS übergeben können.
  • Master Nodes:
    Sie dienen der Administration des Clusters. Hier werden wichtige Dienste für das Cluster bereitgestellt, z.B. DHCP, DNS, LDAP, Fileserver und das RMS.
  • Compute Nodes:
    Diese Nodes werden vom RMS verwaltet. Die User übergeben auf dem Login Node ihre Jobs an das RMS und diese werden auf den Compute Nodes ausgefürt.
einstein
Fig.1: Einstein

Komponente des Clusters

Die Intel CPU hat einen Core und ist mit 2.6 GHz getaktet. In allen Nodes ist eine NetGear GA621 Gigabit Ethernet-Karte verbaut.


Login Node:
Hostname:einstein.cs.uni-potsdam.de
Hardware:Desktop PC
Prozessor:1x Intel Xeon
Memory:1 GB


Master Node:
Hostname:einsteinmaster.cs.uni-potsdam.de
Hardware:Desktop PC
Prozessor:1x Intel Xeon
Memory:1 GB


Compute Node:
Hostname:node001.einstein.cluster - node020.einstein.cluster
Hardware:Desktop PC
Prozessor:1x Intel Xeon
Memory:1 GB


Management Switch:
Hardware:3Com SuperStack III Switch 4226T
Ports:24


1GE Switch:
Hardware:BATM T5, BTI-1GSX-MT Modul
Ports:32