Erdsimulator

Earth Simulator (ES), der durch das einleitende "Erdsimulator-Projekt der japanischen Regierung" entwickelt ist, war ein hoch paralleles Vektor-Supercomputersystem, um globale Klimamodelle zu führen, um die Effekten der Erderwärmung und Probleme in der festen Erdgeophysik zu bewerten. Das System wurde für die Raumfahrterforschungsagentur von Japan, das Atomenergie-Forschungsinstitut von Japan und das Seewissenschafts- und Technologiezentrum von Japan (JAMSTEC) 1997 entwickelt. Aufbau hat im Oktober 1999, und die am 11. März 2002 offiziell geöffnete Seite angefangen. Das Projekt hat 60 Milliarden Yen gekostet.

Gebaut durch NEC hat ES auf ihrer SX-6 Architektur basiert. Es hat aus 640 Knoten mit acht Vektor-Verarbeitern und 16 gibibytes des Computergedächtnisses an jedem Knoten, für insgesamt 5120 Verarbeiter und 10 terabytes des Gedächtnisses bestanden. Zwei Knoten wurden pro 1 Meter x 1.4 Meter x 2-Meter-Kabinett installiert. Jedes Kabinett hat 20 Kilowatt der Macht verbraucht. Das System hatte 700 terabytes der Plattenlagerung (450 für das System und 250 für die Benutzer) und 1.6 petabytes der Massenlagerung in Band-Laufwerken. Es ist im Stande gewesen, holistische Simulationen des globalen Klimas sowohl in der Atmosphäre als auch in den Ozeanen unten zu einer Entschlossenheit 10 km zu führen. Seine Leistung auf dem LINPACK-Abrisspunkt war 35.86 TFLOPS, der fast fünfmal schneller war als ASCI Weiß.

ES war der schnellste Supercomputer in der Welt von 2002 bis 2004. Seine Kapazität wurde durch den Blauen Gene/L Prototyp von IBM am 29. September 2004 übertroffen.

ES wurde von Earth Simulator 2 (ES2) im März 2009 ersetzt. ES2 ist ein NEC SX-9/E System, und hat ein Viertel als viele Knoten jeder von 12.8mal der Leistung (3.2x Uhr-Geschwindigkeit, viermal die in einer Prozession gehende Quelle pro Knoten) für eine Maximalleistung von 131 TFLOPS. Mit einer gelieferten LINPACK Leistung von 122.4 TFLOPS war ES2 der effizienteste Supercomputer in der Welt an diesem Punkt. Im November 2010 hat NEC bekannt gegeben, dass ES2 den Globalen FFT, eine der Maßnahmen der HPC-Herausforderungspreise mit der Leistungszahl von 11.876 TFLOPS überstiegen hat.

Das Erdsimulator-Zentrum hat mehrere Besonderheiten, die helfen, den Computer vor Naturkatastrophen oder Ereignissen zu schützen. Ein Leitungsnest hängt über das Gebäude, das hilft, vor dem Blitz zu schützen. Das Nest selbst verwendet beschirmte Kabel der Hochspannung, um Blitzstrom in den Boden zu veröffentlichen. Ein spezielles leichtes Fortpflanzungssystem verwertet Halogen-Lampen, installiert außerhalb der beschirmten Maschinenraumwände, um jede magnetische Einmischung davon abzuhalten, die Computer zu erreichen. Das Gebäude wird auf einem seismischen Isolierungssystem gebaut, das aus Gummiunterstützungen zusammengesetzt ist, die das Gebäude während Erdbeben schützen.

Systemübersicht

Hardware

Der Erdsimulator, der, als ein nationales Projekt, von drei Regierungsagenturen, der Nationalen Raumentwicklungsagentur von Japan (NASDA), Japan Atomic Energy Research Institute (JAERI) und dem Seewissenschafts- und Technologiezentrum von Japan (JAMSTEC) entwickelt wurde. Der ES wird im Erdsimulator-Gebäude aufgenommen (ungefähr; 50 M x 65 M x 17 M). Die Steigung des Erdsimulators ist im März 2009 vollendet worden. Das erneuerte System (ES2) 160 Knoten des SX-9E von NEC.

Anlagenkonfiguration

Der ES ist ein hoch paralleles Vektor-Supercomputersystem des Typs des verteilten Gedächtnisses, und hat aus 160 durch das Netz des Fetten Baums verbundenen Verarbeiter-Knoten bestanden. Jeder Verarbeiter Knoten ist ein System mit einem geteilten Gedächtnis, aus 8 Arithmetik-Verarbeitern des Vektor-Typs, einem 128-GB-Hauptspeichersystem bestehend. Die Maximalleistung jedes Arthmetic Verarbeiter ist 102.4Gflops. Der ES besteht als Ganzes so aus 1280 arithmetischen Verarbeitern mit 20 TB des Hauptgedächtnisses und der theoretischen Leistung 131Tflops.

Aufbau der Zentraleinheit

Jede Zentraleinheit besteht aus einer 4-wegigen Superskalareinheit (SU), einer Vektor-Einheit (VU) und Hauptspeicherzugriffskontrolleinheit auf einem einzelnen LSI Span. Die Zentraleinheit funktioniert an einer Uhr-Frequenz von 3.2 GHz. Jeder VU hat 72 Vektor-Register, von denen jedes 256 Vektor-Elemente zusammen mit 8 Sätzen von sechs verschiedenen Typen von Vektor-Rohrleitungen hat: Hinzufügung / Verschiebung, Multiplikation, Abteilung, logische Operationen, Maskierung und Last/Laden. Derselbe Typ von Vektor-Rohrleitungen arbeitet durch eine einzelne Vektor-Instruktion zusammen, und Rohrleitungen von verschiedenen Typen können gleichzeitig funktionieren.

Processor Node (PN)

Der Verarbeiter-Knoten wird aus 8 Zentraleinheit und 8 Speichermodulen zusammengesetzt.

Interconnection Network (IN)

Der RCU wird mit den Querbalken-Schaltern direkt verbunden und kontrolliert Zwischenknotendatenkommunikationen an der 64GB/s bidirektionalen Übertragungsquote sowohl für das Senden als auch für den Empfang von Daten. So ist die Gesamtbandbreite des Zwischenknotennetzes über 10TB/s.

Kabinett von Processor Node (PN)

Der Verarbeiter-Knoten wird zwei Knoten eines Kabinetts zusammengesetzt, und besteht aus Macht-Versorgungsspeichermodulen des Teils 8 und PCI Kasten mit 8 Zentraleinheitsmodulen.

Software

Die ganze auf dem ES2 System verfügbare Software wird entworfen und entwickelt, so dass Benutzer die hervorragende Leistung des größten Computers in der Welt völlig und sogleich ausnutzen können. Unten ist die Beschreibung von Softwaretechnologien, die im Betriebssystem, der Job-Terminplanung und der Programmierumgebung von ES2 verwendet sind.

Das Funktionieren des Systems

Das Betriebssystem, das auf ES läuft, wird für die SX Reihe-Supercomputer von NEC entwickelt. (Die SX Reihen sind Vektor-Supercomputer entworfen, verfertigt, und auf den Markt gebracht durch NEC) ist.SUPER-UX ein Betriebssystem, das die Funktion von BSD und SVR4.2MP als ein Betriebssystem nimmt, das auf dem UNIX System V gestützt ist, und die Funktion stärkt, die für den Supercomputer außerdem notwendig ist.

(SUPER-UX, Berkeley Software Distribution (BSD) und SVR4.2MP sind gestützte Betriebssysteme von Unix)

Massenlagerungsdateisystem

Wenn ein großer paralleler Job, der auf 640 PNs läuft, von/schreibt zu einer Platte liest, die in einem PN, jeder installiert ist, bauen sich PN Zugänge zur Platte in der Folge und Leistung schrecklich ab. Obwohl lokale Eingabe/Ausgabe, in der jeder PN davon liest oder seiner eigenen Platte schreibt, das Problem behebt, ist es eine sehr harte Arbeit, um solch eine Vielzahl von teilweisen Dateien zu führen. Dann nimmt ES das Inszenieren und Global File System (GFS) an, das eine Hochleistungseingabe/Ausgabe-Leistung anbietet.

Job-Terminplanung

ES ist grundsätzlich ein System des Gruppe-Jobs. Schlange stehendes Netzsystem II (NQSII) wird eingeführt, um den Gruppe-Job zu führen.

Warteschlange-Konfiguration des Erdsimulators.

ES hat Zwei-Typen-Warteschlangen. S Gruppe-Warteschlange wird für Gruppe-Jobs des einzelnen Knotens entworfen, und L Gruppe-Warteschlange ist nach der Mehrknotengruppe-Warteschlange.

Es gibt Zwei-Typen-Warteschlangen. Man ist L Gruppe-Warteschlange, und der andere ist S Gruppe-Warteschlange. S Gruppe-Warteschlange wird gezielt für einen Vorlauf oder einen Postlauf für groß angelegte Gruppe-Jobs verwendet zu werden (anfängliche Daten machend, Ergebnisse einer Simulation und anderer Prozesse bearbeitend), und L Gruppe-Warteschlange ist für eine geführte Produktion. Benutzerwahl eine passende Warteschlange für die Jobs von Benutzern.

1. Die einem Gruppe-Job zugeteilten Knoten werden exklusiv für diesen Gruppe-Job verwendet.

2. Der Gruppe-Job steht gestützt auf der verbrauchten Zeit statt der Zentraleinheitszeit auf dem Plan.

Strategie (1) ermöglicht, um die Job-Beendigungszeit zu schätzen und es leicht zu machen, Knoten für die folgenden Gruppe-Jobs im Voraus zuzuteilen. Strategie (2) trägt zu einer Leistungsfähigkeitsauftragsausführung bei. Der Job kann die Knoten exklusiv verwenden, und die Prozesse in jedem Knoten können gleichzeitig durchgeführt werden. Infolgedessen ist das groß angelegte parallele Programm im Stande, effizient durchgeführt zu werden.

PNs des L-Systems werden der Zugang zur Benutzerplatte verboten, um genug Platteneingabe/Ausgabe-Leistung zu sichern. herefore die durch den Gruppe-Job verwendeten Dateien werden von der Benutzerplatte bis die Arbeitsplatte vor der Auftragsausführung kopiert. Dieser Prozess wird "Bühne - in" genannt. Es ist wichtig, diese inszenierende Zeit für die Job-Terminplanung zu verbergen.

Hauptschritte der Job-Terminplanung werden wie folgt zusammengefasst;

1. Knotenzuteilung

2. Bühne - darin (kopiert Dateien von der Benutzerplatte bis die Arbeitsplatte automatisch)

3. Job-Eskalation (Umterminierung für die früher geschätzte Anfang-Zeit wenn möglich)

4. Auftragsausführung

5. Bühne (kopiert Dateien von der Arbeitsplatte bis die Benutzerplatte automatisch)

Wenn ein neuer Gruppe-Job vorgelegt wird, sucht der Planer verfügbare Knoten (Schritt 1). Nachdem die Knoten und die geschätzte Anfang-Zeit dem Gruppe-Job, der Bühne - in Prozess-Anfängen (Schritt 2) zugeteilt werden. Der Job wartet bis zur geschätzten Anfang-Zeit nachdem wird Bühne - im Prozess beendet. Wenn der Planer die frühere Anfang-Zeit findet als die geschätzte Anfang-Zeit, teilt es die neue Anfang-Zeit dem Gruppe-Job zu. Dieser Prozess wird "Job-Eskalation" (Schritt 3) genannt. Als die geschätzte Anfang-Zeit angekommen ist, führt der Planer den Gruppe-Job (Schritt 4) durch. Der Planer begrenzt den Gruppe-Job und fängt Bühne-Prozess an, nachdem die Auftragsausführung beendet wird oder die offen erklärte verbrauchte Zeit über (den Schritt 5) ist.

Um den Gruppe-Job durchzuführen, loggt der Benutzer in den Anmeldungsserver und legt die Gruppe-Schrift ES vor. Und der Benutzer wartet, bis die Auftragsausführung getan wird. Während dieser Zeit kann der Benutzer den Staat des Gruppe-Jobs mit dem herkömmlichen WWW-Browser oder den Benutzerbefehlen sehen. Die Knotenterminplanung, die Datei inszenierende und andere Verarbeitung werden durch das System gemäß der Gruppe-Schrift automatisch bearbeitet.

Programmierung der Umgebung

Die Programmierung des Modells in ES

Die ES Hardware hat eine 3-Niveaus-Hierarchie des Parallelismus: Vektor, der in einer AP, paralleler Verarbeitung mit dem geteilten Gedächtnis in einem PN und paralleler Verarbeitung unter PNs über DARIN in einer Prozession geht. Um hohe Leistung von ES völlig herauszubringen, müssen Sie parallele Programme entwickeln, die den grössten Teil des Gebrauches solchen Parallelismus machen. die 3-Niveaus-Hierarchie des Parallelismus von ES kann in zwei Manieren verwendet werden, die Hybride und Wohnung parallelization beziehungsweise genannt werden. In der Hybride parallelization wird der Zwischenknotenparallelismus durch HPF oder MPI, und den Intraknoten ausgedrückt, indem er stark mikrobeansprucht wird oder OpenMP, und Sie müssen deshalb den hierarchischen Parallelismus im Schreiben Ihrer Programme denken. In der Wohnung kann parallelization, sowohl zwischen - als auch Intraknotenparallelismus durch HPF oder MPI ausgedrückt werden, und es ist für Sie nicht notwendig, solchen komplizierten Parallelismus zu denken. Im Allgemeinen ist die Hybride parallelization als die Wohnung in der Leistung und umgekehrt in der Bequemlichkeit der Programmierung höher. Bemerken Sie, dass die MPI Bibliotheken und die HPF Durchlaufzeiten optimiert werden, um sowie möglich sowohl in der Hybride als auch in Wohnung parallelization zu leisten.

Sprachen

Bearbeiter für Fortran 90, C und C ++ sind verfügbar. Sie alle haben eine fortgeschrittene Fähigkeit zu automatischem vectorization und dem Mikrobeschäftigen. Das Mikrobeschäftigen ist eine Art Mehrbeschäftigen hat für den Supercomputer von Cray im ersten Mal gesorgt, wenn und dieselbe Funktion für den Intraknoten parallelization auf ES begriffen wird. Sie können entweder das Mikrobeschäftigen kontrollieren, indem Sie Direktiven in Ihre Quellprogramme einfügen, oder ihm dem automatischen parallelization des Bearbeiters vertrauen. Bemerken Sie, dass OpenMP auch in Fortran 90 und C ++ für den Intraknoten parallelization verfügbar ist.

Parallelization

Message Passing Interface (MPI)

MPI ist eine Nachricht vorübergehende Bibliothek, die auf dem MPI-1 und den MPI-2 Standards gestützt ist, und stellt Hochleistungsnachrichtenfähigkeit zur Verfügung, die völlig die Eigenschaften von IXS und geteiltem Gedächtnis ausnutzt. Es kann sowohl für intra - als auch für Zwischenknoten parallelization verwendet werden. Ein MPI-Prozess wird einer AP in der Wohnung parallelization, oder zu einem PN zugeteilt, der Mikroaufgaben oder Fäden von OpenMP in der Hybride parallelization enthält. MPI Bibliotheken werden entworfen und optimizedcarefully, um höchste Leistung der Kommunikation über die ES Architektur auf beide der parallelization Weise zu erreichen.

High Performance Fortrans (HPF)

Wie man

betrachtet, sind Hauptbenutzer von ES natürliche Wissenschaftler, die mit der parallelen Programmierung nicht notwendigerweise vertraut sind oder sie eher nicht mögen. Entsprechend ist eine Parallele-Sprache des höheren Niveaus in der großen Nachfrage.

HPF/SX stellt leichte und effiziente parallele Programmierung auf ES zur Verfügung, um die Nachfrage zu liefern. Es unterstützt die Spezifizierungen von HPF2.0, seinen genehmigten Erweiterungen, HPF/JA und einigen einzigartigen Erweiterungen für ES

Werkzeuge

- Einheitliche Entwicklungsumgebung (PSUITE)

Einheitliche Entwicklungsumgebung (PSUITE) ist Integration von verschiedenen Werkzeugen, um das Programm zu entwickeln, das durch SUPER-UX funktioniert. Weil PSUITE annimmt, dass verschiedene Werkzeuge durch GUI verwendet werden können, und die koordinierte Funktion zwischen Werkzeugen haben, kommt es, um im Stande zu sein, das Programm effizienter zu entwickeln, als die Methode, die Vergangenheit das Programm und leicht zu entwickeln.

- Fehlersuchprogramm-Unterstützung

In SUPER-UX ist der folgende bereit, weil starke Fehlersuchprogramm-Unterstützung fungiert, um die Programm-Entwicklung zu unterstützen.

Möglichkeiten

Eigenschaften des Erdsimulators, der baut

Blitzschutzsystem

Drei grundlegende Eigenschaften:

Vier Pole an beiden Seiten des Erdsimulator-Gebäudes setzen Leitungsnest zusammen, um das Gebäude davor zu schützen, Angriffe zu erhellen.

Beschirmtes Kabel der speziellen Hochspannung wird für die induktive Leitung verwendet, die einen sich erhellenden Strom zur Erde veröffentlicht.

Boden-Teller werden durch das Halten abgesondert vom Gebäude von ungefähr 10 Metern gelegt.

Beleuchtung

Beleuchtung: Leichtes Fortpflanzungssystem innerhalb einer Tube

(255-Mm-Diameter, 44 M (49yd) Länge, 19 Tuben)

Leichte Quelle: Halogen-Lampen von 1 Kilowatt

Beleuchtung: 300 lx am Fußboden im Durchschnitt

Die leichten Quellen aus den beschirmten Maschinenraumwänden installiert.

Seismisches Isolierungssystem

11 isolators

(1 ft Höhe, 3.3 ft. Diameter, 20-layered Gummischuhe, die den Boden des ES unterstützen, der baut)

Leistung

LINPACK

Das neue Erdsimulator-System, das Operation im März 2009 begonnen hat, hat gestützte Leistung von 122.4 TFLOPS und Rechenleistungsfähigkeit (*2) von 93.38 % auf dem LINPACK-Abrisspunkt (*1) erreicht.

  • 1. LINPACK Abrisspunkt

Der LINPACK-Abrisspunkt ist ein Maß einer Leistung eines Computers und wird als ein Standardabrisspunkt verwendet, um Computersysteme im TOP500-Projekt aufzureihen.

LINPACK ist ein Programm, um numerische geradlinige Algebra auf Computern durchzuführen.

  • 2. Rechenleistungsfähigkeit

Rechenleistungsfähigkeit ist das Verhältnis der anhaltenden Leistung zu einer Maximalrechenleistung. Hier ist es das Verhältnis 122.4TFLOPS zu 131.072TFLOPS.

  • 3. Ein Außerirdisches System?

10 Jahre nach seiner ersten Einführung ist der Erdsimulator noch ein ganz besonderer Supercomputer. Einige Tatsachen vom November2011 TOP500 haben über ES2 (von 2009) Schlagseite:

:a) es scheint, das einzelne System mit Vektor-Verarbeitern zu sein

:b) es ist fast das letzte mit der einzelnen Kernzentraleinheit (1 Kern pro Steckdose)

:c), aber es hat noch die höchste Leistung/Kern: 122 TFlops/1280 Kerne = 95.6 GFlops/core, fast 4mal mehr als die Power7 Systeme (~25 GFlops/core)!

Rechenbetonte Leistung von WRF auf dem Erdsimulator

WRF (Wetterforschung und Modell Voraussagend), ist ein mesoscale meteorologischer Simulierungscode, der unter der Kollaboration unter US-Einrichtungen, einschließlich NCAR (Nationales Zentrum für die Atmosphärische Forschung) und NCEP (Nationale Zentren für die Umweltvorhersage) entwickelt worden ist. JAMSTEC hat WRFV2 auf dem Erdsimulator (ES2) erneuert 2009 mit dem Maß der rechenbetonten Leistung optimiert. Infolgedessen haben wir erfolgreich demonstriert, dass WRFV2 auf dem ES2 mit der hervorragenden Leistung und der anhaltenden Leistung laufen kann.

Die numerische meteorologische Simulation wurde durch das Verwenden von WRF auf dem Erdsimulator für die Halbkugel der Erde mit der Natur-Lauf-Musterbedingung geführt. Die Musterraumentschlossenheit ist 4486 durch 4486 horizontal mit dem Bratrost-Abstand 5 km und 101 Niveaus vertikal. Größtenteils adiabatische Bedingungen wurden mit dem Zeitintegrationsschritt von 6 Sekunden angewandt.

Wir haben eine Höchstleistung auf dem Erdsimulator für hochauflösenden WRF erreicht. Während die Zahl von verwendeten Zentraleinheitskernen nur 1 % verglichen mit dem schnellsten Weltklassensystemjaguar (CRAY XT5) am Eiche-Kamm Nationales Laboratorium ist, ist die anhaltende auf dem Erdsimulator erhaltene Leistung fast 50 % davon, das auf dem Jaguar-System gemessen ist. Das Maximalleistungsverhältnis auf dem Erdsimulator ist auch rekordhohe 22.2 %.

Siehe auch

Links


Ptolemy XIII Theos Philopator / Staatsförderer des Terrorismus
Impressum & Datenschutz