Supercomputer

Ein Supercomputer ist ein Computer an der vordersten Front der aktuellen in einer Prozession gehenden Kapazität, besonders Geschwindigkeit der Berechnung. Supercomputer wurden in den 1960er Jahren eingeführt und wurden in erster Linie von Seymour Cray an Control Data Corporation (CDC), und später bei der Forschung von Cray entworfen. Während die Supercomputer der 1970er Jahre nur einige Verarbeiter in den 1990er Jahren verwendet haben, haben Maschinen mit Tausenden von Verarbeitern begonnen zu erscheinen und am Ende des 20. Jahrhunderts, massiv parallele Supercomputer mit Zehntausenden von "Standard"-Verarbeitern waren die Norm.

Systeme mit einer massiven Zahl von Verarbeitern nehmen allgemein einen von zwei Pfaden: In einer Annäherung, z.B im Bratrost, die in einer Prozession gehende Macht einer Vielzahl von Computern in verteilten, verschiedenen Verwaltungsgebieten schätzend, wird opportunistisch verwendet, wann auch immer ein Computer verfügbar ist. In einer anderen Annäherung ist eine Vielzahl von Verarbeitern in der nächsten Nähe an einander z.B in einer Computertraube gewöhnt. Der Gebrauch von mit der Zentralisierung verbundenen Mehrkernverarbeitern ist eine erscheinende Richtung. Zurzeit ist Japans K Computer (eine Traube) in der Welt am schnellsten.

Supercomputer werden für hoch mit der Berechnung intensive Aufgaben wie Probleme einschließlich Quant-Physik, Wettervorhersage, Klimaforschung, Öl- und Gaserforschung, des molekularen Modellierens verwendet (die Strukturen und Eigenschaften von chemischen Zusammensetzungen, biologischen Makromolekülen, Polymern und Kristallen schätzend), und physische Simulationen (wie Simulation von Flugzeugen in Windkanälen, Simulation der Detonation von Kernwaffen und Forschung in die Kernfusion).

Geschichte

Die Geschichte der Supercomputerwissenschaft geht zu den 1960er Jahren zurück, als eine Reihe von Computern an Control Data Corporation (CDC) von Seymour Cray entworfen wurde, um innovative Designs und Parallelismus zu verwenden, um höhere rechenbetonte Maximalleistung zu erreichen. Der CDC 6600, veröffentlicht 1964, wird allgemein als der erste Supercomputer betrachtet.

Cray hat CDC 1972 verlassen, um seine eigene Gesellschaft zu bilden. Vier Jahre nach dem Verlassen von CDC hat Cray den 80 MHz Cray 1 1976 geliefert, und es ist einer der erfolgreichsten Supercomputer in der Geschichte geworden. Der Cray-2 hat veröffentlicht 1985 war abgekühlter Computer von Flüssigkeit des 8 Verarbeiters, und Fluorinert wurde dadurch gepumpt, weil er funktioniert hat. Es hat an 1.9 gigaflops geleistet und war das schnellste in der Welt bis 1990.

Während die Supercomputer der 1980er Jahre nur einige Verarbeiter in den 1990er Jahren verwendet haben, haben Maschinen mit Tausenden von Verarbeitern begonnen, sowohl in den Vereinigten Staaten als auch in Japan zu erscheinen, neue rechenbetonte Leistungsnachweise setzend. Der numerische Windkanal-Supercomputer von Fujitsu hat 166 Vektor-Verarbeiter verwendet, um den Spitzenpunkt 1994 mit einer Maximalgeschwindigkeit von 1.7 gigaflops pro Verarbeiter zu gewinnen. Der Hitachi SR2201 hat eine Maximalleistung von 600 gigaflops 1996 durch das Verwenden von 2048 über ein schnelles dreidimensionales Querbalken-Netz verbundenen Verarbeitern erhalten. Intel Paragon konnte 1000 bis 4000 Verarbeiter von Intel i860 in verschiedenen Konfigurationen haben, und wurde das schnellste in der Welt 1993 aufgereiht. Das Muster war eine MIMD Maschine, die Verarbeiter über eine hohe Geschwindigkeit zwei dimensionales Ineinandergreifen verbunden hat, Prozessen erlaubend, auf getrennten Knoten durchzuführen; das Kommunizieren über die Nachricht, die Schnittstelle Passiert.

Hardware und Architektur

Annäherungen an die Supercomputerarchitektur haben sich an dramatische gemacht, seitdem die frühsten Systeme in den 1960er Jahren eingeführt wurden. Frühe von Seymour Cray den Weg gebahnte Supercomputerarchitekturen haben sich auf innovative Kompaktdesigns und lokalen Parallelismus verlassen, um höhere rechenbetonte Maximalleistung zu erreichen. Jedoch rechtzeitig passt die Nachfrage nach der vergrößerten rechenbetonten Macht, die im Alter massiv hineingeführt ist, Systemen an.

Während die Supercomputer der 1970er Jahre nur einige Verarbeiter in den 1990er Jahren verwendet haben, haben Maschinen mit Tausenden von Verarbeitern begonnen zu erscheinen und am Ende des 20. Jahrhunderts, massiv parallele Supercomputer mit Zehntausenden von "Standard"-Verarbeitern waren die Norm. Supercomputer des 21. Jahrhunderts können mehr als 100,000 Verarbeiter (ein verwenden, grafische Einheiten seiend), verbunden durch schnelle Verbindungen.

Im Laufe der Jahrzehnte ist das Management der Hitzedichte ein Schlüsselproblem für am meisten zentralisierte Supercomputer geblieben. Der große Betrag der durch ein System erzeugten Hitze kann auch andere Effekten haben, z.B die Lebenszeit anderer Systembestandteile reduzierend. Es hat verschiedene Annäherungen gegeben, um Management, davon zu heizen, Fluorinert durch das System, zu einem hybriden System der flüssigen Luftkühlung oder Luftkühlung mit normalen Klimatisierungstemperaturen zu pumpen.

Systeme mit einer massiven Zahl von Verarbeitern nehmen allgemein einen von zwei Pfaden: In einer Annäherung, z.B im Bratrost, die in einer Prozession gehende Macht einer Vielzahl von Computern in verteilten, verschiedenen Verwaltungsgebieten schätzend, wird opportunistisch verwendet, wann auch immer ein Computer verfügbar ist. In einer anderen Annäherung ist eine Vielzahl von Verarbeitern in der nächsten Nähe an einander z.B in einer Computertraube gewöhnt. In solch einem zentralisierten passen massiv System an die Geschwindigkeit und Flexibilität der Verbindung werden sehr wichtig, und moderne Supercomputer haben verschiedene Annäherungen im Intervall von erhöhten Systemen von Infiniband zu dreidimensionalen Ring-Verbindungen verwendet. Der Gebrauch von mit der Zentralisierung verbundenen Mehrkernverarbeitern ist eine erscheinende Richtung, z.B als im Cyclops64 System.

Als der Preis/Leistung des allgemeinen Zwecks haben sich grafische Verarbeiter (GPGPUs) verbessert, mehrere petaflop Supercomputer wie Tianhe-I und Nebelflecke haben angefangen, sich auf sie zu verlassen. Jedoch setzen andere Systeme wie der K Computer fort, herkömmliche Verarbeiter wie SPARC-basierte Designs und die gesamte Anwendbarkeit von GPGPUs im allgemeinen Zweck hohe Leistung zu verwenden, Rechenanwendungen sind das Thema der Debatte, darin gewesen, dass, während ein GPGPU vielleicht gestimmt hat, um gut auf spezifischen Abrisspunkten zu zählen, seine gesamte Anwendbarkeit auf tägliche Algorithmen beschränkt werden kann, wenn bedeutende Anstrengung nicht ausgegeben wird, um die Anwendung dazu abzustimmen. Jedoch gewinnen GPUs Boden, und 2012 wurde der Jaguar-Supercomputer in den Koloss durch das Ersetzen von Zentraleinheiten mit GPUs umgestaltet.

Mehrere Systeme "des speziellen Zwecks" sind entworfen, einem einzelnen Problem gewidmet worden. Das erlaubt den Gebrauch besonders programmierter FPGA Chips oder VLSI sogar kundenspezifischer Chips, höhere Verhältnisse des Preises/Leistung durch das Opfern der Allgemeinheit erlaubend. Beispiele von Supercomputern des speziellen Zwecks schließen Schönheit, Tiefblau, und Hydra ein, um Schach, Ernst-Pfeife für die Astrophysik, MDGRAPE-3 für die Protein-Struktur-Berechnung zu spielen

molekulare Dynamik und Tiefe Spalte, für die DES Ziffer zu brechen.

Energiegebrauch und Hitzemanagement

Ein typischer Supercomputer verbraucht große Beträge der elektrischen Leistung fast, von dem alles in die Hitze umgewandelt wird, das Abkühlen verlangend. Zum Beispiel verbraucht Tianhe-1A 4.04 Megawatt der Elektrizität. Die Kosten, um das System zu rasen und abzukühlen, können bedeutend sein, z.B 4MW am $ ist 0.10/KWh 400 $ pro Stunde oder ungefähr $ 3.5 Millionen pro Jahr.

Hitzemanagement ist ein Hauptproblem in komplizierten elektronischen Geräten, und betrifft starke Computersysteme auf verschiedene Weisen. Die Thermaldesignmacht und Zentraleinheitsmacht-Verschwendungsprobleme in der Supercomputerwissenschaft übertreffen diejenigen von traditionellen Computerabkühlen-Technologien. Die Superrechenpreise für die grüne Computerwissenschaft widerspiegeln dieses Problem.

Die Verpackung von Tausenden von Verarbeitern erzeugt zusammen unvermeidlich bedeutende Beträge der Hitzedichte, die befasst werden muss. Der Cray 2 war Flüssigkeit abgekühlt, und hat Fluorinert "kühl werdender Wasserfall" verwendet, der durch die Module unter dem Druck gezwungen wurde. Jedoch war die untergetauchte flüssige kühl werdende Annäherung für die auf Standardverarbeitern gestützten Mehrkabinettssysteme nicht praktisch, und im System X wurde ein spezielles Kühlsystem, das Klimatisierung mit dem flüssigen Abkühlen verbunden hat, in Verbindung mit der Gesellschaft von Liebert entwickelt.

Im Blauen Gensystem hat IBM absichtlich niedrige Macht-Verarbeiter verwendet, um sich mit Hitzedichte zu befassen.

Andererseits hat IBM Power 775, befreit 2011, Elemente nah eingepackt, die das Wasserabkühlen verlangen. Das System von IBM Aquasar, andererseits heißes Wasser des Gebrauches, das kühl wird, um Energieeffizienz, das Wasser zu erreichen, das wird pflegt, Gebäude ebenso zu heizen.

Die Energieeffizienz von Computersystemen wird allgemein in Bezug auf "MISSERFOLGE pro Watt" gemessen. 2008 hat der Erdkuckuck von IBM an 376 MFLOPS/Watt funktioniert. Im November 2010 hat der Blaue Gene/Q 1684 MFLOPS/Watt erreicht. Im Juni 2011 wurden die 2 ersten Punkte auf der Grünen 500 Liste durch Blaue Genmaschinen in New York (das ein Erzielen von 2097 MFLOPS/W) mit der DEGIMA Traube in Nagasaki besetzt, das Drittel mit 1375 MFLOPS/W legt.

Software und Systemverwaltung

Betriebssysteme

Seit dem Ende des 20. Jahrhunderts Supercomputer haben Betriebssysteme Haupttransformationen erlebt, weil Seeänderungen in der Supercomputerarchitektur stattgefunden haben. Während früh Betriebssysteme geschneidert zu jedem Supercomputer kundenspezifisch waren, um Geschwindigkeit zu gewinnen, ist die Tendenz gewesen, von innerbetrieblichen Betriebssystemen bis die Anpassung der allgemeinen Software wie Linux abzurücken.

Vorausgesetzt, dass modern massiv Supercomputern normalerweise getrennte Berechnung von anderen Dienstleistungen durch das Verwenden vielfacher Typen von Knoten anpassen, führen sie gewöhnlich verschiedene Betriebssysteme auf verschiedenen Knoten z.B mit einem kleinen und effizienten Leichtgewichtskern wie CNK, oder CNL darauf schätzen Knoten, aber ein größeres System wie eine Linux-Ableitung auf dem Server und den Eingabe/Ausgabe-Knoten.

Während in einem traditionellen Mehrbenutzercomputersystemjob eine Terminplanung tatsächlich ein stark beanspruchendes Problem für die Verarbeitung und peripherischen Mittel in einem massiv parallelen System ist, muss das Aufgabenverwaltungssystem die Zuteilung sowohl von rechenbetonten Mitteln als auch von Nachrichtenmitteln führen, sowie anmutig sich mit unvermeidlichen Hardware-Misserfolgen befassend, wenn Zehntausende von Verarbeitern da sind.

Obwohl modernste Supercomputer Linux Betriebssystem verwenden, hat jeder Hersteller seine eigenen spezifischen Änderungen mit der Linux-Ableitung vorgenommen, die sie verwenden, und kein Industriestandard teilweise besteht auf Grund dessen, dass die Unterschiede in Hardware-Architekturen verlangen, dass Änderungen das Betriebssystem zu jedem Hardware-Design optimieren.

Softwarewerkzeuge

Die parallelen Architekturen von Supercomputern diktieren häufig den Gebrauch von speziellen Programmiertechniken, um ihre Geschwindigkeit auszunutzen.

Im allgemeinsten Drehbuch werden Umgebungen wie PVM und MPI für lose verbundene Trauben und OpenMP für dicht koordinierte geteilte Speichermaschinen verwendet. Bedeutende Anstrengung ist erforderlich, einen Algorithmus für die Verbindungseigenschaften der Maschine zu optimieren, auf der sie geführt wird; das Ziel ist, einige der Zentraleinheiten davon abzuhalten, Zeit zu verschwenden, Daten von anderen Knoten bedienend. GPGPUs haben Hunderte von Verarbeiter-Kernen und werden mit der Programmierung von Modellen wie CUDA programmiert.

Softwarewerkzeuge für die verteilte Verarbeitung schließen normalen APIs wie MPI und PVM, VTL ein, und öffnen quellbasierte Softwarelösungen wie Beowulf.

Verteilte Supercomputerwissenschaft

Opportunistische Annäherungen

Opportunistische Supercomputerwissenschaft ist eine Form der vernetzten Bratrost-Computerwissenschaft, wodurch ein "super virtueller Computer" von vielem lose verbundenem Freiwilligem Rechenmaschinen sehr große Rechenaufgaben durchführt. Bratrost-Computerwissenschaft ist auf mehrere groß angelegte angewandt worden peinlich passen Problemen an, die Superrechenleistungsskalen verlangen. Jedoch können grundlegender Bratrost und Wolkenrechenannäherungen, die sich auf den Freiwilligen verlassen, der rechnet, nicht traditionelle Superrechenaufgaben wie flüssige dynamische Simulationen behandeln.

Der schnellste Bratrost Rechensystem ist das verteilte Rechenprojekt Folding@home. F@h berichtet 8.1 petaflops der X86-Verarbeitungsmacht. Dessen werden 5.8 petaflops von Kunden beigetragen, die auf verschiedenem GPUs laufen, 1.7 petaflops kommen aus PlayStation 3 Systeme und der Rest von verschiedenen Zentraleinheitssystemen.

Die BOINC Plattform veranstaltet mehrere verteilte Rechenprojekte., BOINC hat eine in einer Prozession gehende Macht von mehr als 5.5 petaflops durch mehr als 480,000 aktive Computer im Netz Das aktivste Projekt (gemessen durch die rechenbetonte Macht), MilkyWay@home, Berichte registriert, die Macht von mehr als 700 teraflops durch mehr als 33,000 aktive Computer bearbeiten.

, Die verteilte Mersenne Hauptsuche von GIMPS erreicht zurzeit ungefähr 60 teraflops durch mehr als 25,000 eingetragene Computer. Das Internet Server von PrimeNet unterstützt die Bratrost-Rechenannäherung von GIMPS, eines der frühsten und erfolgreichsten Bratrost-Rechenprojekte seit 1997.

Quasiopportunistische Annäherungen

Quasiopportunistische Supercomputerwissenschaft ist eine Form der verteilten Computerwissenschaft, wodurch sich der "super virtuelle Computer" einer Vielzahl von vernetzten geografisch zerstreut, Computer führt das riesige in einer Prozession gehende Macht-Verlangen Rechenaufgaben durch. Quasiopportunistische Superrechenziele, eine höhere Qualität des Dienstes zur Verfügung zu stellen, als opportunistischer Bratrost, der durch das Erzielen von mehr Kontrolle über die Anweisung von Aufgaben zu verteilten Mitteln und dem Gebrauch der Intelligenz über die Verfügbarkeit und Zuverlässigkeit von individuellen Systemen innerhalb des Superrechennetzes rechnet. Jedoch sollte quasiopportunistische verteilte Ausführung, parallele Rechensoftware im Bratrost zu fordern, durch die Durchführung von mit dem Bratrost klugen Zuteilungsabmachungen, Co-Zuteilungssubsystemen, Kommunikation der Topologie bewusste Zuteilungsmechanismen, Schuld tolerante Nachricht das vorübergehende Bibliotheks- und Datenvorbedingen erreicht werden.

Leistungsmessung

Fähigkeit gegen die Kapazität

Supercomputer zielen allgemein auf das Maximum in der Fähigkeitscomputerwissenschaft aber nicht Höchstcomputerwissenschaft. Von Fähigkeitscomputerwissenschaft wird normalerweise als das Verwenden der maximalen Rechenmacht gedacht, ein einzelnes großes Problem in der kürzesten Zeitdauer zu beheben. Häufig ist ein Fähigkeitssystem im Stande, ein Problem einer Größe oder Kompliziertheit zu beheben, dass kein anderer Computer, z.B eine sehr komplizierte Wettersimulierungsanwendung kann.

Von

Kapazität, die im Gegensatz rechnet, wird normalerweise als das Verwenden effizienter rentabler Rechenmacht gedacht, eine kleine Zahl von etwas großen Problemen oder eine Vielzahl von kleinen Problemen zu lösen, z.B bittet vieler Benutzerzugang zu einer Datenbank oder einer Website. Architekturen, die sich zum Unterstützen vieler Benutzer für alltägliche tägliche Aufgaben leihen, können viel Kapazität haben, aber werden als Supercomputer nicht normalerweise betrachtet, vorausgesetzt, dass sie kein einzelnes sehr kompliziertes Problem beheben.

Leistungsmetrik

Im Allgemeinen wird die Geschwindigkeit von Supercomputern gemessen und in "MISSERFOLGEN" bewertet (Punkt-Operationen Pro Sekunde Schwimmen lassend), und nicht in Bezug auf MIPS, d. h. als "Instruktionen pro Sekunde", wie mit allgemeinen Zweck-Computern der Fall ist. Diese measuremens werden mit einem SI-Präfix wie tera-allgemein verwendet, der in die Schnellschrift "TFLOPS" verbunden ist (10 MISSERFOLGE, hat teraflops ausgesprochen), oder peta-, der in die Schnellschrift "PFLOPS" (10 MISSERFOLGE verbunden ist, hat petaflops ausgesprochen.) "Petascale" Supercomputer können einen quadrillion (10) (1000 Trillionen) MISSERFOLGE bearbeiten. Exascale schätzt Leistung in der Exaflops-Reihe. Ein exaflop ist ein quintillion (10) MISSERFOLGE (eine Million teraflops).

Keine einzelne Zahl kann die gesamte Leistung eines Computersystems widerspiegeln, noch ist die Absicht des Abrisspunkts von Linpack näher zu kommen, wie schnell der Computer numerische Probleme behebt und es in der Industrie weit verwendet wird. Das MISSERFOLG-Maß wird entweder gestützt auf der theoretischen Schwimmpunkt-Leistung eines Verarbeiters angesetzt (ist auf die Verarbeiter-Spezifizierungen des Herstellers und gezeigt als "Rpeak" in den TOP500-Listen zurückzuführen gewesen), der allgemein unerreichbar ist, als das Laufen echter Arbeitspensen oder des erreichbaren Durchflusses, auf die LINPACK-Abrisspunkte und gezeigt als "Rmax" in der TOP500-Liste zurückzuführen gewesen ist. Der LINPACK-Abrisspunkt führt normalerweise LU Zergliederung einer großen Matrix durch. Die LINPACK Leistung gibt eine Anzeige der Leistung für einige wirkliche Probleme, aber vergleicht die in einer Prozession gehenden Voraussetzungen von vielen anderen Supercomputerarbeitspensen nicht notwendigerweise, die zum Beispiel mehr Speicherbandbreite verlangen können, oder bessere ganze Zahl Rechenleistung verlangen können, oder ein hohes Leistungseingabe/Ausgabe-System brauchen können, um hohe Niveaus der Leistung zu erreichen.

Die TOP500-Liste

Seit 1993 sind die schnellsten Supercomputer auf der TOP500-Liste gemäß ihren LINPACK-Abrisspunkt-Ergebnissen aufgereiht worden. Die Liste behauptet nicht, unvoreingenommen oder endgültig zu sein, aber es ist eine weit zitierte aktuelle Definition des "schnellsten" Supercomputers verfügbar zu jeder vorgegebenen Zeit.

Das ist eine neue Liste der Computer, die an der Oberseite von der Top500-Liste erschienen sind, und die "Maximalgeschwindigkeit" als die "Rmax"-Schätzung gegeben wird. Weil mehr historische Daten Geschichte der Supercomputerwissenschaft sehen.

Der K Computer ist die Welten schnellster Supercomputer an 10.51 petaflops. Es besteht aus 88,000 SPARC64 VIIIfx Zentraleinheiten, und misst 864 Server-Gestelle ab. Im November 2011, wie man berichtete, war der Macht-Verbrauch 12659.89 Kilowatt Die Betriebskosten für das System sind die M von ungefähr 10 $ pro Jahr.

Anwendungen von Supercomputern

Die Stufen der Supercomputeranwendung können im folgenden Tisch zusammengefasst werden:

Der Computer von IBM Blue Gene/P ist verwendet worden, um mehrere künstliche zu etwa einem Prozent eines menschlichen Kortex gleichwertige Neurone vorzutäuschen, 1.6 Milliarden Neurone mit etwa 9 Trillionen Verbindungen enthaltend. Dieselbe Forschungsgruppe hat auch geschafft, einen Supercomputer zu verwenden, um mehrere künstliche zur Gesamtheit eines Gehirns einer Ratte gleichwertige Neurone vorzutäuschen.

Modern-tägiges Wetter, das auch voraussagt, verlässt sich auf Supercomputer. Die Nationale Ozeanische und Atmosphärische Regierung verwendet Supercomputer, um Hunderte von Millionen von Beobachtungen zu zerkauen, um zu helfen, Wetterberichte genauer zu machen.

2011 wurden die Herausforderungen und Schwierigkeiten, den Umschlag in der Supercomputerwissenschaft zu stoßen, durch das Aufgeben von IBM des Blauen Wassers petascale Projekt unterstrichen.

Forschung und Entwicklungstendenzen

IBM entwickelt die Cyclops64 Architektur, beabsichtigt, um einen "Supercomputer auf einem Span" zu schaffen. IBM baut auch einen 20 PFLOPs Supercomputer an Lawrence Livermore Nationales Laboratorium, genannt Sequoia, die auf der Blauen Genarchitektur gestützt ist, die auf dem Plan steht, um online 2012 zu gehen.

In Anbetracht der aktuellen Geschwindigkeit des Fortschritts werden Supercomputer geplant, um 1 exaflops (10) (Quintillion-MISSERFOLGE) 2019 zu erreichen. Mit der Mehrkernverarbeiter-Architektur von Intel MIC, die die Antwort von Intel auf GPU Systeme ist, plant SGI, eine Zunahme von 500 Malen in der Leistung vor 2018 zu erreichen, um einen exaflop zu erreichen. Proben von MIC Chips mit 32 Kernen, die Vektor-Verarbeitungseinheiten mit der Standardzentraleinheit verbinden, sind verfügbar geworden.

Am 11. Oktober 2011 wird der Eiche-Kamm Nationales Laboratorium hat bekannt gegeben, dass sie einen 20 petaflop Supercomputer, genannt Koloss bauten, der betrieblich 2012, das hybride Koloss-System werden wird, AMD Opteron Verarbeiter mit Nvidia GeForce 600 "Kepler" Technologien der grafischen in einer Prozession gehenden Einheit (GPU) verbinden. In ungefähr derselben Zeit hat Fujitsu bekannt gegeben, dass der 20 Peta-Misserfolg System für den K Computer folgt, genannt den PRIMEHPC wird FX10 dieselbe 6 dimensionale Ring-Verbindung, aber noch nur einen SPARC Verarbeiter pro Knoten verwenden.

Erik P. DeBenedictis von Sandia Nationalen Laboratorien theoretisiert, dass ein zettaflops (10) (Sextillion-MISSERFOLGE) Computer erforderlich ist, das volle Wettermodellieren zu vollbringen, das eine zweiwöchige Periode genau bedecken konnte. Solche Systeme könnten 2030 gebaut werden.

Die Indianerregierung hat ungefähr $ 940 Millionen begangen, um den schnellsten Supercomputer in der Welt vor 2017 zu entwickeln. Die Baubehörde Indiens ist bereit gewesen, das Kapital ISRO und dem Indianerinstitut für die Wissenschaft (IISc), Bangalore zur Verfügung zu stellen, um einen Supercomputer mit einer Leistung von 132.8 exaflops ungefähr 1,000mal schneller zu entwickeln, als 2012 schnellste Computer.

Siehe auch

  • Dschungel, rechnend
  • SC (Konferenz)
  • Supercomputerarchitektur
  • Die Supercomputerwissenschaft in chinesischem
  • Die Supercomputerwissenschaft in Indien
  • Die Supercomputerwissenschaft in Europa
  • Die Supercomputerwissenschaft in Japan
  • TOP500
  • Die Zeitschrift, superzuschätzen

Referenzen


Vereinigung für die Besteuerung von Geldgeschäften und für die Handlung von Bürgern / Coxsackie Ein Virus
Impressum & Datenschutz