MISSERFOLGE

In der Computerwissenschaft sind MISSERFOLGE (oder Misserfolge oder flop/s, für Schwimmpunkt-Operationen pro Sekunde) ein Maß einer Leistung eines Computers besonders in Feldern von wissenschaftlichen Berechnungen, die schweren Gebrauch von Schwimmpunkt-Berechnungen machen, die den älteren, einfacheren, Instruktionen pro Sekunde ähnlich sind. Da der endgültige S für die "zweiten", konservativen Sprecher eintritt, denken "MISSERFOLGE" sowohl als das einzigartige als auch als der Mehrzahl-vom Begriff, obwohl auf den einzigartigen "MISSERFOLG" oft gestoßen wird. Wechselweise werden der einzigartige MISSERFOLG (oder Misserfolg) als eine Abkürzung für die "Schwimmpunkt-Operation" verwendet, und ein Misserfolg-Graf ist ein Graf dieser Operationen (z.B, erforderlich durch einen gegebenen Algorithmus oder Computerprogramm). In diesem Zusammenhang sind "Misserfolge" einfach der Mehrzahl-aber nicht eine Rate.

Obwohl es in der üblichen Anwendung ist, MISSERFOLGE ist nicht eine SI-Einheit. Die Misserfolge des Ausdrucks 1 werden wirklich als interpretiert.

Das Messen der Leistung

In der Größenordnung von MISSERFOLGEN, um als ein Maß der Schwimmpunkt-Leistung nützlich zu sein, muss ein Standardabrisspunkt auf allen Computern von Interesse verfügbar sein. Ein Beispiel ist der LINPACK-Abrisspunkt.

Es gibt viele Faktoren in der Computerleistung außer dem rohen Schwimmpunkt Rechengeschwindigkeit, wie Eingabe/Ausgabe-Leistung, Zwischenverarbeiter-Kommunikation, Kohärenz des geheimen Lagers und die Speicherhierarchie. Das bedeutet, dass Supercomputer im Allgemeinen nur zu einem Bruchteil ihres "theoretischen" Maximal-MISSERFOLG-Durchflusses (erhalten durch das Hinzufügen zusammen der theoretischen Maximal-MISSERFOLG-Leistung jedes Elements des Systems) fähig sind. Selbst wenn, auf großen hoch parallelen Problemen funktionierend, ihre Leistung bursty größtenteils wegen der restlichen Effekten des Gesetzes von Amdahl sein wird. Echte Abrisspunkte messen deshalb beider kulminieren wirkliche MISSERFOLG-Leistung sowie gestützte MISSERFOLG-Leistung.

Supercomputereinschaltquoten, wie TOP500, leiten gewöhnlich theoretische Maximal-MISSERFOLGE als ein Produkt der Zahl von Kernen, Zyklen pro Sekunde jeder Kern Läufe an, und Zahl der doppelten Genauigkeit (64-Bit-)-MISSERFOLGE ab, die jeder Kern dank SIMD oder sonst ideal durchführen kann. Trotz des verschiedenen Verarbeiters können Architekturen verschiedenen Parallelismus auf dem einzelnen Kern, den meisten Hauptströmungs-wie neue Modelle von Xeon und Itanium erreichen, einen Faktor vier fordern. Einige Einschaltquoten haben den Faktor als eine gegebene Konstante angenommen, und verwenden Sie ihn, um Maximalwerte für alle Architekturen zu schätzen, häufig zu riesigem Unterschied zur anhaltenden Leistung führend.

Für gewöhnliche (unwissenschaftliche) Anwendungen sind Operationen der ganzen Zahl (gemessen in MIPS) viel üblicher. Das Messen der Schwimmpunkt-Operationsgeschwindigkeit sagt deshalb genau nicht voraus, wie der Verarbeiter auf gerade jedem Problem leisten wird. Jedoch, für viele wissenschaftliche Jobs wie Datenanalyse, ist eine MISSERFOLG-Schätzung wirksam.

Historisch scheint der frühste zuverlässig dokumentierte ernste Gebrauch der Schwimmpunkt-Operation als ein metrischer, AEC Rechtfertigung zum Kongress zu sein, für eine Kontrolle Daten CDC 6600 Mitte der 1960er Jahre zu kaufen.

Die Fachsprache ist zurzeit so verwirrend, dass bis zum 24. April 2006 amerikanische Ausfuhrkontrolle nach dem Maß der "Zerlegbaren Theoretischen Leistung" (CTP) in Millionen "Theoretischer Operationen Pro Sekunde" oder MTOPS basiert hat. An diesem Datum, jedoch, hat das Büro des amerikanischen Handelsministeriums von der Industrie und Sicherheit die Exportregierung Regulierungen amendiert, um Steuerungen auf Adjusted Peak Performance (APP) in Weighted TeraFLOPS (WT) zu stützen.

Aufzeichnungen

Der SX-9 Supercomputer von NEC war der erste Vektor-Verarbeiter in der Welt, um 100 gigaFLOPS pro einzelnen Kern zu überschreiten. Synchronisierter Erdkuckuck des Supercomputers von IBM war erst, um eine anhaltende Leistung von 1 petaFLOPS, wie gemessen, durch den Abrisspunkt von Linpack zu erreichen. die 500 schnellsten Supercomputer in der Weltvereinigung für 58.9 petaFLOPS der Rechenmacht.

Zum Vergleich führt eine tragbare Rechenmaschine relativ wenige MISSERFOLGE durch. Jede Berechnungsbitte, zum Beispiel, zwei Zahlen beizutragen oder abzuziehen, verlangt nur eine einzelne Operation, also gibt es selten jedes Bedürfnis für seine Ansprechzeit, um zu überschreiten, was der Maschinenbediener physisch verwenden kann. Eine Computeransprechzeit unter 0.1 Sekunde in einem Berechnungszusammenhang wird gewöhnlich als sofortig von einem menschlichen Maschinenbediener wahrgenommen, so braucht eine einfache Rechenmaschine nur ungefähr 10 MISSERFOLGE, die funktionell zu betrachten sind.

Im Juni 2006 wurde ein neuer Computer vom japanischen Forschungsinstitut RIKEN, der MDGRAPE-3 bekannt gegeben. Die Leistungsspitzen des Computers an einem petaFLOPS, fast zweimal schneller als der Blaue Gene/L, aber MDGRAPE-3 sind nicht ein allgemeiner Zweck-Computer, der ist, warum es in Top500.org Liste nicht erscheint. Es hat Rohrleitungen des speziellen Zwecks, um molekulare Dynamik vorzutäuschen.

Vor 2007 hat Intel Corporation den experimentellen Mehrkernspan von POLARSTERN entschleiert, der 1 TFLOPS an 3.13 GHz erreicht. Der 80-Kerne-Span kann dieses Ergebnis zu 2 TFLOPS an 6.26 GHz erheben, obwohl die Thermalverschwendung an dieser Frequenz um 190 Watt zu weit geht.

Am 26. Juni 2007 hat IBM die zweite Generation seines Spitzensupercomputers bekannt gegeben, hat Blauen Gene/P synchronisiert und hat vorgehabt, unaufhörlich mit Geschwindigkeiten zu funktionieren, die einen petaFLOPS überschreiten. Wenn konfiguriert, um so zu tun, kann es Geschwindigkeiten über drei petaFLOPS erreichen.

Im Juni 2007, hat Top500.org den schnellsten Computer in der Welt gemeldet, der Supercomputer von IBM Blue Gene/L zu sein, eine Spitze von 596 TFLOPS messend. Der Cray XT4 hat den zweiten Platz mit 101.7 TFLOPS geschlagen.

Am 25. Oktober 2007 hat NEC Corporation Japans eine Presseinformation ausgegeben, die sein SX Reihe-Modell SX-9 bekannt gibt, es behauptend, der schnellste Vektor-Supercomputer in der Welt zu sein. Der SX-9 zeigt die erste Zentraleinheit, die zu einer Maximalvektor-Leistung von 102.4 gigaFLOPS pro einzelnen Kern fähig ist.

Am 4. Februar 2008 haben der NSF und die Universität Texas volle Skala-Forschungsläufe auf einem AMD, Sonne-Supercomputer genannt Ranger, geöffnet

das stärkste Superrechensystem in der Welt für die offene Wissenschaftsforschung, die mit der anhaltenden Geschwindigkeit eines halben petaFLOPS funktioniert.

Am 25. Mai 2008 hat ein amerikanischer Supercomputer, der von IBM gebaut ist, genannt 'Erdkuckuck', den Rechenmeilenstein eines petaflop durch die Verarbeitung von mehr als 1.026 quadrillion Berechnungen pro Sekunde erreicht. Es hat den Juni 2008 und November 2008 TOP500 Liste der stärksten Supercomputer angeführt (Bratrost-Computer ausschließend). Der Computer wird an Los Alamos National Laboratory in New Mexico gelegen, und der Name des Computers bezieht sich auf den Vogel des Staates New Mexico, den Größeren Erdkuckuck.

Im Juni 2008 hat AMD ATI Radeon HD4800 Reihen veröffentlicht, die, wie man berichtet, der erste GPUs sind, um eine TeraFLOPS-Skala zu erreichen. Am 12. August 2008 hat AMD den ATI Radeon HD 4870X2 Grafikkarte mit zwei Radeon R770 GPUs das Belaufen auf 2.4 teraFLOPS veröffentlicht.

Im November 2008 hat eine Steigung zum Supercomputer von Cray XT Jaguar an Oak Ridge National Laboratory (ORNL) (der HIRSCHKUH) des Energieministeriums die Rechenmacht des Systems zu 1.64" Maximalpetaflops," oder quadrillion mathematische Berechnungen pro Sekunde erhoben, Jaguar das erste petaflop der offenen Forschung gewidmete System in der Welt machend. Anfang 2009 wurde der Supercomputer nach einem mythischen Wesen, Kraken genannt. Krake wurde den schnellsten universitätsgeführten Supercomputer in der Welt und sechst am schnellsten insgesamt in der TOP500 2009-Liste erklärt, die der globale Standard ist, um Supercomputer aufzureihen. 2010 wurde Krake befördert und kann schneller funktionieren und ist stärker.

2009 hat der Jaguar von Cray an 1.75 petaFLOPS geleistet, IBM Roadrunner für den Punkt Nummer eins auf der TOP500-Liste schlagend.

Im Oktober 2010 hat China den Tianhe-I, einen Supercomputer entschleiert, der an einer Maximalrechenrate von 2.5 petaflops funktioniert.

, der schnellste Sechs-Kerne-PC-Verarbeiter erreicht 109 GFLOPS (Intel Core i7 980 XE) in doppelten Präzisionsberechnungen. GPUs sind beträchtlich stärker. Zum Beispiel, Nvidia Tesla C2050 GPU Rechenverarbeiter führen ungefähr 515 GFLOPS in doppelten Präzisionsberechnungen und AMD FireStream 9270 Spitzen an 240 GFLOPS durch. In der Leistung der einfachen Präzision Nvidia Tesla C2050 führen Rechenverarbeiter ungefähr 1.03 TFLOPS und AMD FireStream 9270 Karte-Spitze an 1.2 TFLOPS durch. Sowohl Nvidia als auch der Verbraucher von AMD, der GPUs spielt, können höhere MISSERFOLGE erreichen. Zum Beispiel erreicht HemlockXT von AMD 5970 928 GFLOPS in doppelten Präzisionsberechnungen mit zwei GPUs an Bord, und der Nvidia GTX 480 erreicht 672 GFLOPS mit einem GPU an Bord.

Im November 2011 wurde es bekannt gegeben, dass Japan 10.51 petaflops mit seinem K Computer erreicht hatte. Es ist noch unter der Entwicklung, und Softwareleistungsoptimierung ist zurzeit laufend. Es hat 88,128 SPARC64 VIIIfx Verarbeiter in 864 Gestellen mit der theoretischen Leistung von 11.28 petaflops. Es wird nach dem japanischen Wort" genannt", der für 10 quadrillion entsprechend der Zielgeschwindigkeit von 10 petaFLOPS eintritt.

Am 15. November 2011 hat Intel einen einzelnen mit Sitz in x86 Verarbeiter, codegenannt "Ritter-Ecke," demonstriert, mehr als TeraFlop auf einer breiten Reihe von DGEMM Operationen stützend. Intel hat während der Demonstration betont das war anhaltender TeraFlop (nicht "roher TeraFlop, der" durch andere verwendet ist, um höhere, aber weniger bedeutungsvolle Zahlen zu bekommen), und dass es der erste allgemeine Zweck-Verarbeiter war, um jemals TeraFlop zu durchqueren.

Verteilter Rechengebrauch das Internet, um Personalcomputer zu verbinden, um mehr MISSERFOLGE zu erreichen:

  • Folding@home stützt mehr als 5.6 heimische petaFLOPS bezüglich des Märzes 2012, oder 8.1 x86 PFLOPS (x86 Misserfolge sind ein ungefähres Maß der Geschwindigkeit einer Berechnung auf einem mit Sitz in x86 Verarbeiter, der von heimischen Misserfolgen verschieden ist). Es ist das erste Rechenprojekt jeder Art, 1, 2, 3, 4, und 5 heimischer petaFLOPS Meilenstein zu durchqueren. Dieses Niveau der Leistung wird in erster Linie durch die kumulative Anstrengung einer riesengroßen Reihe von starkem GPU, PlayStation 3 und Zentraleinheitseinheiten ermöglicht.
  • Die kompletten BOINC Netzdurchschnitte ungefähr 6.1 PFLOPS.
  • MilkyWay@Home rechnet an mehr als 700 TFLOPS mit einem großen Betrag dieser Arbeit, die aus GPUs kommt.
  • SETI@Home, der 1999 begonnen hat, schätzt Datendurchschnitte mehr als 540 TFLOPS.
  • Einstein@Home zerkaut mehr als 260 TFLOPS.
  • GIMPS, der 1996 begonnen hat, stützt 81 TFLOPS.

Zukünftige Entwicklungen

2008, James Bamford Die Schattenfabrik hat berichtet, dass NSA das Pentagon erzählt hat, würde es einen exaflop Computer vor 2018 brauchen.

Im Mai 2008 wurde eine Kollaboration zwischen NASA, SGI und Intel bekannt gegeben, um einen 1 PFLOPS Computer, Pleiades zu bauen, 2009 bis zu 10 PFLOPS vor 2012 erkletternd. Zur gleichen Zeit hat IBM vorgehabt, einen 20 PFLOPS Supercomputer, Sequoia, an Lawrence Livermore Nationales Laboratorium bis 2011 zu bauen.

Am 2. Dezember 2010 hat die US-Luftwaffe einen Verteidigungssupercomputer entschleiert, der aus 1,760 Playstation 3 Konsolen zusammengesetzt ist, die 500 Trillionen Schwimmpunkt-Operationen pro Sekunde führen können. (500 TFLOPS)

Am 11. Oktober 2011 baute der Eiche-Kamm Nationales Laboratorium hat es bekannt gegeben, einen 20 petaflop Supercomputer, genannt Koloss, der betrieblich 2012 werden wird, wird das hybride Koloss-System AMD Opteron Verarbeiter mit "Kepler" NVIDIA Tesla Technologien der grafischen in einer Prozession gehenden Einheit (GPU) verbinden.

In Anbetracht der aktuellen Geschwindigkeit des Fortschritts werden Supercomputer geplant, um 1 exaFLOPS (EFLOPS) 2019 zu erreichen. Cray, Inc. hat im Dezember 2009 einen Plan bekannt gegeben, einen 1 EFLOPS Supercomputer vor 2020 zu bauen. Erik P. DeBenedictis von Sandia Nationalen Laboratorien theoretisiert, dass ein zettaFLOPS (ZFLOPS) Computer erforderlich ist, das volle Wettermodellieren der zweiwöchigen Periode zu vollbringen. Solche Systeme könnten 2030 gebaut werden.

In Indien haben ISRO und Indianerinstitut für die Wissenschaft geplant, einen 132.8 exaflop Supercomputer vor 2017, 100mal schneller zu machen, als jeder jemals geplante Supercomputer. Es würde die Vereinigten Staaten $ 2 Milliarden kosten, aber die Indianerregierung ist bereit, Finanzierung zur Verfügung zu stellen, und die ganze Schlüsselausrüstung wird vorbestellt. ISRO Wissenschaftler sagen, dass sie sehr sorgfältig geplant haben, solch ein Ziel aufzustellen.

Kosten der Computerwissenschaft

Hardware-Kosten

Der folgende ist eine Liste von Beispielen von Computern, die demonstriert, wie drastisch Leistung zugenommen hat und Preis abgenommen hat. Die "Kosten pro GFLOPS" sind die Kosten für eine Reihe der Hardware, die bei einer Milliarde Schwimmpunkt-Operationen pro Sekunde theoretisch funktionieren würde. Während des Zeitalters, als keine einzelne Rechenplattform im Stande gewesen ist, einen GFLOPS zu erreichen, verzeichnet dieser Tisch die Gesamtkosten für vielfache Beispiele einer schnellen Rechenplattform, die Geschwindigkeit zu einem GFLOPS summiert. Sonst wird die am wenigsten teure Rechenplattform, die fähig ist, einen GFLOPS zu erreichen, verzeichnet.

Die Tendenz zum Stellen von jemals mehr Transistoren billig auf einem einheitlichen Stromkreis folgt dem Gesetz von Moore. Diese Tendenz erklärt die steigende Geschwindigkeit und fallenden Kosten der Computerverarbeitung.

Operationskosten

In Energiekosten, gemäß der Green500-Liste, läuft der effizienteste TOP500 Supercomputer an 2097.19 MFLOPS pro Watt. Das übersetzt zu einer Energievoraussetzung von 0.477 Watt pro GFLOPS, jedoch wird diese Energievoraussetzung für weniger effiziente Supercomputer viel größer sein.

Hardware-Kosten für niedrige Kostensupercomputer können weniger bedeutend sein als Energiekosten, wenn sie unaufhörlich seit mehreren Jahren laufen.

Schwimmpunkt-Operation und Operation der ganzen Zahl

Schwimmpunkt-Operation pro Sekunde oder MISSERFOLGE, misst die Rechenfähigkeit eines Computers. Ein Beispiel einer Schwimmpunkt-Operation ist die Berechnung von mathematischen Gleichungen. MISSERFOLGE sind ein guter Hinweis, um Leistung auf DSP, Supercomputern, robotic Bewegungskontrolle und wissenschaftliche Simulationen zu messen. MIPS wird verwendet, um die Leistung der ganzen Zahl eines Computers zu messen. Beispiele der Operation der ganzen Zahl sind Datenfluss (Zu B) oder Wertprüfung (Wenn = B, dann C). MIPS als ein Leistungsabrisspunkt ist für den Computer entsprechend, wenn es in der Datenbankabfrage, der Textverarbeitung, den Spreadsheets verwendet wird, oder vielfache virtuelle Betriebssysteme zu führen. Frank H. McMahon, Lawrence Livermore National Laboratory (LLNL), hat den Begriff MISSERFOLGE und MFLOPS (MegaFLOPS) erfunden, so dass er die so genannten Supercomputer des Tages durch die Zahl von Schwimmpunkt-Berechnungen vergleichen konnte, die sie pro Sekunde getan haben. Das war viel besser als das Verwenden des überwiegenden MIPS (Millionen von Instruktionen Pro Sekunde), um Computer zu vergleichen, weil das statistisch gewöhnlich wenig hatte, sich auf die arithmetische Fähigkeit zur Maschine beziehend.

Fester Punkt (ganze Zahlen). Diese Benennungen verweisen auf das Format, das verwendet ist, numerische Darstellungen von Daten zu versorgen und zu manipulieren. Fester Punkt wird entworfen, um ganze Zahlen - positive und negative ganze Zahlen - zum Beispiel 16 Bit zu vertreten und zu manipulieren, bis zu 65,536 mögliche Bit-Muster (2) nachgebend.

Schwimmpunkt (reelle Zahlen). Das Verschlüsselungsschema für Schwimmpunkt-Zahlen ist mehr kompliziert als für den festen Punkt. Die Grundidee ist dasselbe, wie verwendet, in der wissenschaftlichen Notation, wo ein mantissa mit zehn erhobenen zu einer Hochzahl multipliziert wird. Zum Beispiel sind 5.4321 × 10, wo 5.4321 der mantissa und 6 ist, die Hochzahl. Wissenschaftliche Notation ist beim Darstellen sehr großer und sehr kleiner Zahlen außergewöhnlich. Zum Beispiel: 1.2 × 10, die Zahl von Atomen in der Erde oder 2.6 × 10, die Entfernung eine Schildkröte Kraul in einer Sekunde im Vergleich zum Diameter unserer Milchstraße. Bemerken Sie, dass in der wissenschaftlichen Notation vertretene Zahlen normalisiert werden, so dass es nur eine einzelne des dezimalen Punkts verlassene Nichtnullziffer gibt. Das wird durch die Anpassung der Hochzahl, wie erforderlich, erreicht. Schwimmpunkt-Darstellung ist der wissenschaftlichen Notation ähnlich, außer allem wird in der Basis zwei ausgeführt, anstatt zehn zu stützen. Während mehrere ähnliche Formate im Gebrauch sind, ist das allgemeinste ANSI/IEEE Std. 754-1985. Dieser Standard definiert das Format für 32-Bit-Zahlen genannt einfache Präzision, sowie 64-Bit-Zahlen genannt doppelte Präzision und längere Zahlen genannt erweiterte Präzision (verwendet für Zwischenergebnisse). Schwimmpunkt-Darstellungen können einen viel breiteren Wertbereich unterstützen als fester Punkt mit der Fähigkeit, sehr kleine Zahlen und sehr große Anzahl zu vertreten.

Mit der Festkommadarstellung kommen die Lücken zwischen angrenzenden Zahlen immer einem Wert von einem gleich, wohingegen in der Schwimmpunkt-Notation Lücken zwischen angrenzenden Zahlen nicht gleichförmig unter Drogeneinfluss sind — ist die Lücke zwischen irgendwelchen zwei Zahlen etwa zehn Millionen Male kleiner als der Wert der Zahlen (ANSI/IEEE Std. 754 Standardformat), mit großen Lücken zwischen der großen Anzahl und kleinen Lücken zwischen kleinen Zahlen.

Dynamische Reihe und Präzision. Das exponentiation innewohnende der Schwimmpunkt-Berechnung sichert eine viel größere dynamische Reihe - die größten und kleinsten Zahlen, die vertreten werden können - der besonders wichtig ist, wenn er Dateien bearbeitet, die äußerst groß sind, oder wo die Reihe unvorhersehbar sein kann. Als solcher wird Schwimmpunkt-Verarbeitern für rechenbetont intensive Anwendungen ideal angepasst. Es ist auch wichtig, als befestigt und Schwimmpunkt-Formate im Zusammenhang der Präzision - die Größe der Lücken zwischen Zahlen zu betrachten. Jedes Mal, wenn ein Verarbeiter eine neue Zahl über eine mathematische Berechnung erzeugt, muss diese Zahl zum nächsten Wert rund gemacht werden, der über das Format im Gebrauch versorgt werden kann. Das Runden und/oder das Beschneiden von Zahlen während der Verarbeitung geben natürlich quantization Fehler oder 'Geräusch' - die Abweichung zwischen Ist-Werten und gequantelten Werten nach. Da die Lücken zwischen angrenzenden Zahlen mit der Verarbeitung des festen Punkts viel größer sein können, wenn im Vergleich zur Schwimmpunkt-Verarbeitung, herum - vom Fehler viel ausgesprochener sein kann. Als solcher gibt Schwimmpunkt-Verarbeitung viel größere Präzision nach als Verarbeitung des festen Punkts, Schwimmpunkt-Verarbeiter als die ideale Zentraleinheit unterscheidend, wenn Rechengenauigkeit eine kritische Voraussetzung ist.

Siehe auch

  • Preis von Gordon Bell
  • Größenordnungen, (rechnend)

Links


Fußboden / Chloroform
Impressum & Datenschutz