Großrechner-Computer

Großrechner-Computer (umgangssprachlich gekennzeichnet als "großes Eisen") sind starke Computer verwendet in erster Linie von korporativen und Regierungsorganisationen für kritische Anwendungen, Hauptteil-Daten, die wie Volkszählung, Industrie und Verbraucherstatistik, Unternehmensquellenplanung und Transaktionsverarbeitung in einer Prozession gehen. Der Begriff hat sich ursprünglich auf die großen Kabinette bezogen, die die in einer Prozession gehende Haupteinheit und das Hauptgedächtnis von frühen Computern aufgenommen haben. Später wurde der Begriff gebraucht, um hohes Ende kommerzielle Maschinen von weniger starken Einheiten zu unterscheiden. Die meisten groß angelegten Computersystemarchitekturen wurden in den 1960er Jahren gegründet, aber setzen fort sich zu entwickeln.

Beschreibung

Modernstes Großrechner-Design wird durch die einzelne Aufgabe rechenbetonte Geschwindigkeit, normalerweise definiert als MIPS Rate oder MISSERFOLGE im Fall von Schwimmpunkt-Berechnungen so viel nicht so viel definiert wie durch ihre überflüssige innere Technik und resultierende hohe Zuverlässigkeit und Sicherheit, umfassende Eingangsausgabeeinrichtungen, strenge rückwärts gerichtete Vereinbarkeit mit der älteren Software, und hohe Hardware und rechenbetonte Anwendungsraten, um massiven Durchfluss zu unterstützen. Diese Maschinen, die häufig seit langen Zeitspannen ohne Unterbrechung, in Anbetracht ihrer innewohnenden hohen Stabilität und Zuverlässigkeit geführt sind.

Softwaresteigungen verlangen gewöhnlich das Rücksetzen des Betriebssystems oder der Teile davon und sind nichtstörend, wenn nur sie virtualizing Möglichkeiten wie der Z/OS von IBM und Paralleler Sysplex oder die XPCL von Unisys verwenden, die das Arbeitspensum-Teilen unterstützen, so dass ein System die Anwendung eines Anderen übernehmen kann, während es erfrischt wird. Großrechner werden durch die hohe Verfügbarkeit, einen der Hauptgründe für ihre Langlebigkeit definiert, da sie normalerweise in Anwendungen verwendet werden, wo Ausfallzeit kostspielig oder katastrophal sein würde. Der Begriff Zuverlässigkeit, Verfügbarkeit und Brauchbarkeit (RAS) ist eine Definieren-Eigenschaft von Großrechner-Computern. Richtige Planung und Durchführung sind erforderlich, diese Eigenschaften, und wenn unpassend durchgeführt, auszunutzen, können dienen, um die zur Verfügung gestellten Vorteile zu hemmen. Außerdem sind Großrechner sicherer als andere Computertypen. Das NIST Nationale Institut für Standards und Technologieverwundbarkeitsdatenbank, US-CERT, Raten traditionelle Großrechner wie IBM zSeries, Unisys Dorado und Unisys Libra als unter dem sichersten mit der Verwundbarkeit in den niedrigen einzelnen Ziffern im Vergleich zu Tausenden für Windows, Linux und Unix.

In den 1960er Jahren hatten die meisten Großrechner keine ausführlich interaktive Schnittstelle. Sie haben Sätze von geschlagenen Karten, Lochstreifen und/oder magnetischem Band akzeptiert und haben allein in der Gruppe-Weise funktioniert, um zurück Bürofunktionen wie Kunde zu unterstützen, der sich schnäbelt. Fernschreiber-Geräte waren auch, für Computersystemoperateure, im Einführen von Programmiertechniken üblich. Bis zum Anfang der 1970er Jahre haben viele Großrechner interaktive Benutzerschnittstellen erworben und haben als Time-Sharing-Computer funktioniert, Hunderte von Benutzern gleichzeitig zusammen mit der Gruppe-Verarbeitung unterstützend. Benutzer haben Zugang durch Spezialterminals oder später von mit der Terminalemulationssoftware ausgestatteten Personalcomputern gewonnen. Vor den 1980er Jahren haben viele Großrechner grafische Terminals, und Terminalemulation, aber nicht grafische Benutzerschnittstellen unterstützt. Dieses Format des Endbenutzers, der rechnet, hat Hauptströmungsveralten in den 1990er Jahren wegen des Advents von mit GUIs versorgten Personalcomputern erreicht. Nach 2000 haben modernste Großrechner klassischen Endzugang für Endbenutzer zu Gunsten von Webbenutzerschnittstellen teilweise oder völlig stufenweise eingestellt.

Historisch haben Großrechner ihren Namen teilweise wegen ihrer wesentlichen Größe, und wegen Voraussetzungen für Spezialheizung, Lüftung, und Klimatisierung (HVAC) und elektrische Leistung erworben, im Wesentlichen ein "Hauptfachwerk" der hingebungsvollen Infrastruktur aufstellend. Die Voraussetzungen des Designs der hohen Infrastruktur wurden während der Mitte der 1990er Jahre mit CMOS Großrechner-Designs drastisch reduziert, die die ältere bipolar Technologie ersetzen. IBM hat behauptet, dass seine neueren Großrechner Datenzentrum-Energiekosten für die Macht und das Abkühlen reduzieren können, und dass sie physische Raumvoraussetzungen im Vergleich zu Server-Farmen reduzieren konnten.

Eigenschaften

Fast alle Großrechner sind in der Lage (oder Gastgeber) vielfache Betriebssysteme zu führen, und dadurch als ein Gastgeber eines Kollektiv von virtuellen Maschinen zu funktionieren. In dieser Rolle kann ein einzelner Großrechner höher fungierende für herkömmliche Server verfügbare Hardware-Dienstleistungen ersetzen. Während Großrechner für diese Fähigkeit den Weg gebahnt haben, ist Virtualisierung jetzt auf den meisten Familien von Computersystemen, obwohl nicht immer zu demselben Grad oder Niveau der Kultiviertheit verfügbar.

Großrechner können beitragen oder heiße Tausch-Systemkapazität, ohne Systemfunktion, mit der Genauigkeit und Körnung zu einem Niveau der Kultiviertheit zu stören, die nicht gewöhnlich mit den meisten Server-Lösungen verfügbar ist. Moderne Großrechner, namentlich IBM zSeries, System z9 und System z10 Server, bieten zwei Niveaus der Virtualisierung an: logische Teilungen (LPARs, über die PR/SM Möglichkeit) und virtuelle Maschinen (über den z/VM Betriebssystem). Viele Großrechner-Kunden führen zwei Maschinen: Ein in ihrem primären Datenzentrum, und ein in ihrem Aushilfsdatenzentrum — völlig aktiv, teilweise aktiv, oder einsatzbereit — im Falle dass es eine Katastrophe gibt, die das erste Gebäude betrifft. Test, Entwicklung, Ausbildung und Produktionsarbeitspensum für Anwendungen und Datenbanken können auf einer einzelnen Maschine abgesehen von äußerst großen Anforderungen laufen, wo die Kapazität einer Maschine beschränken könnte. Solch eine Zwei-Großrechner-Installation kann dauernden Geschäftsdienst unterstützen, sowohl geplante als auch ungeplante Ausfälle vermeidend. In der Praxis verwenden viele Kunden vielfache Großrechner verbunden irgendein durch Parallelen Sysplex und geteilten DASD (im Fall von IBM), oder mit der geteilten, geografisch verstreuten Lagerung, die von EMC oder Hitachi zur Verfügung gestellt ist.

Großrechner werden entworfen, um Eingang des sehr großen Volumens und Produktion (Eingabe/Ausgabe) zu behandeln und Durchfluss-Computerwissenschaft zu betonen. Seit der Mitte der 1960er Jahre haben Großrechner-Designs mehrere Unterstützungscomputer eingeschlossen (genannt Kanäle oder peripherische Verarbeiter), die die Eingabe/Ausgabe-Geräte führen, die Zentraleinheit frei verlassend, sich nur mit dem Schnellspeicher zu befassen. Es ist in Großrechner-Geschäften üblich, sich mit massiven Datenbanken und Dateien zu befassen. Gigabyte, um Rekorddateien zu terabyte-nach-Größen-ordnen, ist ziemlich üblich. Im Vergleich zu einem typischen PC haben Großrechner allgemein Hunderte zu Tausenden von Zeiten so viel Datenlagerung online, und können darauf viel schneller zugreifen. Andere Server-Familien laden auch Eingabe/Ausgabe-Verarbeitung ab und betonen Durchfluss-Computerwissenschaft.

Großrechner-Rückkehr auf der Investition (ROI), wie jede andere Rechenplattform, ist von seiner Fähigkeit abhängig, gemischte Arbeitspensen zu erklettern, zu unterstützen, Arbeitskosten zu reduzieren, ununterbrochenen Dienst für kritische kommerzielle Anwendungen und mehrere andere risikoangepasste Kostenfaktoren zu liefern.

Großrechner haben auch Ausführungsintegritätseigenschaften für die Schuld tolerante Computerwissenschaft. Zum Beispiel führen z900, z990, System z9 und System z10 Server effektiv Ergebnis-orientierte Instruktionen zweimal durch, vergleichen Ergebnisse, sind zwischen irgendwelchen Unterschieden (durch die Instruktionswiederholung und Misserfolg-Isolierung) Schiedsrichter, wechseln dann Arbeitspensen "im Flug" zu fungierenden Verarbeitern, einschließlich Ersatzteile, ohne jeden Einfluss zu Betriebssystemen, Anwendungen oder Benutzern aus. Diese Eigenschaft des Hardware-Niveaus, die auch in den Systemen von NonStop des HP gefunden ist, ist als Schloss-Treten bekannt, weil beide Verarbeiter ihre "Schritte" (d. h. Instruktionen) zusammen machen. Nicht alle Anwendungen brauchen absolut die versicherte Integrität, die diese Systeme zur Verfügung stellen, aber viele tun wie Finanztransaktionsverarbeitung.

Markt

Großrechner von IBM beherrschen den Großrechner-Markt am gut mehr als 90 % Marktanteil. Unisys verfertigt Großrechner von ClearPath, die auf früheren Produkten von Burroughs und auf OS1100 Erzeugnissen gestützten Großrechnern von ClearPath gestützt sind. 2002, Hitachi co-developed der zSeries z800 mit IBM, um Ausgaben, aber nachher zu teilen, haben die zwei Gesellschaften an neuen Modellen von Hitachi nicht zusammengearbeitet. Hewlett Packard verkauft seine einzigartigen Systeme von NonStop, die er mit Tandem-Computern erworben hat, und die einige Analytiker als Großrechner klassifizieren. Groupe Stier-DPS, Fujitsu (früher Siemens) BS2000 und Fujitsu-ICL VME Großrechner sind noch in Europa verfügbar. Fujitsu, Hitachi und NEC (der "JCMs") erhalten noch Großrechner-Hardware-Geschäfte auf dem japanischen Markt aufrecht.

Der Betrag der Verkäufer-Investition in der Großrechner-Entwicklung ändert sich mit dem Marktanteil. Fujitsu und Hitachi beide setzen fort, Gewohnheit S/390-compatible Verarbeiter, sowie andere Zentraleinheiten (einschließlich MACHT, SPARC, MIPS und Xeon) für Systeme des niedrigeren Endes zu verwenden. Stier verwendet eine Mischung der Gewohnheit und Verarbeiter von Xeon. NEC und Stier sowohl verwenden eine Mischung von Verarbeitern von Xeon als auch Itanium für ihre Großrechner. IBM setzt fort, eine verschiedene Geschäftsstrategie der Großrechner-Investition und des Wachstums zu verfolgen. IBM hat seine eigene große Forschungs- und Entwicklungsorganisation, neue, einheimische Zentraleinheiten, einschließlich Großrechner-Verarbeiter wie der 4.4 GHz Viererkabelkern von 2008 z10 Großrechner-Mikroprozessor entwerfend. Unisys erzeugt Code vereinbare Großrechner-Systeme, die sich von Laptops bis nach Größen geordnete Großrechner des Kabinetts erstrecken, die einheimische Verarbeiter von CPUs sowie Xeon verwerten. IBM breitet sein Softwaregeschäft einschließlich seiner Großrechner-Softwaremappe schnell aus, um zusätzliche Einnahmen und Gewinne zu suchen.

Geschichte

Mehrere Hersteller haben Großrechner-Computer vom Ende der 1950er Jahre im Laufe der 1970er Jahre erzeugt. Die Gruppe von Herstellern war zuerst bekannt, weil "IBM und die Sieben Überragen": IBM, Burroughs, UNIVAC, NCR, Kontrolldaten, Honeywell, General Electric und RCA. Später, das Schrumpfen, ist es IBM und das BÜNDEL genannt geworden. Die Überlegenheit von IBM ist aus ihrer 700/7000 Reihe und, später, die Entwicklung der 360 Reihe-Großrechner gewachsen. Die letzte Architektur hat fortgesetzt, in ihren Strom zSeries Großrechner zu entwickeln, die, zusammen mit dann Burroughs und Sperry (jetzt Unisys) MCP-basierte und OS1100 Großrechner, unter den wenigen noch noch vorhandenen Großrechner-Architekturen sind, der ihre Wurzeln zu dieser frühen Periode verfolgen kann. Das hat gesagt, während der zSeries von IBM noch 24-Bit-Code des Systems/360 führen kann, haben die 64 Bit zSeries und System z9 CMOS Server nichts physisch genau wie die älteren Systeme. Bemerkenswerte Hersteller außerhalb der USA waren Siemens und Telefunken in Deutschland, ICL im Vereinigten Königreich, Olivetti in Italien, und Fujitsu, Hitachi, Oki und NEC in Japan. Die Pakt-Länder von Sowjetunion und Warschau haben nahe Kopien von Großrechnern von IBM während des Kalten Kriegs verfertigt; die BESM Reihe und Strela sind Beispiele eines unabhängig bestimmten sowjetischen Computers.

Das Schrumpfen der Nachfrage und zähen Konkurrenz hat eine Gesundschrumpfung auf dem Markt am Anfang der 1970er Jahre — RCA angefangen, der zu UNIVAC und auch verlassenem GE ausverkauft ist; in den 1980er Jahren wurde Honeywell vom Stier ausgezahlt; UNIVAC ist eine Abteilung von Sperry geworden, der sich später mit Burroughs verschmolzen hat, um Unisys Corporation 1986 zu bilden. 1991, AT&T hat kurz NCR besessen. Während derselben Periode haben Gesellschaften gefunden, dass auf Mikrocomputerdesigns gestützte Server an einem Bruchteil des Erwerb-Preises aufmarschiert werden und lokalen Benutzern viel größere Kontrolle über ihre eigenen Systeme gegeben ES Policen und Methoden damals anbieten konnten. Terminals, die verwendet sind, um mit Großrechner-Systemen aufeinander zu wirken, wurden durch Personalcomputer allmählich ersetzt. Folglich hat Nachfrage gestürzt, und neue Großrechner-Installationen wurden hauptsächlich auf Finanzdienstleistungen und Regierung eingeschränkt. Am Anfang der 1990er Jahre gab es eine raue Einigkeit unter Industrieanalytikern, dass der Großrechner ein sterbender Markt war, weil Großrechner-Plattformen durch Personalcomputernetze zunehmend ersetzt wurden. Stewart Alsop von InfoWorld hat berühmt vorausgesagt, dass der letzte Großrechner 1996 herausgezogen würde.

Diese Tendenz hat angefangen, sich gegen Ende der 1990er Jahre umzudrehen, weil Vereinigungen neuen Gebrauch für ihre vorhandenen Großrechner gefunden haben, und weil der Preis des Datennetzwerkanschlusses in den meisten Teilen der Welt, ermutigenden Tendenzen zur mehr zentralisierten Computerwissenschaft zusammengebrochen ist. Das Wachstum des E-Geschäfts hat auch drastisch die Zahl von Zurückende-Transaktionen gesteigert, die durch die Großrechner-Software sowie die Größe und den Durchfluss von Datenbanken bearbeitet sind. Gruppe-Verarbeitung, wie Abrechnung, ist noch wichtiger (und größer) mit dem Wachstum des E-Geschäfts geworden, und Großrechner sind in der in großem Umfang Gruppe-Computerwissenschaft besonders geschickt. Ein anderer Faktor, der zurzeit Großrechner-Gebrauch vergrößert, ist die Entwicklung von Linux Betriebssystem, das in Großrechner-Systeme von IBM 1999 angekommen ist und normalerweise in Hunderten oder Hunderten von virtuellen Maschinen auf einem einzelnen Großrechner geführt wird. Linux erlaubt Benutzern, die offene mit der Großrechner-Hardware verbundene Quellsoftware RAS auszunutzen. Schnelle Vergrößerung und Entwicklung auf erscheinenden Märkten, besonders Volksrepublik Chinas, spornen auch Hauptgroßrechner-Investitionen an, außergewöhnlich schwierige Rechenprobleme zu beheben, z.B vereinigt, äußerst großes Volumen Online-Transaktionsverarbeitungsdatenbanken für 1 Milliarde Verbraucher über vielfache Industrien (Bankwesen, Versicherung, Kreditbericht, Regierungsdienstleistungen, usw.) zur Verfügung stellend Gegen Ende 2000 hat IBM 64 Bit z/Architecture eingeführt, hat zahlreiche Softwaregesellschaften wie Cognos erworben und hat jene Softwareprodukte in den Großrechner eingeführt. Die vierteljährlichen und Jahresberichte von IBM haben in den 2000er Jahren gewöhnlich zunehmende Großrechner-Einnahmen und Höchstsendungen gemeldet. Jedoch ist das Großrechner-Hardware-Geschäft von IBM zum neuen gesamten Abschwung auf dem Server-Hardware-Markt oder zu Musterzyklus-Effekten nicht geschützt gewesen. Zum Beispiel, im 4. Viertel von 2009, hat das System von IBM z Hardware-Einnahmen vor 27-%-Jahr im Laufe des Jahres abgenommen. Aber MIPS Sendungen (ein Maß der Großrechner-Kapazität) haben um 4 % pro Jahr im Laufe der letzten zwei Jahre zugenommen.

2012 hat NASA unten seinen letzten Großrechner, IBM System z9 angetrieben.

Unterschiede zu Supercomputern

Ein Supercomputer ist ein Computer, der an der vordersten Front der aktuellen in einer Prozession gehenden Kapazität, besonders Geschwindigkeit der Berechnung ist. Supercomputer werden für wissenschaftliche und Technikprobleme verwendet (Hochleistungscomputerwissenschaft), die das Datenknirschen und Zahl-Knirschen sind, während Großrechner für die Transaktionsverarbeitung verwendet werden. Die Unterschiede sind wie folgt:

  • Großrechner werden in Millionen von Instruktionen pro Sekunde (MIPS) gemessen, während man annimmt, dass typische Instruktionen Operationen der ganzen Zahl sind, aber Supercomputer werden in Schwimmpunkt-Operationen pro Sekunde (MISSERFOLGE) und mehr kürzlich durch überquerte Ränder pro Sekunde oder TEPS gemessen. Beispiele von Operationen der ganzen Zahl schließen sich bewegende Daten ins Gedächtnis oder die überprüfenden Werte ein. Schwimmpunkt-Operationen sind größtenteils Hinzufügung, Subtraktion und Multiplikation mit genug Ziffern der Präzision, um dauernde Phänomene wie Wettervorhersage und Kernsimulationen zu modellieren. In Bezug auf die rechenbetonte Fähigkeit sind Supercomputer stärker.
  • Großrechner werden gebaut, um für die Transaktion zuverlässig zu sein, die in einer Prozession geht, wie sie in der Geschäftswelt allgemein verstanden wird: ein kommerzieller Austausch von Waren, Dienstleistungen oder Geld. Eine typische Transaktion, wie definiert, durch die Transaktion, die Leistungsrat Bearbeitet, würde das Aktualisieren zu einem Datenbanksystem für solche Dinge wie Bestandskontrolle (Waren), Luftfahrtgesellschaft-Bedenken (Dienstleistungen) oder Bankwesen (Geld) einschließen. Eine Transaktion konnte sich auf eine Reihe von Operationen einschließlich der Platte beziehen, las Betriebssystemanrufe oder eine Form der Datenübertragung von einem Subsystem bis einen anderen/schrieb. Diese Operation zählt zur in einer Prozession gehenden Macht eines Computers nicht. Transaktionsverarbeitung ist zu Großrechnern nicht exklusiv sondern auch in der Leistung von Mikroprozessor-basierten Servern und Online-Netzen verwendet.

Siehe auch

  • Computertypen
  • Failover

Links


Pilz / Microsoft Excel
Impressum & Datenschutz