Das Gesetz von Moore

Das Gesetz von Moore ist eine Faustregel in der Geschichte der Rechenhardware, wodurch sich die Zahl von Transistoren, die billig auf einem einheitlichen Stromkreis gelegt werden können, ungefähr alle zwei Jahre verdoppelt. Die als "18 Monate häufig angesetzte Periode" ist wegen des Managers von Intel David House, der dass Periode für eine Verdoppelung in der Span-Leistung vorausgesagt hat (eine Kombination der Wirkung von mehr Transistoren seiend, und dass sie schneller sind).

Die Fähigkeiten zu vielen elektronischen Digitalgeräten werden mit dem Gesetz von Moore stark verbunden: Geschwindigkeit, Speicherkapazität, Sensoren und sogar die Zahl und Größe von Pixeln in Digitalkameras bearbeitend.

Alle von diesen verbessern sich an (grob) Exponentialraten ebenso (sieh Andere Formulierungen und ähnliche Gesetze).

Diese Exponentialverbesserung hat den Einfluss der Digitalelektronik in fast jedem Segment der Weltwirtschaft drastisch erhöht.

Das Gesetz von Moore beschreibt eine treibende Kraft der technologischen und sozialen Änderung in den späten 20. und frühen 21. Jahrhunderten.

Das Gesetz wird nach dem Mitbegründer von Intel Gordon E. Moore genannt, der die Tendenz in seiner 1965-Zeitung beschrieben hat.

Das Papier hat bemerkt, dass sich die Zahl von Bestandteilen in einheitlichen Stromkreisen jedes Jahr von der Erfindung des einheitlichen Stromkreises 1958 bis 1965 verdoppelt und vorausgesagt hatte, dass die Tendenz "seit mindestens zehn Jahren" weitergehen würde. Seine Vorhersage hat sich erwiesen, teilweise unheimlich genau zu sein, weil das Gesetz jetzt in der Halbleiter-Industrie verwendet wird, um langfristige Planung zu führen und Ziele für die Forschung und Entwicklung zu setzen.

Diese Tendenz hat für mehr weitergegangen als ein halbes Jahrhundert. 2005 Quellen haben angenommen, dass es bis mindestens 2015 oder 2020 weitergegangen hat. Jedoch hat die 2010-Aktualisierung zum Internationalen Technologiefahrplan für Halbleiter Wachstum, das sich am Ende 2013 verlangsamt, nach dem sich Zeittransistor-Zählungen und Dichten nur alle 3 Jahre verdoppeln sollen.

Geschichte

Der Begriff "das das Gesetz Moore" wurde 1970 vom Professor von Caltech, VLSI Pionier und Unternehmer Carver Mead in der Verweisung auf eine Behauptung von Gordon E. Moore ins Leben gerufen.

Vorhersagen von ähnlichen Zunahmen in der Computermacht hatten vorherige Jahre bestanden. Alan Turing in seiner 1950-Zeitung, Maschinerie und Intelligenz Schätzend, hatte vorausgesagt, dass durch die Jahrtausendwende wir "Computer mit einer Lagerungskapazität ungefähr 10^9" haben würden, was heute wir "128 Megabytes nennen würden."

Moore kann gehört haben, dass Douglas Engelbart, ein Co-Erfinder der heutigen mechanischen Computermaus, den geplanten downscaling der einheitlichen Stromkreis-Größe in einem 1960-Vortrag bespricht.

Ein Artikel New York Times veröffentlicht am 31. August 2009, Kredite Engelbart als gemacht die Vorhersage 1959.

Die ursprüngliche Behauptung von Moore, dass sich Transistor-Zählungen jedes Jahr verdoppelt hatten, kann in seiner Veröffentlichung "Vollstopfen mehr Bestandteile auf einheitliche Stromkreise", Elektronik-Zeitschrift am 19. April 1965 gefunden werden:

Moore hat ein bisschen die Formulierung des Gesetzes mit der Zeit verändert, im Rückblick die wahrgenommene Genauigkeit seines Gesetzes auspolsternd. Am meisten namentlich, 1975, hat Moore seinen Vorsprung zu einer Verdoppelung alle zwei Jahre verändert. Trotz der populären falschen Auffassung ist er unerbittlich, dass er keine Verdoppelung "alle 18 Monate vorausgesagt hat." Jedoch hatte David House, ein Kollege von Intel, factored in der zunehmenden Leistung von Transistoren, um zu beschließen, dass sich integrierte Stromkreise in der Leistung alle 18 Monate verdoppeln würden.

Im April 2005 hat Intel 10,000 US$ angeboten, um eine Kopie des ursprünglichen Elektronik-Zeitschrift-Problems zu kaufen, in dem der Artikel von Moore erschienen ist. Ein Ingenieur, der im Vereinigten Königreich lebt, war erst, um eine Kopie zu finden und es Intel anzubieten.

Andere Formulierungen und ähnliche Gesetze

Mehrere Maßnahmen der Digitaltechnologie verbessern sich an Exponentialraten, die mit dem Gesetz von Moore, einschließlich der Größe, Kosten, Dichte und Geschwindigkeit von Bestandteilen verbunden sind. Moore selbst hat nur über die Dichte von Bestandteilen (oder Transistoren) an minimalen Kosten geschrieben.

Transistoren pro einheitlichen Stromkreis. Die populärste Formulierung ist der Verdoppelung der Zahl von Transistoren auf einheitlichen Stromkreisen alle zwei Jahre. Am Ende der 1970er Jahre ist das Gesetz von Moore bekannt als die Grenze für die Zahl von Transistoren auf den kompliziertsten Chips geworden. Der Graph zeigt oben, dass diese Tendenz heute für wahr hält.

Dichte an minimalen Kosten pro Transistor. Das ist die in der 1965-Zeitung von Moore gegebene Formulierung. Es ist nicht nur über die Dichte von Transistoren, die erreicht werden können, aber über die Dichte von Transistoren, an denen die Kosten pro Transistor am niedrigsten sind.

Da mehr Transistoren auf einen Span gestellt werden, die Kosten, um jeden Transistor zu machen, nehmen ab, aber die Chance, dass der Span wegen eines Defekts nicht arbeiten wird, nimmt zu. 1965 hat Moore die Dichte von Transistoren untersucht, an denen Kosten minimiert werden und bemerkt haben, dass, weil Transistoren kleiner durch Fortschritte in der Fotolithographie gemacht wurden, diese Zahl an "einer Rate grob eines Faktors zwei pro Jahr" zunehmen würde. Die aktuellen modernsten Fotolithographie-Werkzeuge verwenden tief ultraviolettes (DUV) Licht von excimer Lasern mit Wellenlängen von 248 und 193 nm — die dominierende Steindruckverfahren-Technologie wird so auch heute "excimer Lasersteindruckverfahren" genannt — der minimalen Eigenschaft-Größen in der Span-Herstellung ermöglicht hat, vor 0.5 Mikrometern 1990 bis 45 Nanometer und unten 2010 zurückzuweichen. Wie man erwartet, geht diese Tendenz in dieses Jahrzehnt für noch dichtere Chips mit minimalen Eigenschaften weiter, die sich 10 Nanometern nähern. Lasersteindruckverfahren von Excimer hat so eine kritische Rolle im fortlaufenden Fortschritt des Gesetzes von Moore seit den letzten 20 Jahren gespielt.

Festplatte-Lagerung pro Einheit der Information gekostet. Ein ähnliches Gesetz (hat manchmal das Gesetz von Kryder genannt), hat für Festplatte-Lagerungskosten pro Einheit der Information gehalten.

Die Rate des Fortschritts in der Plattenlagerung im Laufe der letzten Jahrzehnte hat wirklich mehr beschleunigt als einmal entsprechend der Anwendung des Fehlers, der Codes, die magnetoresistive Wirkung und den Riesen magnetoresistive Wirkung korrigiert. Die aktuelle Rate der Zunahme in der Festplatte-Kapazität ist der Rate der Zunahme in der Transistor-Zählung grob ähnlich. Neue Tendenzen zeigen, dass diese Rate in 2007 aufrechterhalten worden ist.

Netzkapazität. Gemäß Gerry/Gerald Butter, dem ehemaligen Kopf von Optical Networking Group von Lucent an Glockenlaboratorien, gibt es eine andere Version, genannt das Gesetz von Butter von Photonics, eine Formulierung, die absichtlich dem Gesetz von Moore anpasst. Das Gesetz von Butter sagt, dass sich die Datenmenge, die aus einem Glasfaserleiter kommt, alle neun Monate verdoppelt. So nehmen die Kosten, wenig über ein optisches Netz zu übersenden, anderthalbmal alle neun Monate ab. Die Verfügbarkeit der Wellenlänge-Abteilung gleichzeitig sendend (hat manchmal "WDM" genannt), hat die Kapazität vergrößert, die auf einer einzelnen Faser durch so viel gelegt werden konnte wie ein Faktor 100. Optischer Netzwerkanschluss und dichte gleichzeitig sendende Wellenlänge-Abteilung (DWDM) bringen die Kosten des Netzwerkanschlusses schnell herunter, und weiterer Fortschritt scheint versichert. Infolgedessen ist der Einkaufspreis des Datenverkehrs in der Punkt-Com-Luftblase zusammengebrochen. Das Gesetz von Nielsen sagt, dass die für Benutzer verfügbare Bandbreite um 50 % jährlich zunimmt.

Pixel pro Dollar. Ähnlich hat Barry Hendy von Kodak Australia die "Pixel pro Dollar" als ein grundlegendes Maß des Werts für eine Digitalkamera geplant, die historische Linearität (auf einer Klotz-Skala) dieses Marktes und der Gelegenheit demonstrierend, die zukünftige Tendenz von Digitalkamerapreis, FLÜSSIGKRISTALLANZEIGE und Schirmen LED und Entschlossenheit vorauszusagen.

The Great Moore's Law Compensator (TGMLC), der allgemein auf als bloat, und auch bekannt als das Gesetz von Wirth verwiesen ist, ist der Grundsatz, dass aufeinander folgende Generationen der Computersoftware genug bloat erwerben, um die durch das Gesetz von Moore vorausgesagten Leistungszunahmen auszugleichen. In einem 2008-Artikel in InfoWorld führt Randall C. Kennedy, früher Intel, diesen Begriff mit aufeinander folgenden Versionen von Microsoft Office zwischen dem Jahr 2000 und 2007 als seine Proposition ein. Trotz der Gewinne in der rechenbetonten Leistung während dieser Zeit Periode gemäß dem Gesetz von Moore Büro hat 2007 dieselbe Aufgabe mit der Hälfte der Geschwindigkeit auf einem archetypischen Computer des Jahres 2007 verglichen mit dem Büro 2000 auf einem Computer des Jahres 2000 durchgeführt.

Als ein Ziel für die Industrie und eine Selbsterfüllungsvorhersage

Obwohl das Gesetz von Moore in der Form einer Beobachtung am Anfang gemacht und vorausgesagt wurde, je weiter es akzeptiert geworden ist, desto mehr es als eine Absicht für eine komplette Industrie gedient hat. Das hat sowohl Marketing als auch Technikabteilungen von Halbleiter-Herstellern gesteuert, enorme Energie einzustellen, auf die angegebene Zunahme in der in einer Prozession gehenden Macht zielend, dass es ein gewagt wurde oder mehr von ihren Mitbewerbern bald wirklich erreichen würden. In dieser Beziehung kann es als eine Selbsterfüllungsvorhersage angesehen werden.

Das zweite Gesetz von Moore

Als die Kosten der Computermacht zum Verbraucher fallen, folgen die Kosten für Erzeuger, um das Gesetz von Moore zu erfüllen, einer entgegengesetzten Tendenz: R&D haben Herstellung und Testkosten fest mit jeder neuen Generation von Chips zugenommen. Steigende Produktionskosten sind eine wichtige Rücksicht für das Unterstützen des Gesetzes von Moore.

Das hatte zur Formulierung des "zweiten Gesetzes von Moore" geführt, das ist, dass die Kapitalkosten eines Halbleiters fab auch exponential mit der Zeit zunehmen.

Materialien, die für die zunehmende Technologie (z.B erforderlich sind, photowidersetzt sich und andere Polymer, und Industriechemikalien) werden aus Bodenschätzen wie Erdöl abgeleitet und werden so durch die Kosten und Versorgung dieser Mittel betroffen. Photowidersetzen Sie sich dennoch Kosten kommen durch die effizientere Übergabe herunter, obwohl Knappheitsgefahren bleiben.

Hauptermöglichen-Faktoren und zukünftige Tendenzen

Zahlreiche Neuerungen durch eine Vielzahl von Wissenschaftlern und Ingenieuren sind bedeutende Faktoren in der Nahrung des Gesetzes von Moore seit dem Anfang des Zeitalters des einheitlichen Stromkreises (IC) gewesen. Wohingegen eine ausführliche Liste solcher bedeutenden Beiträge sicher wünschenswert sein würde, unter gerade einigen Neuerungen werden als Beispiele von Durchbrüchen verzeichnet, die eine kritische Rolle in der Förderung der einheitlichen Schaltungstechnik durch mehr als sechs Größenordnungen in weniger als fünf Jahrzehnten gespielt haben:

  • Der erste Beitrag, der der raison d'etre für das Gesetz von Moore ist, ist die Erfindung des einheitlichen Stromkreises selbst, kreditiert gleichzeitig Jack Kilby an Instrumenten von Texas und Robert Noyce an Intel.
  • Die Erfindung des Ergänzungsmetalloxydhalbleiters (CMOS) geht durch Frank Wanlass 1963 in einer Prozession. Mehrere Fortschritte in der CMOS Technologie durch viele Arbeiter im Halbleiter-Feld seit der Arbeit von Wanlass haben den äußerst dichten und Hochleistungs-ICs ermöglicht, den die Industrie heute macht.
  • Die Erfindung der Technologie des dynamischen zufälligen Zugriffsgedächtnisses (DRAM) durch Robert Dennard an I.B.M. 1967. das hat es möglich gemacht, Speicherzellen des einzelnen Transistors zu fabrizieren. Zahlreiche nachfolgende Hauptfortschritte in der Speichertechnologie durch Hauptforscher weltweit haben zu den allgegenwärtigen preisgünstigen, Speichermodulen der hohen Kapazität in verschiedenen elektronischen Produkten beigetragen.
  • Die Erfindung von tiefem UV excimer Laserfotolithographie durch Kanti Jain an I.B.M. 1982, der den kleinsten Eigenschaften in ICs ermöglicht hat, vor 500 Nanometern 1990 zu mindestens 32 Nanometern 2011 zurückzuweichen. Mit den phänomenalen Fortschritten, die in excimer Laserfotolithographie-Werkzeugen durch zahlreiche Forscher und Gesellschaften gemacht sind, wie man erwartet, geht diese Tendenz in dieses Jahrzehnt für noch dichtere Chips mit minimalen Eigenschaften weiter, die unter 10 Nanometern reichen. Von einer noch breiteren wissenschaftlichen Perspektive, seit der Erfindung des Lasers 1960, ist die Entwicklung des excimer Lasersteindruckverfahrens als einer der Hauptmeilensteine in der 50-jährigen Geschichte des Lasers hervorgehoben worden.

Computerindustrietechnologie "Fahrpläne" sagt voraus , den das Gesetz von Moore für mehrere Span-Generationen fortsetzen wird. Je nachdem und nach der sich verdoppelnden in den Berechnungen verwendeten Zeit konnte das bis zu einer hundertfachen Zunahme in der Transistor-Zählung pro Span innerhalb eines Jahrzehnts bedeuten. Der Halbleiter-Industrietechnologiefahrplan verwendet eine dreijährige sich verdoppelnde Zeit für Mikroprozessoren, zu einer zehnfachen Zunahme im nächsten Jahrzehnt führend. Intel wurde 2005 als das Angeben berichtet, dass das Verkleinern von Siliziumchips mit der guten Volkswirtschaft während des nächsten Jahrzehnts, weitergehen kann

und 2008 als das Voraussagen der Tendenz im Laufe 2029.

Einige der neuen Richtungen in der Forschung, die dem Gesetz von Moore erlauben kann weiterzugehen, sind:

  • Forscher von IBM und Technologie von Georgia haben eine neue Geschwindigkeitsaufzeichnung geschaffen, als sie gelaufen sind, hat ein Helium des Silikons/Germaniums Transistor an 500 Gigahertz (GHz) unterkühlt. Der Transistor, der über 500 GHz an 4.5 K (451 °F /  268.65 °C) und Simulationen bedient ist, hat gezeigt, dass er wahrscheinlich an 1 THz (1,000 GHz) laufen konnte. Jedoch hat diese Probe nur einen einzelnen Transistor geprüft.
  • Als ein Beispiel des Einflusses der tief-ultravioletten excimer Laserfotolithographie, im Fortsetzen der Fortschritte in der Halbleiter-Span-Herstellung, haben Forscher von IBM Anfang 2006 bekannt gegeben, dass sie eine Technik entwickelt hatten, um Schaltsystem das nur 29.9 nm breite Verwenden von 193 nm ArF excimer Lasersteindruckverfahren zu drucken. IBM behauptet, dass diese Technik chipmakers erlauben kann, dann aktuelle Methoden seit noch sieben Jahren zu verwenden, während sie fortsetzt, durch das Gesetz von Moore vorausgesagte Ergebnisse zu erreichen. Wie man erwartet, sind neue Methoden, die kleinere Stromkreise erreichen können, wesentlich teurer.
  • Im April 2008 haben Forscher an HP-Laboratorien die Entwicklung eines Arbeitens memristor bekannt gegeben: Ein viertes grundlegendes passives Stromkreis-Element, dessen Existenz vorher nur theoretisiert worden war. Die einzigartigen Eigenschaften des memristor berücksichtigen die Entwicklung von kleineren und besser leistenden elektronischen Geräten.
  • Im Februar 2010, Forscher am Tyndall Nationalen Institut im Kork, hat Irland einen Durchbruch in Transistoren mit dem Design und der Herstellung des ersten junctionless Transistors in der Welt bekannt gegeben. Die von Professor Jean-Pierre Colinge geführte Forschung wurde in der Natur-Nanotechnologie veröffentlicht und beschreibt ein Kontrolltor um ein Silikon nanowire, der sich um die Leitung zum Punkt straffen kann, den Durchgang von Elektronen ohne den Gebrauch von Verbindungspunkten oder das Doping zu schließen. Die Forscher behaupten, dass die neuen junctionless Transistoren an 10-Nanometer-Skala mit vorhandenen Herstellungstechniken erzeugt werden können.
  • Im April 2011 hat eine Forschungsmannschaft an der Universität Pittsburghs die Entwicklung eines Einzeln-Elektrontransistors bekannt gegeben aus Oxyd im Durchmesser gemachte 1.5 Nanometer haben Materialien gestützt. Gemäß den Forschern laufen drei "Leitungen" auf einer Haupt"Insel" zusammen, die ein oder zwei Elektronen aufnehmen kann. Elektrontunnel von einer Leitung bis einen anderen durch die Insel. Bedingungen auf der dritten Leitung laufen auf verschiedene leitende Eigenschaften einschließlich der Fähigkeit des Transistors hinaus, als ein Gedächtnis des festen Zustands zu handeln.
  • Im Februar 2012 hat eine Forschungsmannschaft an der Universität von New South Wales die Entwicklung des ersten Arbeitstransistors bekannt gegeben, der aus einem einzelnen Atom gelegt genau in einen Silikonkristall (nicht nur aufgepickt von einer großen Probe von zufälligen Transistoren) besteht. Das für diesen Meilenstein erwartete Gesetz von Moore, der im Laboratorium vor 2020 zu erreichen ist.

Äußerste Grenzen des Gesetzes

Am 13. April 2005 hat Gordon Moore in einem Interview festgestellt, dass das Gesetz unbestimmt nicht gestützt werden kann: "Es kann für immer nicht weitergehen. Die Natur von exponentials ist, dass Sie sie stoßen und schließlich Katastrophe geschieht." Er hat auch bemerkt, dass Transistoren schließlich die Grenzen der Miniaturisierung an Atomniveaus erreichen würden:

Im Januar 1995 hatte das Digitalalpha 21164 Mikroprozessor 9.3 Millionen Transistoren. Dieser 64-Bit-Verarbeiter war eine technologische Lanzenspitze zurzeit, selbst wenn der Marktanteil des Stromkreises durchschnittlich geblieben ist. Sechs Jahre später hat ein modernster Mikroprozessor mehr als 40 Millionen Transistoren enthalten. Es wird theoretisiert, dass mit weiter miniaturisation vor 2015 diese Verarbeiter mehr als 15 Milliarden Transistoren enthalten sollten, und vor 2020 in der molekularen Skala-Produktion sein werden, wo jedes Molekül individuell eingestellt werden kann.

2003 hat Intel vorausgesagt, dass das Ende zwischen 2013 und 2018 mit 16-Nanometer-Fertigungsverfahren und 5-Nanometer-Toren wegen des Quant-Tunnelbaues kommen würde, obwohl andere darauf hingewiesen haben, dass Chips gerade größer werden, oder layered werden konnten. 2008 wurde es bemerkt, dass seit den letzten 30 Jahren es vorausgesagt worden ist, dass das Gesetz von Moore mindestens ein anderes Jahrzehnt dauern würde.

Einige sehen die Grenzen des Gesetzes als weit seiend in der entfernten Zukunft. Lawrence Krauss und Glenn D. Starkman haben eine äußerste Grenze von ungefähr 600 Jahren in ihrer Zeitung bekannt gegeben, die auf der strengen Bewertung der Information bearbeitenden Gesamtkapazität jedes Systems im Weltall gestützt ist.

Man konnte auch die theoretische Leistung eines ziemlich praktischen "äußersten Laptops" mit einer Masse von einem Kilogramm und einem Volumen von einem Liter beschränken. Das wird durch das Betrachten der Geschwindigkeit des Lichtes, der Quant-Skala, der Gravitationskonstante und des Boltzmanns als unveränderlich, das Geben einer Leistung 5.4258*10^50 logische Operationen pro Sekunde auf ungefähr 10^31 Bit getan.

Andererseits hat das Gesetz häufig Hindernisse entsprochen, die zuerst unüberwindlich geschienen sind, aber tatsächlich in Kürze überstiegen wurden. In diesem Sinn sagt Moore, dass er jetzt sein Gesetz als schöner sieht, als er begriffen hatte: "Das Gesetz von Moore ist eine Übertretung des Das Murphy's Gesetzes. Alles wird besser und besser."

Futuristen und das Gesetz von Moore

Futuristen wie Ray Kurzweil, Bruce Sterling und Vernor Vinge glauben, dass die durch das Gesetz von Moore beschriebene Exponentialverbesserung zu einer technologischen Eigenartigkeit schließlich führen wird: Eine Periode, wo der Fortschritt in der Technologie fast sofort vorkommt.

Obwohl Kurzweil zugibt, dass vor 2019 die aktuelle Strategie der jemals feineren Fotolithographie seinen Kurs geführt haben wird, sinnt er nach, dass das das Ende des Gesetzes von Moore nicht bedeutet:

Kurzweil sinnt nach, dass es wahrscheinlich ist, dass ein neuer Typ der Technologie (z.B optisch, Quant-Computer, DNA-Computerwissenschaft) aktuelle einheitliche Schaltungstechnik ersetzen wird, und dass das Gesetz von Moore lange nach 2020 für wahr halten wird.

Er glaubt, dass das Exponentialwachstum des Gesetzes von Moore außer dem Gebrauch von einheitlichen Stromkreisen in Technologien weitergehen wird, die zur technologischen Eigenartigkeit führen werden. Das Gesetz, von Ray Kurzweil beschriebenen Umsatz Zu beschleunigen, hat auf viele Weisen die Wahrnehmung des Publikums des Gesetzes von Moore verändert. Es ist ein allgemeiner (aber falsch) Glaube, dass das Gesetz von Moore Vorhersagen bezüglich aller Formen der Technologie macht, als es ursprünglich beabsichtigt war, um nur für Halbleiter-Stromkreise zu gelten. Viele Futuristen gebrauchen noch den Begriff "von Moore des des Gesetzes" in diesem breiteren Sinn, Ideen wie diejenigen zu beschreiben, die hervor von Kurzweil gestellt sind. Einige Menschen, einschließlich Richard Dawkins, haben bemerkt, dass das Gesetz von Moore - mindestens durch die Schlussfolgerung - zu jedem Problem gelten wird, das durch Digitalcomputer angegriffen werden kann und in seiner Essenz auch ein Digitalproblem ist. Deshalb, wegen des Digitalcodierens der DNA, kann der Fortschritt in der Genetik auch an einer Gesetzrate von Moore vorwärts gehen.

Moore selbst, der nie sein so weit gehend zu interpretierendes Gesetz beabsichtigt hat, hat gewitzelt:

Martin Ford in Den Lichtern im Tunnel: Automation, Technologie und die Wirtschaft der Zukunft Beschleunigend, behauptet, dass die Verlängerung des Gesetzes von Moore auf die meisten alltäglichen Jobs auf die Wirtschaft schließlich hinauslaufen wird, die über Technologien wie Robotertechnik und spezialisierte künstliche Intelligenz wird automatisiert, und dass das bedeutende Arbeitslosigkeit, sowie einen drastischen Niedergang in der Nachfrage der Verbraucher und dem Vertrauen verursachen wird, vielleicht eine Hauptwirtschaftskrise hinabstürzend.

Michael S. Malone hat über einen Krieg von Moore im offenbaren Erfolg des Stoßes und der Ehrfurcht in den frühen Tagen des Krieges von Irak geschrieben.

Michio Kaku, ein amerikanischer Wissenschaftler und Physiker, hat 2003 vorausgesagt, dass "das Gesetz von Moore wahrscheinlich in 20 Jahren" zusammenbrechen wird

Der Tipp und Schwanz der Kurve

Es ist für Gesellschaften und die Industrie im Allgemeinen üblicher, dem Tipp der Kurve aufwärts zu folgen. D. h. führen Sie mit der Zeit Ersatzprodukte an einem weit gehend ähnlichen Preispunkt (hinsichtlich der Inflation), aber mit mehr rechnender Macht, Gedächtnis, beharrlicher Lagerung und ähnlichen Eigenschaften ein.

Manchmal beschließen Organisationen stattdessen, dem Schwanz der Kurve abwärts - das Aufrechterhalten eines grundlegenden Rechenniveaus und Fahren des Preises unten mit der Zeit zu folgen. Das ist im Hobbyisten und den Ausbildungssektoren mit Projekten und Produkten wie Arduino, Ein Laptop pro Kind, BeagleBoard und BeagleBone und Raspberry Pi besonders offensichtlich.

Folgen und Beschränkungen

Die folgende Geschwindigkeit der technologischen Änderung

Technologische Änderung ist eine Kombination mehr und von der besseren Technologie. Eine neue Studie in der Zeitschrift Wissenschaft zeigt, dass die Spitze der Rate der Änderung der Kapazität in der Welt, Information zu schätzen, das Jahr 1998 war, als die technologische Kapazität in der Welt, Information über Mehrzweckcomputer zu schätzen, an 88 % pro Jahr gewachsen ist.

Transistor-Zählung gegen die Rechenleistung

Das von Moore vorausgesagte Exponentialverarbeiter-Transistor-Wachstum übersetzt in die exponential größere praktische Zentraleinheitsleistung nicht immer. Lassen Sie uns den Fall eines Einzeln-Gewindesystems in Betracht ziehen. Gemäß dem Gesetz von Moore werden Transistor-Dimensionen durch 30 % (0.7x) jede Technologiegeneration erklettert, so ihr Gebiet durch 50 % reduzierend. Das reduziert die Verzögerung (0.7x) und vergrößert deshalb Betriebsfrequenz um ungefähr 40 % (1.4x). Schließlich, um elektrische Feldkonstante zu behalten, wird Stromspannung durch 30 % reduziert, Energie durch 65 % und Macht (an 1.4x Frequenz) um 50 %, seit der Wirkleistung = CVf reduzierend. Deshalb, in jeder Technologiegenerationstransistor-Dichte verdoppelt sich, Stromkreis wird um 40 % schneller, während Macht-Verbrauch (mit zweimal der Zahl von Transistoren) dasselbe bleibt.

Eine andere Quelle der verbesserten Leistung ist wegen Mikroarchitektur-Techniken, die das Wachstum der verfügbaren Transistor-Zählung ausnutzen. Diese Zunahmen werden durch die Regierung von Pollack empirisch beschrieben, die feststellt, dass Leistungszunahmen wegen Mikroarchitektur-Techniken Quadratwurzel der Zahl von Transistoren oder des Gebiets eines Verarbeiters sind.

In Mehrkernzentraleinheiten vergrößert die höhere Transistor-Dichte Geschwindigkeit auf vielen Verbraucheranwendungen nicht außerordentlich, die nicht parallelized sind. Es gibt Fälle, wo eine ungefähr 45 % Zunahme in Verarbeiter-Transistoren zu ungefähr 10-20 % Zunahme in der in einer Prozession gehenden Macht übersetzt hat. Angesehen noch weit gehender wird die Geschwindigkeit eines Systems häufig durch Faktoren außer der Verarbeiter-Geschwindigkeit, wie innere Bandbreite und Lagerungsgeschwindigkeit beschränkt, und man kann eine gesamte Leistung eines Systems beurteilen, die auf Faktoren gestützt ist, außer der Geschwindigkeit, wie Kostenleistungsfähigkeit oder elektrische Leistungsfähigkeit.

Wichtigkeit von Nichtzentraleinheitsengpässen

Da Zentraleinheitsgeschwindigkeiten und Speicherkapazitäten zugenommen haben, haben andere Aspekte der Leistung wie Gedächtnis und Plattenzugriffsgeschwindigkeiten gescheitert anzuhalten. Infolgedessen ist jene Zugriffslatenz immer mehr häufig ein Engpass in der Systemleistung, und Hochleistungshardware und Software müssen entworfen werden, um ihren Einfluss zu reduzieren.

Im Verarbeiter-Design in Unordnung reduzieren Ausführung und das Verstecken auf dem Span und Vorholen den Einfluss der Speicherlatenz auf Kosten des Verwendens von mehr Transistoren und der Erhöhung der Verarbeiter-Kompliziertheit. In der Software haben Betriebssysteme und Datenbanken ihr eigenes fein abgestimmtes Verstecken, und vorbezaubernde Systeme, um die Zahl der Platte zu minimieren, sucht einschließlich Systeme wie ReadyBoost, die Blitz-Gedächtnis der niedrigen Latenz verwenden. Einige Datenbanken können Indizes und Daten zusammenpressen, die Datenmenge reduzierend, die von der Platte auf Kosten des Verwendens der Zentraleinheitszeit für die Kompression und Dekompression gelesen ist.

Die zunehmenden Verhältniskosten der Platte suchen auch macht die hohen Zugriffsgeschwindigkeiten zur Verfügung gestellt durch für einige Anwendungen attraktivere Halbleiterplatten.

Parallelismus und das Gesetz von Moore

Parallele Berechnung ist kürzlich notwendig geworden, um vollen Vorteil der durch das Gesetz von Moore erlaubten Gewinne zu nehmen. Seit Jahren haben Verarbeiter-Schöpfer durchweg Zunahmen in Uhr-Raten und Instruktionsniveau-Parallelismus geliefert, so dass Einzeln-Gewindecode schneller auf neueren Verarbeitern ohne Modifizierung durchgeführt hat. Jetzt, um Zentraleinheitsmacht-Verschwendung zu führen, bevorzugen Verarbeiter-Schöpfer Mehrkernspan-Designs, und Software muss auf eine Mehrgewindeweise oder Mehrprozess-Weise geschrieben werden, vollen Vorteil der Hardware zu nehmen. Viele Mehrgewindeentwicklungsparadigmen führen oben ein, und werden keine geradlinige Zunahme in der Geschwindigkeit gegen die Zahl von Verarbeitern sehen. Das ist besonders wahr, während es auf geteilte oder abhängige Mittel, erwartet zugreift, Streit zu schließen. Diese Wirkung wird mehr bemerkenswert als die Zahl von Verarbeiter-Zunahmen. Kürzlich hat IBM Weisen erforscht, Rechenmacht effizienter durch das Nachahmen der Verteilungseigenschaften des menschlichen Gehirns zu verteilen.

Veralten

Eine negative Implikation des Gesetzes von Moore ist Veralten, d. h. als Technologien fortsetzen "sich" schnell "zu verbessern", können diese Verbesserungen bedeutend genug sein, um veraltete Vorgänger-Technologien schnell zu machen. In Situationen, in denen Sicherheit und Überlebensfähigkeit der Hardware und/oder Daten oberst sind, oder in dem Mittel beschränkt werden, kann schnelles Veralten Hindernisse aufstellen, um zu glätten, oder hat Operationen fortgesetzt.

Siehe auch

  • Beschleunigung der Änderung
  • Das Gesetz von Amdahl
  • Bekenstein hat gebunden
  • Das Gesetz der Glocke
  • Das Gesetz von Metcalfe
  • Empirische Beziehung
  • Erfahrungskurve-Effekten
  • Exponentialwachstum
  • Das Gesetz von Grosch
  • Das Gesetz von Haitz
  • Geschichte der Rechenhardware (Gegenwart der 1960er Jahre)
  • Das Gesetz von Hofstadter
  • Das Gesetz von Kryder
  • Das Gesetz von Klaiber
  • Das Gesetz von Koomey
  • Liste von namensgebenden Gesetzen
  • Logistisches Wachstum
  • Das Gesetz von May
  • Mikroprozessor-Chronologie
  • Das Gesetz von Nielsen
  • Quant, rechnend
  • Das Gesetz des Felsens
  • Die zweite Hälfte des Schachbrettes
  • Halbleiter
  • Das Gesetz von Wirth
  • Intel Tick-Tock

Referenzen

Weiterführende Literatur

  • Das Verstehen des Gesetzes von Moore: Vier Jahrzehnte der Neuerung. Editiert von David C. Brock. Philadelphia: Chemische Erbe-Presse, 2006. Internationale Standardbuchnummer 0-941901-41-6..

Links

Nachrichten

Artikel

Daten

Häufig gestellte Fragen


Down-Syndrom / Rechtwinkliges Dreieck
Impressum & Datenschutz