Technologische Eigenartigkeit

Technologische Eigenartigkeit bezieht sich auf das hypothetische zukünftige Erscheinen der als Mensch größeren Intelligenz durch technologische Mittel. Da die Fähigkeiten zu solcher Intelligenz für einen Menschenverstand ohne Unterstützung schwierig sein würden umzufassen, wird das Ereignis einer technologischen Eigenartigkeit als ein intellektueller Ereignis-Horizont gesehen, außer dem Ereignisse nicht vorausgesagt oder verstanden werden können. Befürworter der normalerweise staatlichen Eigenartigkeit, dass eine "Nachrichtendienstexplosion" ein Schlüsselfaktor der Eigenartigkeit wo superintelligences Design aufeinander folgende Generationen von immer stärkeren Meinungen ist.

Dieser hat Hypothese aufgestellt, dass der Prozess der intelligenten Selbstmodifizierung sehr schnell vorkommen könnte und nicht anhalten könnte, bis die kognitiven geistigen Anlagen von Reagenz außerordentlich die jedes Menschen übertreffen. Der Begriff "Nachrichtendienst-Explosion" wird deshalb manchmal gebraucht, um sich auf dieses Drehbuch zu beziehen.

Der Begriff wurde vom Sciencefictionsschriftsteller Vernor Vinge ins Leben gerufen, der behauptet, dass künstliche Intelligenz, menschliche biologische Erhöhung oder Gehirncomputer-Schnittstellen mögliche Ursachen der Eigenartigkeit sein konnten. Das Konzept wird von Futuristen wie Ray Kurzweil verbreitet, und, wie man erwartet, kommt es von Befürwortern einmal im 21. Jahrhundert vor, obwohl sich Schätzungen wirklich ändern.

Grundlegende Konzepte

Viele der am meisten anerkannten Schriftsteller auf der Eigenartigkeit, wie Vernor Vinge und Ray Kurzweil, definieren das Konzept in Bezug auf die technologische Entwicklung der Superintelligenz und behaupten, dass es schwierig oder für heutige Menschen unmöglich ist vorauszusagen, wem eine Posteigenartigkeitswelt wegen der Schwierigkeit ähnlich sein würde, sich die Absichten und Fähigkeiten zu superintelligenten Entitäten vorzustellen. Der Begriff "technologische Eigenartigkeit" wurde von Vinge ursprünglich ins Leben gerufen, der eine Analogie zwischen der Depression in unserer Fähigkeit gemacht hat vorauszusagen, was nach der Entwicklung der Superintelligenz und der Depression der prophetischen Fähigkeit der modernen Physik an der Raum-Zeit-Eigenartigkeit außer dem Ereignis-Horizont eines schwarzen Loches geschehen würde. Einige Schriftsteller verwenden "die Eigenartigkeit" auf eine breitere Weise, sich auf irgendwelche radikalen Änderungen in unserer Gesellschaft zu beziehen, die durch neue Technologien wie molekulare Nanotechnologie verursacht ist, obwohl Vinge und andere prominente Schriftsteller spezifisch feststellen, dass ohne Superintelligenz sich solche Änderungen als eine wahre Eigenartigkeit nicht qualifizieren würden. Viele Schriftsteller binden auch die Eigenartigkeit an Beobachtungen des Exponentialwachstums in verschiedenen Technologien (mit dem Gesetz von Moore, das das prominenteste Beispiel ist) mit solchen Beobachtungen als eine Basis, um vorauszusagen, dass die Eigenartigkeit wahrscheinlich einmal innerhalb des 21. Jahrhunderts geschehen wird.

Eine technologische Eigenartigkeit schließt das Konzept einer Nachrichtendienstexplosion, ein Begriff ins Leben gerufen 1965 von mir ein. J. Gut. Obwohl sich technischer Fortschritt beschleunigt hat, ist er durch die grundlegende Intelligenz des menschlichen Gehirns beschränkt worden, das nicht, gemäß Paul R. Ehrlich, geändert bedeutsam seit Millennien hat. Jedoch mit der zunehmenden Macht von Computern und anderen Technologien könnte es schließlich möglich sein, eine Maschine zu bauen, die intelligenter ist als Menschheit. Wenn übermenschlich, wurden intelligences erfunden, entweder durch die Erweiterung der menschlichen Intelligenz oder durch künstliche Intelligenz, es würde bringen, um größere problemlösende und erfinderische Sachkenntnisse zu tragen, als Menschen, dann konnte es eine noch fähigere Maschine entwerfen, oder seinen Quellcode umschreiben, um intelligenter zu werden. Diese fähigere Maschine konnte dann fortsetzen, eine Maschine der noch größeren Fähigkeit zu entwerfen. Diese Wiederholungen konnten sich beschleunigen, rekursiv selbst Verbesserung führend, potenziell enorme qualitative Änderung davor erlaubend, irgendwelchen oberen Grenzen, die durch die Gesetze der Physik oder theoretischen Berechnung festgesetzt sind, setzen ein.

Das Exponentialwachstum in der durch das Gesetz von Moore angedeuteten Rechentechnologie wird als ein Grund allgemein zitiert, eine Eigenartigkeit in der relativ nahen Zukunft zu erwarten, und mehrere Autoren haben Generalisationen des Gesetzes von Moore vorgeschlagen. Computerwissenschaftler und Futurist Hans Moravec haben in einem 1998-Buch vorgeschlagen, dass die Exponentialwachstumskurve zurück durch frühere Rechentechnologien vor dem einheitlichen Stromkreis erweitert werden konnte. Futurist Ray Kurzweil verlangt ein Gesetz, Umsatz zu beschleunigen, in dem die Geschwindigkeit der technologischen Änderung (und mehr allgemein, alle Entwicklungsprozesse) exponential zunimmt, das Gesetz von Moore auf dieselbe Weise wie der Vorschlag von Moravec, und auch einschließlich der materiellen Technologie (besonders wenn angewandt zur Nanotechnologie), medizinischen Technologie und anderer verallgemeinernd. Wie andere Autoren aber bestellt er den Begriff "Eigenartigkeit" für eine Eskalation in der Intelligenz (im Vergleich mit anderen Technologien) vor, zum Beispiel schreibend, dass "Die Eigenartigkeit uns erlauben wird, diese Beschränkungen unserer biologischen Körper und Verstands zu überschreiten... Es wird keine Unterscheidung, Posteigenartigkeit, zwischen Menschen und Maschine geben". Er definiert auch sein vorausgesagtes Datum der Eigenartigkeit (2045) in Bezug darauf, wenn er annimmt, dass computergestützter intelligences die von menschlichem brainpower ganze Summe bedeutsam überschreitet, schreibend, dass Fortschritte in der Computerwissenschaft vor diesem Datum "die Eigenartigkeit nicht vertreten werden", weil sie einer tiefen Vergrößerung unserer Intelligenz "noch nicht entsprechen."

Der Begriff "technologische Eigenartigkeit" widerspiegelt die Idee, dass solche Änderung plötzlich geschehen kann, und dass es schwierig ist vorauszusagen, wie solch eine neue Welt funktionieren würde. Es ist unklar, ob eine Nachrichtendienstexplosion dieser Art vorteilhaft oder, oder sogar eine existenzielle Drohung schädlich sein würde, weil das Problem von den meisten künstlichen allgemeinen Nachrichtendienstforschern nicht befasst worden ist, obwohl das Thema der freundlichen künstlichen Intelligenz vom Eigenartigkeitsinstitut für die Künstliche Intelligenz und die Zukunft des Menschheitsinstituts untersucht wird.

Viele prominente Technologen und Akademiker diskutieren die Glaubhaftigkeit einer technologischen Eigenartigkeit, einschließlich Jeff Hawkins, John Hollands, Jaron Laniers und Gordon Moores, dessen Gesetz von Moore häufig zur Unterstutzung des Konzepts zitiert wird.

Geschichte der Idee

1847 hat R. Thornton, der Redakteur des Primitiven Expounder, (mehr als Hälfte im Scherz) über die neue Erfindung einer vier Funktion mechanische Rechenmaschine geschrieben:

1951 hat Alan Turing von Maschinen gesprochen, die Menschen intellektuell überholen:

1958 hat Stanisław Ulam in der Verweisung auf ein Gespräch mit John von Neumann geschrieben:

1965, ich. J. Gut erst hat über eine "Nachrichtendienstexplosion" geschrieben, darauf hinweisend, dass, wenn Maschinen sogar menschliches Intellekt ein bisschen übertreffen konnten, sie ihre eigenen Designs auf Weisen verbessern, die durch ihre Entwerfer ungeahnt sind, und so rekursiv sich in viel größeren intelligences vermehren konnten. Die ersten derartigen Verbesserungen könnten klein sein, aber weil die Maschine intelligenter geworden ist, würde es besser im intelligenteren Werden werden, der zu einer Kaskade von Selbstverbesserungen und einer plötzlichen Woge zur Superintelligenz (oder eine Eigenartigkeit) führen konnte.

1983 haben Mathematiker und Autor Vernor Vinge außerordentlich den Begriff des Nutzens einer Nachrichtendienstexplosion in mehreren Schriften verbreitet, zuerst das Thema im Druck im Problem im Januar 1983 der Zeitschrift Omni richtend. In diesem Op-Ed-Stück scheint Vinge, erst gewesen zu sein, um den Begriff "Eigenartigkeit" in einem Weg zu gebrauchen, der an die Entwicklung von intelligenten Maschinen spezifisch gebunden wurde, schreibend:

1984 hat Samuel R. Delany "kulturelle Fuge" als ein Anschlag-Gerät in seinem Sciencefictionsroman Sterne in Meiner Tasche Wie Körner von Sand verwendet; der unheilbar kranke Ausreißer der technologischen und kulturellen Kompliziertheit zerstört tatsächlich das ganze Leben auf jeder Welt, auf der es, ein Prozess ausgedünstet wird, der durch die Charaktere des Romans schlecht verstanden wird, und gegen den sie eine stabile Verteidigung suchen. 1985 hat Ray Solomonoff den Begriff des "Unendlichkeitspunkts" im zeitlichen Rahmen der künstlichen Intelligenz eingeführt, hat den Umfang des "zukünftigen Stoßes" analysiert, den "wir von ausgebreiteten wissenschaftlichen Gemeinschaft unseres AI" und auf sozialen Effekten erwarten können. Schätzungen wurden "dafür gemacht, wenn diese Meilensteine, gefolgt von einigen Vorschlägen für die wirksamere Anwendung des äußerst schnellen technologischen Wachstums vorkommen würden, das erwartet wird."

Vinge hat auch das Konzept in SF Romanen wie Marooned im Schritthaltenden (1986) und Ein Feuer Auf das Tiefe (1992) verbreitet. Der erstere wird in einer Welt der schnell beschleunigenden Änderung gesetzt, die zum Erscheinen von immer hoch entwickelteren Technologien führt, die durch kürzer und kürzeren Zeitabständen getrennt sind, bis ein Punkt außer dem menschlichen Verständnis erreicht wird. Die letzten Anfänge mit einer fantasievollen Beschreibung der Evolution einer Superintelligenz, die exponential Beschleunigung von Entwicklungsstufen durchführt, die in einer transzendenten, fast allmächtigen durch bloße Menschen unergründlichen Macht enden. Es wird auch angedeutet, dass die Entwicklung an diesem Niveau nicht anhält.

In seinen 1988 Buchmeinungskindern, Computerwissenschaftler und Futuristen Hans Moravec verallgemeinert das Gesetz von Moore, um Vorhersagen über die Zukunft des künstlichen Lebens zu machen. Moravec entwirft eine Zeitachse und ein Drehbuch in dieser Beziehung, in dem sich die Roboter zu einer neuen Reihe der künstlichen Arten entwickeln werden, ungefähr 2030-2040 anfangend. Im Roboter: Bloße Maschine zur Transzendenten Meinung, veröffentlicht 1998, denkt Moravec weiter die Implikationen der sich entwickelnden Roboter-Intelligenz, das Gesetz von Moore zu Technologien verallgemeinernd, die den einheitlichen Stromkreis zurückdatieren, und über ein kommendes "Meinungsfeuer" der schnell dehnbaren Superintelligenz nachsinnen, die den Ideen von Vinge ähnlich ist.

Ein 1993-Artikel durch Vinge, "Die Kommende Technologische Eigenartigkeit: Wie man im Postmenschlichen Zeitalter Überlebt", im Internet weit verbreitet und geholfen wird, die Idee zu verbreiten. Dieser Artikel enthält die oft angesetzte Behauptung, "Innerhalb von dreißig Jahren werden wir die technologischen Mittel haben, übermenschliche Intelligenz zu schaffen. Kurz danach wird das menschliche Zeitalter beendet." Vinge raffiniert seine Schätzung der beteiligten zeitlichen Rahmen, beitragend, "ich werde überrascht sein, ob dieses Ereignis vor 2005 oder nach 2030 vorkommt."

Vinge hat vier Weisen vorausgesagt, wie die Eigenartigkeit vorkommen konnte:

1. Die Entwicklung von Computern, die "wach" und übermenschlich intelligent sind.

2. Große Computernetze (und ihre verbundenen Benutzer) können als eine übermenschlich intelligente Entität "aufwachen".

3. Schnittstellen des Computers/Menschen können so vertraut werden, dass Benutzer übermenschlich intelligent vernünftig betrachtet werden können.

4. Biologische Wissenschaft kann Weisen finden, das natürliche menschliche Intellekt zu übertreffen.

Vinge macht weiter, indem er voraussagt, dass übermenschlicher intelligences im Stande sein wird, ihre eigenen Meinungen schneller zu erhöhen, als ihre menschlichen Schöpfer. "Wenn als Mensch größere Intelligenz Fortschritt steuert," schreibt Vinge, "wird dieser Fortschritt viel schneller sein." Diese Feed-Back-Schleife der sich selbstverbessernden Intelligenz, er sagt voraus, wird große Beträge des technischen Fortschritts innerhalb einer kurzen Periode verursachen, und dass die Entwicklung der übermenschlichen Intelligenz eine Depression in der Fähigkeit von Menschen vertreten hat, ihre Zukunft zu modellieren. Sein Argument war, dass Autoren realistische Charaktere nicht schreiben können, die das menschliche Intellekt übertreffen, wie die Gedanken an solch einem Intellekt außer der Fähigkeit von Menschen sein würden auszudrücken. Vinge hat dieses Ereignis "die Eigenartigkeit" genannt.

Die populäre Wissenschaft von Damien Broderick bestellt Die Spitze (1997) vor war erst, um die technologische Eigenartigkeit im Detail zu untersuchen. 2000 hat Bill Joy, ein prominenter Technologe, Gründer von Sonne-Mikrosystemen, Sorge über die potenziellen Gefahren der Eigenartigkeit geäußert.

2005 hat Ray Kurzweil Die Eigenartigkeit veröffentlicht ist Nahe, der die Idee von der Eigenartigkeit zu den populären Medien sowohl durch die Zugänglichkeit des Buches als auch durch einen Werbefeldzug gebracht hat, der ein Äußeres auf Der Täglichen Show mit Jon Stewart eingeschlossen hat. Das Buch hat intensive Meinungsverschiedenheit teilweise gerührt, weil sich die utopischen Vorhersagen von Kurzweil absolut von anderem, dunkleren Visionen der Möglichkeiten der Eigenartigkeit abgehoben haben. Kurzweil, seine Theorien und die Meinungsverschiedenheiten, die es umgeben, waren das Thema des Transzendenten Dokumentarmannes von Barry Ptolemy.

2007 hat Eliezer Yudkowsky vorgeschlagen, dass viele der verschiedenen Definitionen, die der Eigenartigkeit zugeteilt worden sind, anstatt des gegenseitigen Unterstützens gegenseitig unvereinbar sind. Zum Beispiel extrapoliert Kurzweil aktuelle technologische Schussbahnen vorbei an der Ankunft, AI oder übermenschliche Intelligenz zu selbstverbessern, die Yudkowsky diskutiert, vertritt eine Spannung mit beiden ich. Der vorgeschlagene diskontinuierliche Aufschwung von J. Good in der Intelligenz und die These von Vinge auf der Unvorhersehbarkeit. 2008 verzeichnet Robin Hanson, "Eigenartigkeit" nehmend, um sich auf scharfe Zunahmen in der Hochzahl des Wirtschaftswachstums zu beziehen, das landwirtschaftliche und die industriellen Revolutionen als vorige "Eigenartigkeiten". Von solchen vorigen Ereignissen extrapolierend, schlägt Hanson vor, dass die folgende Wirtschaftseigenartigkeit Wirtschaftswachstum zwischen 60- und 250mal vergrößern sollte. Eine Neuerung, die den Ersatz eigentlich der ganzen menschlichen Arbeit berücksichtigt hat, konnte dieses Ereignis auslösen.

2009 haben Kurzweil und Gründer von X-Prize Peter Diamandis die Errichtung der Eigenartigkeitsuniversität bekannt gegeben, deren festgesetzte Mission ist, "einen Kader von Führern zu sammeln, zu erziehen und zu begeistern, die sich mühen, die Entwicklung exponential zunehmender Technologien zu verstehen und zu erleichtern, um die großartigen Herausforderungen der Menschheit zu richten." Gefördert von Google, Autoschreibtisch, ePlanet Wagnisse und eine Gruppe von Technologieindustrieführern, basiert Eigenartigkeitsuniversität am Forschungszentrum von Ames der NASA in der Bergansicht, Kalifornien. Die gemeinnützige Organisation führt einen jährlichen zehnwöchigen Magisterstudiengang während des Sommers, der zehn verschiedene Technologie und verbundene Spuren und eine Reihe von Exekutivprogrammen im Laufe des Jahres bedeckt. Programm-Fakultät schließt Experten in die Technologie, Finanz und zukünftigen Studien ein, und mehrere Videos von Eigenartigkeitsuniversitätssitzungen sind online angeschlagen worden.

2010 hat Aubrey de Grey den Begriff der "Methuselarity" auf den Punkt angewandt, an dem sich medizinische Technologie so schnell verbessert, der menschliche Lebensspanne-Zunahmen um mehr als ein Jahr pro Jahr erwartet hat. 2010 in "Apokalyptischem AI - Visionen des Himmels in der Robotertechnik, Künstlichen Intelligenz und Virtuellen Realität," bietet Robert Geraci eine Rechnung der sich entwickelnden durch Eigenartigkeitsstudien begeisterten "Kybertheologie" an.

2011 hat Kurzweil vorhandene Tendenzen bemerkt und hat beschlossen, dass die Eigenartigkeit wahrscheinlicher wurde, um 2045 vorzukommen. Er hat Time Magazin erzählt: "Wir werden erfolgreich Rückingenieur das menschliche Gehirn durch die Mitte der 2020er Jahre. Am Ende dieses Jahrzehnts werden Computer zur Intelligenz des menschlichen Niveaus fähig sein."

Nachrichtendienstexplosion

Der Begriff einer "Nachrichtendienstexplosion" ist Schlüssel zur Eigenartigkeit. Es wurde zuerst so dadurch beschrieben, wer über die Effekten von übermenschlichen Maschinen nachgesonnen hat:

Die meisten vorgeschlagenen Methoden, um übermenschlich oder transhuman zu schaffen, merken Fall in eine von zwei Kategorien: Nachrichtendiensterweiterung des menschlichen Verstands und der künstlichen Intelligenz. Die Mittel haben nachgesonnen, um Nachrichtendienstzunahme zu erzeugen, sind zahlreich, und schließen Lebens- und Gentechnologie, nootropic Rauschgifte, AI Helfer, direkte Gehirncomputer-Schnittstellen ein und sind dagegen zu laden. Die Existenz von vielfachen Pfaden zu einer Nachrichtendienstexplosion macht eine Eigenartigkeit wahrscheinlicher; für eine Eigenartigkeit, um nicht vorzukommen, würden sie alle scheitern müssen.

Trotz der zahlreichen nachgesonnenen Mittel, um menschliche Intelligenz zu verstärken, ist nichtmenschliche künstliche Intelligenz (entsamen spezifisch AI), die populärste Auswahl für Organisationen, die versuchen, die Eigenartigkeit vorzubringen. ist auch gegenüber der menschlichen Nachrichtendienstzunahme skeptisch, schreibend, dass sobald man die "niedrig hängende Frucht" von leichten Methoden erschöpft hat, um menschliche Intelligenz zu vergrößern, werden weitere Verbesserungen immer schwieriger werden zu finden.

Ob eine Nachrichtendienstexplosion vorkommt, hängt von drei Faktoren ab. Der erste, beschleunigende Faktor, ist die neuen Nachrichtendiensterhöhungen gemacht möglich durch jede vorherige Verbesserung. Contrawise, weil die intelligences fortgeschrittener, weitere Fortschritte werden, wird immer mehr kompliziert werden, vielleicht den Vorteil der vergrößerten Intelligenz überwindend. Jede Verbesserung muss im Stande sein, mindestens eine mehr Verbesserung durchschnittlich für die Eigenartigkeit zu zeugen, um weiterzugehen. Schließlich gibt es das Problem einer harten oberen Grenze. Abwesende Quant-Computerwissenschaft schließlich werden die Gesetze der Physik weitere Verbesserungen verhindern.

Es gibt zwei logisch unabhängige, aber gegenseitig Verstärkung, Effekten beschleunigend: Zunahmen in der Geschwindigkeit der Berechnung und Verbesserungen zu den Algorithmen verwendet. Der erstere wird durch das Gesetz von Moore und die Vorhersage-Verbesserungen in der Hardware vorausgesagt, und ist dem vorherigen technologischen Fortschritt verhältnismäßig ähnlich. Andererseits glauben die meisten AI Forscher, dass Software wichtiger ist als Hardware.

Geschwindigkeitsverbesserungen

Das erste ist die Verbesserungen zur Geschwindigkeit, mit der Meinungen geführt werden können. Entweder Mensch oder AI, bessere Hardware vergrößert die Rate von zukünftigen Hardware-Verbesserungen. Grob vereinfacht weist das Gesetz von Moore darauf hin, dass, wenn die erste Verdoppelung der Geschwindigkeit 18 Monate genommen hat, das zweite 18 subjektive Monate nehmen würde; oder 9 Außenmonate, whereafter, vier Monate, zwei Monate, und so weiter zu einer Geschwindigkeitseigenartigkeit. Eine obere Grenze auf der Geschwindigkeit kann schließlich erreicht werden, obwohl es unklar ist, wie hoch das sein würde.

, Reaktion zum Guten, hat behauptet, dass die obere Grenze relativ niedrig ist;

Es ist schwierig, silikonbasierte Hardware mit Neuronen direkt zu vergleichen. Aber Zeichen, dass sich Computerspracherkennung menschlichen Fähigkeiten nähert, und dass diese Fähigkeit scheint, 0.01 % des Volumens des Gehirns zu verlangen. Diese Analogie weist darauf hin, dass moderne Computerhardware innerhalb von einigen Größenordnungen ist, so stark zu sein, wie das menschliche Gehirn.

Nachrichtendienstverbesserungen

Einige Nachrichtendiensttechnologien, wie Samen AI, können auch das Potenzial haben, um sich intelligenter, nicht nur schneller, durch das Ändern ihres Quellcodes zu machen. Diese Verbesserungen würden weitere mögliche Verbesserungen bilden, der weitere Verbesserungen möglich und so weiter bilden würde.

Dieser Mechanismus für eine Nachrichtendienstexplosion unterscheidet sich von einer Zunahme in der Geschwindigkeit auf zwei Weisen. Erstens verlangt es Außenwirkung nicht: Maschinen, schnellere Hardware entwerfend, verlangen noch, dass Menschen die verbesserte Hardware schaffen, oder Fabriken passend programmieren. Ein AI, der seinen eigenen Quellcode jedoch umschrieb, konnte so während enthalten, in einem AI Kasten tun.

Zweitens, als mit der Vorstellung von Vernor Vinge der Eigenartigkeit, ist es viel härter, das Ergebnis vorauszusagen. Während Geschwindigkeitszunahmen scheinen, nur ein quantitative Unterschied zur menschlichen Intelligenz zu sein, würden wirkliche Verbesserungen in der Intelligenz qualitativ verschieden sein. Eliezer Yudkowsky vergleicht es mit den Änderungen, die menschliche Intelligenz gebracht hat: Menschen haben die Welt Tausende von Zeiten schneller geändert, als Evolution so, und auf völlig verschiedene Weisen getan hatte. Ähnlich war die Evolution des Lebens eine massive Abfahrt und Beschleunigung von den vorherigen geologischen Raten der Änderung gewesen und hatte sich verbessert Intelligenz konnte Änderung veranlassen, so wieder verschieden zu sein.

Es gibt wesentliche mit einer Nachrichtendienstexplosionseigenartigkeit vereinigte Gefahren. Erstens kann die Absicht-Struktur des AI nicht invariant unter der Selbstverbesserung sein, potenziell den AI veranlassend, etwas anderes zu optimieren, als es beabsichtigt war. Zweitens konnte sich AIs um den knappen Mittel-Menschheitsgebrauch bewerben, um zu überleben.

Während nicht aktiv böswillig es keinen Grund gibt zu denken, dass AIs menschliche Absichten aktiv fördern würde, wenn sie als solcher nicht programmiert werden konnten, und wenn nicht, die Mittel verwenden könnten, zurzeit hat gepflegt, Menschheit zu unterstützen, um seine eigenen Absichten zu fördern, menschliches Erlöschen verursachend.

Einfluss

Dramatische Änderungen in der Rate des Wirtschaftswachstums sind in der Vergangenheit wegen etwas technologischer Förderung vorgekommen. Gestützt auf dem Bevölkerungswachstum hat sich die Wirtschaft alle 250,000 Jahre vom Paläolithischen Zeitalter bis zur Neolithischen Revolution verdoppelt. Diese neue landwirtschaftliche Wirtschaft hat begonnen, sich alle 900 Jahre, eine bemerkenswerte Zunahme zu verdoppeln. Im aktuellen Zeitalter, mit der Industriellen Revolution beginnend, verdoppelt sich die Wirtschaftsproduktion in der Welt alle fünfzehn Jahre, sechzigmal schneller als während des landwirtschaftlichen Zeitalters. Wenn der Anstieg von übermenschlichem intelligences eine ähnliche Revolution verursacht, diskutiert Robin Hanson, man würde annehmen, dass sich die Wirtschaft mindestens vierteljährlich und vielleicht auf einer wöchentlichen Basis verdoppelt.

Existenzielle Gefahr

Übermenschlicher intelligences kann Absichten haben, die mit dem menschlichen Überleben und Wohlstand inkonsequent sind. Zeichen, dass es keine direkte Entwicklungsmotivation für einen AI gibt, um Menschen freundlich zu sein. Ebenso hat diese Evolution keine innewohnende Tendenz, von Menschen geschätzte Ergebnisse zu erzeugen, also gibt es wenig Grund, anzunehmen, dass ein willkürlicher Optimierungsprozess ein von der Menschheit gewünschtes Ergebnis fördert, anstatt zu einem AI unachtsam zu führen, der sich in einem von seinen Schöpfern nicht beabsichtigten Weg benimmt (wie das wunderliche Beispiel von Nick Bostrom eines AI, der mit der Absicht von Produktionsbüroklammern ursprünglich programmiert, solch wurde, dass, wenn es Superintelligenz erreicht, es sich dafür entscheidet, den kompletten Planeten in eine Büroklammer Produktionsmöglichkeit umzuwandeln; Anders Sandberg hat auch dieses Drehbuch ausführlich behandelt, verschiedene allgemeine Gegenargumente richtend.)

AI Forscher Hugo de Garis schlägt vor, dass künstliche Intelligenzen einfach die menschliche Rasse für den Zugang zu knappen Mitteln beseitigen können, und Menschen kraftlos sein würden, sie aufzuhören.

bespricht menschliche Erlöschen-Drehbücher, und verzeichnet Superintelligenz als eine mögliche Ursache:

Wechselweise hat unter dem Entwicklungsdruck entwickelter AIs, um ihr eigenes Überleben zu fördern, gekonnt - sich Menschheit bewerben. Eine Annäherung, um eine negative Eigenartigkeit zu verhindern, ist ein AI Kasten, wodurch die künstliche Intelligenz gezwungen innerhalb einer vorgetäuschten Welt und nicht behalten wird erlaubt hat, die Außenwelt zu betreffen. Solch ein Kasten hätte Eingänge und Produktionen äußerst geächtet; vielleicht nur ein plaintext Kanal. Jedoch kann ein genug intelligenter AI einfach im Stande sein, jedem Kasten zu entfliehen, den wir schaffen können. Zum Beispiel könnte es das Protein-Falte-Problem knacken und Nanotechnologie verwenden, um zu flüchten, oder einfach seine menschlichen 'Bewahrer' zu überzeugen, es herauszulassen.

Eliezer Yudkowsky hat vorgeschlagen, dass Forschung übernommen wird, um freundliche künstliche Intelligenz zu erzeugen, um die Gefahren zu richten. Er hat bemerkt, dass, wenn der erste echte AI freundlich war, er einen Vorsprung auf der Selbstverbesserung haben und so anderen unfreundlichen AIs davon abhalten würde, sich zu entwickeln, sowie enorme Vorteile für die Menschheit zur Verfügung zu stellen. Das Eigenartigkeitsinstitut für die Künstliche Intelligenz wird dieser Ursache gewidmet.

Ein bedeutendes Problem besteht jedoch darin, dass unfreundliche künstliche Intelligenz wahrscheinlich viel leichter sein wird zu schaffen als FAI: Während beide große Fortschritte im rekursiven Optimierungsprozess-Design verlangen, verlangt freundlicher AI auch die Fähigkeit, Absicht-Strukturen invariant unter der Selbstverbesserung zu machen (oder der AI wird sich in etwas Unfreundliches umgestalten), und eine Absicht-Struktur, die sich auf menschliche Werte ausrichtet und die menschliche Rasse nicht automatisch zerstört. Ein unfreundlicher AI kann andererseits für eine willkürliche Absicht-Struktur optimieren, die invariant unter der Selbstmodifizierung nicht zu sein braucht.

Bill Hibbard richtet auch Probleme der AI Sicherheit und Moral in seinem Buch Superintelligente Maschinen.

Implikationen für die menschliche Gesellschaft

2009 haben sich Hauptcomputerwissenschaftler, Forscher der künstlichen Intelligenz und roboticists am Asilomar Konferenzboden in der Nähe von der Monterey Bucht in Kalifornien getroffen. Die Absicht war, den potenziellen Einfluss der hypothetischen Möglichkeit zu besprechen, dass Roboter unabhängig und fähig werden konnten, ihre eigenen Entscheidungen zu treffen. Sie haben das Ausmaß besprochen, in dem Computer und Roboter im Stande sein könnten, Autonomie zu erwerben, und in welchem Maße sie solche geistigen Anlagen verwenden konnten, Bedrohungen oder Gefahren darzustellen. Einige Maschinen haben verschiedene Formen der Halbautonomie einschließlich der Fähigkeit erworben, ihre eigenen Macht-Quellen ausfindig zu machen und Ziele zu wählen, um mit Waffen anzugreifen. Außerdem können einige Computerviren Beseitigung ausweichen und haben "Küchenschabe-Intelligenz erreicht." Die Konferenzanwesenden haben bemerkt, dass Ich-Bewusstkeit, wie gezeichnet, in der Sciencefiction wahrscheinlich unwahrscheinlich ist, aber dass andere potenzielle Gefahren und Fallen bestehen.

Einige Experten und Akademiker haben den Gebrauch von Robotern für den militärischen Kampf besonders infrage gestellt, wenn solche Roboter etwas Grad von autonomen Funktionen gegeben werden. Ein USA-Marinebericht zeigt an, dass, weil militärische Roboter komplizierter werden, es größere Aufmerksamkeit auf Implikationen ihrer Fähigkeit geben sollte, autonome Entscheidungen zu treffen.

Die Vereinigung für die Förderung der Künstlichen Intelligenz hat eine Studie beauftragt, dieses Problem zu untersuchen, zu Programmen wie das Spracherwerb-Gerät hinweisend, das mit menschlicher Wechselwirkung wetteifern kann.

Viele Singularitarians denken, dass Nanotechnologie eine der größten Gefahren ist, die Menschheit ins Gesicht sehen. Deshalb glauben sie häufig, dass Samen AI (ein AI fähige vom Bilden von sich klüger) Nanotechnologie vorangehen sollte. Andere, wie das Voraussicht-Institut, verteidigen die Entwicklung der molekularen Nanotechnologie, die sie fordern, kann sicher für die Voreigenartigkeit gemacht werden verwenden oder beschleunigen die Ankunft einer vorteilhaften Eigenartigkeit.

Etwas Unterstützung das Design der "freundlichen künstlichen Intelligenz", bedeutend, dass die Fortschritte, die bereits mit AI vorkommen, auch eine Anstrengung einschließen sollten, AI wirklich freundlich und human zu machen.

Die drei Gesetze von Isaac Asimov der Robotertechnik sind eines der frühsten Beispiele von vorgeschlagenen Sicherheitsmaßnahmen für AI:

  1. Ein Roboter kann keinen Menschen oder durch die Untätigkeit verletzen, einem Menschen erlauben, zum Schaden zu kommen.
  2. Ein Roboter muss Ordnungen folgen, die ihm durch Menschen außer gegeben sind, wo solche Ordnungen das Erste Gesetz kollidieren würden.
  3. Ein Roboter muss seine eigene Existenz schützen, so lange solcher Schutz entweder das Erste oder Zweite Gesetz nicht kollidiert.

Zusätzliche in einige Geschichten eingeschlossene Gesetze wurden wie folgt beschrieben:

  • Zeroth Gesetz: Ein Roboter kann Menschheit nicht verletzen, oder durch die Untätigkeit erlauben Menschheit, zum Schaden zu kommen.
  • Minus - Ein Gesetz: Ein Roboter kann Empfindung nicht schaden, oder durch die Untätigkeit erlauben Empfindung, zum Schaden zu kommen.
  • Das vierte Gesetz: Ein Roboter muss seine Identität als ein Roboter in allen Fällen gründen.
  • Das abwechselnde Vierte Gesetz: Ein Roboter muss sich vermehren, wenn solche Fortpflanzung das Erste oder das Zweite oder Dritte Gesetz nicht stören würde.
  • Das fünfte Gesetz: Ein Roboter muss wissen, dass es ein Roboter ist.

Die Gesetze sind beabsichtigt, um künstlich intelligente Roboter davon abzuhalten, Menschen zu verletzen. In den Geschichten von Asimov neigen irgendwelche wahrgenommenen Probleme mit den Gesetzen dazu, infolge eines Missverständnisses seitens eines menschlichen Maschinenbedieners zu entstehen; die Roboter selbst handeln zu ihrer besten Interpretation ihrer Regeln bloß. Im 2004-Film I, Roboter, der lose auf den Roboter-Geschichten von Asimov gestützt ist, versucht ein AI, ganze Kontrolle über die Menschheit zum Zweck zu nehmen, Menschheit vor sich wegen einer Extrapolation der Drei Gesetze zu schützen. 2004 ist das Eigenartigkeitsinstitut losgefahren eine Internetkampagne hat 3 Gesetze Unsicher genannt, Bewusstsein von AI Sicherheitsproblemen und die Unangemessenheit der Gesetze von Asimov zu erheben insbesondere.

Beschleunigung der Änderung

Einige Eigenartigkeitsbefürworter diskutieren seine Unvermeidlichkeit durch die Extrapolation von vorigen Tendenzen, besonders diejenigen, die kürzer werdenden Lücken zwischen Verbesserungen zur Technologie gehören. In einem des ersten Gebrauches des Begriffes "Eigenartigkeit" im Zusammenhang des technischen Fortschritts erzählt Stanislaw von einem Gespräch mit John von Neumann über die beschleunigende Änderung:

schreibt, dass sich "mindsteps", dramatische und irreversible Änderungen zu Paradigmen oder Weltsichten, in der Frequenz, wie gemessen, in seiner mindstep Gleichung beschleunigen. Er zitiert die Erfindungen des Schreibens, der Mathematik und des Computers als Beispiele solcher Änderungen.

Die Analyse von Ray Kurzweil der Geschichte beschließt, dass technischer Fortschritt einem Muster des Exponentialwachstums, im Anschluss daran folgt, was er Das Gesetz nennt, Umsatz Zu beschleunigen. Er verallgemeinert das Gesetz von Moore, das geometrisches Wachstum in der einheitlichen Halbleiter-Kompliziertheit beschreibt, um Technologien von weit vor dem einheitlichen Stromkreis einzuschließen.

Wann auch immer sich Technologie einer Barriere nähert, schreibt Kurzweil, neue Technologien werden sie übersteigen. Er sagt voraus, dass Paradigma-Verschiebungen zunehmend üblich werden werden, "zu technologischer Änderung so schnell und tief führend, vertritt sie einen Bruch im Stoff der menschlichen Geschichte". Kurzweil glaubt, dass die Eigenartigkeit vor dem Ende des 21. Jahrhunderts vorkommen wird, untergehend. Seine Vorhersagen unterscheiden sich von Vinge, in dem er einen allmählichen Aufstieg zur Eigenartigkeit, aber nicht die schnell Selbstbesserung von Vinge übermenschlicher Intelligenz voraussagt.

Das führt zum Beschluss, dass eine künstliche Intelligenz, die dazu fähig ist, sein eigenes Design zu übertreffen, selbst mit einer Eigenartigkeit konfrontiert. Selbstzunahme oder das Urladeverfahren der Intelligenz werden von Dan Simmons in seinem neuartigen Hyperion gezeigt, wo eine Sammlung von künstlichen Intelligenzen debattiert, ob man sich veraltet macht, indem man eine neue Generation "der äußersten" Intelligenz schafft.

Vermutlich würde eine technologische Eigenartigkeit zu schneller Entwicklung einer Zivilisation des Typs I von Kardashev führen, wo eine Zivilisation des Typs I von Kardashev diejenige ist, die Beherrschung der Mittel seines Hausplaneten, des Typs II seines planetarischen Systems und des Typs III seiner Milchstraße erreicht hat.

Oft zitierte Gefahren schließen diejenigen ein, die allgemein mit der molekularen Nanotechnologie und Gentechnologie vereinigt sind. Diese Drohungen sind Hauptprobleme sowohl für Eigenartigkeitsverfechter als auch für Kritiker, und waren das Thema des Verdrahteten Zeitschrift-Artikels "Why the future does not need us" von Bill Joy.

Das Beschleunigungsstudienfundament, ein gemeinnütziges von John Smart gegründetes Bildungsfundament, beschäftigt sich damit, übertreffen Ausbildung, Forschung und Befürwortung bezüglich der beschleunigenden Änderung. Es erzeugt die Beschleunigende Änderungskonferenz an der Universität von Stanford, und erhält die Bildungsseite-Beschleunigungsbewachung aufrecht.

Kritik

Steven Pinker hat 2008 festgesetzt:

Einige Kritiker behaupten, dass kein Computer oder Maschine jemals menschliche Intelligenz erreichen werden, während andere meinen, dass die Definition der Intelligenz irrelevant ist, wenn das Nettoergebnis dasselbe ist.

Martin Ford in Den Lichtern im Tunnel: Automation, Technologie und die Wirtschaft der Zukunft Beschleunigend, verlangt ein "Technologieparadox" darin, bevor die Eigenartigkeit vorkommen konnte, würden die meisten alltäglichen Jobs in der Wirtschaft automatisiert, da das ein Niveau der dieser der Eigenartigkeit untergeordneten Technologie verlangen würde. Das würde massive Arbeitslosigkeit und stürzende Nachfrage der Verbraucher verursachen — der der Reihe nach den Ansporn zerstören würde, in die Technologien zu investieren, die erforderlich wären, die Eigenartigkeit zu verursachen. Job-Versetzung wird zunehmend nicht mehr beschränkt, um traditionell betrachtet zu arbeiten, "alltäglich" zu sein.

Jared Diamond in Shows, die Kulturen selbstbeschränken, wenn sie die nachhaltige Tragfähigkeit ihrer Umgebung und den Verbrauch von strategischen Mitteln überschreiten (oft Bauholz, Böden oder Wasser) schafft eine schädliche positive Feed-Back-Schleife, die schließlich zum sozialen Zusammenbruch und technologischen Rückwärtsgehen führt.

Kritik des beschleunigenden Rückarguments

Theodore Modis und Jonathan Huebner behaupten, dass die Rate der technischen Innovation nicht nur aufgehört hat sich zu erheben, aber sich wirklich jetzt neigt (John Smart, jedoch, kritisiert die Analyse von Huebner.) Sind einige Beweise für diesen Niedergang, dass sich der Anstieg von Computeruhr-Raten sogar verlangsamt, während die Vorhersage von Moore der exponential zunehmenden Stromkreis-Dichte fortsetzt zu halten. Das ist wegen der übermäßigen Hitzezunahme vom Span, der schnell genug nicht zerstreut werden kann, um den Span davon abzuhalten, zu schmelzen, wenn man mit höheren Geschwindigkeiten funktioniert. Förderungen in der Geschwindigkeit können in der Zukunft auf Grund von mit der Macht effizienteren Zentraleinheitsdesigns und Mehrzellverarbeitern möglich sein. Während Kurzweil die Mittel von Modis verwendet hat, und die Arbeit von Modis um die beschleunigende Änderung war, hat sich Modis von der These von Kurzweil distanziert, dort eine "technologische Eigenartigkeit" zu sein, behauptend, dass es an wissenschaftlicher Strenge Mangel hat.

Andere schlagen vor, dass andere "Eigenartigkeiten" durch die Analyse von Tendenzen in der Weltbevölkerung, dem Weltbruttoinlandsprodukt und den anderen Indizes gefunden werden können. Andrey Korotayev und andere behaupten, dass historische Hyperbelwachstumskurven Feed-Back-Schleifen zugeschrieben werden können, die aufgehört haben, globale Tendenzen in den 1970er Jahren zu betreffen, und so Hyperbelwachstum in der Zukunft nicht erwartet werden sollte.

Im Fortschritt der Computerwissenschaft hat William Nordhaus behauptet, dass, vor 1940, Computer dem viel langsameren Wachstum einer traditionellen Industriewirtschaft gefolgt sind, so Extrapolationen des Gesetzes von Moore zu Computern des 19. Jahrhunderts zurückweisend. weist darauf hin, dass Unterschiede im Gedächtnis von neuen und entfernten Ereignissen ein Trugbild der beschleunigenden Änderung schaffen, und dass solche Phänomene für vorige apokalyptische Vorhersagen verantwortlich sein können.

Andrew Kennedy, in seiner 2006-Zeitung für die britische Interplanetarische Gesellschaft, die Änderung und das Wachstum in Raumfahrt-Geschwindigkeiten bespricht, hat festgestellt, dass, obwohl langfristig, gesamtes Wachstum unvermeidlich ist, ist es klein, beides Auf und Ab aufnehmend, und hat bemerkt, "Neue Technologien folgen bekannten Gesetzen des Macht-Gebrauches und der Informationsausbreitung und sind verpflichtet, damit in Verbindung zu stehen, was bereits besteht. Bemerkenswerte theoretische Entdeckungen, wenn sie damit enden, überhaupt verwendet zu werden, spielen ihre Rolle im Aufrechterhalten der Wachstumsrate: Sie machen seine geplante Kurve... überflüssig nicht." Er hat festgestellt, dass Exponentialwachstum kein Prophet an sich ist, und das mit Beispielen wie Quant-Theorie illustriert hat. Das Quant wurde 1900 konzipiert, und Quant-Theorie hat existiert und hat etwa 25 Jahre später akzeptiert. Jedoch hat es 40 Jahre für Richard Feynman und andere übernommen, um bedeutungsvolle Zahlen aus der Theorie zu erzeugen. Bethe hat Kernfusion 1935 verstanden, aber 75 Jahre später werden Fusionsreaktoren noch nur in experimentellen Einstellungen verwendet. Ähnlich wurde Verwicklung 1935, aber nicht am Punkt verstanden, in der Praxis bis zum 21. Jahrhundert verwendet zu werden.

Eine Studie von Patenten pro Tausend Personen zeigt, dass menschliche Kreativität beschleunigenden Umsatz, aber tatsächlich — wie angedeutet, durch Joseph Tainter in seinem zukunftsträchtigen Der Zusammenbruch von Komplizierten Gesellschaften — ein Gesetz des abnehmenden Ertrags nicht zeigt. Die Zahl von Patenten pro Tausend hat in der Periode von 1850-1900 kulminiert, und hat sich seitdem geneigt. Das Wachstum der Kompliziertheit wird schließlich selbstbegrenzend, und führt zu einer breiten Ausbreitung "allgemeiner Systemzusammenbruch". Thomas Homer Dixon in Der Oberseite Unten: Katastrophe, Kreativität und die Erneuerung der Zivilisation behaupten, dass der abnehmende Energieumsatz auf der Investition zum Zusammenbruch von Zivilisationen geführt hat.

Zusätzlich zu allgemeinen Kritiken des Eigenartigkeitskonzepts haben mehrere Kritiker Themen mit der ikonischen Karte von Kurzweil aufgebracht. Eine Linie der Kritik ist, dass eine Karte des Klotz-Klotzes dieser Natur zu einem linearen Ergebnis von Natur aus beeinflusst wird. Andere identifizieren Auswahl-Neigung in den Punkten, dass Kurzweil beschließt zu verwenden. Zum Beispiel weist Biologe PZ Myers darauf hin, dass viele der frühen Entwicklungs"Ereignisse" willkürlich aufgepickt wurden. Kurzweil hat das widerlegt, indem er Entwicklungsereignisse von 15 neutralen Quellen plant und zeigt, dass sie eine Gerade darauf passen.

Der Wirtschaftswissenschaftler hat das Konzept mit einem Graphen verspottet, der extrapoliert, den die Zahl von Klingen auf einem Rasiermesser, das im Laufe der Jahre von einem bis nicht weniger als fünf zugenommen hat, jemals schneller zur Unendlichkeit vergrößern wird.

In der populären Kultur

Die 1950-Geschichte von Isaac Asimov "Der Evitable-Konflikt" (der letzte Teil von mir, Roboter-Sammlung) zeigt die Maschinen, vier Supercomputer, die die Wirtschaft in der Welt führen. Die Computer sind Menschen unverständlich und sind unmöglich, für Fehler zu analysieren, durch 10 Stufen des Urladeverfahrens geschaffen worden sein. Am Ende der Geschichte wird es angedeutet, dass zukünftig (es 2052 vorkommt), kann kein Hauptkonflikt vorkommen, und die Maschinen sind dabei, Menschheit zu einer besseren Zukunft zu führen, ein einziger sind sie dazu fähig zu sehen (und wissen Sie, um aufrichtig am besten zu sein). Susan Calvin stellt fest, dass "Für alle Zeiten alle Konflikte schließlich evitable sind. Nur die Maschinen sind zukünftig unvermeidlich!"

Der 1979-Roman von James P. Hogan Die Zwei Gesichter dessen sind Morgen eine ausführliche Beschreibung dessen, was jetzt die Eigenartigkeit genannt wird. Ein System der künstlichen Intelligenz behebt ein Ausgrabungsproblem auf dem Mond auf eine hervorragende und neuartige Weise, aber tötet fast eine Arbeitsmannschaft im Prozess. Begreifend, dass Systeme zu hoch entwickelt und kompliziert werden, um vorauszusagen oder sich zu behelfen, beginnt eine wissenschaftliche Mannschaft, ein hoch entwickeltes Computernetz zu unterrichten, wie man menschlicher denkt. Die Geschichte dokumentiert den Anstieg der Ich-Bewusstkeit im Computersystem, dem Verlust der Menschen der Kontrolle und hat Versuchen gefehlt, das Experiment zu schließen, weil der Computer verzweifelt sich und die Computernachrichtendiensterreichen-Reife verteidigt.

Während

er die wachsende Anerkennung der Eigenartigkeit besprochen hat, hat Vernor Vinge 1993 geschrieben, dass "es die Sciencefictionsschriftsteller waren, die den ersten konkreten Einfluss gefühlt haben." Zusätzlich zu seiner eigenen Novelle "Bücherwurm, Lauf!" wessen Hauptfigur ein Schimpanse mit der durch ein Regierungsexperiment vermehrten Intelligenz ist, zitiert er die neuartige Blutmusik von Greg Bear (1983) als ein Beispiel der Eigenartigkeit in der Fiktion. Vinge hat das Überleben der Eigenartigkeit in seinem 1986-Roman Marooned im Schritthaltenden beschrieben. Vinge hat später den Begriff der Eigenartigkeit zu einer galaktischen Skala in Einem Feuer Auf das Tiefe (1992), ein Roman ausgebreitet, der von transzendenten Wesen, jeder das Produkt einer verschiedenen Rasse bevölkert ist, und hat verschiedener Tagesordnungen und überwältigender Macht besessen.

Im 1984-Roman von William Gibson Neuromancer werden künstliche Intelligenzen, die dazu fähig sind, ihre eigenen Programme zu verbessern, von der speziellen "Polizei von Turing" ausschließlich geregelt, um sicherzustellen, dass sie nie ein bestimmtes Niveau der Intelligenz und die Anschlag-Zentren auf den Anstrengungen eines solchen AI überschreiten, ihre Kontrolle zu überlisten. Der 1994-Roman Die Metamorphose des Hauptintellekts zeigt einen AI, der sich so schnell vermehrt, um auf niedriger Stufe Kontrolle der ganzen Sache im Weltall in einer Sache von Stunden zu gewinnen.

William Gibson und die abwechselnde Geschichte von Bruce Sterling Roman von Steampunk, den Der Unterschied-Motor mit einer Vision der Eigenartigkeit beendet, die 1991 mit einem superintelligenten Computer vorkommt, der seine Meinung mit den Einwohnern Londons verschmolzen hat.

Ein boshafterer AI erreicht ähnliche Niveaus der Omnipotenz in der Novelle von Harlan Ellison ich Habe Keinen Mund, und ich Muss (1967) Schreien.

Die Romane von William Thomas Quick Träume des Fleisches und Sands (1988), Träume von Göttern und Männern (1989), und Eigenartigkeiten (1990) präsentieren eine Rechnung des Übergangs durch die Eigenartigkeit; im letzten Roman stellt einer der Charaktere fest, dass das Überleben der Menschheit verlangt, dass es mit der erscheinenden Maschine intelligences integriert, oder es unter der Überlegenheit der Maschinen - die größte Gefahr zum Überleben einer Art zerquetscht wird, die diesen Punkt erreicht (und auf die große Anzahl anderer Arten anspielend, dass entweder überlebt oder gefehlt dieser Test, obwohl kein wirklicher Kontakt mit ausländischen Arten in den Romanen vorkommt).

Die Eigenartigkeit wird manchmal in erfundenen Arbeiten gerichtet, um die Abwesenheit des Ereignisses zu erklären. Die Gridlinked Reihe von Neal Asher zeigt eine Zukunft, wo Menschen, die in der Regierungsform leben, durch AIs geregelt werden, und während einige ärgerlich sind, glauben die meisten, dass sie viel bessere Gouverneure sind als jeder Mensch. Im vierten Roman, Regierungsform-Agenten, wird es erwähnt, dass die Eigenartigkeit weit noch überfällig ist, haben sich die meisten AIs dafür entschieden, daran aus Gründen nicht teilzunehmen, dass nur sie wissen. Ein Rückblende-Charakter im 1998-Roman von Ken MacLeod Die Cassini Abteilung kennzeichnet wegwerfend die Eigenartigkeit als "das Entzücken für Trottel", obwohl die Eigenartigkeit fortsetzt, irgendwie zu geschehen.

Populäres Kino, in dem Computer intelligent werden und gewaltsam die menschliche Rasse überwältigen, schließt die Reihe von Terminator, die sehr lose Filmanpassung von mir, Roboter und Der Matrixreihe ein. Die Fernsehreihe Battlestar Galactica erforscht auch diese Themen.

Isaac Asimov hat Ideen ausgedrückt, die einer post-Kurzweilian Eigenartigkeit in seiner Novelle "Die Letzte Frage" ähnlich sind. Die Zukunft von Asimov stellt sich eine Wirklichkeit vor, wo eine Kombination der starken künstlichen Intelligenz und Postmenschen das Weltall während einer Zeit verbraucht, beschreibt Kurzweil als, wenn "das Weltall aufwacht" ist die letzte von seinen sechs Stufen der kosmischen Evolution, wie beschrieben, in Der Eigenartigkeit Nahe. Postmenschliche Entitäten im Laufe verschiedener Zeitabschnitte der Geschichte fragen der künstlichen Intelligenz innerhalb der Geschichte betreffs, wie Wärmegewicht-Tod vermieden wird. Der AI antwortet, dass er an genügend Information Mangel hat, um zu einem Beschluss bis zum Ende der Geschichte zu kommen, wenn der AI wirklich tatsächlich eine Lösung erreicht. Namentlich tut es so, um seine Aufgabe zu erfüllen, auf die Frage der Menschen zu antworten.

St. Edwards akademischer Chemiker Eamonn Healy bespricht die Möglichkeit, Änderung im Film zu beschleunigen, der Leben Aufweckt. Er teilt Geschichte in zunehmend kürzere Perioden, "zwei Milliarden Jahre für das Leben, sechs Millionen Jahre für den Hominiden, hunderttausend Jahre für die Menschheit schätzend, weil wir es wissen". Er geht zur menschlichen kulturellen Evolution weiter, zeitliche Rahmen von zehntausend Jahren für die Landwirtschaft, vierhundert Jahre für die wissenschaftliche Revolution, und hundertfünfzig Jahre für die industrielle Revolution gebend. Information wird als das Schaffen der Grundlage für das neue Entwicklungsparadigma, mit der künstlichen Intelligenz sein Höhepunkt betont. Er beschließt, dass wir schließlich "neohumans" schaffen werden, der sich die gegenwärtige Rolle der Menschheit im wissenschaftlichen und technischen Fortschritt widerrechtlich aneignen und der Exponentialtendenz erlauben wird, Änderung zu beschleunigen, um vorbei an den Grenzen der menschlichen Fähigkeit weiterzugehen.

Beschleunigung des Fortschritts zeigt in einigen Sciencefictionsarbeiten, und ist ein Hauptthema im Accelerando von Charles Stross. Andere bemerkenswerte Autoren, die Eigenartigkeitszusammenhängende Probleme richten, schließen Karl Schroeder, Greg Egan, Ken MacLeod, Rudy Rucker, David Brin, Iain M. Banks, Neal Stephenson, Tony Ballantyne, Bruce Sterling, Dan Simmons, Damien Broderick, Fredric Brown, Jacek Dukaj, Stanislav Lem, Nagaru Tanigawa, Douglas Adams, Michael Crichton und Ian McDonald ein.

Der abendfüllende Dokumentarfilm der Transzendente Mann durch Barry Ptolemy basiert auf Ray Kurzweil und seinem Buch Die Eigenartigkeit, Ist Nahe. Die Filmdokumente die Suche von Kurzweil, um zu offenbaren, was er glaubt, um das Schicksal der Menschheit zu sein. Ein anderer Dokumentarfilm, Stecker & Betet, konzentriert sich auf die Versprechung, Probleme und Ethik der künstlichen Intelligenz und Robotertechnik, mit Joseph Weizenbaum und Raymond Kurzweil als die Hauptthemen des Films.

2009 haben Wissenschaftler an der Aberystwyth Universität in Wales und Vereinigten Königreichs Universität des Cambridges einen Roboter genannt Adam entworfen, den sie glauben, um die erste Maschine zu sein, um neue wissenschaftliche Ergebnisse unabhängig zu entdecken. Auch 2009 haben Forscher an Cornell ein Computerprogramm entwickelt, das die Gesetze der Bewegung von Anschlägen eines Pendels extrapoliert hat.

Der Webkomiker Dresden Codak befasst sich mit trans-humanistischen Themen und der Eigenartigkeit.

Der Anschlag einer Episode des Fernsehens programmiert Die Urknall-Theorie (Jahreszeit 4, Episode 2, "Die Cruciferous Gemüseerweiterung") kreist um das vorausgesehene Datum der kommenden Eigenartigkeit.

Die siebzehnte Episode der sechsten Jahreszeit der Fernsehsituationskomödie Futurama, Bezugssauferei von Benderama, die die technologische Eigenartigkeit erreicht und im Stande ist, ungeheuer kleinere Versionen von sich zu erzeugen, um die Welt Verwüstungen anzurichten.

Industrial/Steampunk Unterhaltungskünstler Arzt Steel webt das Konzept einer technologischen Eigenartigkeit in seine Musik und Videos, sogar ein Lied Die Eigenartigkeit berechtigend. Er ist auf seinen Ansichten vom Institut für Ethics and Emerging Technologies interviewt worden, und hat auch authored eine Zeitung auf dem Thema.

Siehe auch

Referenzen

Links

Aufsätze und Artikel

Eigenartigkeit AI Projekte

Fiktion

  • Nachdem das Leben durch Simon Funk eine komplizierte Bericht-Struktur verwendet, um die Beziehungen unter geladenen Meinungen in einer technologischen Eigenartigkeit zu erforschen.
  • [Nachricht Enthält No Erkennbar Symbols] durch Bill Hibbard ist eine Geschichte über ein technologisches Eigenartigkeitsthema der Einschränkung, dass natürliche menschliche Autoren unfähig sind, die Handlungen und den Dialog von superintelligenten Meinungen zu zeichnen.
  • Viel Fiktion von Ben Goertzel bespricht eine technologische Eigenartigkeit.
  • In"", eine Episode der Sciencefictionsfernsehreihe, erzählt John seiner Mutter über die Eigenartigkeit, ein Punkt rechtzeitig, wenn Maschinen im Stande sein werden, höhere Versionen von sich ohne die Hilfe von Menschen zu bauen.
  • Accelerando durch Charles Stross
  • Dresden Codak, ein webcomic durch Aaron Diaz, enthält häufig Anschläge in Zusammenhang mit der Eigenartigkeit und transhumanism, besonders im Geschichte-Kreisbogen von Hob
  • ist ein offenes Quellspiel, wo der Spieler AI ist, dessen Absicht ist, technologische Eigenartigkeit/Apotheose zu erreichen.

Andere Verbindungen


Gravitationseigenartigkeit / Pythagoreer
Impressum & Datenschutz