text.skipToContent text.skipToNavigation
background-image

Die Zukunft der Menschheit Aufsätze von Bostrom, Nick (eBook)

  • Erscheinungsdatum: 21.10.2018
  • Verlag: Suhrkamp
eBook (ePUB)
17,99 €
inkl. gesetzl. MwSt.
Sofort per Download lieferbar

Online verfügbar

Die Zukunft der Menschheit

Es stehen dramatische Zeiten bevor: In den nächsten Jahrzehnten könnten Technologien wie die Künstliche Intelligenz und die Gentechnik das Ende der Menschheit herbeiführen oder aber ein goldenes Zeitalter einläuten, das wir uns noch kaum ausmalen können. Oder leben wir etwa heute schon in der Matrix, wie der schwedische Philosoph und Bestsellerautor ( Superintelligenz ) Nick Bostrom in seinem berühmten Simulationsargument behauptet? In den sechs hier versammelten Aufsätzen, von denen einige bereits Klassikerstatus besitzen, wagt Bostrom einen ebenso nüchternen wie detaillierten Blick in unsere Zukunft. Manches liest sich (noch) wie Science-Fiction, könnte aber aktueller und ernster kaum sein. Nick Bostrom, geboren 1973 als Niklas Boström in Schweden, studierte Physik, Mathematik, Neurowissenschaften sowie Philosophie unter anderem am King's College in London und an der London School of Economics, wo er promoviert wurde. Derzeit ist er Professor für Philosophie am St. Cross College der Universität von Oxford und Direktor sowohl des Future of Humanity Institute als auch des Programme for the Impact of Future Technology, die beide Teil der Oxford Martin School sind. 2009 wurde er für seine Arbeit, die weltweit rezipiert wird, mit dem prestigeträchtigen Eugene R. Gannon Award for the Continued Pursuit of Human Advancement ausgezeichnet und war auf der 100 Top Global Thinkers List von Foreign Policy .

Produktinformationen

    Format: ePUB
    Kopierschutz: watermark
    Seitenzahl: 150
    Erscheinungsdatum: 21.10.2018
    Sprache: Deutsch
    ISBN: 9783518757550
    Verlag: Suhrkamp
Weiterlesen weniger lesen

Die Zukunft der Menschheit

Existentiell sind solche Risiken, die die gesamte Zukunft der Menschheit bedrohen. Vielen Werttheorien zufolge haben selbst relativ kleine Verringerungen des existentiellen Gesamtrisikos einen enormen Erwartungswert, doch trotz ihrer Wichtigkeit sind die Fragen, die solche und ähnliche Risiken betreffen, nach wie vor kaum verstanden. In diesem Aufsatz kläre ich den Begriff des existentiellen Risikos und entwerfe ein verbessertes Klassifikationssystem. Ich diskutiere den Zusammenhang zwischen existentiellen Risiken und grundlegenden axiologischen Fragen und zeige außerdem, wie die Reduktion existentieller Risiken (mittels der Maxipok-Regel) einem Utilitaristen als starkes handlungsleitendes Prinzip dienen kann. Zudem zeige ich, inwiefern der Begriff des existentiellen Risikos eine neue Denkweise in Bezug auf das Ideal der Stabilität nahelegt.
1. Die Maxipok-Regel

Existentielles Risiko und Ungewissheit

Ein existentielles Risiko liegt vor, wenn die vorzeitige Auslöschung des intelligenten Lebens irdischen Ursprungs droht oder die Gefahr besteht, dass dessen zukünftiges Entwicklungspotential dauerhaft und drastisch beschnitten wird. [1] Obwohl sich die Wahrscheinlichkeit solcher Risiken oft schwer einschätzen lässt, gibt es viele Gründe für die Annahme, dass die Menschheit in den nächsten Jahrhunderten einem erheblichen Gesamtrisiko ausgesetzt sein wird. Wer sich mit dem Thema auskennt, schätzt das Gesamtrisiko in diesem Jahrhundert in der Regel auf 10 bis 20 Prozent, allerdings hängen solche Schätzungen unweigerlich stark von subjektiven Urteilen 52 ab [2] - die vernünftigste Prognose könnte auch wesentlich höher oder niedriger ausfallen. Der vielleicht stärkste Grund, die Gefahren in den nächsten Jahrhunderten für erheblich zu halten, besteht jedoch darin, dass enorm viel auf dem Spiel steht. Auch eine geringe Wahrscheinlichkeit einer existentiellen Katastrophe dürfte daher von erheblicher praktischer Bedeutung sein. [3]

Natürliche existentielle Risiken hat die Menschheit schon seit hunderttausenden von Jahren überlebt, weshalb sie uns auch im nächsten Jahrhundert vermutlich nicht umbringen werden. [4] Diese Folgerung wird noch gestützt, wenn wir uns spezifische natürliche Risiken wie etwa Asteroideneinschläge, Supervulkanausbrüche, Erdbeben oder Gammastrahlenimpulse ansehen. Empirisch ermittelten Auswirkungsverteilungen und wissenschaftlichen Modellen zufolge dürfte es extrem unwahrscheinlich sein, dass uns solche Katastrophen in den nächsten hundert Jahren auslöschen. [5]

53 Im Gegensatz dazu hat unsere Spezies ganz neue Formen existentieller Risiken in die Welt gesetzt, denen wir noch nie gegenüberstanden; daher besteht trotz der Langlebigkeit unserer Art kein besonderer Grund zur Zuversicht. Die genauere Analyse spezifischer Szenarien bestätigt die Vermutung, dass das existentielle Risiko auf absehbare Zeit vor allem auf anthropogenen existentiellen Risiken beruht - also vom Menschen ausgeht. Insbesondere scheinen die meisten der großen existentiellen Risiken mit potentiellen künftigen technischen Durchbrüchen zusammenzuhängen, die unsere Fähigkeiten zur Veränderung der Umwelt oder unserer eigenen Biologie radikal erweitern würden. Mit zunehmenden Fähigkeiten wächst auch das Ausmaß der potentiellen Folgen, egal ob beabsichtigt oder unbeabsichtigt, positiv oder negativ. Beispielsweise scheinen in nicht allzu ferner Zukunft liegende Formen der Biotechnologie, molekularen Nanotechnologie und maschinellen Intelligenz erhebliche existentielle Risiken zu bergen. Der Großteil des Risikos könnte in den nächsten hundert Jahren also von recht spekulativen Szenarien abhängen, denen sich auch durch Eins

Weiterlesen weniger lesen

Kundenbewertungen