Unterschätzt die Menschheit das Risiko ihrer eigenen Ausrottung?
Ausnahmsweise wird in diesem Beitrag keine Entdeckung beschrieben, die kürzlich in einer Zeitschrift veröffentlicht wurde. Im Laufe meiner verschiedenen Lektüren in den letzten Wochen habe ich einige Puzzleteile aufgegriffen und festgestellt, dass sie ziemlich gut zusammenpassen und dass dahinter eine Leitidee steckt. Es begann Ende 2011 in Durban, als es der internationalen Gemeinschaft erneut nicht gelang, sich auf die Begrenzung der Treibhausgasemissionen zu einigen. Dann gab es Ende Dezember die Ankündigung, dass Forscher mutierte Vogelgrippeviren geschaffen hätten, die wahrscheinlich leichter zwischen infizierten Menschen übertragen werden könnten. Auf die Ankündigung folgte zunächst eine Debatte darüber, ob es wirklich relevant sei, die Methoden zu veröffentlichen, mit denen die Biologen H5N1 verändert hatten, und dann die pragmatischere Frage: Kann der durchschnittliche Terrorist dies leicht erreichen?
Dann gab es am 12. Januar eine weitere Ankündigung, die zwar ritueller, aber auch diskreter war: die des Bulletins der Atomwissenschaftler, in der bekannt gegeben wurde, dass die Uhr des Weltuntergangs, die seit 1947 die Menschheit symbolisch warnt, wenn sie Schritte in Richtung ihres Aussterbens unternimmt, oder sie beruhigt, wenn sie Maßnahmen ergreift, um sich davon zu entfernen, um eine Minute in Richtung Mitternacht vorgestellt wurde. Auf dieser Uhr ist es jetzt 23:55 Uhr, und dieser Fortschritt des großen Zeigers wurde mit dem Mangel an Fortschritten bei der Begrenzung sowohl der nuklearen Verbreitung als auch der Treibhausgasemissionen gerechtfertigt. „Die Weltgemeinschaft könnte sich in ihren Bemühungen, eine Katastrophe durch Veränderungen in der Erdatmosphäre zu verhindern, einem Wendepunkt nähern. Die Internationale Energieagentur prognostiziert, dass die Welt zu einem wärmeren Klima, steigenden Meeresspiegeln, dem Verschwinden von Inselstaaten und einer zunehmenden Versauerung der Ozeane verurteilt ist, wenn die Gesellschaften nicht in den nächsten fünf Jahren damit beginnen, Alternativen zu kohlenstoffemittierenden Energietechnologien zu entwickeln.“ Es entbehrt nicht einer gewissen Ironie, dass vor ein paar Tagen eine weitere, direkt damit zusammenhängende Information ans Licht kam und ich sie in einer meiner wöchentlichen Auswahlen roh wie Gusseisen wiedergab: Noch nie in den letzten 300 Millionen Jahren waren die Ozeane so sauer wie heute. Trotz ihrer Bedeutung schien die Nachricht niemanden zu bewegen ...
Gerade in dem Moment, in dem viele Bücher zum Thema „2012, das vom Maya-Kalender vorhergesagte Jahr des Endes der Welt“ veröffentlicht werden (ich war verblüfft, als ich bei der FNAC eine ganze Reihe von Büchern zu diesem Thema sah), kehren die Männer, die sich selbst Angst einjagen, obwohl sie sehr wohl wissen, dass es Unsinn ist, die wahren Gründe zur Sorge unter den Teppich. Daher die Frage, die den Titel dieses Beitrags ausmacht: Unterschätzt die Menschheit das Risiko ihrer eigenen Ausrottung, indem sie die Probleme, die sie bedrohen, nicht angeht oder riskiert, dass Massenvernichtungstechnologien in die falschen Hände geraten? Ich habe natürlich keine Antwort darauf und überlasse es jedem, darüber nachzudenken, aber ich wollte diesen Beitrag wie keinen anderen beenden und auf das Interview in The Atlantic mit dem schwedischen Philosophen Nick Bostrom hinweisen, der an der Universität Oxford lehrt, dort das Institut für die Zukunft der Menschheit leitet und auf einem Foto oben auf dieser Seite abgebildet ist.
Mit einem Hintergrund in Physik, Neurowissenschaften und Wissenschaftsphilosophie hat Nick Bostrom nicht unbedingt das typische Profil des Philosophen, wie wir ihn uns normalerweise vorstellen. Er hat sich intensiv mit dem Konzept des „existenziellen Risikos“ beschäftigt, im Sinne eines Katastrophenszenarios, das „entweder zur völligen Zerstörung allen intelligenten Lebens auf der Erde oder zu einer dauerhaften Lähmung seines Entwicklungspotenzials“ führt. In diesem Interview interessiert er sich daher nicht für die fernen Folgen der globalen Erwärmung, sondern, wenn man bedenkt, dass dieses XNUMX. Jahrhundert aufgrund der rasanten Entwicklung neuer Technologien von entscheidender Bedeutung für die Menschheit sein wird, für die Risiken, die diese in naher Zukunft mit sich bringen werden: Public Domain: Man kann die genetische Sequenz des Pockenvirus oder des Spanischen Grippevirus aus dem Internet herunterladen. Bisher hat der Durchschnittsmensch nur deren grafische Darstellung auf seinem Computerbildschirm, aber wir entwickeln auch immer effizientere DNA-Synthesemaschinen, die einen dieser digitalen Baupläne anfertigen können tatsächliche RNA- oder DNA-Stränge. Bald werden diese Maschinen leistungsstark genug sein, um diese Viren nachzubilden. Sie haben also bereits ein vorhersehbares Risiko, und wenn Sie dann beginnen, diese krankheitsverursachenden Organismen auf unterschiedliche Weise zu verändern, tauchen gefährliche neue Grenzen auf. Längerfristig denke ich, dass künstliche Intelligenz, sobald sie menschliche und dann übermenschliche Fähigkeiten erlangt hat, uns in eine Zone großer Risiken bringen wird. Es gibt auch verschiedene Arten der Bevölkerungskontrolle, die mir Sorgen bereiten, Dinge wie Überwachung und psychologische Manipulation durch Drogen.
Als der Journalist, der ihn interviewt, ihn fragt, warum das Risiko eines größeren Ausrutschers im Laufe des Jahrhunderts auf ein oder zwei von zehn geschätzt wird, was sehr viel ist, antwortet Nick Bostrom: „Ich denke, was dazu führt, ist das Gefühl, dass Menschen diese sehr mächtigen Werkzeuge entwickeln (...) und dass das Risiko besteht, dass etwas schief geht. Wenn man mit Atomwaffen in die Vergangenheit reist, stellt man fest, dass man für den Bau einer Atombombe seltene Rohstoffe wie angereichertes Uran oder Tonium brauchte, die sehr schwer zu bekommen sind.“ Aber angenommen, es gäbe eine Technik, mit der man eine Atomwaffe herstellen könnte, indem man Sand in einem Mikrowellenherd oder so etwas kocht. Wenn das der Fall gewesen wäre, wo wären wir jetzt? Vermutlich wäre die Zivilisation nach dieser Entdeckung dem Untergang geweiht gewesen. Jedes Mal, wenn wir eine dieser Entdeckungen machen, stecken wir unsere Hand in eine große Urne voller Kugeln und ziehen eine neue Kugel: Bisher haben wir sowohl weiße als auch graue Kugeln abgefeuert, aber vielleicht ziehen wir beim nächsten Mal eine schwarze Kugel heraus, ein Fund, der eine Katastrophe bedeutet. Im Moment haben wir keine gute Möglichkeit, den Ball wieder in die Urne zu legen, wenn er uns nicht gefällt. Sobald die Entdeckung veröffentlicht wurde, gibt es keine Möglichkeit, die Veröffentlichung rückgängig zu machen.“
Nick Bostrom ist absolut kein Gegner der Technologie: Im Gegenteil, er ist ein großer Befürworter des Transhumanismus. Es hilft uns einfach, die Kontrolle zu behalten. Kontrolle über unsere Technologien, unseren Planeten, unsere Zukunft. Denn das Aussterben der Menschheit ist nicht das einzige Risiko, dem wir ausgesetzt sind. Die andere Seite des existenziellen Risikos ist das völlige Verschwinden von Freiheiten auf globaler Ebene: „Man kann sich das Szenario einer globalen totalitären Dystopie vorstellen. Auch hier ist es mit der Möglichkeit verbunden, dass wir Technologien entwickeln, die es Unterdrückungsregimen viel einfacher machen, Dissidenten zu eliminieren oder ihre Bevölkerung zu überwachen, um eine stabile Diktatur zu erreichen, im Gegensatz zu denen, die wir im Laufe der Geschichte gesehen haben und die letztendlich gestürzt wurden.“ George Orwell und sein Jahr 1984 sind nicht mehr weit.
Pierre Barthelemy
Quelle: http://passeurdesciences.blog.lemonde.f ... xtinction/