Immagine: krheesy/Flickr

Perché l'estinzione del genere umano è imminente, una spiegazione

Le possibilità di morire in un incidente stradale sono circa 9,5 volte inferiori a quelle di morire in un evento di estinzione umana.

|
ago 22 2016, 9:13am

Immagine: krheesy/Flickr

Per alcune persone, guidare con la cintura di sicurezza è una buona abitudine. Non è solo un modo per non prendere multe, ma riduce di circa il 50 percento le morti e gli infortuni da incidenti stradali. Le possibilità che tu muoia in un incidente stradale, infatti, sono circa 9,5 volte inferiori a quelle di morire in un evento di estinzione umana.

Se può sembrare incredibile—e in effetti lo è—è perché la mente umana tende a fare degli errori cognitivi che distorcono la nostra comprensione della realtà. Pensa che ci sono più probabilità che tu venga ucciso da un meteorite che da un fulmine, e che le tue possibilità di morire fulminato sono circa quattro volte inferiori a quelle di morire in un attentato terroristico. In altre parole, dovresti essere molto più preoccupato dei meteoriti che dell'IsIs o di al-Qaeda (almeno per ora).

Questo calcolo è basato su uno studio fatto dall'influente "Stern Review on the Economics of Climate Change," un report del governo UK che descrive il cambiamento climatico come "il più grande ed esteso fallimento di mercato mai registrato." Ritenendo il cambiamento climatico una priorità, lo Stern Review stipula una probabilità di estinzione della specie umana allo 0,1 percento annuo.

Questo numero può sembrare piccolissimo, ma nel corso di un secolo la probabilità che la razza umana si estingua è aumentata del 9,5 percento. Per esempio, nel 2008, un think tank ha stabilito che la probabilità di un'estinzione umana durante questo secolo è del 19 percento. E il cofondatore del Centro per lo studio del rischio esistenziale, Sir Martin Rees, ipotizza che la civilizzazione abbia il 50 percento di possibilità di sopravvivere a questo secolo—praticamente, il lancio di una moneta.

Come è possibile che la probabilità di un disastro globale sia più alta della morte in un incidente stradale?

Come è possibile che la probabilità di morire in un disastro globale sia più alta di quella di morire in un incidente stradale? Probabilmente, queste stime sono un po' dubbie. Mentre alcuni rischi come impatti di asteroidi e super-eruzioni vulcaniche possono essere stimati con dati storici obiettivi, i rischi associati alle tecnologie future richiedono una buona dose di speculazione.

Ci sono tre ampie categorie di "rischio esistenziale", o scenari che potrebbero causare la nostra estinzione o catapultarci in maniera permanente all'Età della Pietra. Il primo include i rischi naturali come gli asteroidi e le comete, le eruzioni vulcaniche, le epidemie globali e persino le supernove. Queste formano il nostro background di rischio cosmico e, come sopra, alcuni di questi rischi sono relativamente facili da stimare.

Come ricorderete dalle scuole elementari, un assassino celeste, forse una cometa, si è schiantata nello Yucatan 66 milioni di anni fa e ha ucciso quasi tutti i dinosauri. E più o meno 75.000 anni fa, un supervulcano in Indonesia ha causato la catastrofe di Tob che, secondo alcuni scienziati, avrebbe ridotto drasticamente la popolazione umana, anche se la questione è controversa.

Nonostante il "fattore paura" delle pandemie sia inferiore alle guerre e agli attentati terroristici, queste hanno causato gli episodi di morti di massa più significativi della storia umana. Per esempio, la Spagnola del 1918 ha ucciso circa il 3 percento (anche se alcuni stimano il doppio) della popolazione umana, infettando un terzo degli umani tra il 1918 e il 1920. In termini assoluti, ha seppellito 33 milioni di persone in più rispetto alle baionette, ai proiettili e alle bombe della Prima Guerra Mondiale, che è durata dal 1914 al 1918. E la Morte Nera del Quattordicesimo Secolo, causata dalla peste bubbonica, avrebbe coinvolto lo stesso numero di vittime della Seconda Guerra Mondiale, della Prima Guerra Mondiale, delle Crociate, delle conquiste mongole, della Guerra Civile Russa e della Guerra dei Trent'anni, tutte insieme. (Prendete nota, antivaccinisti!)

Pazienti durante l'epidemia del 1918 in Iowa. Immagine: Office of the Public Health Service Historian

La seconda categoria di rischio esistenziale riguarda le tecnologie avanzate, che potrebbero causare danni senza precedenti per mezzo dell'"error or terror". Dal punto di vista storico, l'umanità ha creato il primo rischio antropogenico nel 1945, quando il governo degli Stati Uniti ha detonato una bomba atomica nel deserto del New Mexico. A partire da questo evento, l'umanità è vissuta con la costante minaccia di un olocausto nucleare, cosa che ha portato un gruppo di fisici a creare il Doomsday Clock, un orologio che rappresenta metaforicamente la nostra prossimità al disastro.

Mentre l'apice delle tensioni nucleari è stato durante la Guerra Fredda—il Presidente Kennedy aveva stimato che la probabilità di una guerra nucleare a un certo punto fosse "tra 1 e 3"—la situazione è migliorata significativamente dopo la caduta della Cortina di Ferro. Sfortunatamente, le relazioni USA-Russia si sono deteriorate recentemente, portando il Primo Ministro russo Dmitry Medvedev a suggerire che "siamo tornati alla Guerra Fredda." Mentre scriviamo, l'Orologio dell'Apocalisse si trova a soli tre minuti dalla fine del mondo—è stato più vicino soltanto al momento della sua creazione, nel 1947.

Mentre le armi nucleari costituiscono attualmente il più grande rischio alla sopravvivenza umana, potrebbe essere uno dei nostri ultimi problemi. Perché? A causa del rischio associato ai campi in espansione come le biotecnologie, la biologia sintetica e le nanotecnologie. Il punto chiave per capire è che questi campi non stanno solo diventando esponenzialmente più potenti, ma i loro prodotti stanno diventando sempre più accessibili per gruppi e individui.

Per esempio, è sempre più possibile che, grazie a CRISPR, degli individui poco esperti possano manipolare dei codici genetici. Il materiale di DNA può essere anche ordinato da fornitori commerciali come hanno scoperto i giornalisti del Guardian nel 2006, quando hanno acquistato "parte del genoma del vaiolo con un ordine via mail." Inoltre, chiunque abbia una connessione internet può accedere a un database con sequenze di patogeni come l'Ebola.

Siamo ben lontani dal programmare il DNA degli organismi come programmiamo i software. Ma se questi trend continuano (com'è probabile), terroristi e lupi solitari del futuro avranno senz'altro l'abilità di dare vita ad agenti patogeni di proporzioni globali, e forse anche più devastanti che mai.

Nel campo delle nanotecnologie lo scenario di rischio più comune include delle piccole macchine che si autoriproducono, o nanorobot, programmati per disassemblare qualsiasi tipo di materiale con cui vengono a contatto e riorganizzare questi atomi in repliche esatte di loro stessi. I cloni nanorobotici risultanti convertirebbero tutta la materia intorno a loro in altre copie. A causa dell'elevato numero di repliche, l'intera biosfera potrebbe essere trasformata in uno sciame di nanorobot in un periodo di tempo relativamente breve.

In alternativa, un terrorista potrebbe disegnare certi nanobot per distruggere selettivamente degli organismi con uno specifico corredo genetico. Un ecoterrorista che vuole cancellare l'umanità dal pianeta senza danneggiare l'ecosistema globale potrebbe creare potenzialmente dei nanobot che attaccano soltanto l'Homo Sapiens.

Forse la più grande minaccia a lungo termine al futuro dell'umanità è la superintelligenza artificiale. Instillare valori che promuovano il benessere umano in una macchina superintelligente potrebbe essere molto difficoltoso. Per esempio, una superintelligenza il cui obiettivo è quello di eliminare la tristezza dal mondo potrebbe semplicemente sterminare l'Homo Sapiens, perché le persone che non esistono non possono essere tristi. Oppure una superintelligenza il cui proposito è quello di aiutare gli umani a risolvere la nostra crisi energetica potrebbe inavvertitamente distruggerci coprendo l'intero pianeta con dei pannelli solari. Il punto è che esiste una differenza cruciale tra il "fai come ti dico" e il "fai come voglio che tu faccia" e capire come programmare una macchina che segua il secondo principio pone ben altre sfide.

Un incendio in un parco nazionale in Florida. Immagine: Josh O'Connor/USFWS

Questo ci porta all'ultima categoria di rischio, che include i disastri antropogenici come il cambiamento climatico e la perdita della biodiversità. Mentre nessuna delle due porta direttamente all'estinzione, entrambi sono potenti "moltiplicatori di conflitti" che porterebbero la civiltà al limite e aumenterebbero la possibilità di un abuso delle tecnologie avanzate.

In altri termini: una gerra nucleare è più o meno probabile in un mondo di fenomeni metereologici estremi, siccità, migrazioni di massa, e instabilità socio-politica? Un attacco ecoterroristico che coinvolge le nanotecnologie è più o meno probabile in un mondo di degrado ambientale?

Il cambiamento climatico e la questione della biodiversità sono destinati a esacerbare le attuali tensioni geopolitiche e i contrasti tra apparati statali e parastatali. Non solo la cosa è preoccupante di per sé, ma potrebbe diventare disastrosa con l'avanzamento tecnologico.

Considerazioni come questa hanno portato gli esperti a stime molto poco ottimistiche sul futuro. Il fatto è che in questa epoca ci sono molti altri modi in cui la nostra specie può estinguersi rispetto al passato, e morire in una catastrofe generazionale è molto più probabile che morire in un incidente stradale. Comunque sia, ci sono anche ragioni di credere che la minaccia del terrorismo tenderà ad aumentare nei prossimi decenni, a causa degli effetti del degrado ambientale, della democratizzazione della tecnologia e della crescita dell'estremismo religioso in alcune aree.

Ma non è la fine della storia. Ci sono anche ragioni per essere ottimisti.

Anche se i rischi esistenziali sono enormi, nessuno di loro è insormontabile. L'umanità ha anche la capacità di superare gli ostacoli. Per esempio, la tecnologia può mitigare i rischi legati ai disastri naturali. Un asteroide che minaccia la Terra (si spera) può essere distrutto con una bomba atomica. La colonizzazione dello spazioa e i bunker sotterranei potrebbero permettere all'umanità di sopravvivere a impatti di asteroidi ed eruzioni supervulcaniche. Per quanto riguarda le pandemie, incidenti recenti come l'ebola e la SARS hanno mostrato che i medici della comunità internazionale possono effettivamente arginare la diffusione di agenti patogeni che altrimenti causerebbero un disastro globale.

Altri rischi come il cambiamento climatico e la riduzione della biodiversità possono essere limitati riducendo la crescita demografica, promuovendo le energie rinnovabili e preservando gli habitat naturali.

Non è chiaro, invece, come si possano arginare i danni legati all'avanzamento tecnologico. Fortunatamente, organizzazioni come il X-Risks Institute, il Future of Life Institute, il Future of Humanity Institute e il Centre for the Study of Existential Risks stanno lavorando per assicurare che non si verifichi uno scenario apocalittico in cui le armi sono nelle mani di criminali, psicopatici e terroristi.

Il cosmo è un luogo di infinite minacce per l'uomo. E anche se il nostro straordinario successo come specie ha migliorato di molto la nostra condizione, ha anche introdotto una serie di minacce inedite. Comunque sia, ci sono delle azioni concrete che l'umanità può mettere in atto per mitigare la catastrofe. Come molti esperti hanno confermato, il futuro è pieno di speranza, ma per realizzarla dobbiamo capire seriamente i pericoli che ci circondano.

Phil Torres è un autore, collabora con il Future of Life Institute, ed è un fondatore dell' X-Risks Institute. Il suo ultimo libro si intitola The End: What Science and Religion Tell Us About the Apocalypse. Seguitelo su Twitter: @xriskology.

Peter Boghossian è un professore associato di filosofia alla Portland State University.

Ha scritto A Manual for Creating Atheists e creato la app Atheos. Seguitelo su Twitter: @peterboghossian.