Een kleine gids tot het uitsterven der mensheid

FYI.

This story is over 5 years old.

Tech

Een kleine gids tot het uitsterven der mensheid

Het is meestal een goed idee om de riem te dragen in een rijdende auto. Het is namelijk niet alleen illegaal om zonder riem om te rijden, maar het vermindert ook het risico op verwondingen of de dood bij een botsing met de helft. Desondanks ligt volgens onze schattingen de kans op sterven in een botsing minimaal 9.5 keer lager dan sterven bij een massale uitsterving van de mensheid.

Als dit ongeloofwaardig klinkt – en dat doet het waarschijnlijk – is het omdat het menselijk brein gevoelig is voor cognitieve bias die ons begrip van de werkelijkheid aantast. Sta even stil bij het feit dat het waarschijnlijker is dat je sterft aan een meteorietinslag dan aan geraakt worden door bliksem, en dat je vier keer zo veel kans maakt op geraakt worden door bliksem dan omkomen door een terroristische aanslag. In andere woorden, je zou je meer zorgen moeten maken om meteorieten dan om Islamitische Staat.

Advertentie

De berekening hierboven is gebaseerd op een aanname uit de invloedrijke "Stern Review on the Economics of Climate Change," een rapport dat opgesteld werd voor de Britse overheid. Hierin werd klimaatverandering omschreven als het "grootste en breedste marktfalen ooit." Om duidelijk te maken dat klimaatverandering de hoogste prioriteit heeft, neemt de Stern Review aan dat er een jaarlijkse kans van 0.1 is dat mensen uitsterven.

Hoe kan een wereldwijde ramp waarschijnlijker zijn dan sterven in een auto-ongeluk?

Dit getal lijkt miniscuul, maar over een eeuw bekeken komt het neer op een ongelofelijke 9.5 procent kans op het uitsterven van onze soort. En deze schatting is in vergelijking met andere nog vrij laag. In 2008 volgde uit een enquête onder experts dat we 19 procent kans maken om deze eeuw nog uit te sterven. De mede-oprichter van de Centre for Study of Existential Risk, Sir Martin Rees, ziet het allemaal nog minder rooskleurig en zet de kans op 50:50.

Hoe kan dit? Hoe kan een wereldwijde ramp waarschijnlijker zijn dan sterven in een auto-ongeluk? Natuurlijk kunnen deze schattingen verkeerd liggen. Hoewel sommige existentiële risico's zoals asteroïden en supervulkanen bepaald kunnen worden met historische data, zijn de risico's van toekomstige technologie gebaseerd op een gezonde dosis speculatie. Desalniettemin weten we genoeg over bepaalde technologische trends en natuurlijke fenomenen om een redelijk goed idee te krijgen van onze existentiële status in de toekomst.

Advertentie

Er zijn drie brede categorieën van "existentiële risico's" of scenario's die ofwel voor onze uitsterving zorgen of ons terugzetten in de Steentijd. De eerste zijn natuurlijke risico's zoals asteroïde- en komeetinslagen, supervulkanische uitbarstingen, globale pandemieën en zelfs supernovae. Deze vormen ons kosmische risicoprofiel en zijn vrij makkelijk in te schatten.

Zoals je wellicht nog weet van de middelbare school sloeg een komeet 66 miljoen jaar geleden in en maakte daarmee een einde aan vrijwel alle dinosaurussen. En pakweg 77,000 jaar geleden zorgde de uitbarsting van een supervulkaan in Indonesië voor de Toba-catastrofe, die volgens sommige wetenschappers de menselijke bevolking sterk reduceerde – al is die bewering omstreden. Weinig mensen beseffen vandaag hoe dicht de mensheid bij uitsterving stond in het Paleolithische tijdperk.

Hoewel de 'angstfactor' van pandemieën lager ligt dan die van oorlog en terrorisme, hebben ze wel voor een groot deel van massale sterfte onder mensen gezorgd. Zo doodde de Spaanse griep in 1918 zo'n 3 procent van de mensen op aarde en infecteerde ruim een derde van de wereldwijde populatie. In absolute aantallen zorgde de Spaanse griep voor 33 miljoen meer doden dan alle bayonetten, kogels, bommen en gifgas in de Eerste Wereldoorlog. Zeshonderd jaar daarvoor doodde de pest ongeveer evenveel mensen als de Eerste Wereldoorlog, Tweede Wereldoorlog, de kruistochten, de Mongoolse veroveringen, de Russische burgeroorlog en de Dertigjarige oorlog bij elkaar.

Advertentie

Influenzapatiënten tijdens de grieppandemie van 1918. Beeld: Office of the Public Health Service Historian

De tweede categorie existentiële risico's betreft geavanceerde technologie, die ongekende schade kan veroorzaken door fouten of moedwil. Historische gezien creëerden mensen het eerste antropogene risico in 1945 toen we een atoombom lieten ontploffen in de woestijn van New Mexico. Sindsdien leeft de mensheid in de schaduw van een nucleaire holocaust.

Hoewel spanning rond kernwapens piekten tijdens de Koude Oorlog, is de situatie een stuk rustiger geworden sinds de val van het IJzeren Gordijn. Helaas zijn de relaties tussen het Westen en Rusland sindsdien weer afgekoeld, volgens premier Dmitry Medvev tot op het punt van "een nieuwe Koude Oorlog."

Kernwapens zijn misschien wel een van de grootste risico's voor het menselijke voortbestaan, maar tegen het einde van deze eeuw misschien ook wel de minste zorg. Waarom? Omdat de risico's van opkomende velden als synthetische biologie en nanotechnologie zo groot zijn. De technologie in deze velden wordt namelijk niet alleen exponentieel krachtiger, maar ook steeds toegankelijker voor groepen en individuen.

Het wordt tegenwoordig steeds mogelijker voor amateurs om thuis een lab op te zetten waar ze genen kunnen modificeren. De betaalbaarheid van deze thuislabs wordt deels gedreven door de biohackerbeweging, die hobbyisten de mogelijkheid willen geven om thuis labgereedschap te bouwen. DNA-materiaal kan gewoon besteld worden bij commerciële bedrijven, zoals journalisten van The Guardian ontdekten toen ze een deel van het pokkenvirus via de post bestelden. Iedereen met een internetverbinding kan databases vinden die onder andere het genoom van ebola bevatten. Het programmeren van DNA zoals we software kunnen programmeren ligt nu nog in de toekomst, maar als de trends zich voortzetten zoals ze nu doen, zullen terroristen in de toekomst de mogelijkheid hebben om pandemieën van globale proporties te bouwen.

Advertentie

Als het nanotechnologie aankomt, wordt het bekendste risico het 'grey goo scenario' genoemd. Het gaat in dit scenario om piepkleine machines, of nanobots, die geprogrammeerd zijn om materie waar ze mee in aanraking komen om te zetten in kopieën van zichzelf. De resulterende klonen zetten dan weer nieuwe materie om in nieuwe klonen, etc. Aangezien dit exponentieel sneller gaat, kan alles op het oppervlak van de aarde redelijk snel omgezet worden in zelf-replicerende nanobots.

Een variant van dit scenario is dat een terrorist een nanobot maakt die zich uitsluitend op een organisme richt met een bepaalde genetische handtekening. Een ecoterrosist bijvoorbeeld, die uit een soort existentiële zelfwalging de hele mensheid vernietigt met een anti-homo sapiens-nanobot.

Hoe vreselijk dit ook klinkt, is het grootste langetermijnrisico superintelligentie. Het is extreem moeilijk om een superintelligente machine te ontwikkelen die het beste met de mensheid voor heeft. Stel je voor dat het doel van een supermachine is om verdriet uit de wereld te bannen. De meest logische oplossing is om de mensheid uit te roeien – zonder mensen, worden er immers geen tranen gelaten.

Een machine die het energieprobleem wil oplossen, kan het leven smoren onder een gigantische planeetwijde cocon zonnepanelen. Er is een groot verschil tussen: "doe wat ik je zeg" en "doe wat ik bedoel". Er moet nog heel wat gebeuren willen we een machine het laatste laten doen.

Advertentie

Een bosbrand in Florida. Foto: Josh O'Connor/USFWS

Dit brengt ons bij de laatste categorie: antropogene rampen, als klimaatopwarming en het verlies van biodiversiteit. Geen van beiden zullen waarschijnlijk tot menselijke uitsterving leiden, maar beiden verhogen de kans op conflict – zogenoemde "conflict multipliers". De kans dat een samenleving extreme maatregelen neemt als het in het nauw is gedreven is veel groter.

Het risico op een atoomoorlog is groter in een wereld met mega-droogtes, massamigratie, extreem weer en sociale of politieke instabiliteit. Het is denkbaar dat een ecoterrorist eerder toeslaat in een wereld waar de natuur in hoge mate is gedegradeerd door de mens, of een wereld waar de apocalyps uit het boek waar hij zo in geloofd, aanstaande lijkt. IS is hier een letterlijk voorbeeld van.

Natuurlijk is dit niet het hele verhaal. Er is ook reden voor optimisme.

Klimaatopwarming en verlies van biodiversiteit zal geopolitieke spanningen erger maken, en soms zelfs nieuwe conflicten veroorzaken. Nieuwe technologie versterkt bovendien het inherente existentiële risico van conflicten. Het is niet voor niks dat experts als Rees een minder-dan-enthousiaste toekomstperspectief schetsen. Toch is dit niet het einde van het verhaal. Er is ook reden voor optimisme.

Geen van de existentiële risico's zijn onoverkomelijk. De mensheid heeft de capaciteit om de problemen waarmee ze wordt gepresenteerd te overwinnen. We kunnen ons met behulp van technologie leren aan te passen aan een warmere wereld. Een asteroïde kunnen we misschien deflecteren, of opblazen. Door ons in de verre toekomst te verspreiden in het zonnestelsel spreiden we het existentiële risico. Onderzoekers hebben bewezen dat ze recente uitbraken van ebola en SARS vroegtijdig weten te controleren. Klimaatopwarming kunnen we tegen gaan, en misschien ooit zelfs stabiliseren, door geboortecontrole, duurzame energie en de opname van koolstof uit de atmosfeer.

Advertentie

Organisaties als het X-Risks Instituut, het Future of Life Instituut, het Future of Humanity Instituut en het Centre for Study of Existential Risks, onderzoeken hoe de maatschappij en politiek met de diverse risico's om kunnen gaan. Scenario's liggen klaar voor bijna elke gebeurtenis, elk risico en elke ontwikkeling.

De kosmos is een gigantische hindernisbaan voor het leven. Terwijl onze uitvindingen en technologieën onze levensstandaard hebben verhoogt, presenteert het ons ook met nieuwe risico's.

Maar er zijn concrete, duidelijke, stappen die de mensheid kan zetten om het risico op uitsteven te verkleinen. Zoals veel experts hebben bevestigd is de toekomst hoopvol, maar vereist het ook dat we vandaag de dag nuchter naar de problemen kijken, en ons niet terugtrekken in ontkenning.

Phil Torres is auteur en verbonden aan het Future of Life Instituut, als schrijver. Hij is oprichter en directeur van het X-Risks Instituut. Zijn meest recente boek is The End: What Science and Religion Tell Us About the Apocalypse. Volg hem op Twitter: @xriskology.

Peter Boghossian is een assistent professor in de filosofie aan Portland State Universiteit. Zijn laatste boek is A Manual for Creating Atheists and creator of the app Atheos. Volg hem op: @peterboghossian.