L'umanità sottovaluta il rischio della propria estinzione?
Una volta che non è personalizzato, questo post non descriverà una scoperta recentemente pubblicata in una recensione. Nel corso delle mie varie letture, nelle ultime settimane, ho raccolto alcuni pezzi di puzzle e mi sono reso conto che si adattavano piuttosto bene insieme, che dietro di loro c'era un'idea guida. Ciò è iniziato alla fine di 2011 a Durban, con il nuovo fallimento della comunità internazionale nel concordare la limitazione delle emissioni di gas serra (GHG). Poi c'è stato questo annuncio, alla fine di dicembre, della creazione da parte dei ricercatori di virus influenzali aviari mutanti che potrebbero essere trasmessi più facilmente tra gli esseri umani infetti. All'annuncio è seguito, prima di tutto, un dibattito sul fatto che fosse molto rilevante pubblicare i metodi con cui i biologi avevano modificato H5N1, quindi la domanda più pragmatica: il lambda terrorista può facilmente raggiungere questo obiettivo?
Poi ci fu un altro annuncio, il 12 gennaio, più ritualistico questo, ma anche più discreto: quello del Bulletin of the Atomic Scientists che annunciava che l'orologio della fine del mondo che, dal 1947, avverte simbolicamente l'umanità quando fa dei passi verso la sua estinzione o la rassicura quando prende le misure per allontanarsene, è stata anticipata di un minuto verso mezzanotte. Ora sono le 23:55 su questo orologio e questa progressione della lancetta grande è stata giustificata dalla mancanza di progressi nel limitare sia la proliferazione nucleare che le emissioni di gas serra. La dichiarazione diceva: "La comunità mondiale potrebbe essere vicina a un punto di non ritorno nei suoi sforzi per prevenire il disastro a causa dei cambiamenti nell'atmosfera terrestre. L'Agenzia internazionale dell'energia lo prevede" A meno che le società non comincino, nei prossimi cinque anni, a sviluppare alternative alle tecnologie energetiche che emettono carbonio, il mondo è condannato a un clima più caldo, all'innalzamento del livello del mare, alla scomparsa di nazioni insulari e una maggiore acidificazione degli oceani ". Non senza una certa ironia che qualche giorno fa è uscita un'altra informazione, direttamente correlata a questa, e l'ho regalata, come fonderia, in una delle mie selezioni settimanali: mai, Negli ultimi 300 milioni di anni, gli oceani non sono stati acidi come lo sono oggi. Nonostante la sua importanza, la notizia non sembrava commuovere nessuno ...
Proprio nel momento in cui vengono pubblicati molti libri sul tema "2012, anno della fine del mondo predetto dal calendario Maya" (mi ha stupito vedere un'intera tavola di lavori alla FNAC su questo argomento), gli uomini giocando a spaventarsi sapendo benissimo che non ha senso, spazziamo sotto il tappeto le vere ragioni della preoccupazione. Da qui la domanda che fa da titolo a questo post: l'umanità sta sottovalutando il rischio della propria estinzione non riuscendo ad affrontare i problemi che la minacciano o rischiando di far crollare tecnologie di distruzione di massa tra? mani maligne? Ovviamente non ho la risposta e lascio a tutti pensarci, ma volevo, finire questo post a differenza di qualsiasi altro, citare l'intervista, su The Atlantic, con il filosofo svedese Nick Bostrom, che insegna all'Università di Oxford, vi dirige l'Institute for the Future of Humanity ed è raffigurato nella parte superiore di questa pagina.
Con un background in fisica, neuroscienze e filosofia della scienza, Nick Bostrom non ha necessariamente il profilo tipico del filosofo come di solito lo immaginiamo. Ha lavorato molto sul concetto di "rischio esistenziale", nel senso di uno scenario di disastro che porta "o alla distruzione totale di tutta la vita intelligente sulla Terra, o ad una paralisi permanente del suo potenziale di sviluppo". In questa intervista non è quindi interessato alle lontane conseguenze del riscaldamento globale, ma, considerando che questo ventunesimo secolo sarà cruciale per l'umanità a causa del rapido sviluppo delle nuove tecnologie, i rischi che queste ultime presenteranno in un Un futuro molto prossimo per noi: "A breve termine", ha detto, "penso che diversi sviluppi nei campi della biotecnologia e della biologia sintetica siano piuttosto sconcertanti. Stiamo acquisendo la capacità di creare patogeni modificati. e le cianografie di diversi organismi patogeni sono di pubblico dominio: è possibile scaricare da Internet la sequenza genetica del virus del vaiolo o quella dell'influenza spagnola Finora, il cittadino comune ha solo la loro rappresentazione grafica su Internet. schermo del suo computer, ma stiamo anche sviluppando macchine sempre più efficienti che sintetizzano il DNA, che possono prendere uno di questi piani digitali e produrreveri filamenti di RNA o DNA. Presto queste macchine saranno abbastanza potenti da ricreare questi virus. Quindi hai già una sorta di rischio prevedibile e se, quindi, inizi a modificare questi patogeni in modi diversi, vedi apparire una nuova frontiera pericolosa. A lungo termine, penso che l'intelligenza artificiale, una volta acquisite capacità umane e poi sovrumane, ci porterà in un'area di grande rischio. Ci sono anche diversi tipi di controllo della popolazione di cui mi preoccupo, cose come la sorveglianza e la manipolazione psicologica con i farmaci ".
Quando il giornalista gli chiede perché il rischio di uno slittamento importante è stimato a uno o due su dieci nel corso del secolo, che è molto, Nick Bostrom ha questa risposta: "Penso che ciò che porta a questa è la sensazione che gli esseri umani stiano sviluppando questi strumenti molto potenti (...) e che ci sia il rischio che qualcosa vada storto. Se torni con le armi nucleari, trovi che per fabbricare una bomba atomica, avevi bisogno di materie prime rare come l'uranio arricchito o il plutonio, che sono molto difficili da trovare. Ma supponiamo che ci fosse una tecnica che ti permetteva di costruire un'arma nucleare cuocendo la sabbia in un forno a microonde o qualcosa del genere. Se fosse stato così, dove saremmo adesso? Presumibilmente, una volta che la scoperta fosse stata fatta, la civiltà sarebbe stata condannata. fare una di queste scoperte, mettiamo il nostro m in una grande urna piena di proiettili e spariamo un nuovo proiettile: finora abbiamo tirato fuori proiettili bianchi e grigi, ma forse la prossima volta spareremo con un proiettile nero, una scoperta che significa disastro . Al momento, non abbiamo un buon modo per rimettere la palla nell'urna se non ci piace. Una volta che la scoperta è stata pubblicata, non è possibile "annullarne la pubblicazione".
Nick Bostrom non è assolutamente contrario alla tecnologia: al contrario, è un grande sostenitore del transumanesimo. Semplicemente, sta facendo una campagna per noi per mantenere il controllo. Controllo delle nostre tecnologie, del nostro pianeta, del nostro futuro. Perché l'estinzione dell'uomo non è l'unico rischio che corriamo. L'altra faccia del rischio esistenziale è la totale scomparsa delle libertà su scala planetaria: "Si può immaginare lo scenario di una distopia globale totalitaria. Ancora una volta, è legato alla possibilità che sviluppiamo tecnologie che renderanno molto più facile per i regimi oppressivi eliminare i dissidenti o monitorare le loro popolazioni al fine di raggiungere una dittatura stabile, piuttosto che quelle che abbiamo visto nel corso della storia che sono finite per essere rovesciate . " George Orwell e il suo 1984 non sono lontani.
Pierre Barthélémy
Fonte: http://passeurdesciences.blog.lemonde.f ... xtinction/