© RIPRODUZIONE RISERVATA
© RIPRODUZIONE RISERVATA
Dopo la pandemia abbiamo più paura di tutto. Dai fenomeni influenzali alle calamità naturali ai nuovi virus nati da animali o da informazioni fake. Ma leggiamo e soprattutto sappiamo leggere cosa sta succedendo a livello di ricerca e di scienziati. Sosteneva Immanuel Kant: “Agisci in modo da trattare sempre l umanità così nella tua persona come nella persona di ogni altro sempre come un fine e mai come un mezzo. Si parla sempre più spesso di lungotermismo. Ma di cosa si tratta? È preoccupante? È stata definita come una ferrovia con tre principali stazioni. Il lungotermismo di cui si parla spesso negli ultimi tempi è un neologismo creato dall’inglese longtermism. Una forma di razionalismo portato all’eccesso fino a diventare una religione laica non compassionevole e solidaristica. Non solo. Esistono tre stazioni di lungotermismo. La prima è il “lungotermismo debole”. La seconda è il lungotermismo forte”. La terza è il “lungotermismo galaxy-brain”. La prima forma, sostiene che dovremmo prestare più attenzione al futuro. La seconda che il futuro di lungo termine è più importante di qualunque altra cosa e dovrebbe essere la nostra assoluta priorità. La terza che dovremmo essere disposti ad assumerci dei grossi rischi per assicurarci la sopravvivenza dell’essere umano in un futuro remoto.”
Uno dei fondatori, William MacAskill, professore associato di filosofia all’Università di Oxford e co-fondatore del Centro per l’altruismo efficace, nonchè autore di lungotermismo “What We Owe the Future, sostiene che i lungotermisti non si accontentano di pensare a nipoti e pronipoti ma vogliono poter curare le generazioni successive. E che “se si potesse impedire un genocidio tra mille anni su persone che non esistono ancora” non giustificherebbe l’inazione.” La sua ’idea dell’altruismo efficace è che nello svolgere un’attività di beneficienza non bisogna essere influenzati dalla vicinanza o lontananza delle persone bisognose, ma essere guidati da criteri razionali, poter per affrontare le calamità valutando il loro reale impatto. Per Will MacAskill, “dovremmo preoccuparci delle vite delle persone lontane nello spazio, e nel futuro”. Per il filosofo Nick Beckstead, membro del Future of Humanity Institute, che nella sua tesi di dottorato del 2013 scrisse: “Salvare vite umane nelle nazioni povere potrebbe essere meno utile che salvare vite nelle nazioni ricche, perché queste hanno a disposizione innovazioni migliori e i lavoratori sono più produttivi. Parole che ricordano quelle tragiche dell’eugenetica. Nel 1885 sir Francis Galton, (cugino di Darwin), introdusse il termine di eugenetica, è lo studio delle politiche di controllo sociale che possono migliorare le qualità razziali delle generazioni future, sia fisicamente che mentalmente. Un altro tema dei lungotermisti forti ed extra-forti è il pericolo di un’intelligenza artificiale di livello umano che potrebbe mettere a rischio la stessa sopravvivenza della nostra specie. Will MacAskill scrive: “In effetti, diversi indicatori suggeriscono la possibilità che i sistemi di IA superino le capacità umane in pochi decenni. E non risulta chiaro che la transizione verso una tecnologia trasformativa avverrà in modo positivo.
L’assunto centrale dei lungotermisti è che niente è eticamente più importante che portare a termine il potenziale di “specie intelligente” che ha avuto origine sulla Terra” sostenendo che deve diventare una specie multiplanetaria per massimizzare la possibilità di sopravvivenza, ed evitare che un evento cataclismatico provochi la scomparsa. E non solo sostengono che l’essere umano deve moltiplicarsi tanto in ogni luogo del mondo per questo il lungotermismo va di pari passo con il natalismo, il transumanesimo e l’esplorazione spaziale. In questa visione del mondo le persone non hanno nessun valore intrinseco e rappresentano solo un mezzo, intercambiabile e sostituibile, per poter raggiungere un fine:la sopravvivenza della specie intelligente.