Estinzione Umana: Probabilità attraverso Modello Matematico del “Crollo della Civiltà”

Toby Ord, filosofo dell'Università di Oxford, assicura che esiste una possibilità su sei che l'essere umano possa estinguersi prima della fine di questo secolo: ha analizzato i rischi del "crollo della civiltà" attraverso un modello matematico...

Estinzione Umana: Probabilità attraverso Modello Matematico del "Crollo della Civiltà".

Non è un veggente perduto su un’isola remota, né uno sciamano dotato di poteri speciali. Non è un astrologo o un lettore di mano, piedi o iris oculari. Toby Ord è un filosofo di Oxford, consigliere dell’Organizzazione mondiale della sanità e della Banca mondiale. E’ anche autore di uno studio pubblicato nel suo libro “The Precipice: Existential Risk and the Future of Humanity” (Il precipizio: rischio esistenziale e futuro dell’umanità) in cui assicura che “esiste una possibilità su sei che ci estingueremo in questo stesso secolo”.

Libro "The Precipice: Existential Risk and the Future of Humanity" (Il precipizio: rischio esistenziale e futuro dell'umanità).

Il ricercatore evita di parlare della fine del mondo o dell’apocalisse, e preferisce invece usare il termine “collasso della civiltà” meno allarmante ma ancora preoccupante.

Secondo i suoi calcoli, la possibilità che la civiltà collassi a causa di cause naturali è molto inferiore ai rischi posti dalla mano dell’uomo. Pertanto, il rischio che un asteroide finisca l’umanità è 1 su 1.000.000 e che l’eruzione di un vulcano lo farà è 1 su 10.000.

Quando però si considerano i rischi creati dall’uomo, le probabilità aumentano: 1 su 1.000 per la guerra nucleare o per i cambiamenti climatici; 1 su 30 per una pandemia causata intenzionalmente. Le probabilità aumentano a 1 su 10 per l’uso dell’intelligenza artificiale fuori controllo. Nella sua media finale, afferma che il totale dei “rischi esistenziali è 1 su 6”.

“Ciò significa anche che ci sono cinque possibilità su sei di sopravvivere come specie”, ha detto in un’intervista. E continua con la sua spiegazione: “L’Europa è sopravvissuta nel Medioevo perdendo dal 25 al 50% della sua popolazione con la “peste nera”, il che potrebbe significare che per innescare il crollo della civiltà richiederebbe più del 50% di mortalità in tutte le regioni del mondo”.

L’intelligenza artificiale è più pericolosa delle pandemie

Per Toby Ord, gli umani sono sopravvissuti alle pandemie per decine di migliaia di anni, quindi non crede che “siano una minaccia all’estinzione, sebbene possano essere molto devastanti”. Avverte anche che “con l’aumento delle comunicazioni globali e il sovraffollamento, le cose possono andare molto peggio in termini di pandemie che con il covid-19“.

Tuttavia, nella sua ricerca non ha paura di un virus ma delle potenziali minacce dei gruppi terroristici che progettano armi biologiche, una tecnologia che, a differenza delle armi nucleari, sta diventando sempre più accessibile e difficile da rintracciare.

L’intelligenza artificiale è più pericolosa delle pandemie. Come le armi biologiche, l’intelligenza artificiale potrebbe comportare nuovi rischi nei prossimi 50 anni di cui non siamo ancora a conoscenza e di cui difficilmente investiamo la prevenzione: l’umanità spende di più ogni anno sul gelato che sulla prevenzione delle nuove tecnologie che ci distruggono”, dice con ironia.

L'intelligenza artificiale è più pericolosa delle pandemie.

L’intelligenza artificiale ha una possibilità su 10 di porre fine all’umanità“. Nella sua intervista con i media, cerca di qualificarsi: “non sto dicendo che i robot sono cattivi”, poiché “l’intelligenza artificiale, come l’energia nucleare, può essere usata per qualcosa di buono”, ma insiste sul fatto che “il problema è che ancora non c’è consapevolezza pubblica dei suoi rischi.

I fisici degli anni ’40 e ’50 erano preoccupati per le armi nucleari e nel 20° secolo i governi hanno sviluppato protocolli di sicurezza, ora dovremmo essere più preoccupati per i rischi dell’IA e delle armi biologiche“.

Per dirla in prospettiva, Ord stima che nei 2000 secoli precedenti esistesse una possibilità su 10.000 di raggiungere la catastrofe dell’esistenza umana. La maggior parte di essi riguardava rischi naturali come l’impatto degli asteroidi o l’eruzione supervolcanica. Tale probabilità è stata ora ridotta a una su sei a causa di fattori influenzati dall’uomo.

“È esattamente la stessa probabilità di morte della roulette russa“, confronta.

Siamo a un livello insostenibile di rischio nelle mani di un gruppo di adolescenti

Nella sua ricerca, ricorda che abbiamo solo circa 200.000 anni di esistenza, “questo ci rende adolescenti … Ma gli adolescenti non sono bravi a stabilire le priorità. E proprio ora, l’umanità si sta comportando in modo tremendamente spericolato con il futuro, come un adolescente, pensando solo alle nostre prossime cinque ore di vita”.

Aggiunge: “Ogni anno siamo un po’ fortunati a non avere una guerra nucleare, un po’ fortunati a non avere una pandemia, o un po’ fortunati a non avere un incidente diverso. Ma alla fine quella fortuna finirà”.

Nella sua teoria c’è anche spazio per cercare soluzioni:

“Se vogliamo avere centinaia di migliaia di anni di futuro, dobbiamo ripensare le priorità. Ciò richiede una migliore cooperazione tra paesi e riconoscere che abbiamo un problema e che abbiamo bisogno di più saggezza […] Devi fermare il rischio in primo luogo. Le minacce sono troppo grandi e le singole soluzioni non eviteranno il problema, dobbiamo investire di più nella conoscenza per sopravvivere come specie“.

Lungi dall’essere fatalista, fa appello a una semplice misura preventiva:

Non scegliere politici che si comportano come adolescenti sarebbe un buon inizio per garantire il futuro dell’umanità“.

È come valuta, “altre volte non importava quanto fossero cattivi i governanti, prima che non avessero il potere di distruggere tutto. E non saremo in grado di sopravvivere molti secoli con il livello di potere che stiamo accumulando se anche la consapevolezza del pericolo non aumenta”. E insiste: “Siamo a un livello insostenibile di rischio nelle mani di un gruppo di adolescenti. E gli adolescenti non sono bravi a pensare a lungo termine”.