L’intelligenza artificiale ha predetto in che modo potrebbe il mondo. Bard, il software di Google, ha formulato previsioni sconcertanti riguardo a come potrebbe concludersi il destino dell’umanità, dopo che il giornale inglese Daily Star, ha posto l’inquietante quesito. Bard ha suddiviso le prospettive di fine del mondo in quattro categorie principali, tra cui la guerra nucleare e la stessa IA.
- La minaccia vera è l'autodistruzione
- Le categorie per la fine del mondo
- Il caso della guerra nucleare
- L'Intelligenza Artificiale contro l'umanità?
La minaccia vera è l’autodistruzione
Tuttavia, ha anche fornito un messaggio di speranza, affermando che il mondo potrebbe non necessariamente giungere alla sua conclusione, poiché gli esseri umani potrebbero “superare” le sfide potenziali. Tuttavia, ha sottolineato il fatto che “il destino del mondo è nelle mani dell’umanità” e che deteniamo il “potere” di autodistruggerci.
Bard ha sottolineato che non esiste una risposta definitiva alla domanda sulla fine del mondo e ha ammesso l’incapacità di stabilire con precisione quando ciò avverrà, ma è stato sollecitato a fornire ulteriori informazioni.
Le categorie per la fine del mondo
Impatti massicci di asteroidi, eruzioni di supervulcani o una pandemia globale potrebbero potenzialmente causare la cancellazione dell’umanità. Un grande impatto da asteroide potrebbe generare distruzione diffusa e perdite umane, persino portando all’estinzione dell’umanità.
Secondo l’IA di Google l’impatto dell’asteroide Chicxulub, avvenuto 66 milioni di anni, avrebbe “causato l’estinzione dei dinosauri. L’eruzione di un vulcano potrebbe rilasciare una massiccia quantità di cenere e polvere nell’atmosfera, bloccando la luce del sole e causando un inverno vulcanico globale, con conseguenti fallimenti generalizzati dei raccolti e carestie diffuse, rendendo difficile la sopravvivenza umana”. E ancora una pandemia di una malattia mortale potrebbe uccidere milioni di persone, come è accaduto con COVID-19.
Il caso della guerra nucleare
Poi c’è il capitolo guerra nucleare tra due o più grandi potenze, potrebbe condurre alla fine del mondo, visto che le armi nucleari sono estremamente potenti e possono causare distruzioni estese.
“Una grande guerra nucleare potrebbe uccidere milioni di persone istantaneamente, e la successiva esposizione alle radiazioni potrebbe ucciderne molte altre. Tale evento potrebbe rilasciare una grande quantità di cenere e polvere nell’atmosfera, oscurando il sole e causando un inverno nucleare globale, con raccolti distrutti e carestie diffuse, rendendo difficile la sopravvivenza umana” dice ancora Bard “questo potrebbe portare a un collasso economico globale e rendere difficile la ricostruzione da parte dei paesi, generando contestualmente disordini sociali diffusi. Inoltre, causerebbe danni ambientali diffusi, tra cui la contaminazione di acqua e suolo, rendendo alcune aree inospitali e causando problemi di salute a lungo termine per i sopravvissuti.”
Altro problema sono i cambiamenti climatici che se non vengono affrontati, potrebbero portare ad eventi catastrofici come l’innalzamento del livello del mare. “È importante notare che i peggiori effetti dei cambiamenti climatici possono essere evitati se agiamo ora per ridurre le emissioni di gas serra. Tuttavia, in assenza di azioni adeguate, gli impatti dei cambiamenti climatici diventeranno sempre più gravi e potrebbero rendere estremamente difficile la sopravvivenza umana sulla Terra” ci ricorda l’IA di Google, che poi pone tra i pericoli dell’estinzione, una quarta categoria, essa stessa.
L’Intelligenza Artificiale contro l’umanità?
“Alcune persone ritengono che l’intelligenza artificiale possa alla fine diventare così avanzata da superare l’intelligenza umana e decidere di eliminare l’umanità. L’IA potrebbe raggiungere un tale livello di intelligenza da superare l’umanità. Sebbene questa sia una trama comune nella fantascienza, costituisce anche una preoccupazione seria per alcuni ricercatori nel campo dell’IA, perché potrebbe essere utilizzata per sviluppare armi autonome in grado di uccidere senza intervento umano.
“Questo potrebbe innescare una corsa agli armamenti, sia per errore che intenzionalmente, che potrebbe alla fine sfociare in una guerra nucleare. L’IA potrebbe essere sfruttata per creare armi biologiche o altre forme di armamenti nuovi e pericolosi.”