Într-o bună zi lumea așa cum o știm se va sfârși. Sigur, s-ar putea ca acest lucru să se întâmple după aproximativ 6 miliarde de ani, atunci când Soarele va deveni o stea gigantă roșie care va înghiţi rămăşiţele planetei noastre. Cu toate acestea, este foarte probabil ca omenirea să dispară de pe Pământ înainte ca Soarele să ajungă în acea etapă a evoluţiei sale.

Cercetătorii de la Global Challenges Foundation în colaborare cu Future of Humanity Institute al University of Oxford au publicat un raport care a evidențiat 12 riscuri globale ce ar putea reprezenta „sfârșitul civilizației umane sau chiar al vieţii umane”, așa încât, din toate punctele de vedere, putem să le denumim scenarii apocaliptice.

Printre aceste riscuri globale se numără pandemia globală, colapsul ecologic, războiul nuclear, impactul unui asteroid masiv sau schimbările climatice. Deoarece calculele aferente acestui tip de cercetare sunt dificile, ele depinzând de multe necunoscute pe care, pur și simplu, nu le putem prezice cu certitudine, nu putem fi siguri de viitorul omenirii. Cu toate acestea, este posibil să se estimeze care este probabilitatea ca un asemenea scenariu apocaliptic să aibă loc. Este ceea ce cercetătorii au făcut prin analiza datelor cu privire la previziunile deja disponibile pentru următorii 100 de ani (sau 200 de ani, în cazul schimbărilor climatice).

Deci, care este cel probabil scenariu apocaliptic care ar putea să însemne dispariţia omenirii?

Conform raportului întocmit de Global Challenges Foundation, există o probabilitate de până la 10% ca în următorii 100 de ani sistemele bazate pe Inteligența Artificială să preia controlul asupra omenirii, deoarece acestea nu au nevoie de oameni pentru a progresa. Se poate menţiona aici şi declaraţia lui Stephen Hawking care a avertizat deja cu privire la pericolul reprezentat de Inteligența Artificială în cadrul conferinţei Zeitgeist 2015.

„Datorită dezvoltării inteligenţei artificiale, în următorii 100 de ani calculatoarele vor depăşi capacităţile umane. Când se va întâmpla acest lucru, trebuie să ne asigurăm că maşinile (calculatoarele) vor avea aceleaşi interese cu ale noastre”, a declarat Hawking.

Apocalipsa roboțilorApocalipsa roboţilor. Credit: OliverSved/Shutterstock.com

Cu toate acestea, în ultimii ani experții din domeniul inteligenţei artificiale au prezis, de asemenea, că un calculator super-inteligent ar putea rezolva mai multe probleme decât ar crea.

„Din acest motiv Inteligenţa Artificială reprezintă un factor de risc unic pentru umanitate, în sensul că este mult mai probabil ca aceasta să provoace extincția omenirii în comparație cu ceilalţi factori de risc”, se afirmă în raport. „Într-o notă mai pozitivă, Inteligența Artificială ar putea combate cu ușurință cele mai multe dintre riscurile din acest raport, ceea ce înseamnă că aceasta este şi un instrument eficient de combatere a pericolelor ce planează asupra omenirii”.

Prin urmare, ameninţarea roboţilor reprezintă cel mai probabil scenariu apocaliptic, dar nu este singurul. Potrivit raportului, există o probabilitate de 5% ca în următorii 100 de ani omenirea să dispară ca urmare a unei pandemii globale sau a unui război nuclear. Mai mult, în următorii 200 de ani există o probabilitate de 5% ca omenirea să dispară ca urmare a schimbărilor climatice.

Trebuie remarcat faptul că autorii raportului au exclus din analiza lor riscurile externe asupra cărora nu avem niciun control, cum ar fi exploziile de raze gamma din apropierea planetei noastre (deși acestea prezintă o probabilitate mică de apariţie).

Apropo, dacă vă gândiţi la impactul unor asteroizi, trebuie să ştiţi că un asteroid având un diametru de peste 5 km ar putea pune capăt civilizaţiei umane, dar probabilitatea ca acesta să lovească Pământul este de doar 0,0001%. În consecinţă, este mult mai probabil ca un virus să provoace dispariţia civilizaţiei umane în comparaţie cu un asteroid.

În cele din urmă, așa cum astronomul Phil Plait a scris în cartea sa „Death from the Skies”, nu ar trebui să ne concentrăm pe seama unor aspecte asupra cărora nu avem nicio posibilitate de acţiune:

„Se pare că Universul încearcă să ne distrugă. Într-un anume sens, aşa este. Universul este un loc periculos. Trebuie să apreciem vastitatea spațiului și a timpului și să ne dezvoltăm capacitatea de a controla evenimentele din jurul nostru”.

Există, de asemenea, scenarii apocaliptice a căror probabilitate de a avea loc nici măcar nu poate fi estimată, cum ar fi o invazie extraterestră.

Sursă: Sciencealert