Tehnologie

ChatGPT nu poate gândi, deoarece conștiința este ceva complet diferit de inteligența artificială de astăzi

Progresul rapid al ChatGPT și al altor forme de inteligența artificială (IA) create cu așa-numitele modele mari de limbaj (LLM- large language model) a produs un șoc în întreaga lume. Aceste sisteme pot produce text care pare să arate gândire, înțelegere și chiar creativitate.

Pot însă aceste sisteme să gândească și să înțeleagă cu adevărat? Aceasta nu este o întrebare la care se poate răspunde prin progresul tehnologic. În schimb, o analiză filozofică atentă și argumentată ne spune că răspunsul este nu.

Fără a rezolva aceste probleme filozofice, nu vom înțelege niciodată pe deplin pericolele și beneficiile revoluției IA.

În 1950, părintele computerului modern, Alan Turing, a publicat o lucrare care a prezentat o modalitate de a determina dacă un computer gândește. Acesta se numește acum „testul Turing”.

Turing și-a imaginat o ființă umană angajată într-o conversație cu doi interlocutori ascunși privirii: unul o ființă umană, iar celălalt un computer. Jocul este de a afla cu care dintre acestia are loc conversația.

Dacă un computer poate păcăli 70% dintre jucători într-o conversație de cinci minute, făcându-i să creadă că este o persoană reală, atunci computerul trece testul.

Trecerea testului Turing, care acum pare iminentă, poate arăta că o inteligență artificială a dobândit gândire și înțelegere?

O provocare din șah

Turing a respins această întrebare ca fiind extrem de vagă și a înlocuit-o cu o definiție pragmatică a „gândirii”, prin care a gândi înseamnă doar a trece testul.

Turing a greșit, totuși, atunci când a spus că singura noțiune clară de „înțelegere” implică promovarea testului. Deși acest mod de a gândi domină acum știința cognitivă, există și o noțiune clară, de zi cu zi, de „înțelegere”, care este legată de conștiință. A înțelege, în acest sens, înseamnă o înțelegere conștientă a unui adevăr despre realitate.

În 1997, inteligența artificială Deep Blue l-a învins pe marele maestru de șah Garry Kasparov. Deep Blue avea cunoștințe de strategie de șah care depășeau pe cele ale oricărei ființe umane, dar nu era conștient: nu avea sentimente sau experiențe.

Oamenii înțeleg, în mod conștient, regulile șahului și rațiunea unei strategii. Deep Blue, în schimb, era doar un mecanism care fusese antrenat să performeze foarte bine la acest joc. În mod similar, ChatGPT a fost antrenat pe cantități uriașe de date, create de om, pentru a genera un conținut care pare să fi fost scris de o persoană.

ChatGPT nu înțelege, în mod conștient, sensul cuvintelor pe care le folosește. Dacă „gândul” înseamnă actul de reflecție conștientă, atunci ChatGPT nu are gânduri despre nimic.

ChatGPT nu gandeste

ChatGPT nu gândește. Credit: Illus_man / Shutterstock

O predicție eronată

De ce sunt atât de sigur că ChatGPT nu este conștient?

În anii 1990, specialistul în neuroștiință Christof Koch a pariat cu filozoful David Chalmers că oamenii de știință vor identifica în întregime „rețelele neuronale ale conștiinței” în 25 de ani.

Prin aceasta el a vrut să spună că vor fi identificate formele de activitate cerebrală necesare și suficiente pentru experiența conștientă. Acum este timpul ca Koch să-și recunoască greșeală, deoarece nu există un consens că predicția sa s-a întâmplat.

Acest lucru se datorează faptului că conștiința nu poate fi observată privind în interiorul creierului. În încercările lor de a găsi o legătură între activitatea creierului și experiență, neurologii trebuie să se bazeze pe mărturia subiecților lor sau pe markerii externi ai conștiinței. Există însă mai multe moduri de interpretare a datelor.

Oamenii inteleg constient regulile sahului si strategia de baza

Spre deosebire de computere, oamenii înțeleg, în mod conștient, regulile șahului și strategia de bază. Credit: LightField Studios / Shutterstock

Unii oameni de știință cred că există o legătură strânsă între conștiință și gândirea reflexivă, adică capacitatea creierului de a accesa și de a utiliza informații pentru a lua decizii.

Acest lucru îi face să creadă că cortexul prefrontal al creierului, locul proceselor de nivel înalt privind dobândirea cunoștințelor, este implicat, în mod esențial, în toată experiența conștientă. Alții neagă acest lucru, argumentând în schimb că aceasta se produce în orice regiune locală a creierului unde are loc o procesare senzorială relevantă.

Oamenii de știință cunosc chimia de bază a creierului. De asemenea, s-au inregistrat progrese privind înțelegerea funcțiilor de nivel înalt ale diferitelor părți ale creierului. Cu toate acestea, încă nu avem nicio idee în privința punctului intermediar: cum se produc la nivel celular procesele cognitive de nivel inalt ale creierului.

Există un entuziasm privind potențialul scanărilor de a dezvălui funcționarea creierului. Trebuie însă să ținem cont că fMRI (imagistica prin rezonanță magnetică funcțională) are o rezoluție foarte scăzută: fiecare pixel dintr-o scanare a creierului corespunde la 5,5 milioane de neuroni, ceea ce înseamnă că există o limită a cât de multe detalii sunt capabile să ne arate aceste scanări.

Cred că progresul asupra conștiinței va veni atunci când vom înțelege mai bine cum funcționează creierul.

O pauză în dezvoltare

Așa cum argumentez în viitoarea mea carte „De ce? Scopul Universului”, conștiința trebuie să fi apărut în urma unei diferențe de comportament. Sistemele cu conștiință trebuie să se comporte diferit și, prin urmare, să supraviețuiască mai bine decât sistemele fără conștiință.

Dacă comportamentul ar fi fost determinat doar de chimia și fizica subiacente, atunci selecția naturală nu ar fi putut implica organisme conștiente. Am fi evoluat doar ca niște mecanisme de supraviețuire.

Pariul meu este că, pe măsură ce aflăm mai multe despre funcționarea detaliată a creierului, vom identifica cu precizie care zone ale creierului implică conștiința. Acest lucru se datorează faptului că acele regiuni vor prezenta un comportament care nu poate fi explicat prin chimia și fizica cunoscute în prezent. Deja, unii oameni de știință în neurobiologie caută potențiale noi explicații pentru conștiință, care să completeze ecuațiile de bază ale fizicii.

În timp ce procesarea LLM-urilor este acum mult prea complexă pentru ca noi să o înțelegem pe deplin, știm că, în principiu, ar putea fi prezisă din fizica cunoscută. Pe această bază, putem afirma cu încredere că ChatGPT nu este conștient.

Există multe pericole prezentate de inteligența artificială și susțin pe deplin apelul recent al zecilor de mii de oameni, inclusiv lideri din domeniul tehnologiei precum Steve Wozniak și Elon Musk, de a întrerupe dezvoltarea acesteia pentru a aborda problemele legate de siguranță. Potențialul de fraudă, de exemplu, este imens.

Cu toate acestea, argumentul că descendenții pe termen scurt ai sistemelor actuale de inteligență artificială vor fi super inteligenți și, prin urmare, o amenințare majoră la adresa umanității, este prematur.

Acest lucru nu înseamnă că sistemele IA actuale nu sunt periculoase. Nu putem însă evalua corect o amenințare decât dacă o clasificăm cu exactitate.

Sistemele LLM nu sunt inteligente, ele au fost doar antrenate pentru a avea aspectul exterior al inteligenței umane. Este infricoșător, dar totuși nu atât de înfricoșător.

Traducere după ChatGPT can’t think – consciousness is something entirely different to today’s AI

One thought on “ChatGPT nu poate gândi, deoarece conștiința este ceva complet diferit de inteligența artificială de astăzi

  • Si ce, IA poate gandi?Nicioadata,ea nu poate face decat ce este programata sa faca.O persoana oricat de inteligenta ar fi nu poate crea ceva mai inteligent decat el.Termenul Inteligenta Artificiala e gresit,dat ptr. a gadila urechile celor care l-au dat.

    Răspunde

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *