EXCLUSIV | Ce este real și ce e SF în teama de inteligență artificială. Cercetător român în SUA: ”Nu va putea să înlocuiască empatia, simțul umorului”

Publicat: 13/06/2023, 12:00

ChatGPT a devenit, din sperietoare, un simplu prilej de divertisment. Niciun algoritm nu va putea să înlocuiască empatia, emoția și simțul umorului pe care le manifestă o ființă umană, spune profesorul universitar doctor Marius Stan, în interviul acordat în exclusivitatea pentru Gândul.

Expertul româno-american în domeniul programelor de calculator, fost director național la Ministerul Energiei din Statele Unite în timpul administrației președintelui Barack Obama, a dorit să înlăture legendele negre create pe marginea apariției în societățile occidentale a programelor de inteligență artificială.

Marius Stan spune că ceea ce face pentru unii înspăimântătoare această tehnologie este faptul că seamănă foarte mult cu felul în care oamenii gândesc, comunică și vorbesc. De aici, mulți oameni cred în mod fals că inteligența artificială va încerca, într-un viitor nu prea îndepărtat, să guverneze omenirea, să ne controleze și să reducă la stare de sclavie ființa umană.

Expertul susține că aceste concepții și temeri, demne de niște scenarii pesimiste de science fiction, nu au nicio bază reală. De ceea ce trebuie să ne temem, spune profesorul Marius Stan, ar fi o eventuală lipsă de onestitate a celor care creează aceste programe de inteligență artificială. În opinia sa, un IT-ist cu  o educație proastă va conduce la un program de inteligență artificială care va lua decizii proaste. Prin ele însele, programele de inteligență artificială nu sunt mai bune sau mai rele decât programele obișnuite de calculator cu care ne-am obișnuit până astăzi.

Profesorul Marius Stan a ținut să reamintească celor care se tem de inteligența artificială că asemenea programe bazate pe algoritmi nu sunt capabile să dezvolte atât o conștiință – adică să știe să aprecieze ce este bun și rău, adevăr sau fals -, cât și o conștiență de sine – respectiv conștiința faptului că are o identitate proprie și că  există în univers.

Profesorul universitar doctor Marius Stan

Bogdan Rădulescu: Odată cu proliferarea în societate a diverselor software de inteligență artificială, au apărut și teoriile conspirației. Unii oameni, mai temători, proiectează un viitor distopic, apocaliptic, în care mașinăriile inteligente vor înlocui oamenii și îi vor controla total. Deocamdată, aceste software de inteligență artificială apărute în ultimii ani ne par niște simple instrumente utile. De ce ar trebui să ne temem?   

Marius Stan: Apariția inteligenței artificiale nu aș atribui-o doar ultimilor ani. De fapt, acest concept a apărut prin anii ‘50 ai secolului trecut. Eu, cel puțin, îl atribui unei lucrări a lui Alan Turing. El a scris un articol științific în care a pus întrebarea: ”Pot mașinăriile să gândească, pot calculatoarele să gândească?”.

Dar fenomenul despre care vorbiți are de-a face mai mult cu o evoluție spectaculoasă a acestei tehnologii, o tehnologie care în ultimii ani a produs rezultate cu adevărat îngrijorătoare. Să ne reamintim: un calculator – faimosul DeepBlue – l-a învins la șah în 1997 pe campionul mondial Garry Kasparov. Apoi, în 2016, AlphaGo, un sistem conceput de compania de cercetare DeepMind, deținută de Google, l-a învins pe campionul mondial la Go, Lee Sedol, cu patru meciuri la unu. Toate aceste evenimente au dus la apariția acestor temeri legate de inteligența artificială.

Eu consider însă anul 2011 un an magic. Este anul în care au apărut așa-numiții ”asistenți personali”: Siri, Cortana, iar în anii următori, Google Alexa, dar și alții.

Cred că ceea ce face pentru unii înspăimântătoare această tehnologie este faptul că seamănă foarte mult cu felul în care oamenii gândesc, comunică, vorbesc. Deci, a apărut o ”nouă specie” în lumea în care trăim, care este îngrijorător de asemănătoare cu omul. Și, de aici, temerile: nu cumva aceste coduri inteligente, aceste software inteligente, vor conspira, își vor uni forțele încât să preia dintre profesiile pe care le au oamenii acum, să schimbe modul în care societatea noastră funcționează sau poate chiar, așa cum se tem unii, să încerce să guverneze omenirea, să ne controleze și să ne supună pe noi oamenii?

Este foarte clar: inteligența artificială este o creație a omului, un produs al inventivității umane. Algoritmii sunt o creație a omului și sunt programați în sensul dorit de creatorul lor. Dar au apărut algoritmi care învață singuri, din mers, care iau decizii, după un lung program de acumulare și de procesare a mii de modele de răspuns și de decizie. Sunt algoritmi care ajung să aibă autonomie de decizie. În viitor, vor fi lăsați probabil să ia decizii majore, în afara unei intervenții din afară, cu privire la viața oamenilor. Cum vedeți această situație?

Este o deosebire majoră între această tehnologie care stă în spatele acelor componente ale inteligenței artificiale, și anume învățarea automată (”machine learning”) și un subset al algoritmilor care se numește ”deep learning” (învățarea profundă).

Algoritmii bazați pe învățare automată și cei din învățarea profundă – care utilizează rețele neuronale oarecum similare celor din creierul uman – învață din exemple. Li se dau sute sau mii de exemple de decizii pozitive într-un anume context, dar și unele exemple de decizii negative care nu au fost bune și, într-un mod aproape miraculos, algoritmii învață cum să ia astfel de decizii ei înșiși. Deci, cumva, se îndepărtează de situația în care omul, care a creat algoritmul sau care îl folosește, pune în input (adică pune în fișierul de intrare) toate datele care sunt necesare pentru ca programul să ia o hotărâre bună.

În cazul algoritmilor creați pentru deep learning, programul învață de unul singur, așa cum învață copiii în familie, la grădiniță sau la școală, liceu sau facultate. Este nu doar diferit, dar și neașteptat felul în care operează acești algoritmi, un fel care stârnește îngrijorare și nedumerire în rândul utilizatorilor unor astfel de programe, dar, mărturisesc, și în rândul nostru, al celor care creăm, antrenăm și educăm astfel de algoritmi.

Știm: mașinăriile de inteligență artificială pot acumula mega-date pe care mintea unui om nu le poate acumula. Grație programelor de deep learning, algoritmii pot învăța ei înșiși să ia decizii. Dar, oare, pot lua algoritmii decizii bazate pe judecăți morale corecte? Sau și algoritmii – ca și mulți dintre semenii noștri – pot discrimina ființele umane pe baza unor prejudecăți conținute în programul algoritmic?

Acum lucrez la o carte care se va numi ”Inteligență umană și inteligență artificială” în care, printre altele, fac o comparație între felul în care antrenăm, pregătim, instruim acești algoritmi și felul în care este educat un copil. Un copil începe să fie educat prin exemple pozitive și prin exemple negative. Consecințele sunt similare. O educație bună dată unui copil, unui elev sau unui student va avea ca rezultat hotărâri bune pe care aceștia le vor lua în viață sau în profesie.

Poate o să vă surprindă sau nu, la fel este și cu algoritmii. Dacă folosim o clasă de exemple pentru antrenarea unui algoritm care are o anume ”bias” (”prejudecată”), deci care include prejudecăți ale omului care antrenează algoritmul, rezultatul mașinăriei de inteligență artificială va fi un set de decizii care vor reflecta acel set de prejudecăți. Așadar, o educație proastă va conduce la un program de inteligență artificială care va lua decizii proaste. La fel ca și în cazul oamenilor. Și asta, da, ar trebui să ne îngrijoreze.

Până acum, programele de inteligență artificială nu au putut dezvolta o conștiință de sine. S-ar putea totuși întâmpla să avem în viitor mașinării pe bază de algoritmi care să aibă și conștiință? 

Inteligența artificială, deocamdată, nu a reușit să formeze nicio conștiență de sine. Prin urmare, aceste mașinării nu-și dau seama că ele sunt programate de om, că noi suntem oameni și că ele sunt doar programe de calculator care ar putea, spre exemplu, să formeze o comunitate, o societate a lor. Nu au conștiința identității lor în acest univers.

Mai mult decât atât, referitor la valorile morale, etice, de care pomeneați, nu au dezvoltat și nu cred că vor dezvolta prea curând conștiință, un sistem de valori morale, o ierarhie a acestor valori, ce este bine și ce este rău, ce ar fi mai bine și ce ar fi mai rău în diverse situații. Adică nu sunt capabile de evaluări morale, așa cum suntem noi oamenii capabili.

O astfel de ”evaluare” din partea acestor algoritmi nu poate fi impusă decât parțial, prin modul lor de antrenare. Dar, ca să se ajungă la o asemenea performanță ar trebui ca un program de inteligență artificială să continue să fie antrenat pe parcursul multor ani și nu pentru câteva săptămâni sau câteva luni, așa cum se întâmplă acum.

Ar trebui să treacă decenii pentru ca un astfel de program algoritmic să dezvolte atât o conștiință, adică să știe să aprecieze ce este bun și rău, adevăr sau fals, cât și o conștiență de sine, respectiv conștiința faptului că are o identitate proprie și că există în univers. Cred că suntem încă departe de acea situație, care ar putea fi cu adevărat îngrijorătoare.

De ce îngrijorătoare? Pentru că nu ar face altceva decât să alimenteze și mai mult teoriile conspirației care circulă acum fără o bază reală și care încep să elaboreze tot felul de ipoteze de genul: ce s-ar întâmpla dacă programele de inteligență artificială încep să comunice între ele și ar conspira să preia conducerea unei companii sau a unui oraș, sau să ne blocheze nouă, oamenilor, toate comunicațiile, pe internet și pe telefoanele mobile, și să manevreze întregul spectrul de activități umane? Ce s-ar întâmpla atunci?

Pare mai degrabă un scenariu de science fiction… !

Adevărat. Cred că o asemenea poveste conspiraționistă este deocamdată doar un scenariu de science fiction, cu puține șanse de a deveni realitate, acum sau în anii care urmează. Asta nu înseamnă că o asemenea poveste nu s-ar putea întâmpla în viitor.

Dar și aici intervine optimismul meu. Pe de o parte, mă gândesc că tehnologia va avansa și este posibil ca acești algoritmi să poată comunica între ei și chiar să dezvolte elemente ale unei comunități, și să înceapă să aibă inițiative care nouă nu ne plac prea mult.

Dar, în același timp, nici noi, oamenii, nu vom sta pe loc. În toți acești ani, omenirea va progresa și vor apărea atât o legislație, cât și alte coduri de folosire a acestor programe algoritmice, de comunicare cu ele. Deci, nu trebuie să ne gândim că pericolele din viitor ar putea deveni atât de dramatice încât nu le vom putea stăpâni cu metodele pe care le avem azi. Metodele noastre de control asupra acestor tehnologii vor evolua și ele, vor fi mai subtile, mai sofisticate.

În opinia dumneavoastră, de unde provine fascinația aceasta față de un program de inteligență artificială ca ChatGPT?

Dacă este ceva care mie mi se pare un pic excesiv în ceea ce se întâmplă cu inteligența artificială este dorința celor care creează aceste programe, dar și a celor care le instruiesc și care le antrenează de a obține rezultate care să facă o impresie deosebită asupra societății.

Și o să iau ca exemplu ChatGPT, care este foarte popular în zilele noastre, toată lumea îl folosește. În locurile unde am fost și am ținut conferințe, multe întrebări erau despre ChatGPT și despre cum acest software de inteligență artificială poate să ducă o bună conversație cu o ființă umană, despre cum probabil ar putea să treacă și testul lui Turing. Am vorbit la Universitatea București și discutam chiar acum despre acest subiect.

Mi se pare că fascinația față de ChatGPT provine din faptul că acest program este un interlocutor, că folosind elemente din prelucrarea limbajului natural, o componentă și ea a inteligenței artificiale. Chat GPT comunică foarte bine cunoștințe pe care nu le-a creat, dar pe care le găsește și le adună din sute, poate mii din alte programe cu care comunică.

De fapt, ChatGPT este un set de programe care comunică între ele înainte de a formula un răspuns. Aș zice că marea calitate a acestui software este să formuleze foarte bine răspunsuri să-l facă nu numai credibil, dar și să creeze o impresie bună, puternică, asupra comunităților de utilizatori ai săi.

Dar, acest software – și să mă ierte cei de la Microsoft și de la OpenAI care au creat ChatGPT – a devenit cumva un show, un fel de spectacol. Folosirea acestui software a devenit o formă de entertainment, o distracție pentru cei mulți, un joc, dacă vreți să îi spunem așa. Este ca o emisiune de televiziune pe care o urmăresc cu plăcere. A-l folosi oferă o mare satisfacție utilizatorilor.

Este o schimbare față de atitudinea – aș zice utilitaristă – de până acum. Înainte, programul și calculatorul îmi făceau un serviciu, apoi, după ce îmi realizam o sarcină anume, îl închideam și plecam. Acum, este o plăcere, o formă de recreere și de distracție.

Există o temere populară că, în viitorul nu prea îndepărtat, toate aceste programe de inteligență artificială vor ajunge să înlocuiască omul. Totuși, ce ne face pe noi, oamenii, să fim totuși cu mult deasupra acestor mașinării, oricât de inteligente și capabile ar fi ele?  

Aș pune pe primul loc, deși poate părea nejustificat, capacitatea oamenilor de a simți și de a comunica emoții. Am văzut programe de inteligență artificială care au fost puse să scrie poezii. Unele din aceste poezii aveau chiar titluri precum tristețe sau iubire. Ele nu m-au impresionat deloc și nu le-am crezut nici un pic că ar fi ”simțite”.

Consider că sensibilitatea umană, predispoziția oamenilor la interacțiuni interumane profunde, emoționale, constituie ceva ce tehnologia nu va putea să preia și să imite.

Mai sunt și alte trăsături umane pe care tehnologia este incapabilă să le imite, să le reproducă. Simțul umorului, de exemplu. Dar aș pune pe primul loc emoțiile umane.

Arta, literatura și filmul, pictura, cred că pentru foarte multă vreme vor depinde în continuare foarte mult de contribuția omului și de creativitatea sa. Există ceva inefabil în ființa umană care poate fi ajutat de tehnologie, dar rămâne o zonă în care tehnologia nu va putea să înlocuiască omul.


Dr. Marius Stan este recunoscut pe plan internațional ca unul dintre întemeietorii modelării și simulării pe calculator a fenomenelor care apar la multiple scale temporale și spațiale. Din 2010 până în 2021, a fost cercetător principal la Institutul Argonne National Laboratory din Chicago, unde a condus un grup de cercetare care utilizează elemente de inteligență artificială și simulări pe calculatoare de mare performanță. În paralel, a fost profesor asociat la Universitatea Chicago și la Universitatea Northwestern, aflată în apropiere de Chicago.

În  perioada 2013-2015, dr. Marius Stan a fost consilier principal pe probleme de informatică și director național la Ministerul Energiei al SUA, în Washington DC, în timpul administrației ăreședintelui Barak Obama.

Dr. Marius Stan a publicat cărți de specialitate și peste 80 de articole științifice În 2018, Universitatea Politehnica din București i-a acordat titlul de Doctor Honoris Causa. Tot în 2018, a fost premiat în cadrul galei „100 pentru Centenar”, organizată la Ambasada României la Washington.

Marius Stan a absolvit, în 1986, Facultatea de Fizică a Universității București. În 1997, a obținut doctoratul în Chimie și în același an a început un stagiu postdoctoral la institutul de cercetare Los Alamos National Laboratory, din SUA.  În scurt timp, a fost angajat permanent și a creat un grup dedicat studierii proprietăților termodinamice ale materialelor. În 2017, a susținut o serie de conferințe pe tema „Știință, Artă și Societate”, la Academia Română, Universitatea București și Academia de Științe Economice București. A publicat proză scurtă și poezii în reviste literare din Romania.


CITEȘTE ȘI:

EXCLUSIV | Sunt pregătiți oamenii pentru inteligența artificială? ”Se discută de un venit minim garantat, altfel, din ce ar trăi cohorte de șomeri”

EXCLUSIV VIDEO | Profesorul Mircea Dumitru: Să nu ne speriem, ChatGPT nu va ajunge să imite această dimensiune unică a inteligenței umane naturale

EXCLUSIV| ChatGPT și inteligența artificială, speranță sau teamă pentru viitorul omenirii? ”Cei care au creat AI sunt înfricoșați de propria creatură”

Bogdan Rădulescu
Bogdan-George Rădulescu, jurnalist, analist politic. Jurnalist între 1995-2015 (Radio România Internațional, Radio România Actualități). A fost mai mult
Urmărește Gândul.ro pe Google News și Google Showcase
Trupul unei tinere a fost turnat în beton în urmă cu peste 50 de ani....
BREAKING | Florin Piersic a fost operat de urgență, după ce i s-a făcut rău...
FOTO. Cât de bine arată cea mai frumoasă hocheistă din lume!
Simona Halep revine în Spania! Sportiva din România va evolua la Madrid Open
SUA au cumpărat 81 de avioane sovietice de la un aliat al lui Putin cu...
Polițista care a luat mită de la Lidia Buble, condamnată definitiv! Ce pedeapsă a primit...
Florin Piersic, OPERAT de urgență! Diagnosticul pus de medici, după ce i s-a făcut rău
Florin Piersic, operat de urgenţă. Marele actor s-a simţit rău în timpul unui spectacol la...
Tragedie în România! A MURIT
Polițista mituită de Lidia Buble, condamnată definitiv! Ce pedeapsă a primit femeia din partea judecătorilor
Wow sau Bau? Cât de mult le-au schimbat operaţiile estetice pe vedetele din România
Filtru de particule înfundat se REPARĂ sau se ARUNCĂ? Ce durată de viață are DPF?
Gorghiu: Ministerul Justiţiei depune eforturi ca prinţul Paul să-şi execute pedeapsa în România
Cea mai BOGATĂ actriță de la Hollywood! „Puțină lume știe despre mine că...
Se CONFISCĂ mașina. Acest lucru va deveni TOTAL INTERZIS în România: Să scriem negru pe...
Supă de cartofi cu pâine prăjită și usturoi. Rețeta măicuțelor de la Mănăstirea Prislop
Artist internațional, filmat într-o ipostază neașteptată, la Costinești. Este urmarit de zeci de milioane de...
Vlăduța Lupău, imagini ireale! Cum arăta cântăreața. Adevărul despre operațiile ei
Robi, hotărât să lupte pentru Roberta! Concurentul nu este impresionat de chimia dintre Roberta și...
Florin Piersic, dus de urgență la spital! Marelui actor i s-a făcut rău în timpul...
BANCUL ZILEI. Doctorul către Bulă: - Am o singură nelămurire… Dacă te-ai duce seara acasă,...
O pisică a trecut prin aventura vieții după ce a fost trimisă din greșeală într-un...